3. 네이버 AI 윤리와 실천
2024.06.04
AI에 대한 관심이 높아지는 지금. AI Safety에 대한 중요성과 관심도 높아지고 있습니다.
팀네이버가 AI Safety를 위해 어떤 노력을 하고 있는지, 차근차근 살펴볼까요?
팀네이버의 AI Safety를 향한 노력
AI 기술은 우리에게 다양한 기회를 제공하고 있습니다. 하지만 AI 기술을 윤리적으로 안전하게 활용하는 것 또한 우리의 중요한 과제 중 하나입니다. 네이버의 AI 기술은 사용자에게 새로운 경험을 선보이는 도전을 멈추지 않음으로써 다양한 기회와 가능성을 열어 왔습니다. 하지만 세상의 다른 모든 것처럼 완벽할 수 없다는 점을 인식하고, 안전한 AI 활용을 위한 기술적, 정책적 노력을 게을리하지 않고 있습니다.
네이버는 선도적으로 ‘네이버 AI 윤리 준칙’을 소개한 바 있습니다. 이는 AI 개발과 이용에 있어 가장 중요한 ‘사람을 위한 AI’, 즉 인간 중심의 가치를 부여하며, 네이버 AI 윤리 자문 프로세스를 제정해 네이버의 모든 구성원들이 AI 윤리에 대해 구체적 논의를 이뤄갈 수 있도록 하고 있습니다.
세계적으로 AI 기술의 잠재력을 최대화하고 잠재적 위협을 최소화하는 균형 잡힌 시각이 필요한 지금, AI Safety를 바라보는 시각과 팀네이버의 AI Safety를 향한 노력에 대해 좀 더 자세히 알아볼 필요가 있습니다.
AI Safety의 위협 요인과 윤리적 사용 강화
여러분은 AI Safety라고 하면 어떤 것이 떠오르시나요?
매트릭스나 아이언맨의 자비스로 대변되는 영화 속 스토리를 떠올릴 수 있습니다. 더 오래전, 인간보다 우월한 지능을 가진 존재에 대한 우려 섞인 스토리도 있었습니다. 그리고 최근 초거대 생성 AI 기술과 함께 좀 더 현실적이고 구체적인 위협 요인들에 대한 논의가 시작되었습니다.
작년 11월, 28개국 정부 책임자, 주요 AI 기업 CEO, 학계, 연구소, AI 관련 NGO수장들이 한 자리에 모여 AI 안전에 대해 논의하는 AI SAFETY SUMMIT 2023이 진행되었습니다. 정상회의와 함께 AI 시대에 AI Safety를 위협하는 유형 및 윤리적 사용을 강화하는 방안에 대한 논의가 진행되었습니다.
AI Safety를 위협하는 유형
1. 기술적 한계
그 첫 번째 유형은, 잘못된 정보를 학습하고 답변하는 할루시네이션이나 사회 민감 이슈 혹은 편향된 이슈 또는 혐오적인 콘텐츠를 가감 없이 학습하고 이를 확산시키는 일, 또는 저작권을 명시하지 않고 사용하는 사례 등입니다. 이는 기술적 한계의 유형으로 정확한 콘텐츠와 학습 콘텐츠의 세밀한 기준을 수립함으로써 해결할 수 있습니다.
2. 악의적 의도로 활용
두 번째 유형은, 사람에 의해 악의적 의도로 활용되나 이를 미리 규제하지 못하는 경우 발생합니다. 가짜 뉴스를 확산시키거나, 보이스 피싱으로 피해를 입히는 등의 사례를 말합니다. 이는 선제적 규제와 정책 입안으로 피해를 줄여나갈 수 있습니다.
3. 통제 불가한 문제
마지막 유형은, 오픈 소스를 통해 제공되는 프론티어 AI 기술의 무분별한 활용에 대해 모니터링이 불가하기에 사전 제재가 어렵다는 데에 기안합니다. 또한 일상생활 속 의사 결정을 AI에 위임해 가는 습관 또한 사람의 의사 결정의 통제력을 상실하는 과정으로 볼 수 있습니다.
팀네이버의 HyperCLOVA X 역시 세계 3번째 초거대 생성형 AI 모델로, 지난 5년간 300여 편이 넘는 글로벌 AI 선행 연구와 Top-tier 컨퍼런스에 논문 연구 성과를 이뤄낸 대표적인 프론티어 AI 모델입니다. 팀네이버 역시 AI SAFETY SUMMIT 2023에 참여해 글로벌 AI 기업으로 AI Safety의 중요성에 대해 한 목소리를 냈습니다. 실제로 팀네이버는 AI Safety를 위해 이런 노력을 하고 있습니다.
AI Safety를 향한 팀네이버의 노력
팀네이버는 지난 1월 "네이버 Future AI 센터”를 신설하였습니다. Future AI 센터는 AI 안전성 연구를 전담하며, 신뢰 가능한 AI 기술을 지속적으로 연구하고 네이버 AI 윤리 정책을 수립합니다. AI 안전성에 기반한 좋은 데이터 세트로 AI 모델의 기술적 역량을 향상시키는 역할과 함께 체계적인 검증과 대응 프로세스 운영에도 많은 노력을 기울이고 있습니다.
1. 레드팀(모의공격) 운영
팀네이버의 AI Safety는 단순 위험 단어 필터링부터, 민감 정보 정제, 말투, 뉘앙스 등의 세밀한 조정 뿐 아니라, 악의적인 이용자들의 공격에 AI 모델이 넘어가지 않도록 미리 레드팀(모의공격) 운영을 통해 방어 역량을 꾸준히 높이고 있습니다.
레드팀의 역할은 HyperCLOVA X가 다양한 공격 시나리오에 얼마나 잘 대처하는지를 확인하기 위해 의도적으로 테스트를 진행합니다. 이 과정에서 예상하지 못한 결과, 예를 들어 편향적인 발언이나 부정확한 정보를 생성하거나 사용자의 질문에 부적절하게 반응하는 등의 오류가 있는지 확인합니다.
팀네이버의 AI Safety 가이드는 혐오, 폭력, 고정관념, 잘못된 정보, 저작권 침해 등 14가지 기준의 정기 모델 평가를 통해 안전성을 향상시켜 나가고 있습니다.
AI Safety 기준 예시
* 레드팀: 기술 또는 서비스의 취약점을 발견하고 검증하기 위해 의도적으로 공격하는 역할을 부여받은 팀
2. 공정한 선거를 위한 노력
요즘 AI 안전성 관련 이슈로 가짜뉴스를 빼놓을 수 없습니다. 특히나 올해는 전 세계적으로 많은 선거가 있어 선거에 AI가 악용되지 않도록 하자는 자율적 규제에 한 목소리를 내고 있습니다. 팀네이버의 AI Safety 역시 선거 관련 잘못된 정보나 특정 인물에 대한 근거 없는 비방이 포함되지 않도록 노력하고 있습니다. 선거 관련 콘텐츠 업로드 시 생성형 AI로 생성됐다는 사실 표기 뿐 아니라 사용자 주의를 안내하고 있으며, 콘텐츠 출처 정보를 확인할 수 있는 글로벌 기술 표준(C2PA) 채택을 추진하고 있습니다. 더불어, 비가시성 워터마크/라벨을 부착하는 등의 생성형 AI 콘텐츠를 감지하는 기술 확보를 위한 연구 개발에도 박차를 가하고 있습니다.
3. AI 윤리 생태계 조성을 위한 다양한 시도
팀네이버는 AI 윤리 문제에 선제적으로 대응하고자 AI Safety 고도화 분야의 선행 연구를 지속적으로 수행하고 있습니다. 연구에서 제안하는 소스 코드와 데이터셋을 세상에 공개하여 AI를 사용하는 주체들이 실제로 활용할 수 있도록 하는 동시에,
AI에 과도하게 의존하여 의사 결정의 통제력을 상실하지 않도록 안전한 AI 기술 활용 방안에 대한 실질적 교육도 이어 나가는 등 보다 직접적인 윤리 생태계 조성에 기여하고 있습니다.
또한 클로바 케어콜을 통해 AI가 사회 공중보건 분야에서 실질적인 기여를 할 수 있다는 점도 확인하였습니다.
팀네이버의 고민을 바탕으로 국제사회와 호흡을 맞출 것
팀네이버의 AI Safety는 IT 분야에 국한되지 않은 근본적인 윤리에 대해 고민합니다. AI Safety에 대해서 다수의 연구자와 기획자들이 논의하지만, 실제 기준을 적용하고 발전시켜 나가는 데에는 각자 세세한 기준의 차이를 보이게 마련입니다.
때문에 서로 검증하고 또 다양한 목소리를 들으며 공감대를 형성해 나가야 합니다. AI Safety를 향한 네이버의 고민과 노력이 대한민국에 적합한 HyperCLOVA X를 구현하는 것 뿐 아니라, 글로벌 AI Safety를 정립해나가는 자극과 동기가 될 것입니다.