실시간 뉴스



네이버, UN에서 AI 안전 정책 사례 공유


AI 윤리 자문 프로세스 등 소개…"AI 기술 내재화하면서 구체적·실천적 정책 수립"

[아이뉴스24 정유림 기자] 네이버는 스위스의 UN 제네바 사무소에서 열린 행사에 참석해 안전한 인공지능(AI) 생태계 구축을 위한 노력을 소개했다고 6일 밝혔다.

박우철 네이버 정책·위기관리(RM) 아젠다 변호사(오른쪽에서 두 번째)가 5일(현지시간) 스위스의 UN 제네바 사무소에서 열린 '신기술에 대한 인권 기반의 접근: 콘셉트에서 구체적 적용으로' 행사에서 네이버의 AI 안전 정책 사례를 발표하고 있다. [사진=네이버]

'신기술에 대한 인권 기반의 접근: 콘셉트에서 구체적 적용으로'라는 이름으로 열린 이 행사는 서울대 인공지능 정책 이니셔티브(SAPI)와 URG(Universal Rights Group)가 주제네바 대한민국 대표부와 공동으로 주최했다.

이 자리에서 네이버는 안전한 AI를 위한 추상적 원칙을 산업 실무에 적용해 온 사례들을 발표했다. 발표를 맡은 박우철 네이버 정책·위기관리(RM) 아젠다 변호사는 2022년부터 운영 중인 네이버 AI 윤리 자문 프로세스(CHEC·Consultation on Human-centered AI's Ethical Considerations)를 소개했다.

네이버에 따르면 CHEC는 네이버 AI 윤리 준칙을 실제 서비스 출시 과정에 적용하기 위해 설계한 정책이다. 일방적 점검이 아닌, 기획·개발 단계에서부터 사회적 관점을 함께 고려한 것이 특징이다.

박우철 변호사는 "현장의 상황을 알지 못하면 AI 윤리 원칙은 진부한 이야기가 될 수 있다"며 "네이버는 AI 윤리 원칙을 현장에서 활용할 수 있도록 만들기 위해 서울대 인공지능 정책 이니셔티브(SAPI)와 같은 학계 전문가와 협업하는 등 많은 노력을 기울였고 CHEC를 통해 서비스 담당자의 눈높이에 맞춰 현실적인 협업을 진행하기 위해 현장의 서비스 기획·개발 과정을 이해하고자 노력했다"고 설명했다.

네이버 AI 윤리 준칙을 구체화하기 위한 다른 정책들에 대한 소개도 이어졌다. 2023년에 공개한 '사람을 위한 클로바X 활용 가이드'는 빠르게 발전하는 생성형 AI 기술에 네이버 AI 윤리 준칙이 어떻게 적용될 수 있을지 고민한 결과다. 나아가 올해는 AI 시스템을 개발하고 배포하는 과정에서 AI의 잠재적 위험을 더욱 체계적으로 인식·평가·관리하기 위해 네이버 AI 안전 프레임워크(ASF)도 새롭게 구축했다.

네이버는 다양한 글로벌 커뮤니티와 협업하며 AI 안전성 분야 리더십을 갖춰나가고 있다고 강조했다. 올해 UN의 AI 안전성 보고서 작성에 기술 자문을 제공했으며 다수 빅테크(대형 IT 기업)가 참여하는 개방형 컨소시엄 'ML커먼즈(MLCommons)'에서 AI 안전 벤치마크 구축 작업에 기여했다. 지난 7월에는 AI 워터마크 기술 표준을 구축한 C2PA(콘텐츠 출처·진위 확인을 위한 연합)에 국내 최초로 가입하기도 했다.

하정우 네이버 퓨처 AI 센터장은 "네이버는 AI 기술의 빠른 변화 속에서 주요 AI 기술을 내재화하면서 서비스 기획·개발 현장과의 긴밀한 소통을 바탕으로 구체적이고 현실적인 안전 정책을 수립함으로써 AI 안전성 분야에서도 글로벌 리더 그룹으로 인정받고 있다"며 "앞으로도 우수한 AI 기술력을 확보하는 한편, 안전하고 지속 가능한 글로벌 AI 생태계를 만드는데도 앞장설 것"이라고 밝혔다.

/정유림 기자(2yclever@inews24.com)




주요뉴스



alert

댓글 쓰기 제목 네이버, UN에서 AI 안전 정책 사례 공유

댓글-

첫 번째 댓글을 작성해 보세요.

로딩중

뉴스톡톡 인기 댓글을 확인해보세요.



포토뉴스