네이버가 과학기술정보통신부가 주최하고 한국정보통신기술협회(TTA)와 초거대AI추진협의회가 주관해 4월11일과 12일 양일간 개최되는 ‘생성형 AI 레드팀 챌린지(Gen AI Korea 2024)’에 대표 파트너사로 참여한다. 공동 대표 파트너사인 AI 학습 데이터 플랫폼 스타트업 ‘셀렉트스타’와 행사를 진행하며 AI 안전성 기술 교류 및 논의의 장을 만드는 데 적극적으로 기여할 계획이다.
21일 네이버에 따르면, ‘생성형 AI 레드팀 챌린지’는 최근 급격하게 성장하는 기술인 초거대 언어모델(LLM)의 안전성, 신뢰성, 보안을 강화하기 위한 방법을 모색하고자 진행되는 행사다. 먼저 11일에는 실제 서비스되는 LLM에 참가자들이 모의로 프롬프트 공격을 해 모델의 안전성을 검증하는 ‘생성형 AI 레드팀 챌린지’ 대회가 개최된다. 전공과 상관없이 AI 윤리, 안전에 관심이 있는 국민 누구나 사전 신청을 통해 참여가 가능하며, 우수 참가자들에게는 총 1700만원 규모의 상금 혜택이 제공된다.
2일차인 12일에는 안전한 AI 개발을 주제로 국내∙외 AI 기술 리더들의 발표와 의견 교류가 이뤄지는 컨퍼런스가 진행된다. 북미 AI 스타트업 ‘코히어(Cohere)’의 공동 창업자 에이단 고메즈, 해외 빅테크의 공동 출자로 만들어진 AI 윤리∙안전 포럼 ‘프런티어 모델 포럼’의 대표이사 크리스 메세롤, 비영리기구 ‘AI 안전센터’ 총괄 댄 헨드릭스, 글로벌 최고 수준의 이미지 생성 인공지능 개발사인 ‘스태빌리티 AI’의 CEO 에마드 모스타크 등 산업계와 학계에서 AI 안전성 연구를 이끌고 있는 인사들이 컨퍼런스 연사로 나선다.
네이버는 대표 파트너사로서 행사를 운영하며 LLM 안전성 검증 및 강화, 안전한 AI 개발을 위한 전문가 논의에 적극 참여한다. 생성형 AI 레드팀 챌린지 참가자들이 국내 최고 수준 LLM의 안전성을 직접 검증하고 실험할 수 있도록 자체 개발한 초대규모 AI ‘하이퍼클로바X’를 제공한다. 네이버는 이번 대회를 통해 축적된 검증 데이터를 기반으로 하이퍼클로바X의 안전성을 한층 강화할 계획이다.
또한 네이버의 AI 안전 연구와 정책 수립을 총괄하고 있는 하정우 네이버 퓨처 AI 센터장이 컨퍼런스 연사로 참여해 안전한 AI 개발을 위한 네이버의 노력을 소개할 예정이다. 네이버는 독일 튀빙겐대학교와 협업한 ‘초대규모 언어모델에서의 개인정보 유출 가능성 탐지 도구 제안’ 연구, 서울대학교와 협업한 ‘초대규모 언어모델 신뢰성 강화 기술’ 연구 등 AI 안전성 관련 주요 선행 연구들이 글로벌 AI 학회에서 채택되는 성과를 꾸준히 거두고 있으며, 지난해에는 영국 정부가 개최한 AI 안전 정상회의에도 한국을 대표하는 기업 두 곳 중 하나로 공식 초청받아 오픈AI, 딥마인드, 앤트로픽 등과 안전한 AI 구축을 위한 협력을 논의했다.
김유원 네이버클라우드 대표도 행사 주관 기관인 초거대AI추진협의회 회장사 대표로서 축사를 진행하며 국내 AI 안전성 논의에 힘을 보탤 예정이다.
초거대AI추진협의회는 국내 초대규모 AI 경쟁력 강화를 위한 다양한 활동을 이끌고자 초거대 AI 기술 기업, IT 서비스, AI 벤처 등 국내 대∙중소 105개 기업이 회원사로 참여해 지난해 6월 발족했으며, 네이버클라우드는 공동 회장사로 참여하고 있다.
하정우 네이버 퓨처 AI 센터장은 “기업과 정부가 협력해 생성형 AI의 안전성을 논의할 수 있는 기회를 마련하고 특히 글로벌 최고 수준의 AI 기술력뿐만 아니라 윤리와 안전 분야에서도 리더십을 확보해나가고 있는 기업으로서 네이버가 많은 기여를 할 수 있게 되어 의미있게 생각한다”며 “하이퍼클로바X의 안전성을 검증∙강화하는 것은 물론, 여러 선행 연구와 서비스 운영 경험을 통해 쌓아온 네이버의 AI 안전성 기술 역량과 노하우를 공유할 것”이라고 말했다.