LG AI연구원이 인간처럼 처음 보는 이미지까지 자연어로 설명하는 AI를 공개했다.
LG AI연구원은 18일(현지시간) 캐나다 밴쿠버에서 진행 중인 세계 최대 컴퓨터 비전 학회 'CVPR(컴퓨터 비전 및 패턴 인식) 2023'에서 이미지 검색 시장에 변화를 가져올 '캡셔닝 AI'를 처음 공개했다고 19일 밝혔다.
LG AI연구원이 처음으로 외부에 공개한 '생성형 AI' 상용화 서비스인 '캡셔닝 AI'는 '인간처럼 처음 보는 이미지까지 자연어로 설명할 수 있는 AI'로 이미지 검색에 활용할 수 있는 정보인 문장이나 키워드 등 메타 데이터를 생성한다.
LG AI연구원은 AI가 인간처럼 처음 보는 물체나 장면에 대해서도 이전의 경험과 지식을 활용해 이해하고 설명할 수 있도록 '제로샷 이미지 캡셔닝' 기술을 적용했다. AI가 기존에 학습한 대량의 이미지와 텍스트 데이터를 기반으로 배경, 인물, 행동 등 이미지 상의 다양한 요소와 특징을 인식하고 관계를 이해해 설명할 수 있게 하는 기술이다.
'캡셔닝 AI'는 대량의 이미지를 관리해야 하는 기업들의 업무 효율성과 생산성을 높일 수 있다. 평균적으로 5개 문장과 10개의 키워드를 10초 이내에 생성하며 이미지 범위를 1만 장으로 확장하면 2일 이내에 작업을 끝낼 수 있어 이른 시일 안에 맞춤형 이미지 검색·관리 시스템 구축이 가능하다.
'캡셔닝 AI'는 LG AI연구원과 셔터스톡의 긴밀한 협력이 있어 가능했다.
셔터스톡은 이미지와 영상 등 시각 콘텐츠가 매일 수십만개 이상 새롭게 추가되는 세계 최대 플랫폼 기업으로 콘텐츠를 분석하고 처리하는 경험이 풍부한 전문가들이 포진해 있다.
LG AI연구원은 이미지 분류와 검색에 활용하기 적합한 문장의 길이나 표현 방법 등 이미지 캡셔닝에 관한 방대한 노하우를 가지고 있는 셔터스톡과 데이터 학습부터 서비스 개발까지 함께해 완성도를 높였다.
LG AI연구원과 셔터스톡은 실용적이면서도 신뢰할 수 있는 AI 모델 개발을 위해 학습 데이터의 편향성·선정성 등 AI 윤리 검증을 진행하고 저작권 투명성도 확보했다.
세잘 아민 셔터스톡 CTO는 "현재 글로벌 고객사 10곳을 대상으로 얼리 액세스(앞서 해보기) 프로그램을 진행하며 캡셔닝 AI 기술을 발전시켜 나가고 있다"며 "캡셔닝 AI는 고객들이 반복적인 작업보다 좀 더 본질적이고 창의적인 일에 집중할 수 있도록 돕는 AI가 될 것"이라고 말했다.
LG AI연구원은 학회 기간 중 LG 부스를 방문한 연구자들을 대상으로 '캡셔닝 AI' 서비스를 시연할 계획이다.
LG AI연구원은 이날 '캡셔닝 AI'의 기반 기술인 '제로샷 이미지 캡셔닝'을 주제로 서울대 AI대학원, 셔터스톡과 함께 워크숍도 진행했다.
김승환 LG AI연구원 비전랩장은 "이번 워크숍은 첫 번째 상용화 서비스인 캡셔닝 AI 발표와 연계돼 있어 더욱 의미가 깊다"며 "이미지 캡셔닝 분야의 글로벌 연구 리더십을 확보하기 위해 다양한 파트너들과 유기적인 협력체계를 구축해 새로운 평가 지표 개발과 신기술 연구를 계속 추진할 계획"이라고 말했다.
LG AI연구원은 22일까지 진행하는 학회 기간 중 LG전자, LG이노텍, LG에너지솔루션, LG유플러스 등 LG의 주요 계열사와 함께 글로벌 AI 우수 인재 확보에 나선다. 이를 위해 19일에는 학회에 참가한 석·박사 학생들을 대상으로 네트워킹 행사인 'LG AI Day'를 진행한다. 또 20일부터 3일간 LG 각 계열사의 AI 연구 인력과 채용 담당자들이 LG 통합 부스에서 각 사의 최신 AI 기술 시연과 채용 상담을 진행한다.