본문 바로가기
ICT

오픈 AI, 몇 문장으로 영상 생성 AI '소라' 공개...악용 우려도

by 이코리아 티스토리 2024. 2. 17.
728x90

= 오픈 AI 누리집

 

오픈 AI가 현지시각 15일 이미지 생성 AI인 달리(DALL-E)를 기반으로 제작한 영상 생성 AI '소라(Sora)'를 공개했다. 지난 2022년부터 이미지 생성 AI가 전 세계의 화제로 떠오르며 발전을 거듭해오는 가운데, 이제 영상 생성에 도전하기 시작한 것이다. 

 

오픈 AI는 소라에 대해 “텍스트 지침을 통해 현실적이고 상상력이 풍부한 장면을 만들 수 있는 AI 모델”이라고 소개했다. 소라는 시각적 품질을 유지하고 사용자의 메시지를 준수하면서 최대 1분 길이의 비디오를 생성할 수 있으며, 여러 캐릭터, 특정 유형의 동작, 피사체와 배경의 정확한 세부 정보로 복잡한 장면을 생성할 수 있다고 설명했다.

 

또 소라의 언어 모델은 프롬프트를 정확하게 해석하고 생생한 감정을 표현하는 매력적인 캐릭터를 생성할 수 있으며, 생성된 단일 비디오 내에서 캐릭터와 시각적 스타일을 정확하게 유지하는 여러 장면을 만들 수도 있다고 강조했다.

오픈 AI가 소라에 "도쿄 거리를 걷는 스타일리시한 여성" 등의 키워드를 입력해 생성한 예시 영상 = 오픈AI 누리집

 

오픈 AI가 예시로 제작한 "철새처럼 날아다니는 종이비행기 떼" AI 생성 영상 = 오픈 AI 누리집

 

오픈 AI는 소라를 공개하며 누리집에 AI로 생성한 각종 영상들의 예시를 공유했다. 기존의 영상 생성 AI에서 드러나던 뚝뚝 끊어지는 느낌이 발생하거나 각 프레임마다 인물의 모습이 달라지는 등 어색한 모습 없이 카메라로 촬영한 듯한 영상을 자연스럽게 생성해내는 기술력을 보여준다.

 

AI는 길거리를 걷는 여성의 모습이나 드론으로 촬영한 듯한 차량이 달리는 영상과 같은 현실적인 영상이나 홈메이드 비디오, 3D 애니메이션 등 다양한 종류의 영상을 사실적으로 구현해냈다. 심지어 구름 위에서 책을 읽는 남자, 커피잔 속의 해적선 같은 비현실적인 영상까지 마치 카메라로 촬영한 듯 자연스럽게 생성해낸다.

오픈 AI가 소라의 단점에 대해 설명하며 공개한 영상 = 오픈 AI 누리집

 

다만 소라가 아직 완벽한 것은 아니다. 복잡한 장면의 물리학을 정확하게 시뮬레이션하는 데 어려움을 겪을 수 있으며, 원인과 결과의 특정 사례를 이해하지 못하거나 왼쪽과 오른쪽 등 공간적 세부 사항을 혼동하는 등 약점 또한 지니고 있다고도 덧붙혔다. 

 

오픈 AI는 각종 예시 영상을 통해 소라의 단점에 대해 설명했는데, 예를 들면 예시 영상 중"고고학자가 사막에서 플라스틱 의자를 발굴하는 영상"에서는 플라스틱 의자가 마치 비닐로 만들어진 듯 물리적으로 부자연스러운 움직임을 보인다.

구글 루미에르 = 구글 유튜브 갈무리

 

다른 AI 기업들도 영상 생성 AI를 개발하고 있다.구글은 지난달 사실적이고 일관성 있는 비디오를 생성할 수 있는 '루미에르 (Lumiere)'를 선보였으며 스태빌리티 AI는 '스테이블 비디오 디퓨전', 아마존은 '크리에이트 위드 알렉사'와 같은 영상 생성 AI를 선보였다.

 

한편 세계 각국에서 딥페이크 기술을 악용한 범죄에 대한 우려가 커지는 상황에서, 고성능의 영상 생성 AI가 악용될 수 있다는 우려도 커지고 있다. 실제로 지난해 5월에는 미 국방부 청사 펜타곤에서 폭발이 일어나는 AI 생성 이미지가 소셜 미디어를 통해 퍼져나가며 주가가 하락하고 국방부와 소방서 등 관련 기관들이 사진이 조작된 것이라고 해명하며 진화에 나서는 등 AI로 생성된 가짜 정보가 혼란을 일으키는 사례가 여러 차례 발생했다.

 

최근에는 홍콩에서 한 금융회사 직원이 사기꾼 일당이 딥페이크로 만들어낸 가짜 직장동료의 영상에 속아 거액의 돈을 송금하는 등 AI로 생성된 영상을 악용하는 범죄의 사례도 실제로 등장했다. 홍콩 경찰은 최근 딥페이크를 악용한 사기 행각이 최소 20건에 달한다고 밝히기도 했다.

 

딥페이크 등 영상 기술의 오용 관련 분야에서 활동하는 인권단체 위트니스의 샘 그레고리 사무총장은 MIT 테크놀로지 리뷰와의 인터뷰에서 "기술적인 관점에서 볼 때 이는 매우 의미 있는 도약처럼 보인다. 그러나 동전에는 양면이 있다."라며 "이런 기술은 더 많은 사람들이 비디오를 사용하여 스토리텔러가 될 수 있는 잠재력을 제공하면서도, 오용될 수 있는 잠재적인 위험성도 있다."라고 우려했다.

 

오픈AI는 소라에 대해 각종 안전 조치를 취할 것이라고 강조했다. 먼저 잘못된 정보, 증오 콘텐츠, 편견과 같은 우려에 대해서는 레드 팀과 협력하여 모델을 적대적으로 테스트할 것이라고 밝혔다.

 

또 소라는 다른 오픈AI의 제품처럼 극단적인 폭력, 성적인 콘텐츠, 혐오스러운 이미지, 유명인의 초상 등 사용정책을 위반하는 프롬프트의 결과물을 출력하는 것을 거부할 것이며 비디오가 생성된 시기를 알 수 있는 감지 분류기와 같은 도구 역시 구축하고 있다고 설명했다.

 

아디타 라메시 오픈AI 과학자는 "우리는 소라의 배포에 대해 주의를 기울이고 있으며, 이를 일반 대중의 손에 넘기기 전에 모든 기반을 다 갖추고 있는지 확인 작업을 갖출 것이다."라며 충분한 안전 조치를 취하고 나서 소라를 공개하겠다고 강조했다. 현재 오픈 AI는 소라의 정식 출시 일자를 밝히지 않은 상태다.

 

현기호 기자

저작권자  이코리아 무단전재 및 재배포 금지

 

더 많은 기사는 '이코리아'(http://www.ekoreanews.co.kr/)