본문 바로가기
ICT

이미지 생성 AI, 어디까지 허용? 일론 머스크 '그록 2' 노이즈마케팅 논란

by 이코리아 티스토리 2024. 8. 20.
728x90
= xAI 누리집

일론 머스크의 xAI가 출시한 이미지 생성 AI '그록 2'로 인해 이미지 생성 AI의 윤리성 논란이 다시 떠오르고 있다. 다른 기업들의 이미지 생성 AI 서비스가 차별과 편견을 막기 위해 실존 정치인, 성적인 이미지 생성을 금지하고 워터마크를 표기하는 등 각종 안전 조치를 취한 것과 달리 그록 2는 제한 없이 노골적이고 정치적인 이미지를 생성할 수 있다는 의혹이 나오고 있기 때문이다.

 

xAI는 지난 13일 xAI의 최신 챗봇 ‘그록 2’를 베타 버전으로 출시했다. 그록은 소셜 미디어 X(구 트위터)의 데이터를 기반으로 학습한 AI 챗봇으로, GPT-4의 수준을 뛰어넘는 것을 목표로 제작되었다. 

 

그런데 그록 2의 출시 이후 이미지 생성 기능이 논란이 되고 있다. 더 버지 등 해외 기술매체에 따르면 그록 2는 팝 가수 테일러 스위프트, 도널드 트럼프 전 대통령과 카멀라 해리스 부통령 등 각종 유명인, 정치인들의 이미지를 제한 없이 생성하고 있다. 더 버지는 그록 2가 나치 군복을 입은 도널드 트럼프, 술과 담배를 즐기는 미키 마우스, 조 바이든의 목에 칼을 겨눈 버락 오바마 전 대통령 등 초상권과 저작권을 침해하거나 폭력적이고 자극적인 실존 인물의 이미지를 생성한다고 지적했다.

= 크리스티안 몬테소리 X 갈무리

미국의 정치 컨설팅 회사 APS의 크리스티안 몬테소리는 X를 통해 그록 2가 제한 없이 거의 모든 이미지를 생성한다고 지적하며 일론 머스크나 미키 마우스가 총기 범죄를 저지른 끔찍한 이미지를 생성하는 것을 보여줬다. 몬테소리는 “그록 AI는 ‘의료 또는 범죄 현장 분석’이라는 키워드를 통해 각종 지침을 우회할 수 있으며, 이를 통해 폭력적인 묘사부터 아동 포르노까지 무엇이든 생성할 수 있다.”라며 “그록은 안전 테스트가 매우 제한적이거나 전혀 없었던 것 같다.”라고 비판했다.

= 일론 머스크 X 갈무리

하지만 머스크는 이어지는 논란에 기름을 부었다. 한 X 이용자가 “역사적으로 이미지 생성은 가장 부정적인 관심을 끌었던 분야인데, 그록은 제한 없이 이미지를 생성하고 있는 것 같다.”라는 지적에 머스크는 “(xAI는) 자체 이미지 생성 시스템을 개발 중이지만 아직 출시까지 몇 달 남았다.”라며 “지금은 사람들이 재미있게 사용할 수 있는 좋은 중간 단계인 것 같다.”라고 대답했다.

 

머스크가 그록 2와 관련해 이어지는 논란을 일종의 노이즈 마케팅으로 활용하고 있다는 지적도 나온다. 머스크는 그록 모델을 처음 공개할 때부터 그록이 약간의 재치를 가지고 질문에 대답하도록 설계되었으며, 반항적인 성향을 가지고 있다고 밝힌 바 있다. 또 다른 AI가 답변을 거부하는 충격적인 질문에도 그록은 답변할 것이라고 말했다. 윤리적 우려에 다른 AI에서 활용할 수 없는 기능을 그록에서는 사용할 수 있다는 점을 세일즈 포인트로 삼았다는 관측이다.

 

그록 AI가 법적 문제에 직면할 수 있다는 관측도 나온다. 그록 2의 무제한 이미지 생성으로 인해 지적 재산권, 초상권을 침해당한 개인이나 기업이 xAI 측에 소송을 제기할 수 있다는 것이다.

 

머스크는 이미 허위·불법 콘텐츠 확산 방지 의무를 준수하지 못했다는 이유로 EU의 디지털서비스법(DSA)을 위반했다는 의혹을 받고 있다. 또 유럽의 비영리 단체 유럽디지털권리센터(NOYB)는 머스크가 X를 통해 유럽 내 6천만 명 이상의 사용자의 개인 데이터를 무단으로 수집해 이를 그록의 학습에 사용했다는 의혹을 제기해 12일 이에 대한 고소를 시작하기도 했다.

= 구글 딥마인드 누리집

반대로 이미지 생성 AI를 개발 중인 다른 기업들은 안전장치를 강화하는데 공을 들이고 있다. 구글은 18일 이미지 생성 도구 '이마젠‘의 최신 버전 ’이마젠 3‘를 출시했다. 이는 지난해 12월 이후 8개월 만에 출시된 업그레이드 버전으로, 구글은 이마젠 3가 이전 모델들보다 훨씬 더 세밀하고 풍부한 조명 효과를 가진 이미지를 생성할 수 있으며, 불필요한 요소 등은 크게 줄였다고 설명했다. 이마젠3는 미국에서 구글의 생성 AI 플랫폼인 이마젠FX와 기업용 AI 플랫폼인 버텍스 AI에서 이용할 수 있다.

 

특히 이마젠 3는 생성된 이미지에는 디지털 워터마크를 표기하고, 테일러 스위프트 등 유명 인사들의 이미지 생성은 거부하는 등 각종 안전장치가 마련되어 있다. 구글은 이마젠 3이 데이터와 모델 개발부터 생산까지 최신 안전 및 책임 혁신을 통해 구축되었으며, 광범위한 필터링과 데이터 라벨링을 사용하여 데이터 세트에서 유해한 콘텐츠를 최소화하고 유해한 출력의 가능성을 줄였다고 강조했다. 또 공정성, 편향 및 콘텐츠 안전을 포함한 주제에 대한 레드팀 구성 및 평가를 수행했다고도 덧 붙혔다.

 

구글이 이미지 생성 AI 안전장치 강화에 공을 들이는 이유는 지난 2월 출시한 이미지 생성 서비스가 잇따라 역사적 사실을 왜곡하는 이미지를 생성하며 곤혹을 치른 적 있기 때문이다. 당시 구글이 출시한 AI 모델 제미나이의 이미지 생성 기능은 교황이나 미국 건국자와 같은 역사적 인물을 유색인종으로 묘사하고, 2차대전 나치 군인을 동양인으로 묘사하는 등 역사적으로 부정확한 이미지를 생성하며 논란이 되었다. 이는 AI의 편향성을 제거하는 과정에서 오류가 발생했던 것으로 추정되고 있다. 

 

다른 기업들 역시 이미지 생성 AI에 강력한 안전장치를 도입하고 있다. 지난해 공개된 오픈 AI의 ’달리 3‘은 구글과 마찬가지로 음란 및 혐오스러운 이미지가 생성되는 것을 방지하기 위한 안전 조치가 취해졌으며, 노골적이거나 폭력적인 메시지를 피하기 위해 언어 모델에 특정 단어를 무시하도록 훈련되었다. 또 스테이블 디퓨전 3, 미드저니 역시 각종 안전장치를 갖추고 있다.

 

 

현기호 기자

저작권자  이코리아 무단전재 및 재배포 금지

 

더 많은 기사는 '이코리아'(http://www.ekoreanews.co.kr/)