본문 바로가기
ICT

오픈 AI, '안전' 깜빡이도 켜지 않고 '영리화'고속질주

by 이코리아 티스토리 2024. 7. 15.
728x90

 

= 오픈 AI 누리집

대화형 AI 서비스 ‘챗 GPT’를 서비스 중인 오픈 AI가 AI 기술의 위험성을 묵살하고 수익화에만 열중하고 있다는 비판이 잇따르는 가운데, 이번에는 직원들이 AI 위험성에 대해 규제 당국에 제보하는 것을 불법적으로 금지했다는 내부고발이 제기되었다.

 

현지시간 13일 워싱턴포스트의 단독보도에 따르면 익명의 오픈 AI 직원들은 미국 연방거래위원회에 서한을 보내 오픈 AI가 직원들이 AI와 관련된 위험성에 대해 규제 당국이나 집행 기관에 제보하지 못하도록 했으며, 이 외에도 직원들을 대상으로 지나치게 제한적인 고용, 퇴직 및 기밀 유지 계약을 체결했다고 주장했다. 또 이는 미국의 내부 고발자 보호 방침을 위반하는 행위이며 정부 기관이 이와 관련해 오픈 AI를 조사해야 한다고 촉구했다.

= 워싱턴포스트 누리집 서한 원문 갈무리

제보자는 서한을 통해 “이번 고발은 오픈 AI에 대한 공격이나 AI 기술 발전을 방해하기 위한 행위가 아닌, 직원이나 투자자의 부당 행위를 신고할 권리에 대한 침해는 용납되지 않는다는 메시지를 AI 업계 전체에 전달하기 위한 것이다.”라며 “오픈AI와 다른 회사에서 발생할 수 있는 위법 행위 및 안전 문제에 대해 잠재적인 내부 고발자가 문제를 제기할 수 있도록 개방해야 한다.”라고 주장했다.

 

미국은 지난 1989년 내부 고발자 보호법(WPA)를 제정해 민관 구분 없이 내부 고발자를 보호하고 있으며, 2010년에는 도드-프랭크법을 제정해 정부 조사에 협력하고 정보를 제공하는 내부 고발자를 차별 혹은 보복으로부터 보호하도록 한다. 또 내부고발자가 제공한 정보를 통해 기업의 위반 사항을 발견할 경우 벌금의 일정 부분을 내부고발자에 포상금으로 지급하고 고발자의 익명성을 철저하게 보장하도록 하는 등 체계적인 내부고발자 보호 법률을 갖추고 있다.

 

오픈 AI는 제기된 일련의 논란에 대해 즉각 반박했다. 오픈 AI는 논란에 대해 “우리의 내부 고발자 정책은 임직원의 폭로 권리를 보호하고 있다.”라며 “직원들은 행정명령에 언급된 종류의 위험을 가장 먼저 탐지하고 경고할 수 있다.”라고 반박했다.

오픈 AI에 안전 문제가 제기된 것은 이번이 처음이 아니다. 서한이 공개되기 전날에는 오픈 AI가 5월 출시한 최신 AI 모델 ‘챗 GPT-4o’가 내부 안전 테스트를 통과하지 못했음에도 불구하고, 회사가 출시를 강행했다는 주장이 역시 워싱턴포스트를 통해 제기되었다. 

 

제보자에 따르면 경영진은 5월로 예정된 출시일을 맞추기 위해 안전팀에게 테스트 절차 일정을 앞당기도록 압박했으며, 결국 GPT-4o는 이를 통과하지 못했음에도 불구하고 출시가 강행되었다는 것이다. 외신에 따르면 챗 GPT는 테스트 과정에서 사용자에게 생화학 무기 제조법, 사이버 공격 방법을 순순히 알려주는 등 위험한 결과물을 내놓았다.

 

원래 오픈 AI는 모든 사람에게 혜택을 주는 것을 목표로 하며, 특허와 연구를 대중에게 공개하겠다는 취지로 지난 2015년 설립된 비영리 회사로 시작되었다. 오픈 AI는 자사 누리집에서 “당사의 사명은 인공 일반 지능이 모든 인류에게 이롭게 되도록 하는 것이다.”라고 소개하고 있다.

 

하지만 지난 2019년 영리 법인 자회사를 설립하고 마이크로소프트로부터 130억 달러 규모의 투자를 받으며 소비자 제품을 본격적으로 출시하며 오픈 AI 내부에서 영리화 우려가 터져 나오기 시작했다.

CEO 자리에서 쫒겨난 뒤, 오픈 AI 방문증을 들고 사진을 찍은 샘 올트먼 = 샘 올트먼 X 갈무리

지난해 11월에는 수석 과학자 일리야 수츠케버를 중심으로 오픈 AI 이사회가 안전 문제를 제기하며 샘 올트먼 CEO를 몰아내려는 쿠데타를 시도하기도 했다. 당시 이사회는 “올트먼의 솔직하지 못한 소통 방식이 이사회가 책임을 다하는 데 방해가 된다는 결론을 내렸다.”라고 주장하며 올트먼을 해고했지만, 거대 투자사인 마이크로소프트와 투자자들의 잇따른 반발에 결국 올트먼은 CEO 자리로 복귀했다.

 

또 쿠데타를 주도한 일리야 수츠케버는 올트먼의 복귀 이후 이사회에서 물러났다가 지난 5월 오픈 AI를 떠났다. 수츠케버의 퇴사와 함께 그가 이끌던 오픈 AI의 내부 안전팀 ‘슈퍼얼라인먼트’ 팀 역시 해체되었다. 슈퍼얼라인먼트 팀은 고도로 발전한 AI가 인류를 해치지 않도록 통제하는 방법을 연구하던 팀이다. 

 

이어지는 논란에 외신들은 오픈 AI가 수익이 나오지 않는 안전팀을 해체하고 신규 AI 개발에 더 집중하려고 한다고 우려했으며, 수츠케버는 자신의 소셜 미디어를 통해 “반짝이는 제품을 출시하기 위해 안전화 절차가 뒷전으로 밀려났다.”라고 오픈 AI를 비판하기도 했다. 또 슈퍼얼라인먼트 팀의 공동 리더 ‘얀 리이크’ 역시 사임하며 “인간보다 똑똑한 기계를 만드는 것은 본질적으로 위험한 일이며, 오픈AI는 인류 전체를 대표해 막중한 책임을 지고 있지만 지난 수년간 AI 안전성은 뒷전으로 밀려났다.”라고 비판했다.

 

한편 안전팀 해체 논란에 샘 올트먼은 지난 5월 새로운 안전팀 ‘안전, 보안 위원회’를 신설했다. 하지만 사실상 오픈 AI 내부의 반대파가 모두 쫒겨난 상황에서 새로운 안전팀에 올트먼 CEO 본인을 포함해 오픈 AI의 이사회 세 명이 포함된 만큼, 오픈 AI의 안전성 우려는 여전히 해소되지 않았다는 지적도 나온다.

 

 

 

현기호 기자

저작권자  이코리아 무단전재 및 재배포 금지

 

더 많은 기사는 '이코리아'(http://www.ekoreanews.co.kr/)