![](https://blog.kakaocdn.net/dn/q80jY/btsMesBTRxc/oK6wmMAdG7gzWFSGIyEkI1/img.jpg)
= 픽사베이
[이코리아] 구글이 자사의 AI 원칙에서 AI를 무기 및 감시 목적으로 사용하지 않겠다는 조항을 삭제했다는 사실이 밝혀지며 논란이 되고 있다.
블룸버그 등 외신의 현지시간 4일 보도에 따르면 구글의 AI 원칙에는 이전에는 "인간에게 피해를 유발하거나 유발할 가능성이 있는 기술"이나 "국제 기준을 넘어서는 감시 기술"과 같은 "추구하지 않을 AI 애플리케이션"이라는 제목의 구절이 포함되어 있었으나, 해당 문구는 더 이상 페이지에서 볼 수 없는 상황이다.
![](https://blog.kakaocdn.net/dn/nOR02/btsMdIFrWwO/Qo0xwN2kFJ9LtMzjoGUoK0/img.png)
= 구글 누리집
구글 측은 자사 블로그에 '책임감 있는 AI: 2024 보고서 및 진행 중인 작업 (Responsible AI: Our 2024 report and ongoing work)'이라는 게시물을 올려 원칙 수정에 대해 설명했다. 구글 수석 부사장인 제임스 매니카와 딥마인드의 데미스 하사비스가 작성한 해당 게시물에 따르면 구글이 AI 원칙을 삭제한 것이 군사적 활용을 공식적으로 허용한다는 의미는 아니며, 구글은 지난 2018년부터 매년 AI 원칙을 갱신해오고 있다고 강조했다.
또 구글은 AI 기술이 광범위하게 발전하고 있는 상황에서, AI 원칙을 보다 현실적으로 적용할 필요가 있었다고 설명했다. 점점 더 복잡해지는 지정학적 환경 속에서 AI 리더십을 차지하기 위한 글로벌 경쟁이 벌어지고 있으며, 민주주의 국가가 자유, 평등, 인권 존중과 같은 핵심 가치에 따라 AI 개발을 주도해야 한다고 믿는다고도 덧붙혔다. 이에 따라 이러한 가치를 공유하는 기업, 정부, 단체가 함께 협력하여 사람을 보호하고 글로벌 성장을 촉진하며 국가 안보를 지원하는 AI를 만들어야 한다고 주장했다.
구글의 이러한 행보에 국제인권단체 휴먼라이츠워치는 기술 거대 기업이 AI에 대한 자체 원칙을 후퇴시켰다고 비판했다.
휴먼라이츠워치는 구글이 2018년 발표한 '책임 있는 AI 원칙'에서 '무기 개발 목적의 AI 활용을 금지한다'는 조항을 삭제한 것이 AI의 군사적 사용을 공식적으로 허용하는 것으로 해석될 수 있다고 우려했다.
휴먼라이츠워치는 "구글이 더 이상 AI를 무기 개발에 사용하지 않겠다는 분명한 입장을 고수하지 않는 것은 위험한 신호"라고 주장했다. 또 구글의 행보는 AI 기술의 무기화가 가속화될 수 있다는 점을 시사하며, 기업의 자율적 윤리 지침이 규제나 법률의 대체물이 될 수 없다는 점을 보여준다고도 강조했다. 특히 AI가 전장에서 사용될 경우 데이터 오류나 알고리즘 편향으로 인해 민간인 피해가 발생할 가능성이 높으며, 이에 대한 책임 문제도 복잡해질 것이라고 지적했다.
구글은 이전에 여러 차례 군사 관련 프로젝트에 참여하려다 직원들의 내부 반발로 무산된 사례가 있다. 지난 2018년에는 미국 국방부의 AI 프로젝트인 '메이븐 프로젝트'에 참여하려다 AI를 치명적인 목적으로 사용하는 첫 번째 단계인 것 아니냐는 직원들의 내부 반발과 항의 청원이 벌어졌으며, 지난해에는 구글 딥마인드 직원 200여 명이 구글이 이스라엘 정부와 체결한 ‘프로젝트 님버스’ 계약을 종료할 것을 촉구하기도 했다.
AI의 군사적 활용에 참여하는 기업들은 구글뿐만이 아니다. 지난해 초에는 오픈 AI가 구글보다 한발 앞서 서비스 약관에서 "군사 및 전쟁 목적으로의 활용 금지" 조항을 삭제하면서 논란이 되었다. 이에 더해 오픈 AI는 전 미국 국가안보국 국장을 이사회 구성원으로 영입했으며, 지난해 12월에는 미국 방위산업체 '안두릴'과 협력해 국가 안보 임무를 위한 고급 AI 솔루션을 개발중이라고 밝히는 등 군사 분야 행보를 이어나가고 있다.
앤스로픽 역시 지난해 11월부터 팔란티어, AWS와 제휴해 자사의 AI 모델 ‘클로드’를 미국 정보·국방 기관에 제공하고 있으며, 메타는 자사의 AI 모델 ‘라마’를 미국 국방 기관과 방산업체에 제공한다고 발표한 바 있다.
구글의 AI 원칙 수정이 AI 군사화 경쟁을 더욱 가속화할 가능성이 크다는 분석도 나온다. 미국 국방 전문 매체 '디펜스 원(Defense One)'은 구글의 결정을 두고 "AI 방위 산업이 치열한 경쟁 국면에 접어들었으며, 이제 미 국방부가 AI의 군사적 활용에 대한 궁극적인 규제 역할을 맡게 될 것"이라고 평가했다. 또한, 구글이 2018년 국방부와의 협력을 중단한 이후 AI 방위 산업에서 뒤처졌으며, 이번 결정을 통해 다시 군사 AI 시장에 본격적으로 진입하려는 의도를 보인 것으로 해석했다.
AI 무기화 경쟁이 심화되는 가운데, 중국은 이미 AI 기반 군사 기술을 적극적으로 도입하고 있다는 지적도 나온다. 중국은 AI를 활용한 무기체계를 최소 300개 이상 개발하고 있으며, 서방과 달리 ‘인간 개입(인 더 루프, In the loop)’ 원칙을 엄격하게 적용하지 않는 것으로 알려졌다. AI의 자율적 전쟁 수행 가능성을 두고 윤리적 논란이 커지는 이유다.
한편 테크크런치의 보도에 따르면, 미 국방부는 AI를 활용하여 군사적 ‘킬 체인(Kill Chain)’을 가속화하고 있다. 킬 체인은 군사적 목표를 식별하고 추적하며 제거하는 일련의 절차를 의미하며, AI는 이를 더 빠르고 정밀하게 수행하는 데 기여하고 있다는 설명이다. 미 국방부의 최고 디지털 및 AI 책임자인 라다 플럼(Radha Plumb) 박사는 AI가 “우리 지휘관들이 적절한 시점에 대응할 수 있도록 킬 체인의 실행 속도를 증가시키는 역할을 하고 있다”고 밝혔다.
미 국방부 관계자의 설명에 따르면 AI는 현재 전투용 무기로 직접 사용되지는 않지만, 군사 전략 수립과 위협 감지, 정찰, 그리고 정보 분석 등 다양한 군사 작전에 활용되고 있다. 오픈AI, 앤스로픽, 메타 등 주요 AI 기업들은 2024년에 미 국방부 및 정보 기관과의 협력 범위를 확대했으며, 이에 따라 AI의 군사적 활용 가능성이 더욱 커질 것으로 예상된다.
![](https://blog.kakaocdn.net/dn/bdhkFw/btsMdlRiLf1/yKPvOzhUideoAOKoRb4GE0/img.jpg)
= 외교부 누리집
그렇다면 AI의 군사적 활용에 대한 국제적 협의는 어떻게 진행되고 있을까. 지난해 9월 한국에서 열린 ‘2024 인공지능의 책임있는 군사적 이용에 관한 고위급회의(REAIM)’에서는 참가국 사이에서 AI의 군사적 적용에 대한 국제적 기준 마련이 필요하다는 목소리가 나왔다.
이 회의에서 발표된 한국, 미국, 영국, 프랑스를 포함한 62개국이 서명한 ‘REAIM 행동을 위한 청사진’에는 △AI 기반 무기체계의 인간 통제 유지 △국제법 준수 △AI 기술의 대량살상무기(WMD) 확산 방지 등의 원칙이 담겼다. 그러나 중국과 러시아 등 일부 국가들이 해당 원칙에 서명하지 않게 되면서 해당 원칙이 반쪽짜리라는 우려가 나오고 있으며, 이에 따라 AI 무기화에 대한 국제적 규제가 실효성을 갖기 어려울 것이라는 우려도 제기된다.
현기호 기자
저작권자 이코리아 무단전재 및 재배포 금지
더 많은 기사는 '이코리아'(http://www.ekoreanews.co.kr/)
'ICT' 카테고리의 다른 글
LG CNS, 작년 역대 최대 실적...비결은? (0) | 2025.02.11 |
---|---|
'딥시크 쇼크' 이후 네카오 AI 전략 '글로벌 협력'vs'자체 역량 강화'...차이는? (0) | 2025.02.11 |
‘딥시크 쇼크’로 흔들리는 美 AI 패권...주요국의 대응 전략은? (0) | 2025.02.10 |
ICT업계 중동 진출 활발...현재 진행 상황은? (0) | 2025.02.10 |
서방국가들, 딥시크 금지령 확산 왜? (1) | 2025.02.05 |