본문 바로가기
ICT

AI 통제불능시 안전장치 마련, 국내 빅테크 현황은?

by 이코리아 티스토리 2024. 6. 18.
728x90

 

= 뉴시스

네이버가 17일 AI 안전성 실천 체계인 '네이버 ASF(인공지능 세이프티 프레임워크)'를 공개했다. 이는 인간이 AI의 통제력을 상실하거나 AI 시스템이 위험을 초래하는 영역에서 악용되는 것을 방지하는 목적으로, 네이버 구성원이 산업 현장에서 AI 시스템을 개발하고 배포하는 과정에서 AI 안전 대책을 구체적으로 실천하기 위한 체계를 구축하는 것이 골자다.

= 네이버 채널테크 누리집

먼저 네이버는 ‘AI 위험 평가 스케일’을 설정해 AI 시스템의 능력이 발전함에 따라 통제력 상실 위험이 발생할 가능성을 살펴보며 위험성을 평가, 관리하도록 한다. AI 위험 평가 스케일은 AI의 기술 수준을 크게 ‘하이퍼스케일 AI’, ‘프론티어 AI’, ‘퓨처 AI’ 세 단계로 나누어 이 중 “현재 존재하거나 가까운 미래에 개발될 최고 성능의 AI 시스템”을 뜻하는 ’프론티어 AI를 중심으로 평가를 진행한다. 

 

네이버는 3개월을 평가 주기로 설정해 사회적으로 우려되는 프론티어 AI의 통제력 상실 위헙에 대비하고자 하며, 만약 시스템의 능력이 기존보다 6배 증가했다고 판단될 경우 해당 시점에 추가적으로 평가를 진행할 것이라고 밝혔다.

= 네이버 제공

또 네이버는 ‘AI 위험 평가 매트릭스’를 통해 AI 시스템의 목적 영역과 안전 조치의 필요성 두 기준에 따라 AI 위험을 관리한다. 두 기준을 종합해 인식, 평가된 AI 시스템의 위험에 따라 적절한 조치를 시행하며, 안전 조치를 통해 위험이 완화된 AI 시스템을 배포하겠다는 것이다. 또 배포 이후에도 안전성 모니터링을 지속적으로 시행하며 특수 영역이면서도 안전 조치의 필요성이 높은 경우에는 AI 시스템을 배포하지 않을 것이라고 밝혔다. 

네이버는 AI 윤리 준칙과 논문 연구를 바탕으로 다양한 안전 조치를 적용하고 있으며, 이를 위해 학계, 산업계 등 다양한 이해관계자와 함께 한국 문화와 사회에 맞는 한국어 데이터셋을 새롭게 구축하고 있다고 밝혔다. 또 이러한 연구를 통해 구축된 데이터셋을 하이퍼클로바 X에 활용했으며, 이러한 연구 결과 일부를 누구나 활용할 수 있도록 데이터를 공개하고 있다고 강조했다. 

한편 AI의 위험성을 관리할 체계를 구축한 것은 네이버가 국내 기업 중 최초로 시도한 것이다. 네이버는 지난 5월 서울에서 열린 ‘AI 서울 정상회의’에 참가해 오픈 AI, 구글, 아마존, 마이크로소프트, 삼성, IBM 등 글로벌 AI 기업들과 함께 'AI 안전 서약'에 참가했다. 서약에는 기업이 개발한 AI 모델이 위험 기준치를 초과할 우려가 있을 경우, AI 배포를 중단하고 시스템을 수정하는 등 위험을 완화하도록 하는 내용이 담겼다. 또 참가 기업들은 민감한 영업비밀을 제외한 AI 안전 전략 등의 상세한 정보를 서로 공유하기로 합의하기도 했다.

= 카카오 제공

AI를 개발중인 국내의 다른 기술기업들도 AI의 안전성 확보를 위한 각종 조치를 시행하고 있다. 카카오는 지난 4월 안전하고 책임감 있는 AI 개발에 집중하기 위해 글로벌 오픈 소스 커뮤니티인 ‘AI 얼라이언스(AI Alliance)’에 가입했다고 밝혔다. AI 얼라이언스는 IBM, 메타, 인텔 등을 기업을 비롯해 산업계, 스타트업, 학계, 연구기관, 정부를 아우르는 선도적인 조직들이 함께 글로벌 인공지능 분야의 개방형 혁신과 오픈 사이언스를 지원하기 위한 단체로, 지난해 12월 출범한 바 있다.

 

SKT는 지난 1월 AI 기술을 관리하는 체계, 추구가치 등을 설정하는 AI 거버넌스(의사결정 체계)를 정립해 AI의 신뢰성과 안전성을 확보할 것이라고 밝혔으며 KT는 지난 4월 안전하고 믿을 수 있는 AI 기술 연구를 위한 ‘책임감 있는 인공지능 센터’를 신설했다. 또 LG는 지난 5월  유네스코와 AI 윤리 글로벌 온라인 공개강좌 사업 공동 추진을 위한 협약을 체결해 함께 AI 윤리 플랫폼을 개발한다고 밝혔다.

 

한편 세계적으로 AI 안전에 대한 법제화 움직임이 이어지며 개별 기업의 AI 안전성 확보의 중요성은 갈수록 높아지고 있다. 대표적으로 유럽연합은 지난 3월 세계 최초로 AI의 위험성을 관리하는 법안인 인공지능법을 통과시켰다. 해당 법안은 AI를 위험성에 따라 등급을 분류하고, 고위험으로 분류된 AI는 엄격하게 관리하는 것이 골자로, 해당 법을 위반하는 기업은 최대 전 세계 매출의 7%를 과징금으로 부과받게 된다.

 

또 미국은 지난해 10월 AI의 개발 과정에서 안보, 경제 등 특정 분야에 위협을 가할 수 있는 AI의 안전 검사 결과를 정부에 제출하도록 하는 내용의 행정명령을 공개했으며, 최근 주요 기술기업이 위치한 캘리포니아주에서는 AI의 각종 위험을 사전에 방지할 안전장치를 마련하도록 하는 '첨단 AI 시스템을 위한 안전과 보안 혁신법'이 발의되기도 했다.

 

 

 

현기호 기자

저작권자  이코리아 무단전재 및 재배포 금지

 

더 많은 기사는 '이코리아'(http://www.ekoreanews.co.kr/)