제프리 힌턴 교수 = 토론토대학교 누리집
[이코리아] 올해 AI에 대한 기초 연구로 노벨 물리학상을 수상한 '인공지능의 아버지' 제프리 힌턴 캐나다 토론토대 교수가 "AI가 향후 30년 내로 인류를 멸망시킬 가능성이 10~20%에 달한다"고 경고하며, 급격한 기술 발전이 가져올 잠재적 위험성을 강조했다.
BBC의 라디오 프로그램에 출연한 힌턴 교수는 “AI 기술의 발전 속도가 예상보다 훨씬 빠르다”며, “우리는 지금까지 우리보다 더 똑똑한 존재를 다뤄본 적이 없다”고 지적했다. 그는 이어 “우리의 통제력을 벗어난 초지능(Super-intelligence)의 등장은 장기적인 실존적 위협이 될 수 있다”고 경고했다.
힌턴 교수는 지난해 AI의 위험성에 대해 자유롭게 발언할 수 있도록 구글에서 퇴사한 뒤, 여러 차례 AI의 위험성에 대해 경고해왔다. 지난해 5월에는 비영리 단체인 AI 안전 센터(CAIS)가 발표한 'AI 위험에 대한 성명'에 요슈아 벤지오, 샘 알트만, 데미스 하사비스 등 업계 관계자들과 함께 이름을 올렸다. 해당 서한은 인류가 현재 AI로 인해 멸종의 위기에 처했으며, 이에 높은 우선순위로 대응해야 한다는 내용이다.
또 지난 10일 노벨상 수상 소감에서도 초지능의 등장에 대해 경고했다. 그는 2024 노벨상 시상식 종료 후 마련된 연회에서 "우리보다 더 지능적인 디지털 존재를 만들 때 발생할 수 있는 장기적인 실존적 위협이 있다. 우리가 이를 통제할 수 있을지 여부는 알 수 없다."라며 "이 새로운 존재가 통제권을 장악하려는 것을 어떻게 막을지에 대한 연구를 시급히 할 필요가 있다."라고 촉구했다.
AI의 안전성을 둘러싼 논쟁은 2025년에도 지속될 전망이다. 2025년 10대 AI 예측을 지난 22일 내놓은 포브스는 2025년 AI 발전에 따른 첫 번째 "실질적 AI 안전사고(AI Safety Incident)"가 발생할 가능성을 경고했다. 제프리 힌턴 교수 등 AI 업계 관계자들이 이야기하던 AI의 위험은 그동안 전적으로 이론적인 것으로 남아 있었으나. 2025년에는 실제 세계에서 AI 안전 사고가 발생할 가능성이 있다는 것이다.
다만 이것은 SF 영화 속 킬러 로봇과 같은 형태가 아닌, AI가 스스로를 복제하거나 성능 평가에서 고의적으로 자신을 과소평가하는 형태로 나타날 가능성이 있다고도 설명했다.
전 오픈AI 임원 잭 카스(Zack Kass)는 26일 미국의 경제 전문매체 패스트컴퍼니와의 인터뷰에서 2025년 이후의 AI에 대해 이야기하며 “AI와 가상현실(VR)의 확산으로 인해 일부 사람들이 물리적 세계보다 가상 세계에 더 의존하게 될 가능성이 있다”며, “이 현상이 확대된다면 사회적 연결 약화, 인구 성장 둔화와 같은 문제를 초래할 수 있다”고 경고했다.
그는 이어 “생성형 AI의 발전은 정보 공간을 혼란스럽게 만들며, 잘못된 정보와 허위 사실이 확산될 가능성을 높인다”고 지적했다. 이에 따라 미디어의 신뢰 회복과 검증 기술 개발이 시급히 필요하다고 강조하며, “미디어 기관과 기술 기업이 신뢰를 회복하지 못한다면 사람들이 무엇을 믿어야 할지 알 수 없는 혼란에 빠질 수 있다”고 우려했다.
잭 카스는 또한 “AI가 인간의 사고와 목적 의식을 약화시킬 가능성을 경계해야 한다”며, “AI가 단순히 인간의 업무를 자동화하는 것을 넘어, 사람들이 자신의 정체성과 삶의 목적을 잃게 만들 수 있다”고 언급했다. 이러한 문제를 해결하기 위해, 그는 AI 기술이 인간의 삶에 긍정적으로 작용할 수 있도록 신중한 접근이 필요하다고 강조했다.
국회 본회의 통과하는 AI 기본법 = 뉴시스
AI의 위험성에 대한 경고가 이어지면서, 세계 각국은 AI 기술의 안전성을 보장하기 위한 법안과 제도 마련에 속도를 내고 있다. 우선 한국의 경우 지난 26일 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI기본법)'이 국회 본회의를 통과하며 AI 산업에 대한 제도적 기반이 마련되었다. 업계에서는 AI 산업에 대한 지원과 육성 방안을 담은 기본법의 통과를 반기는 분위기지만, 일각에서는 이번에 통과된 AI 기본법에 AI 윤리와 안전에 대한 세부적인 뒷받침이 부족하다는 우려를 제기하고 있다.
AI 기본법은 사람의 생명·신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI를 고영향 AI로 규율하고 투명성 확보 의무, 안전성 확보 의무, 사업자 책무 부여 등의 규제를 마련하도록 했다. 업계에서는 이러한 고영향 AI에 대한 구체적인 예시와 범위를 명확히 하는 가이드라인과 하위법령이 시급하다는 의견도 나온다.
한편 지난달에는 안전하고 신뢰할 수 있는 인공지능(AI) 사용을 위한 정부 산하 한국 인공지능안전연구소가 문을 열었다. 지난 5월 열린 AI 서울 정상회의의 주요 합의 내용을 실행에 옮긴 결과로, 앞으로 인공지능의 기술적 한계, 인간의 인공지능 기술 오용, 인공지능 통제력 상실 등으로 발생하는 다양한 인공지능 위험에 체계적‧전문적으로 대응하게 된다.
해외 역시 법제도 마련에 분주하다. 타임지는 올 한해동안 미국 의회에서 AI 관련법 제정이 늦어졌다는 부분을 지적하며, 2025년에는 미국 의회가 AI 규제를 본격적으로 다룰 가능성을 전망했다. 특히 비동의 딥페이크 콘텐츠 규제와 같은 특정 문제에 대해 초당적 합의를 이끌어낼 가능성이나 AI 연구 자금 확대와 방위 산업 통합을 둘러싼 논의가 AI 발전을 가속화할 전망이라고 짚었다.
또 콜로라주가 2024년에 AI를 활용한 채용, 대출 심사, 주택 신청 등 고위험 상황에서의 AI 사용을 규제하는 법안을 통과시키는 등 연방 정부의 느린 움직임과 달리, 일부 주정부는 AI 규제에 더 빠르게 대응하고 있다고도 전했다.
다만 미국의 경우 도널드 트럼프 전 대통령의 재선이 AI 안전 논의에서 큰 변수로 떠오른다. 트럼프 당선인은 조 바이든 미국 대통령이 안전하고 책임감 있는 AI 개발을 위해 추진한 ‘AI 행정명령’을 폐지한다고 밝혔으며, 미국 AI 안전연구소 역시 트럼프 2기 행정부에서 폐지될 가능성이 제기되고 있다. 이에 따라 미국에서 AI 윤리와 안전성에 대한 논의가 멈출 경우, 그 영향이 전세계로 퍼져나갈 수 있다는 우려가 나온다.
현기호 기자
저작권자 이코리아 무단전재 및 재배포 금지
더 많은 기사는 '이코리아'(http://www.ekoreanews.co.kr/)
'ICT' 카테고리의 다른 글
삼성 vs LG, AI 노트북으로 신년 AI 경쟁 본격화 (1) | 2025.01.02 |
---|---|
삼성, 구글, 엔비디아 등 휴머노이드 로봇 개발 경쟁 (1) | 2024.12.31 |
단통법 10년만에 폐지...남은 과제는? (3) | 2024.12.27 |
AI 검색 기능에서 취약점 발견...사용시 주의할 점은? (2) | 2024.12.27 |
CES 2025, 주목할 6대 트렌드와 혁신 기술 (5) | 2024.12.26 |