본문 바로가기
ICT

빅테크는 왜 'AI 에이전트' 개발에 집착할까

by 이코리아 티스토리 2024. 10. 28.
728x90
= 픽사베이

 AI가 이용자의 질문에 답변하는 단계를 넘어, 스스로 작업을 수행하는 'AI 에이전트'가 점차 현실화되고 있다. AI 에이전트란 단순히 이용자의 질문에 답변을 내놓는 챗봇을 뛰어 넘어, 이용자의 요구 사항에 따라 웹 검색, 일정 관리, 작업 자동화 등 인간의 지시 없이도 다양한 업무를 수행하는 AI 서비스를 뜻한다. 

 

시장조사업체 마켓앤마켓은 AI 에이전트 시장이 2024년 51억 달러에서 2030년 471억 달러로 성장할 것이라고 예측했으며, 특히 생산성 도구와 고객 서비스 분야에서 AI 에이전트의 도입이 급격히 늘어날 것이라고 짚었다.

 

또 글로벌 시장조사 기관 가트너는 2025년 주요 기술 트렌드 중 가장 먼저 AI 에이전트를 꼽았다. 2028년에는 기업 의사결정의 15%가 AI 에이전트를 통해 이루어질 것이며, AI 도입 비용이 점차 절감됨에 따라 중소기업들도 AI 에이전트를 도입할 수 있는 여건이 마련될 것이라는 분석이다.

 

AI 에이전트가 주목받으며 주요 기술 기업들도 개발에 뛰어들었다. 우선 로이터 등 외신에 따르면 구글은 현재 AI 에이전트 '프로젝트 자비스'를 개발 중이며, 12월에 구글의 LLM '제미나이'의 차세대 모델과 함께 공개할 예정이다. 자비스는 브라우저와 PC를 직접 제어해 사용자의 개입 없이도 자료 수집, 제품 구매, 항공권 예약 등의 작업을 수행할 수 있다. 

= 앤트로픽 유튜브 갈무리

지난 22일에는 AI 스타트업 '앤트로픽'이 자사의 AI 서비스 '클로드 3.5'에 '컴퓨터 유즈' 기술을 공개했다. 이 기술은 사용자의 개입 없이 마우스를 움직이고 화면을 캡쳐하며 구글을 활용해 정보를 검색하고, 앱을 실행하며, 지도에서 위치를 찾고 캘린더에 일정을 등록하는 등 다양한 작업을 수행할 수 있다.

 

오픈AI는 AI의 고급 추론 기능을 강화하기 위해 ‘프로젝트 스트로베리’라는 비공개 프로젝트를 진행 중인 것으로 알려져 있다. 스트로베리는 자율 웹 탐색과 복잡한 연구 수행을 목표로 하며, 소프트웨어와 기계학습 엔지니어의 작업을 자동화하는 실험도 진행되고 있다. 

 

마이크로소프트는 11월에 자율 AI 에이전트 구축 플랫폼을 공개할 예정이다. MS가 선보일 코파일럿 스튜디오는 기업들이 코딩 지식 없이도 자체적으로 AI 에이전트를 개발하는 것을 지원하며  고객 응대, 영업 관리, 재고 관리 등 다양한 기업 활동에서 자동화된 업무 처리를 지원할 예정이다.

 

최근 자사의 LLM '에이닷'의 고도화에 나선 SKT 역시 '에이닷 X'를 기반으로 통신 분야에 특화된 AI  에이전트를 개발할 것이라고 밝혔다.

 

한편 자율성을 지니고 각종 작업을 수행하는 AI 에이전트를 두고 우려의 목소리도 나온다. AI가 인간의 개입 없이 스스로 작업을 수행하는 과정에서 예상치 못한 결과가 나타날 수 있으며, 프라이버시 및 보안 문제 역시 우려된다는 것이다. 기업과 정부 차원에서 AI 에이전트의 법적 책임과 윤리적 문제를 해결하고 위험성을 관리하기 위한 논의가 필요하다는 지적이 나오고 있다.

 

조너선 지트랜 하버드대 교수는 지난 7월 디 애틀랜틱에 기고한 글을 통해 AI 에이전트에 대한 제어가 필요하다고 촉구했다. 그는 지난 2010년 자동화된 거래 시스템의 오류로 인해 나스닥 증권 거래소에서 혼란이 발생했던 '플래시 크래시' 사태를 예로 들며, AI 에이전트의 무분별한 도입 역시 이와 같은 예상치 못한 혼란을 초래할 수 있다고 지적했다. 인간의 실수로 AI 에이전트가 무한정 작동하게 되고, 상황이 변함에 따라 에이전트를 누가 설정했는지, 어떻게 그리고 어떤 권한으로 끄는지 식별하는 프레임워크가 없다면 결국 궤도에 던져지고 잊혀진 우주 쓰레기처럼 버려진 에이전트가 웹에 범람할 수도 있다는 우려다.

= X 갈무리

기업에서 개발한 AI 에이전트가 사용자의 시스템과 직접 상호작용할 수 있게 되면서 개인정보 유출과 사이버 보안 문제에 대한 우려 역시 제기된다. 특히 악의적인 공격자가 AI 에이전트를 활용해 경제 사기나 대규모 사이버 공격을 감행할 수 있다는 우려다. 

 

지난해 챗 GPT를 기반으로 만들어져 스스로 작업을 수행하는 '오토 GPT'가 개발되었을 당시에도, 이와 같은 문제가 제기되었다.

 

예를 들면 한 이용자가 오토 GPT에게 ‘인터넷에서 나를 스토킹해봐’라고 명령했더니, 오토 GPT는 순식간에 명령을 입력한 이용자의 인터넷 활동과 약력 등의 개인정보를 스스로 수집하는 모습을 보여줬다. 자동화 AI에게 사이버 범죄에 활용할 프로그램 제작을 지시하거나, 아예 사이버 공격을 스스로 실행하도록 명령을 내릴경우 걷잡을 수 없는 피해가 나올 수 있다는 우려가 나온다.

 

 

현기호 기자

저작권자  이코리아 무단전재 및 재배포 금지

 

더 많은 기사는 '이코리아'(http://www.ekoreanews.co.kr/)