
산업 전반에 인공지능(AI) 기술이 접목되고 있는 가운데, 금융권에서도 AI 도입이 핵심 과제로 떠오르고 있다. 고객서비스 및 업무 자동화, 규제 리스크 관리 등 다양한 분야에서 AI를 통한 생산성 향상 시도가 확산하는 가운데, AI로 인한 금융시스템 리스크도 함께 대비해야 한다는 조언도 나온다.
앞서 우리은행은 지난 2일 생성형 AI 기술을 활용해 은행 업무 효율화를 추진한다고 밝혔다.
생성형 AI는 학습된 데이터를 이용해 문장, 영상, 프로그램 코드 등을 새롭게 생성하는 기능을 가진 인공지능으로, 데이터 분석이나 업무 자동화를 넘어 AI 스스로 새로운 컨텐츠를 생산할 수 있다.
우리은행은 지난 2022년부터 상품설명서, 규정, 공문, 게시 등 1000만 건이 넘는 비정형 데이터를 AI 학습이 가능한 형태로 개발해 왔으며, 이를 바탕으로 지난해 9월 ‘AI 지식상담 시스템’을 도입해 직원들이 원하는 정보에 더욱 쉽고 빠르게 접근할 수 있는 업무환경을 구축한 바 있다. 또한 올해 4월에는 ‘AI뱅커’를 도입해 자체 뱅킹 앱에서 고객을 대상으로 예적금 상품 상담 등을 지원하기도 했다.
우리은행은 생성형 AI 기술을 업무 단위로 특화해 ▲지식상담 서비스 ▲AI 고객 상담 ▲기업리포트 생성 등에 적용하는 한편, 관련 인프라 구축도 병행 추진할 방침이다.
AI 도입에 나선 금융사는 우리은행뿐만이 아니다. 미래에셋증권은 지난해 8월 생성형 AI를 활용한 자산관리 정보 제공 서비스 ‘AI 고객 맞춤 인포메이션 서비스’를 출시했다. 미래에셋자산운용도 지난해 호주 로보어드바이저 전문 운용사인 스톡스팟(Stockspot)을 인수하며 AI 시대를 준비하고 있다.
이처럼 AI는 국내외 금융권에서 정체된 생산성을 높여 줄 핵심 성장동력으로 주목받고 있다. 엔비디아가 지난 2022년 발표한 보고서에 따르면, 금융산업 참여자의 78%가 머신러닝, 딥러닝, 고성능 컴퓨팅 등의 AI 기술을 활용 중인 것으로 집계됐다. 글로벌 금융사 대부분이 AI를 통한 업무 고도화에 사활을 걸고 있다는 것.
금융사 업무에서 AI 기술을 통해 생산성을 향상시킬 수 있는 분야는 적지 않다. ‘AI 챗봇’ 서비스의 경우 고객 경험을 기반으로 24시간 365일 고액에게 최적화된 금융서비스를 제공해줄 수 있는 데다, 금융사가 대면서비스를 유지하는 데 드는 비용도 크게 절감하는 효과가 있어 다수의 금융사가 앞다퉈 도입하고 있다. 실제 뱅크오브아메리카(BoA)는 AI 금융비서에게 고객의 금융·비금융 정보를 학습시켜 일 평균 150만명의 고객을 대상으로 음성 계좌조회 및 자금이체 등 다양한 금융서비스를 제공하고 있다.
단순 업무뿐만 아니라 대출심사나 신용평가 등 핵심 업무에 있어서도 AI를 적용해 부실 위험을 줄이고 업무 효율을 높일 수 있다. 하나은행은 지난 2021년 국내 금융권 최초로 머신러닝을 적용해 고객의 거래 패턴을 분석하고 대출한도를 자동으로 산출하는 AI대출 서비스를 도입한 바 있다.
이상거래, 자금세탁 등 금융사기 예방 또한 AI 접목 효과를 기대할 수 있는 분야다. 삼성카드는 지난 2020년 AI 기술을 접목한 보이스피싱 전용 이상거래탐지시스템(FDS)을 구축했다. KB국민은행 또한 AI 기반 보이스피싱 모니터링 시스템을 도입해 2022년 기준 8620건, 634억원 규모의 금융사기 피해를 사전 예방한 바 있다.
이처럼 금융권이 AI를 통해 업무 효율화와 리스크 감소, 고객 만족 등 다양한 효과를 거두고 있지만, AI 도입으로 인해 발생할 수 있는 새로운 형태의 리스크도 대비해야 할 필요가 있다는 지적이 나온다. 실제 지난 2월 홍콩에서는 금융사 직원이 딥페이크 기술을 악용한 사기에 당해 340억원을 송금하는 사건이 발생한 바 있다. 사기범은 화상회의에서 딥페이크로 금융사 임원들의 얼굴을 재현해 해당 직원을 속인 것으로 알려졌다.
미국에서도 AI로 인해 금융시스템이 불안정해질 수 있다는 지적이 나온 바 있다. 미 금융안정감독위원회(FSOC)는 지난해 12월 연례보고서를 내고 “AI가 혁신을 촉진하고 효율성을 높일 잠재력이 있지만 금융 분야에서의 사용은 잠재적 리스크를 관리하기 위한 신중한 시행과 감독을 요구한다”라며, 생성형 AI 도입에 따른 데이터 보안, 소비자 보호, 사생활 위험 등을 지적했다.
또한 FSOC는 AI 모델의 ‘블랙박스’ 문제도 지적했다. AI 모델은 내부에서 어떻게 작동하는지 파악하기 어렵기 때문에, AI 모델이 내린 결정을 설명하기 어렵고 그에 의존한 금융시스템의 안전성도 확신할 수 없다는 것. 금융사가 AI 모델에 따른 의사결정을 설명하지 못한다면 고객의 신뢰가 떨어질 수 있고, 향후 해당 결정에 따른 문제가 발생했을 때 책임을 묻기도 어려울 수 있다.
한편, 이병관 한국금융연구원 부장대우는 지난 3월 발표한 ‘생성형 AI가 가져올 금융리스크와 향후 대응 방향’ 보고서에서 “금융업 내에서 AI의 활용이 확산되는 가운데 금융기관의 이용실태 및 금융시장에 미치는 영향 파악, 리스크를 토대로 한 규제체계 정비 등은 금융당국의 주요 이슈로 부상하고 있다”라며 “금융당국은 AI 이용실태 파악, 해외 금융당국과의 협력을 통해 AI 관련 리스크를 검증하고, 규제감독의 방향성을 제시할 필요가 있다”고 조언했다.
임해원 기자
저작권자 이코리아 무단전재 및 재배포 금지
더 많은 기사는 '이코리아'(http://www.ekoreanews.co.kr/)
'경제' 카테고리의 다른 글
고령 운전자 교통사고 증가세, 정부·보험업계 대책 마련해야 (1) | 2024.07.05 |
---|---|
디지털 헬스케어 기술 어디까지 왔나 (0) | 2024.07.04 |
해외여행 때 트래블카드, 환전 수수료 없다고 덥석 바꾸면 낭패 (0) | 2024.07.04 |
신고가 경신한 4대 금융, '주주환원' 잰걸음 (0) | 2024.07.04 |
메리츠금융, 금융지주 ‘1호 밸류업’ 공시... "순익 50% 주주환원" (0) | 2024.07.04 |