(조세금융신문=진민경 기자) 생성형 인공지능(AI)이 산업 전반에서 활용 범위를 넓히고 있는 가운데, 범죄 수단으로 악용되는 사례도 점차 늘고 있다. AI 기술의 순기능을 살리면서 금융 범죄 등 부작용을 차단하기 위한 대응책 마련이 시급하다는 지적이 제기된다.
실제로 올해 발생한 금융 범죄 가운데 보이스피싱 범죄가 딥페이크·딥보이스 기술과 결합한 사례, 챗GPT로 만든 위조 진단서를 활용해 억대 보험금을 편취한 사례 등에서 AI가 범죄 수법을 정교화하는 데 활용됐다는 평가가 나온다.
서울교통공사에 따르면 지난 4월 내방역 내 상가 종사자가 AI로 복제한 딸 목소리와 거의 구분되지 않는 통화 음성으로 ‘납치됐다’는 말을 듣고 보이스피싱 피해를 입을 뻔하다가 지하철 직원의 도움으로 미수에 그친 일이 있었다. 주로 딥보이스를 통한 범죄 사례는 SNS 등에서 얻은 특정 인물의 목소리를 복제한 뒤 납치된 것처럼 꾸며 전화를 받은 사람이 압박감에 돈을 송금하도록 유도하는 형태로 이뤄지고 있다.
경찰청 국가수사본부에 따르면 지난 11월 딥페이크 기술로 자녀의 얼굴을 합성한 가짜 영상으로 인해 보이스피싱이 발생하기도 했다. 외국에 거주하는 부모가 외국 범죄조직으로부터 한국을 여행 중이던 딸이 납치된 채 울면서 살려달라는 영상을 받은 것인데, 부모가 이후 영사관에 알리고 한국 경찰에 신고하면서 직접적인 피해로 이어지지 않고 일단락됐다.
챗GPT로 만든 위조 진단서로 억대 보험금을 받아낸 사건도 발생했다. 24일 부산지법 형사3단독은 2024년 7월부터 1년여 동안 11차례에 걸쳐 챗GPT로 병원 진단서를 만든 후 보험금 1억5000만원을 받아낸 A씨에 대해 징역 2년을 선고했다. A씨는 부산의 한 병원에서 발급받은 입원·통원확인서를 휴대전화로 촬영해 챗GPT에 올린 후 입원과 퇴원기간을 늘려달라고 요청했고 이를 토대로 보험금을 편취했다.
AI를 활용한 범죄·사기가 국내를 넘어 해외에서도 빠르게 확산되면서 심각성이 커지고 있다.
영국 매체 <파이낸셜타임즈>는 최근 미술품 사기에 AI가 악용되고 있다는 사례를 집중 조명했다. AI를 사용해 소유권과 진위증명서류 등을 위조해 보험 청구나 거래에 제출하는 등 문서를 조작하는 경우가 증가하고 있고, 해당 문서들은 전문가들조차도 검증하기 어려울 정도로 정교했던 것으로 파악됐다.
또 다른 영국 매체 <가디언>도 최근 AI가 복제한 음성(voice cloning) 기술이 범죄자들에게 악용될 가능성이 높다고 보도했다. 특히 해당 매체는 단 3초짜리 오디오 녹음만 있어도 AI가 특정인의 음성을 매우 정교하게 재현할 수 있고, 실제 범죄자들이 AI 복제 음성으로 위급한 상황을 꾸며 감정적 반응을 자극하고, 이를 통해 금전을 요구하는 사례가 확인되고 있다고 전해 경각심을 키웠다.
이처럼 국내는 물론 해외에서도 AI를 활용한 문서 위조·사기 사례가 확산되면서 금융 거래의 신뢰를 어떻게 지켜낼 것인지가 공통의 과제로 떠오르고 있다. 단순 사후 처벌을 넘어 AI 악용 범죄를 조기에 인지하고 피해 확산을 막기 위해 금융권과 수사기관의 대응 체계 고도화가 필요하다는 지적이 나온다.
시중은행 관계자는 취재진에 “AI 기술이 금융 범죄에 악용될 수 있다는 점을 인지하고 있다”며 “현재 관련 리스크를 점검하며 대응 방안을 검토하고 있다”고 설명했다.
보안 업계는 보다 적극적인 대응책 마련이 필요하다는 지적과 함께, AI의 악용을 차단하는 한편 순기능을 살리는 방향의 접근이 필요하다고 조언했다.
보안 업계 관계자는 취재진에 “딥보이스나 딥페이크 등 AI 기술이 기존 보이스피싱 수법의 판을 바꾸고 있다는 점을 심각하게 보고 있다”며 “사후 차단 위주의 대응만으로는 한계가 뚜렷하다. 아이러니하게도 AI 활용 범죄이지만, 대응 역시 AI 기반 기술을 통해 가능한 측면이 있다. AI 기반 이상거래 탐지 고도화 등 선제적 대응 방안이 적극적으로 검토돼야 한다”고 전했다.
[조세금융신문(tfmedia.co.kr), 무단전재 및 재배포 금지]



