5/ 숫자.
요약
AI 음성 복제 기술을 이용한 사기가 급증하고 있으며, 딥페이크 사기 피해로 인한 손실은 2025년에 수십억 달러에 이를 것으로 예상됩니다. 이 사기는 가족이나 지인으로 위장하여 전화 통화 등을 통해 금전을 요구하는 방식으로 이루어지며, 피해를 입는 사람이 전 세계 성인 10명 중 1명에 달할 정도로 광범위합니다. 현재 기술 수준으로는 진짜와 가짜 목소리 사이의 차이를 구별하기가 매우 어려워지고 있습니다.
핵심 포인트
- AI 음성 복제 사기가 지난 1년 동안 1,300% 증가했습니다.
- 딥페이크 사기로 인한 잠재적 손실은 2025년에 수십억 달러에 이를 것으로 예측됩니다.
- 피해자는 전 세계 성인 10명 중 1명 수준으로 광범위하게 나타나고 있습니다.
- 가족이나 지인의 목소리를 복제하여 금전을 요구하는 사기가 주요 위협입니다.
- 현재 기술로는 진짜와 가짜 음성 사이의 차이를 구별하기 매우 어렵습니다.
2/ 2,500만 달러 규모의 전화.
런던의 한 금융 종사자가 CEO 및 세 명의 동료와 함께 화상 회의(video call)에 참여했습니다. 그들은 자금 이체에 대해 논의했습니다. 그는 지시를 따랐습니다.
회의에 참석한 모든 사람은 AI였습니다. 모든 얼굴은 가짜였습니다. 모든 목소리도 가짜였습니다. 회의 전체가
3/ 3초의 법칙.
그것은 음성 복제(voice cloning) 도구가 필요로 하는 오디오의 양입니다. 3초.
생일 영상. 업무 발표. Instagram 스토리. 음성 메시지 안내.
사람들의 53%는 일주일에 적어도 한 번은 자신의 목소리를 온라인에 공유합니다.
여러분이 게시한 모든 영상은 가공되지 않은 재료입니다.
4/ 방어의 격차.
AI 안전(AI safety) 산업은 가짜 정치 영상에 대응하기 위한 딥페이크 탐지기(deepfake detectors)를 구축하는 데 수년을 보냈습니다. 대통령이 하지도 않은 말을 하는 영상. 존재하지 않는 영상 속의 후보자들.
그 위협은 결코 도래하지 않았습니다. 딥페이크 영상에 의해 결정된 선거는 단 하나도 없었습니다.
그
5/ 숫자.
AI 음성 복제(AI voice cloning) 사기가 1년 만에 1,300% 증가했습니다.
전 세계 성인 10명 중 1명이 표적이 되었습니다.
딥페이크 사기(deepfake fraud)로 인한 손실은 2025년에 수십억 달러에 달했습니다.
한 19세 청년은 전화로 누나의 목소리를 듣고 1,000달러를 지불했습니다. 누나는 무사했습니다. 목소리가 복제된 것이었습니다.
곤경에 처한 가족으로부터 걸려오는 다음 전화는 진짜가 아닐 수도 있습니다. 그리고 지금은, 그 차이를 알려줄 수 있는 것이 거의 없습니다.
이 스레드가 도움이 되었기를 바랍니다.
더 많은 정보를 위해 저를 팔로우하세요
@heynavtoor
가능하다면 아래 인용문을 좋아요/리포스트 해주세요:
AI 자동 생성 콘텐츠
본 콘텐츠는 X @heynavtoor (자동 발견)의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기