[블록미디어 명정선 기자] AI를 이용한 딥페이크 공격이 비디오와 오디오를 넘어 암호화폐로 확대되고 있다는 경고가 나오고 있다. 보안 업체들은 사용자가 디지털 자산을 보호하기 위해 각별히 주의해야 한다고 당부한다.
#AI 딥페이크 공격, 암호화폐 계속 위협할 것
10일 코인텔레그래프에 따르면 소프트웨어 업체 젠 디지털(Gen Digital)은 지난 4일 보고서에서 2024년 2분기 동안 악의적인 해커들이 AI 딥페이크 사기를 통해 암호화폐 범죄 활동을 강화하고 있다고 밝혔다. 일례로 ‘크립토코어(CryptoCore)’라는 해커 그룹은 AI 딥페이크를 통해 500만 달러 이상의 암호화폐를 사취했다.
웹3(Web3) 보안 업체인 서틱(CertiK)도 코인텔레그래프에 AI 기반 딥페이크 사기 방식이 비디오와 오디오 녹음을 넘어 더욱 정교해지고 있다고 지적했다.
사이버 보안 업체 노턴(Norton)의 루이스 코론스(Luis Corrons)는 AI 기반 공격이 계속해서 암호화폐 보유자를 표적으로 삼을 것이라고 전망했다. 코론스는 “암호화폐 거래는 고액이면서도 익명으로 이루어질 수 있어 사이버 범죄자들에게 더 매력적인 타겟이 된다”고 말했다. 그는 그 이유로 암호화폐에 대한 규제가 부족하기 때문에 사이버 범죄자들이 더 많은 공격 기회를 노린다고 덧붙였다.
# AI 딥페이크 공격 예방하려면
다만, 보안 전문가들은 AI 기반 공격이 암호화폐 사용자에게 큰 위협이 될 수 있지만, 이를 예방할 수 있는 방법도 분명 있다고 조언했다.
서틱의 대변인은 교육이 좋은 출발점이라고 강조했다. 또한 그는 위험이 있지만 위험을 알고, 이를 방어할 수 있는 도구와 서비스를 아는 것이 매우 중요하다고 말했다.
코론스는 사용자가 AI 딥페이크 사기를 피하기 위해 주의해야 할 “경고 신호”가 있다고 설명했다. 예를 들면 부자연스러운 눈동자 움직임, 표정, 몸짓 등이다.
또한 감정의 결여도 중요한 단서가 될 수 있다. 그는 “어떤 사람의 얼굴이 말하는 내용에 맞지 않는 감정을 나타낸다면 이미지 합성이 의심될 수 있다”고 말했다.
이 외에도 어색한 신체 형태, 불일치, 오디오의 불일치 등을 통해 AI 딥페이크 여부를 판단할 수 있다고 강조했다.
같이 보면 좋은 기사