이런 가짜 사진이 실생활에도 혼란을 끼치는 사례가 잇따르면서 규제가 시급하다는 목소리가 나오고 있습니다.
미국의 국방부 건물, 펜타곤 근처에서 검은 연기가 피어오르고 있습니다.
얼핏 보면 생생한 폭발 사고 현장을 담고 있는 듯한 이 사진, 알고 보니 AI가 만든 가짜였습니다.
현지 시각으로 어제(23일) 아침 SNS를 통해 유포되기 시작한 이 가짜 사진은 러시아 관영 매체와 트위터 금융뉴스 계정 등에 잇따라 공유되며 혼란을 키웠습니다.
급기야 사진 유포 직후엔 S&P 500지수가 최대 0.3%까지 하락하며 증시에도 영향을 미친 것으로 파악됐습니다.
이를 두고 AI가 만든 사진이 시장을 움직인 첫 사례라는 우려가 나오기도 했습니다.
이처럼 AI가 만든 가짜 사진의 유포는 최근 들어 더욱 빈번하게 일어나고 있습니다.
앞서 지난 3월엔 미국 트럼프 전 대통령이 경찰에 쫓기다 연행되는 듯한 가짜 사진이 유포되기도 했죠.
문제는 이런 현상이 단순한 우발적 사건에 그치지 않고 사회 전반에 혼란을 주기 시작했다는 점입니다.
세계 각국의 입법기관을 비롯해 구글 등 IT 대기업도 AI를 활용한 가짜 뉴스를 방지하기 위한 본격적인 움직임에 나섰는데요,
빠르게 발달하는 AI의 기술 속도를 따라가려면 제도 정비 역시 한층 속도를 내야 할 것으로 보입니다.
YTN 김태민 (tmkim@ytn.co.kr)
※ ‘당신의 제보가 뉴스가 됩니다’
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr
▶ 기사 원문 : https://www.ytn.co.kr/_ln/0104_202305240522568764
▶ 제보 하기 : https://mj.ytn.co.kr/mj/mj_write.php
▣ YTN 유튜브 채널 구독 : http://goo.gl/Ytb5SZ
ⓒ YTN 무단 전재 및 재배포금지