接電話先別「喂」!AI仿聲只需3秒 恐成詐騙新招|#鏡新聞 | 質問の答えを募集中です! 接電話先別「喂」!AI仿聲只需3秒 恐成詐騙新招|#鏡新聞 | 質問の答えを募集中です!

接電話先別「喂」!AI仿聲只需3秒 恐成詐騙新招|#鏡新聞

電話
接電話先別「喂」!AI仿聲只需3秒 恐成詐騙新招|#鏡新聞
AI人工智慧帶來便利,但也成為不肖份子的詐騙工具之一!加州柏克萊大學一位教授就示警,「AI仿聲」只需要短短3秒鐘,就能輕鬆複製聲音進行詐騙,所以提醒大家如果接到陌生來電,千萬不要先開口說話。但真的有這麼嚇人嗎?鏡新聞找了 專門研究AI生成技術的專家來實測,發現英語系國家AI複製聲音,相似度確實高達九成,很難辨識。

(「鏡新聞」已在MOD508台與YouTube頻道同步播出。)

鏡新聞YouTube👉https://reurl.cc/yrypNy
鏡新聞官方網站👉https://www.mnews.tw/
鏡新聞Facebook👉https://www.facebook.com/mnewstw/
鏡新聞Instagram👉https://www.instagram.com/mnewstw/
鏡新聞Twitter👉 https://twitter.com/mnews_tw
鏡新聞Line帳號👉https://lin.ee/4XsO8xi
鏡新聞APP iOS👉https://reurl.cc/kqyqML
鏡新聞APP Android👉https://reurl.cc/Ay2y63



 ⬇人気の記事!⬇

タイトルとURLをコピーしました