1. <kbd id="9kdmb"></kbd>

            您當前的位置: 安徽新聞 > 網絡辟謠平臺

            • 2024-09-18 10:11
            • 來源: “合肥警方”微信公眾號
            • 作者:

              近日

              韓國曝出“Deepfake”

             ?。ㄉ疃葌卧旒夹g)事件

              多個關于“韓國AI深度偽造”的話題詞

              引發(fā)網友熱議

              據韓媒報道

              針對女性的深度偽造犯罪

              在韓國日趨猖獗

              Deepfakes是利用

              AI換臉制造色情圖頻

              韓國網民在通訊軟件

              “電報”(Telegram)上

              發(fā)現大量聊天群

              其中有成員創(chuàng)建和分享露骨的

              性“深度偽造”圖像

              對象涉及未成年女孩

              在此過程中

              加害者還毫不猶豫地

              公布受害女性的身份

              威脅受害人,索要錢財

              據報道

              韓國教育部9日表示

              今年已發(fā)生400多起

              涉及中小學的相關案件

              受害者累計超過600人

              如何快速識別

              AI換臉變聲詐騙?

              深度鑒偽5秒讓AI換臉詐騙無處遁形

              如何為“一老一小”

              構建安全通訊環(huán)境?

              AI技術強力反制電信詐騙

              9月8日,2024年國家網絡安全宣傳周在南沙正式拉開帷幕,關于AI換臉、換聲等對個人隱私侵害的話題成為大家關注的焦點。一張“人像照片”、一段近距離的人物視頻,都有可能成為不法分子犯罪的新手段和新工具。

              畫面中技術人員正在演示的就是“AI換臉”技術,僅需一張目標人物的靜態(tài)照片,就能讓照片中的人物動起來。

              中國網絡空間安全協(xié)會人工智能安全治理專業(yè)委員會委員張博介紹,“盡管現在AI換臉、換聲等有一定的技術門檻和操作成本,但如果被不法分子獲取的情況下,就有可能被用來假冒他人,實施相關的犯罪活動?!?/p>

              通過“換臉”偽造不雅照

              深圳警方打掉一個犯罪團伙

              AI換臉、換聲等技術

              一旦被不法分子利用

              還會成為敲詐勒索的工具

              此類案例在各地已經發(fā)生了很多起

              前不久

              深圳警方打掉一個犯罪團伙

              前不久,深圳市民吳先生突然收到一個陌生手機號碼發(fā)來的彩信,點開一看竟然是他和一名陌生女子在酒店房間內的不雅照片。

              當事人 吳先生:當時我收到一條彩信,里面是我的一張裸照。他當時威脅我,在幾點之前要跟他聯(lián)系、轉錢,我當時一想不對勁,就報警了。

              深圳警方接到報案后,立即對吳先生提供的線索進行偵查。通過梳理報案記錄,警方發(fā)現全市有同樣遭遇的不止吳先生一人,犯罪嫌疑人的敲詐勒索方式都如出一轍。

              隨著調查的深入,警方發(fā)現這是一個以王某為首的犯罪團伙,團伙內分工明確,有人負責修圖,有人負責尋找作案目標,有人負責發(fā)短信打電話敲詐勒索。在掌握大量線索后,深圳警方展開統(tǒng)一收網行動,成功抓獲以王某為首的10多名犯罪嫌疑人。

              在犯罪嫌疑人的電腦里,警方發(fā)現了大量經過合成換臉后的不雅照片。

              深圳市公安局坪山分局民警 張威:從嫌疑人電腦里面提取的相關證據,這些圖片是嫌疑人從各種渠道收集的被害人圖片信息,然后進行合成處理用來敲詐被害人。

              目前,王某等人已被檢察機關提起公訴。案件正在進一步審理當中。

              AI換臉的原理是什么?

              如何一眼識別換臉破綻?

              據了解

              目前針對“AI換臉”技術

              實施各類侵犯個人信息的

              行為時有發(fā)生

              在灰色領域甚至違法犯罪領域被濫用

              AI換臉的原理是什么?

              如何一眼識別換臉破綻,加以防范?

              張博向記者詳細展示了AI換臉過程和原理,“只需要輸入一張正面靜態(tài)圖片,借助人工智能技術,便可以實時‘移花接木’?!?/p>

              他進一步介紹,AI換臉的3大步驟原理:面部識別追蹤、面部特征提取、面部變化融合?!罢w的原理是通過計算機深度學習,精準識別人臉圖像,然后提取眼睛,鼻子,嘴巴等重要的面部特征,然后把這些特征與目標人臉圖像進行匹配,替換和融合。”

              如今“AI 換臉”技術已經比較成熟的

              甚至能夠實現視頻通話的實時換臉

              雖然單憑肉眼很難分辨

              不過張博指出

              只要稍加留心

              “AI換臉”還是有明顯破綻

              “馬腳”就在面部輪廓和光線

              警惕!

              這幾種照片千萬不要隨便發(fā)

              日常生活中

              不少人喜歡在朋友圈、短視頻上

              曬美食、曬美景

              但是如果不小心的話

              這些行為很可能

              間接泄露你的個人信息

              如果被別有用心的人獲取

              可能會危及自己和家人的

              財產乃至人身安全

              哪些照片一定要小心?

              千萬不要隨意發(fā)到網上呢?

              不要公布手持身份證或手持白紙照。這些照片中會包含個人姓名、身份證號碼、住址等敏感信息,一旦泄露,不法分子可能利用這些信息進行身份盜用,辦理信用卡、貸款等金融業(yè)務,甚至進行違法活動。另外,手持白紙或手持報紙等照片常被用于驗證身份,如果被不法分子獲取,可能被用于制作假證件或進行網絡詐騙,會給個人帶來經濟損失和名譽損害。

              不要發(fā)布各種票據類的照片。很多人出差、旅游都喜歡拍火車票或飛機登機牌,發(fā)到自己的朋友圈分享。這些票據上不僅會包含姓名、出發(fā)地、目的地等信息,而且在條紋碼或者二維碼中也會含有乘客的個人信息,存在被不法分子破解并竊取的可能。

              不要曬家門鑰匙、車牌等照片。不法者通過大數據等技術手段,通過這些照片會分析出發(fā)布者特定時間所處的特定位置,也會獲取發(fā)布者相關的生活習慣。所以,最好的辦法就是不要在照片中出現特征明顯的物品,例如家門鑰匙、車牌號碼等。

              保護個人隱私至關重要

              公眾應提高警惕

              避免在網絡上隨意發(fā)布

              包含個人敏感信息的照片

              轉發(fā)提醒親朋好友注意~ 

            編輯: 趙娣
            推薦閱讀
            安徽是農業(yè)大省,這仍然重要


            發(fā)布于2024-12-21 08:00:42

            張鑫宇:微光亦璀璨 平凡亦不凡


            發(fā)布于2024-12-20 20:47:13

            “陜電入皖”加快推進


            發(fā)布于2024-12-19 05:43:51

            熱點圖片
            亚洲最大福利视频网站。,久久精品国产亚洲七七,无码中文字幕在线专区,亚洲综合在线香蕉 91 传媒国产午夜福利一区 亚洲无码久久久久亚洲精品
                1. <kbd id="9kdmb"></kbd>