二維碼

掃一掃加入微信公眾號

Top
網站首頁 新聞 國內 國際 河南 焦作
時政要聞 專題 直播 網視 網談 網評
今日頭條 汽車 旅遊 經濟 美食
焦作關注 房產 娛樂 體育 市場
 焦作日報 手機報 經典微視頻
 焦作晚報 “焦作+”客戶端
 經典山陽 小記者 焦作論壇
 網上投稿 記 協 訂報服務
  您現在的位置: 焦作網 > 新聞中心首頁 > 國內新聞 > 正文

新聞中心首頁

AI換臉騙局頻現 人工智能使用邊界在哪兒
更新時間:2023-6-6 10:31:01    來源:中國青年報

對於濫用生成式人工智能技術的擔憂在世界範圍內都存在。不僅因為其超越一般技術的“創造能力”和“破壞性”,更因為人們發現,生成式人工智能技術發展的速度極快。目前,世界各國對其風險的預判與防範均處於探索階段,有賴於法律體係的進一步完善。

  ——————————

  10分鍾內被騙走430萬元,近期,用AI技術興風作浪的詐騙案件,引起了社會關注。

  5月22日,包頭警方發布的一起利用AI實施電信詐騙的案例衝上熱搜。福州市某科技公司法人代表郭先生在接到“好友”微信視頻電話後,考慮到關係好又是真人視頻通話,在10分鍾內直接向對方賬戶彙款430萬元。隨後才意識到自己遭遇了“高端”騙局,“好友”是騙子通過AI換臉技術佯裝而成的。

  關於AI技術的爭論不曾停止過。此前,ChatGPT就曾因編寫假新聞而飽受詬病,而近期大量出現的AI詐騙更是令人不得不開始反思,AI生成的虛假信息或許潛藏著巨大的社會風險。

  需警惕生成式人工智能技術的濫用

  英國媒體《每日郵報》曾報道,2019年3月,英國警方逮捕了一名使用AI語音模仿軟件的詐騙者。他將自己的聲音改變成當地一家能源公司老板的聲音,以“幫助公司避免拖欠罰款”為由要求一位高管向其彙款,通過電話騙取了22萬歐元(約合人民幣170萬元)。據這名高管回憶,當時他也產生了疑心,但他的確聽到了老板的德國口音。此案被認為是全球首例人工智能詐騙案。

  其實,模仿一個人的聲音乃至外貌,對AI來說並不是新鮮事。此前,“AI孫燕姿”就曾在B站等網絡平台走紅,視頻上傳者通過使用AI音色替換技術(Sovits4.0),生成了高度還原孫燕姿音色的翻唱歌曲,其中原唱為周傑倫的歌曲《發如雪》播放量已超過200萬次。近期也有媒體報道了一款網絡上的付費AI換臉軟件,其套餐價格從499元到2888元不等,肉眼來看,換臉之後的“數字人”口型、表情、微小的動作幾乎毫無破綻。

  諸如此類生成式人工智能(Generative Artificial Intelligence,簡稱GAI)的大量出現很大程度上得益於深度合成和機器學習的快速發展。而AI詐騙者正是通過這些先進的技術,訓練出能夠模擬人類語言和神態的AI。

  蘇州大學競爭政策與反壟斷研究中心研究員方翔指出,近期的AI詐騙案件主要是人工智能技術在圖像領域的應用,其可以將不同人臉圖像中的麵部特征相互替換。“擬聲”則是借助深度學習模型,根據已有的語音樣本(如通話錄音、網絡視頻等)生成與其近似的聲音,進而做到與人交談。

  5月24日,中國互聯網協會發文提醒,伴隨著深度合成技術的開放開源,深度合成產品和服務逐漸增多,利用“AI換臉”“AI換聲”等虛假音視頻,進行詐騙、誹謗的違法行為屢見不鮮。麵對利用AI技術的新型騙局,廣大公眾需提高警惕,加強防範。業內人士普遍認為,“AI換臉”技術的濫用給人們敲響了警鍾,其複雜性、隱蔽性也給科技識別及運用提出了更高的要求。

  “對於生成式人工智能,正當適度使用,可以倍增工作效率,有力推動創意產業發展,促進消費者福祉增長。但同時,虛假使用可引發謠言泛濫、侵害權利、壓榨利益,而過度使用可引發踐踏人性、減少就業、貧富懸殊,而惡意濫用甚至成為歪曲真相、撕裂社會、政策幹擾、禍亂宇內的罪惡之源。”中國互聯網協會法工委副秘書長胡鋼認為,要堅持依法崇德治理,使全社會形成法網大於互聯網、國法高於算法、人工智能不能成為“人工製人”的共識。

  探索構建完善的人工智能法律體係

  “我國針對人工智能及數據安全、個人信息保護的立法雖然起步較晚,但日臻成熟。”方翔指出,早在2017年7月,國務院印發《新一代人工智能發展規劃》,其作為我國AI發展的綱領性文件,提出了麵向2030年我國新一代人工智能發展的指導思想、戰略目標、重點任務和保障措施,其中特別提到“到2025年初步建立人工智能法律法規、倫理規範和政策體係,形成人工智能安全評估和管控能力”。

  2022年12月,國家網信辦、工信部、公安部聯合發布《互聯網信息服務深度合成管理規定》,強調不得利用深度合成服務從事法律、行政法規禁止的活動,要求深度合成服務提供者對使用其服務生成或編輯的信息內容,應當添加不影響使用的標識。提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內容功能服務的,可能導致公眾混淆或者誤認的,應當進行顯著標識。

  2023年4月,國家網信辦起草《生成式人工智能服務管理辦法(征求意見稿)》並向社會公開征求意見,提出AI內容必須真實準確,禁止非法獲取、披露、利用個人信息和隱私、商業秘密。

  “總的來看,構建完善的人工智能法律體係,我國目前仍在探索階段。”方翔說。中國信息通信研究院雲計算與大數據研究所所長何寶宏則指出,2022年12月發布的《互聯網信息服務深度合成管理規定》明確針對在中國境內應用深度合成技術提供的互聯網信息服務進行規製,其中,深度合成技術是指利用深度學習、虛擬現實等生成合成類算法製作文本、圖像、音頻、視頻、虛擬場景等網絡信息的技術。“在上述法律法規的具體落實過程中,存在兩方麵的挑戰。”

  “一是防範深度合成技術應用生成錯誤價值導向、虛假信息的能力需要進一步提升。《互聯網信息服務深度合成管理規定》要求深度合成服務提供者對輸入數據和合成結果進行審核、建立健全識別違法和不良信息的特征庫、依法處置違法和不良信息的生成合成信息內容。但是,對於深度合成服務提供者如何落實內容管理需要進一步細化,提供者需要不斷提升技管結合的能力;對於內容管理落實的具體效果,也有待進行持續性的跟蹤檢驗。”其次,何寶宏指出,對深度合成信息內容增加標識的具體規範也需要進一步細化,文件中明確深度合成服務提供者提供深度合成服務,可能導致公眾混淆或者誤認的,應當在生成或者編輯的信息內容的合理位置、區域進行顯著標識。“但對於如何增加顯著標識以及增加標識的具體方式需要盡快出台細化的要求規範。”

  超越一般技術的“破壞性”引發擔憂

  對於濫用生成式人工智能技術的擔憂在世界範圍內都存在。不僅因為其超越一般技術的“創造能力”和“破壞性”,更因為人們發現,生成式人工智能技術發展的速度極快。

  從OpenAI去年11月推出ChatGPT,到今年3月其迭代品GPT-4麵世,僅用了幾個月的時間。GPT-4不僅知識麵更廣、回答問題更流暢,還可以描述並理解圖片,甚至具備一定自我反思的能力。

  OpenAI的首席執行官Sam Altman接受采訪時就曾表示,擔心這些模型可能被用於大規模的虛假信息,也擔心人類被控製。“ChatGPT是一個高度受人類控製的工具。但也許會有人放棄設置我們目前已有的一些安全限製。”他補充,“我認為,社會隻有有限的時間來弄清楚如何對此做出反應,如何監管,如何處理它。”

  今年3月,美國特斯拉汽車公司首席執行官埃隆·馬斯克曾聯合1000多名業界、學界人士發表公開信,呼籲所有AI實驗室立即暫停訓練比ChatGPT更強大的AI係統,暫停至少6個月。其信中提到,在開發強大的AI係統之前,要確信這些係統的影響是積極的,風險是可控的。

  同時公開報道顯示,今年3月31日,意大利個人數據保護局宣布即日起暫時禁止使用ChatGPT,並暫時限製OpenAI處理意大利用戶數據。意大利成為首個禁止ChatGPT的西方國家,歐盟的多個國家也開始跟進,醞釀具體監管措施。

  各國政府都在加快出台人工智能監管法律。據路透社報道,英國競爭和市場管理局正在審查人工智能對消費者、企業和經濟的影響,考慮是否需要新的監管措施。法國隱私監管機構正在調查與ChatGPT有關的幾起投訴。澳大利亞政府正在谘詢科學谘詢機構,來考慮下一步的監管行動。歐洲數據保護委員會已成立ChatGPT特別工作組;歐盟消費者組織則呼籲歐盟消費者保護機構調查ChatGPT技術及對消費者的潛在危害。

  “鑒於人工智能的技術複雜性,世界各國對其風險治理均處於探索階段,對其約束和監管仍有賴於法律體係的完善。”方翔介紹,歐盟目前正在推進全球首部人工智能法案。2023年4月,歐洲議會成員就《人工智能法(The AI Act)》提案達成臨時政治協議,強化對生成式人工智能的監管,並將人工智能技術可能帶來的風險細化為極小風險、有限風險、高風險、不可接受風險4個等級。“這一立法動向值得我國關注。”方翔告訴記者。

  中青報·中青網記者 李若一 王林 見習記者 裴思童 來源:中國青年報

新聞編輯:楊銘 
  • 上一條新聞:
  • 下一條新聞: 沒有了
  • 焦作網免責聲明:

    本網所有稿件,未經許可不得轉載。
    轉載稿件不代表本網觀點,如有異議請聯係我們即可處理。
    刊發、轉載的稿件,作者可聯係本網申領稿酬。


    AI換臉騙局頻現 人工智能使用邊界在哪兒
    2023-6-6 10:31:01    來源:中國青年報

    對於濫用生成式人工智能技術的擔憂在世界範圍內都存在。不僅因為其超越一般技術的“創造能力”和“破壞性”,更因為人們發現,生成式人工智能技術發展的速度極快。目前,世界各國對其風險的預判與防範均處於探索階段,有賴於法律體係的進一步完善。

      ——————————

      10分鍾內被騙走430萬元,近期,用AI技術興風作浪的詐騙案件,引起了社會關注。

      5月22日,包頭警方發布的一起利用AI實施電信詐騙的案例衝上熱搜。福州市某科技公司法人代表郭先生在接到“好友”微信視頻電話後,考慮到關係好又是真人視頻通話,在10分鍾內直接向對方賬戶彙款430萬元。隨後才意識到自己遭遇了“高端”騙局,“好友”是騙子通過AI換臉技術佯裝而成的。

      關於AI技術的爭論不曾停止過。此前,ChatGPT就曾因編寫假新聞而飽受詬病,而近期大量出現的AI詐騙更是令人不得不開始反思,AI生成的虛假信息或許潛藏著巨大的社會風險。

      需警惕生成式人工智能技術的濫用

      英國媒體《每日郵報》曾報道,2019年3月,英國警方逮捕了一名使用AI語音模仿軟件的詐騙者。他將自己的聲音改變成當地一家能源公司老板的聲音,以“幫助公司避免拖欠罰款”為由要求一位高管向其彙款,通過電話騙取了22萬歐元(約合人民幣170萬元)。據這名高管回憶,當時他也產生了疑心,但他的確聽到了老板的德國口音。此案被認為是全球首例人工智能詐騙案。

      其實,模仿一個人的聲音乃至外貌,對AI來說並不是新鮮事。此前,“AI孫燕姿”就曾在B站等網絡平台走紅,視頻上傳者通過使用AI音色替換技術(Sovits4.0),生成了高度還原孫燕姿音色的翻唱歌曲,其中原唱為周傑倫的歌曲《發如雪》播放量已超過200萬次。近期也有媒體報道了一款網絡上的付費AI換臉軟件,其套餐價格從499元到2888元不等,肉眼來看,換臉之後的“數字人”口型、表情、微小的動作幾乎毫無破綻。

      諸如此類生成式人工智能(Generative Artificial Intelligence,簡稱GAI)的大量出現很大程度上得益於深度合成和機器學習的快速發展。而AI詐騙者正是通過這些先進的技術,訓練出能夠模擬人類語言和神態的AI。

      蘇州大學競爭政策與反壟斷研究中心研究員方翔指出,近期的AI詐騙案件主要是人工智能技術在圖像領域的應用,其可以將不同人臉圖像中的麵部特征相互替換。“擬聲”則是借助深度學習模型,根據已有的語音樣本(如通話錄音、網絡視頻等)生成與其近似的聲音,進而做到與人交談。

      5月24日,中國互聯網協會發文提醒,伴隨著深度合成技術的開放開源,深度合成產品和服務逐漸增多,利用“AI換臉”“AI換聲”等虛假音視頻,進行詐騙、誹謗的違法行為屢見不鮮。麵對利用AI技術的新型騙局,廣大公眾需提高警惕,加強防範。業內人士普遍認為,“AI換臉”技術的濫用給人們敲響了警鍾,其複雜性、隱蔽性也給科技識別及運用提出了更高的要求。

      “對於生成式人工智能,正當適度使用,可以倍增工作效率,有力推動創意產業發展,促進消費者福祉增長。但同時,虛假使用可引發謠言泛濫、侵害權利、壓榨利益,而過度使用可引發踐踏人性、減少就業、貧富懸殊,而惡意濫用甚至成為歪曲真相、撕裂社會、政策幹擾、禍亂宇內的罪惡之源。”中國互聯網協會法工委副秘書長胡鋼認為,要堅持依法崇德治理,使全社會形成法網大於互聯網、國法高於算法、人工智能不能成為“人工製人”的共識。

      探索構建完善的人工智能法律體係

      “我國針對人工智能及數據安全、個人信息保護的立法雖然起步較晚,但日臻成熟。”方翔指出,早在2017年7月,國務院印發《新一代人工智能發展規劃》,其作為我國AI發展的綱領性文件,提出了麵向2030年我國新一代人工智能發展的指導思想、戰略目標、重點任務和保障措施,其中特別提到“到2025年初步建立人工智能法律法規、倫理規範和政策體係,形成人工智能安全評估和管控能力”。

      2022年12月,國家網信辦、工信部、公安部聯合發布《互聯網信息服務深度合成管理規定》,強調不得利用深度合成服務從事法律、行政法規禁止的活動,要求深度合成服務提供者對使用其服務生成或編輯的信息內容,應當添加不影響使用的標識。提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內容功能服務的,可能導致公眾混淆或者誤認的,應當進行顯著標識。

      2023年4月,國家網信辦起草《生成式人工智能服務管理辦法(征求意見稿)》並向社會公開征求意見,提出AI內容必須真實準確,禁止非法獲取、披露、利用個人信息和隱私、商業秘密。

      “總的來看,構建完善的人工智能法律體係,我國目前仍在探索階段。”方翔說。中國信息通信研究院雲計算與大數據研究所所長何寶宏則指出,2022年12月發布的《互聯網信息服務深度合成管理規定》明確針對在中國境內應用深度合成技術提供的互聯網信息服務進行規製,其中,深度合成技術是指利用深度學習、虛擬現實等生成合成類算法製作文本、圖像、音頻、視頻、虛擬場景等網絡信息的技術。“在上述法律法規的具體落實過程中,存在兩方麵的挑戰。”

      “一是防範深度合成技術應用生成錯誤價值導向、虛假信息的能力需要進一步提升。《互聯網信息服務深度合成管理規定》要求深度合成服務提供者對輸入數據和合成結果進行審核、建立健全識別違法和不良信息的特征庫、依法處置違法和不良信息的生成合成信息內容。但是,對於深度合成服務提供者如何落實內容管理需要進一步細化,提供者需要不斷提升技管結合的能力;對於內容管理落實的具體效果,也有待進行持續性的跟蹤檢驗。”其次,何寶宏指出,對深度合成信息內容增加標識的具體規範也需要進一步細化,文件中明確深度合成服務提供者提供深度合成服務,可能導致公眾混淆或者誤認的,應當在生成或者編輯的信息內容的合理位置、區域進行顯著標識。“但對於如何增加顯著標識以及增加標識的具體方式需要盡快出台細化的要求規範。”

      超越一般技術的“破壞性”引發擔憂

      對於濫用生成式人工智能技術的擔憂在世界範圍內都存在。不僅因為其超越一般技術的“創造能力”和“破壞性”,更因為人們發現,生成式人工智能技術發展的速度極快。

      從OpenAI去年11月推出ChatGPT,到今年3月其迭代品GPT-4麵世,僅用了幾個月的時間。GPT-4不僅知識麵更廣、回答問題更流暢,還可以描述並理解圖片,甚至具備一定自我反思的能力。

      OpenAI的首席執行官Sam Altman接受采訪時就曾表示,擔心這些模型可能被用於大規模的虛假信息,也擔心人類被控製。“ChatGPT是一個高度受人類控製的工具。但也許會有人放棄設置我們目前已有的一些安全限製。”他補充,“我認為,社會隻有有限的時間來弄清楚如何對此做出反應,如何監管,如何處理它。”

      今年3月,美國特斯拉汽車公司首席執行官埃隆·馬斯克曾聯合1000多名業界、學界人士發表公開信,呼籲所有AI實驗室立即暫停訓練比ChatGPT更強大的AI係統,暫停至少6個月。其信中提到,在開發強大的AI係統之前,要確信這些係統的影響是積極的,風險是可控的。

      同時公開報道顯示,今年3月31日,意大利個人數據保護局宣布即日起暫時禁止使用ChatGPT,並暫時限製OpenAI處理意大利用戶數據。意大利成為首個禁止ChatGPT的西方國家,歐盟的多個國家也開始跟進,醞釀具體監管措施。

      各國政府都在加快出台人工智能監管法律。據路透社報道,英國競爭和市場管理局正在審查人工智能對消費者、企業和經濟的影響,考慮是否需要新的監管措施。法國隱私監管機構正在調查與ChatGPT有關的幾起投訴。澳大利亞政府正在谘詢科學谘詢機構,來考慮下一步的監管行動。歐洲數據保護委員會已成立ChatGPT特別工作組;歐盟消費者組織則呼籲歐盟消費者保護機構調查ChatGPT技術及對消費者的潛在危害。

      “鑒於人工智能的技術複雜性,世界各國對其風險治理均處於探索階段,對其約束和監管仍有賴於法律體係的完善。”方翔介紹,歐盟目前正在推進全球首部人工智能法案。2023年4月,歐洲議會成員就《人工智能法(The AI Act)》提案達成臨時政治協議,強化對生成式人工智能的監管,並將人工智能技術可能帶來的風險細化為極小風險、有限風險、高風險、不可接受風險4個等級。“這一立法動向值得我國關注。”方翔告訴記者。

      中青報·中青網記者 李若一 王林 見習記者 裴思童 來源:中國青年報

    新聞編輯:楊銘 
     

    版權聲明 | 焦作日報社簡介 | 焦作網簡介 | 網上訂報 | 聯係我們
    版權所有:河南省焦作日報社 未經授權,請勿轉載或建立鏡像。
    《焦作日報》遺失聲明熱線:(0391)8797096 郵編:454002
    本網違法和不良信息舉報電話:(0391)8797000 舉報郵箱:jzrbcn@163.com
    河南省“網絡敲詐和有償刪帖”專項整治工作熱線:0371-65598032 舉報網站:www.henanjubao.com
    公安部網絡違法犯罪舉報網 河南省互聯網違法和不良信息舉報中心 豫ICP備14012713號-1
    焦公網安備4108000005 豫公網安備41080202000004號 互聯網新聞信息服務許可證號:41120180013
    信息網絡傳播視聽節目許可證號:11642120  地址:焦作市人民路1159號 報業·國貿大廈 


    掃一掃在手機打開當前頁

    版權所有:河南省焦作日報社 未經授權,請勿轉載或建立鏡像。
    互聯網新聞信息服務許可證:41120180013 電話:(0391)8797000