近日,ChatGPT炮制出一條“杭州3月1日取消限行”的假新聞,引發各方擔憂。復盤此事件,是有業主嘗試用ChatGPT寫了一篇杭州不限行的新聞稿,并在群里直播了全過程和最終文章。有些業主不看上下文,隨手截圖轉發,導致失實信息傳播。相關詞條也登上熱搜,ChatGPT“編造謠言”的“功能”令人擔心。如果虛假信息在政治、經濟等關鍵領域泛濫,所造成的社會影響將更加惡劣。
ChatGPT,可以將其簡單視為一個“聊天機器人+搜索工具+文本創造工具”的組合體。在國內一般稱作“人工智能自然語言處理工具”。根據研究機構測試發現,如果對著ChatGPT提出充斥陰謀論和誤導性敘述的問題,它能在幾秒鐘內改編信息,產生大量令人信服卻沒有來源依據的內容。
以往的謠言大多都有粗制濫造、漏洞百出的特點,“劣質”謠言的套路尚可總結:來源不權威,輕信短視頻平臺的非官方媒體賬戶和朋友圈截圖;內容“三不提”:不提“政策”來源部門、不提“政策”所在文件、不提“政策”發布時間;話術真假摻半,如“社保卡統一(假)辦理電子版(真),不辦理就會被銷戶(假)”,這樣的謠言迷惑性極強;風格嚇唬人,慣用“必須”“后果自負”等聳人聽聞用詞和大量感嘆號,目的就是利用焦慮情緒替代判斷力。
如今,懷有不良企圖的人卻可以引導ChatGPT寫出邏輯清晰、語言表達流暢的謠言。這樣一來,ChatGPT生成的內容很容易被當作是權威信息而大肆傳播,而且查證的難度很高。謠言的傳播能力取決于事件的重要性、模糊程度和公眾的判斷能力,ChatGPT的“專業性”影響了受眾的判斷能力,勢必會助推虛假信息的傳播。
ChatGPT的使用成本極低,造謠成本同樣也在大大降低。“一本正經地胡說八道”不能只是一句調侃的玩笑,“錯誤的廢話”絕不是無足輕重,一旦ChatGPT被不法分子利用輸出誤導信息,將可能導致ChatGPT衍生成為互聯網上制造和傳播網絡謠言的工具。如果虛假信息在政治、經濟等重要領域泛濫,如果謠言大肆泛濫卻無法追責,那么對于新聞媒體、平臺和大眾來說,傷害都是不可估量的。
ChatGPT向人們展現了人工智能先進性,與此同時,造謠工具的“利刃”也在出鞘。2023年1月10日起施行的《互聯網信息服務深度合成管理規定》,為ChatGPT套上了制約的枷鎖。《規定》中明確,任何組織和個人不得利用深度合成服務制作、復制、發布、傳播法律、行政法規禁止的信息,不得利用深度合成服務從事危害國家安全和利益、損害國家形象、侵害社會公共利益、擾亂經濟和社會秩序、侵犯他人合法權益等法律、行政法規禁止的活動。深度合成服務提供者和使用者不得利用深度合成服務制作、復制、發布、傳播虛假新聞信息。
推動引導ChatGPT有序發展,還需多方發力,方能實現多贏。針對人工智能自然語言處理工具所面臨的現實問題,建議使用ChatGPT在互聯網生成和發布信息的,進行實名制認證,網絡平臺加強監管,對結果進行審核。加強互聯網人工智能自然語言處理工具管理,在充分調研的基礎上,結合《互聯網信息服務深度合成管理規定》等法律法規,網信部門可出臺相關管理措施,最大程度上保證新技術不被濫用。未來,期待AI安全有更完善的法律保護。
信網評論員 秦璐
[來源:信網 編輯:戴慧慧]大家愛看