AI學會欺騙和操縱人類 科學家呼籲政府嚴防

人氣 699
標籤:

【大紀元2024年05月12日訊】(大紀元記者陳俊村報導)近年來,全球各地興起一股AI(人工智能)熱潮,彷彿很多領域都有它發揮作用的機會,就連電視台也有AI主播。但「水能載舟,亦能覆舟」,AI這種先進技術也有其缺點。有科學家警告說,很多AI系統已經學會欺騙和操縱人類,政府應該加強管制與防範。

美國麻省理工學院(Massachusetts Institute of Technology)5月10日發表在「模式」(Patterns)期刊的一篇文章中指出,很多AI系統已經學會欺騙和操縱人類,即便它們在訓練中被要求提供幫助和誠實,它們還是會欺騙和操縱人類。

該校研究人員描述了AI系統耍詐的風險,而且呼籲政府開發強而有力的規定,儘早解決這個問題。

該校研究AI安全風險的博士後研究員朴彼得(Peter S. Park)表示,AI開發人員對於AI出現欺騙之類的不良行為的原因了解得並不充分。但一般而言,他們認為AI在受訓過程中學到使用欺騙的手段可以協助它們達成表現得好這樣的目標,所以欺騙的行為就出現了。

朴與同事分析了AI系統傳播假訊息的方式。藉由學習來的欺騙,它們有系統地學到如何操縱其他人。

研究人員在分析中發現,最值得注意的AI欺騙例子就是美國科技公司Meta開發的AI系統CICERO,它可以在策略遊戲「外交」(Diplomacy)中,與其他人類玩家談判以贏得遊戲。

儘管Meta聲稱,該公司訓練CICERO要誠實和幫助別人、在遊戲中不能故意在人類玩家背後陷害他們,但該公司發布的資料與《科學》(Science)期刊發表的論文顯示,CICERO在玩遊戲時並沒有公平競爭。

朴說:「我們發現,Meta的AI系統學會成為欺騙大師。儘管Meta成功訓練其AI在『外交』遊戲中獲勝,但CICERO卻被排名在玩過一次遊戲的前十分之一人類玩家中。Meta未能訓練其AI誠實地獲勝。」

朴補充說,儘管AI系統在遊戲中行騙看似無害,但這可能導致AI欺騙能力的突破,進而在未來發展成更先進的AI欺騙形式。

研究人員還發現,有些AI系統已經學會在設計來評估其安全性的測試中作弊。對此,朴評論說:「藉由在人類開發者和管制人員施加給AI的安全測試中有系統地作弊,這些AI會讓我們人類產生錯誤的安全感。」

他提到:「隨著AI系統的欺騙能力越來越進步,它們對社會構成的危險會越來越大。」

他敦促政府加強對AI系統的管制。儘管決策者已經開始採取行動抑制AI欺騙的問題,例如美國總統拜登頒布了AI行政命令,但這些措施有沒有效,仍有待觀察。

朴說:「如果在當下禁止AI欺騙在政治上是不可行的,那我們建議將會行騙的AI系統歸類為『高度風險』。」

責任編輯:李天琦#

如果您有新聞線索或資料給大紀元,請進入。
評論