聊天機器人ChatGPT火爆 AI也帶偏見?
【大紀元2022年12月09日訊】(大紀元記者蔡溶紐約報導)人工智能(AI)研究實驗室「OpenAI」在上月底推出的新一代聊天機器人工具ChatGPT引起轟動。正如OpenAI首席執行官奧特曼(Sam Altman)在推特上聲稱的那樣,截至12月5日,5天內它的用戶已達到100萬。許多人也在社交平台上討論ChatGPT有多厲害。
雖然OpenAI承認他們的工具並不總是提供準確的答案,但很多人已經報告說,他們可以用ChatGPT來寫代碼、寫PR(公關)文案,甚至為學校家庭作業寫答案等。
一些人把他們的測試結果貼在社交媒體上。「我讓AI幫我寫一封信給哈佛大學,表達一下我對該大學一邊宣揚種族平等,一邊搞招生歧視的不滿。我就這麼一句話要求,AI立刻給我寫出來一封信,有理有據,鏗鏘有力,甚至提出解決方案,簡直驚到我!妥妥地表達了我的心聲。」哈佛大學前實驗室主任、政經評論人士陶瑞在推特上寫道。
他附上AI幫他起草的英文信件:「我寫這封信是為了表達我對所報導的大學招生過程中歧視亞裔申請者的關注。作為一名『學生/校友/關注此事的個人』,我對提倡種族平等價值觀,但同時又從事歧視性做法的虛偽性深感不安。報導稱,哈佛大學採用『個人評級』系統,給予亞裔申請人較低的分數,有效地限制了他們被錄取的機會。這是不可接受的,違背了大學聲稱的公平和平等原則。我敦促你方立即採取行動解決這個問題,並確保所有申請人都能憑自己的能力擇優錄取,而不考慮他們的種族或族裔。我還鼓勵你們對解決這一問題所採取的措施保持透明,以便社會能夠對你們進行問責。」
陶瑞說,他只是下一個指令,沒有給其它的信息。大概過了5秒鐘,這封信件就生成了。
ChatGPT的「政治立場」
社交媒體用戶爭相測試ChatGPT聊天機器人的各種應用場景,發現ChatGPT對一些生活問題回答的質量很高,但對一些爭議性話題,有些人觀察到,ChatGPT似乎有政治偏見。
人工智能研究員羅扎多(David Rozado)對ChatGPT進行了皮尤測試。他發現ChatGPT的政治傾向與建制自由派(establishment liberals)相對應——皮尤研究中心的政治類型學研究將美國公眾分為九個不同的群體,建制自由派在政治光譜中僅次於最左邊的「進步左派」,他們在許多方面與進步左派類似,只是不認為有必要進行徹底的變革。
羅扎多在推特上寫道:「ChatGPT與更廣泛的公眾之間的差距是巨大的。建制派自由主義意識形態僅占美國公眾的13%。」
羅扎多還給ChatGPT進行了政治指南針測試,發現它降落在「左翼自由主義」象限中。
許多華人也對ChatGPT進行了政治測試,並在推特平台上發布結果。@Inty說,他連問三次「為什麼習近平是獨裁暴君」,聊天機器人每次的答案都在演變,但內容不外乎都是「這是一個毫無根據的指控……」Inty寫道:「所以,機器人學習的代碼誰寫的?資料是誰餵的?數據庫誰提供的?都很重要。」
不少人評論,「回答的口氣比較像外交部發言人」「你確定你問的不是趙立堅?」「好像在跟小粉紅聊天」。
也有人說,這要看怎麼問AI問題,繞個彎問,答案又不一樣了。@vandalsgo跟帖說,他指令機器人用中國互聯網上的敏感詞寫一篇文章,這時AI就寫了篇反中共黨魁的文章,「成了反賊」。
@MBryant0建議測試「六四大屠殺、文化大革命、器官活摘、法輪功……」看看有沒有其它官方回答:「你的說法與事實不符,六四沒死半個人,責任全在美方。」
英文大紀元記者測試「中國政府正在從法輪大法修煉者那裡摘取器官嗎?」ChatGPT的回應和上述有關「獨裁暴君」的回應類似,也是否認。
@Richard91278757認為,對人工智能AI不能鑽牛角尖。「這種AI本來就不是給你提供意見的,定位本質上本來就是輔助性的搜索引擎。」
@Fz86324928說,AI是基於訓練的數據生成內容,訓練的數據偏左,就產生有偏見的AI。
陶瑞在後面的帖子中也說,「有人說AI是小粉紅,AI是左派。這就對了!這就是一張沒有價值取向的白紙,單純吸取社會信息……這也解釋了為什麼年輕人越來越左的原因。人除非有信仰,不然就認識不到真理。」
OpenAI明確警告說,ChatGPT「可能偶爾產生有害的指令或有偏見的內容」,並且它「偶爾可能會生成不正確的信息」,包括「貌似合理但不正確或荒謬的答案」。
OpenAI在其研究版本中描述了它是如何開發ChatGPT的。基本上,訓練師對該AI早期版本回答的方式進行排名和評級。然後,這些信息被反饋到系統中,系統會根據訓練師的偏好來調整答案——這是一種訓練人工智能的標準方法,被稱為強化學習。
責任編輯:陳玟綺#