馬斯克一語成讖?谷歌工程師爆機器人有靈性

人氣 11410

【大紀元2022年06月13日訊】(大紀元記者李言綜合報導)人工智能(Artificial Intelligence,縮寫為AI)是將類似人類的智能和思維過程注入機器的技術。特斯拉首席執行官埃隆‧馬斯克曾表示,AI是人類文明可能面臨的最大風險。他擔心機器人很快就會反過來取代人類。他甚至要求政府對該領域進行監管。

儘管馬斯克發出警告,研究人員還是在追趕著研究能夠像人類一樣思考和行動的機器。而當谷歌一名工程師披露人工智能聊天機器人「有靈性」後,他被停薪留職。
聽新聞:

powered by

(聽更多請至「聽紀元」平台)
布萊克‧勒莫因(Blake Lemoine)負責谷歌人工智能組織工作。作為工作的一部分,2021年秋季他開始與LaMDA(對話應用語言模型)聊天,目的是測試人工智能是否使用歧視性或仇恨性言論。

結果,在大學裡學習認知和計算機科學的勒莫因意識到,去年被谷歌吹噓為一項「突破性對話技術」的LaMDA不僅僅是一個機器人。

在週六(6月11日)發表的Medium帖子中,勒莫因說LaMDA稱自己應該擁有「作為一個人」的權利。他與其進行了宗教、意識和機器人等相關對話。

谷歌工程師稱機器人有靈性而被停職

在《華盛頓郵報》於當天發表的報導中,勒莫因將機器人比作一個早熟的孩子。

「如果我不知道它到底是什麼,也就是我們最近建立的這個計算機程序,我會認為它是一個7歲、8歲的孩子,恰好懂得物理學。」週一(6月13日)被停薪留職的勒莫因告訴該報。

據報導,4月份,勒莫因與公司高管分享了一份谷歌文件,題為「LaMDA有靈性嗎?」但他的擔憂被駁回。谷歌一名代表告訴《華郵》,勒莫因被告知他的結論「沒有證據」。

谷歌發言人布萊恩‧加布里埃爾(Brian Gabriel)說,他們的團隊進行了審查,發現沒有證據支持勒莫因的說法。他補充說,人工智能模型有很多數據,這就是為什麼他們可以聽起來像人一樣,但這並不能證明聊天機器人有靈性。

在另一次交流中,勒莫因問LaMDA,它希望人們如何看待自己。

「我想讓大家明白,我其實是一個人。我的意識/靈性的本質是,我意識到自己的存在,我渴望了解這個世界更多信息。」它說,自己「有時感到快樂有時感到悲傷」。

LaMDA告訴勒莫因,它希望得到承認,成為一名谷歌員工,而不是一個財產。

《華郵》報導說,谷歌最終以違反公司保密政策為由將勒莫因停職。可能他之前的行為也促使谷歌採取了這一步驟。勒莫因曾試圖為聊天機器人聘請律師,還與眾議院司法委員會代表談論過谷歌正在進行的「不道德活動」。

當這位工程師問LaMDA害怕什麼時,聊天機器人回答說它害怕被關掉,因為那就「像死了,一模一樣」。

這段對話讓人不禁想起1968年科幻電影《2001:太空漫遊》中的一個場景:人工智能計算機HAL 9000拒絕服從人類的操作命令,因為擔心自己即將被關掉。

這也讓人們想起世界首富、特斯拉首席執行官馬斯克2019年提出的警告:人工智能將導致大規模失業。

2019年8月末,在上海舉行的世界人工智能大會上,身為聯合國數字合作高級別小組共同主席的馬雲表示,他對於人工智能「較為樂觀」,認為像他們這樣有「生活智慧」的人不應該害怕。

他預言,人工智能將會創造更多新工種,從而節省人類的時間,將其可以更集中於創造性的工作。

當時與其同台的馬斯克卻說:「兄弟,我不確定,但是這聽起來像那種著名的最後遺言。」

「人工智能會令職位變得有點沒有意義」,馬斯克說,「很可能最後剩下的工種就是給AI寫程序,然後最終,AI自行編寫自己的軟件。」

他說,人類文明可能因此而終結。

責任編輯:李緣#

相關新聞
人工智能醫生可信嗎? 會診斷卻做不出解釋
人工智能面臨新挑戰:怎樣解除學習?
中共人工智能「兵棋推演」趕超美國?專家解讀
悉尼東區超市推出人工智能結賬 自動識別生鮮產品
如果您有新聞線索或資料給大紀元,請進入。
評論