【大紀元2016年03月18日訊】(大紀元記者張秉開編譯報導)谷歌AlphaGo機器圍棋手戰勝韓國頂尖圍棋高手李世石,引發全球熱議人工智能和人類能力之優劣的討論。有人認為人工智能可以彌補人的不足,可以為人服務,使人受益;有人擔憂人工智能將威脅人類的生存或者控制人類等等。
據科技網站gizmodo近日報導,對於如何判斷人工智能的優劣,需要注意對它的誤解,才能有助於作出判斷。
誤解:我們無需擔憂人工智能
現實:
今年一月,臉書創始人扎克伯格(Mark Zuckerberg)說,我們不應該害怕人工智能,它會為人們做很多奇妙的好事。實際上,扎克伯格說對了一半。
我們不能保證所有人工智能產品都對人類有益。因為人工智能是計算機程序,避免不了受病毒程序的影響。一旦帶有病毒的人工智能機器在運行,會有甚麼後果?
很多著名人士提出,人們應該警惕人工智能的潛在危險。物理學大師霍金(Stephen Hawking)多次表示,人工智能的風險大到足以使人類滅絕。他認為,未來100年內,人工智能的機器人將反過來控制人類。
特斯拉汽車公司創始人馬斯克(Elon Musk)形容人工智能是「召喚惡魔」。他說:「如果要我猜人類最大的生存威脅是什麼,我想那就是人工智能。」
微軟公司創辦人蓋茲(Bill Gates)表示,低度人工智慧可成為替代勞工的工具,但數十年後出現的「超級智慧」系統會「厲害到令人擔憂」。
誤解:人工智能不會出錯
現實:
人工智能會出錯,因為它本身是一種程序,無論程序怎樣完善,都不可能完美無瑕。而且,如何糾正人工智能出錯,不是簡單的修改程序等步驟能輕易解決的。
以谷歌的AlphaGo為例,在與李世石第四局對弈中,第79子時犯了錯誤,之後步步出錯,因此輸給李世石。
AlphaGo的開發者之一哈薩比斯(Demis Hassabis)在推特上表示,AlphaGo犯的錯誤直到87子才發現,但為時已晚,其勝率從70%至40%以下。
業界人士分析,其原因是AlphaGo在複雜情況下的判斷還是不夠客觀,碰到存儲之外的圍棋下法會犯錯誤,而且不能及時發現所犯錯誤,因此接連出現低級錯誤。這種錯誤對人類來說,是應該很快就會發現並給予糾正。
誤解:人工智能永遠不會達到人的智能水平
現實:
人工智能遲早會達到人的智力水平,具有高度的邏輯、推力、綜合、分析、演繹等等能力。
1996年2月,IBM的超級電腦「深藍」(Deep Blue)首次挑戰國際象棋世界冠軍卡斯帕羅夫(Garry Kasparov),以2:4落敗。1997年5月,再度挑戰卡斯帕羅夫,「深藍」以3.5:2.5擊敗卡斯帕羅夫,成為第一個在符合比賽規則擊敗國際象棋世界冠軍的電腦系統。
近日谷歌的AlphaGo以4:1贏了李世石。但是,從「深藍」到谷歌AlphaGo的人工發展,不只是硬件(如AlphaGo硬件性能至少是深藍的1000倍),其依據的運算原理也有極大的發展,從窮舉法變成「人工神經網絡」,所以AlphaGo有一種類似人的學習技能,能夠估計、分析和判斷。
所以紐約大學的心理學家馬庫斯(Gary Marcus)說,人工智能會超過人,問題只是時間而已。
報導說,因為至今為止人類無法解開「意識」之謎,所以人工智能面臨不可逾越的障礙——如何具有人的意識。微軟聯合創始人艾倫(Paul Allen)認為,人類還沒有解開人自身的意識之謎,因此無法造出具有人意識那樣的智能機器。
責任編輯:林妍