【大紀元2020年05月27日訊】(英文大紀元專欄作家Bob Zeidman撰文/原泉編譯)當今的研究有一種令人不安的趨勢,所謂的計算機科學家將自己的信念注入他們的研究中。他們通過「修正」數學模型來達到他們想要的結果。
他們稱這樣的結果「無偏見」,但事實恰恰相反。這項工作幾乎影響到每個人生活的方方面面。人們必須意識到這個問題,而且應該關注你的生活在你不知情的情況下是如何被操縱的。
算法是為解決一個問題所採取的一系列步驟。就像祖母的牛肉食譜一樣簡單﹐在沾上了肉汁的卡片上寫著澆汁、切肉、攪拌、烘烤和食用的分步說明。如今,算法通常指計算機按照程序的指令執行的數學步驟。
每天,我們都會接觸到計算機算法,它們不僅控制我們智能手機上的應用程序,還控制著交通燈、電梯、溫度控制器,最重要的是,還控制著我們在搜索引擎和社交網絡上看到的信息。
這些算法用於優化你的生活並為你提供個人相關的信息,但同時也儘可能多地了解你:記錄你的好惡。
亞馬遜用他們的算法向你展示你可能想買的商品,而不是你用不著的商品;Netflix使用他們的算法推薦你可能會喜歡的電影;保險公司使用他們的算法來量化你的風險和確定你的保費成本。醫療保險公司可能很快就會使用他們的算法來為你確定正確的治療方案和處方。
當你在谷歌上搜索信息時,它們的算法會產生結果,為你提供最相關的信息,引導你做出決策。
算法偏見
計算機科學中最新的熱門研究主題稱為「算法偏見」。計算機科學家正在研究算法偏見及其解決方法。我為這些研究人員提出了一個新術語:「proclivist」,來自拉丁語「proclivitas」,該詞的意思是「偏見」。
這些計算機專家在學校研究算法偏見,然後進入工業界大公司的部門做管理,指導工程師團隊發現所謂的偏見,然後予以「修正」。
這些專家包括谷歌機器學習公平努力的產品負責人圖爾西·多西(Tulsee Doshi)和麻省理工學院的研究員喬·布蘭維尼(Joy Buolamwini),後者創建了算法公正聯盟。
反對偏見聽起來是件好事,對吧?但是,就像喬治‧奧威爾的反烏托邦小說《1984》中的雙重語言一樣,當計算機專家談論在算法中消除偏見時,他們真正的意思是在算法中加入偏見,根據他們自己對公平的定義﹐產生他們認為「公平」的結果。
當你用谷歌搜索某個特定術語時,你可能會認為得到了最相關的結果,但正如谷歌公開承認的那樣,你實際上得到的是谷歌希望你得到的結果。不論谷歌所施加的偏見是政治的、宗教的、文化的還是其它不准確的東西,谷歌都在引導我們它要我們去的地方,並假裝它給了我們公正的結果。
最近,多西在計算機科學協會作了一個主題為「機器學習中的公平性」的演講。
她一開始就討論谷歌如何對各種查詢進行評分,以確定它們是「有毒,中性或無毒」。谷歌通過檢查上下文來確定毒性。如果這些頁面中包含卑鄙、可恨的字眼和陳述,則該詞被定為「有毒」。然後,她舉了幾個有毒詞匯的例子,並說:「我們不希望看到這一點。我們不希望這是真的。」
但是科學從來不是關於我們想要什麼,而是關於我們發現了什麼,不管我們喜不喜歡。而「計算機偏見」認為,科學是要改變結果,由某些人武斷地決定公平與否﹐然後使結果變得「公平」。
舉一個具體的例子。幾年前,在谷歌上搜索「猶太人」一詞時,最熱門的結果是反猶網站。許多猶太人團體,包括我擔任董事會成員的反誹謗聯盟(Anti-defarmation League),向谷歌投訴,迫使他們改變算法,以消除這些搜索結果。
最初的結果有偏見嗎?當然,經過清理的結果是帶有偏見的,因為谷歌改變了算法,專門排除了這些反猶文獻,以免冒犯他人。我們應該關注反猶的搜索結果,但更應關注清理後的搜索結果,因為如果在美國或世界范圍內存在反猶太主義問題,我們需要了解它。更改搜索結果只會隱藏問題,這使得追蹤反猶團體變得更加困難。它沒能使世界變得更美好,只是將這個問題掩蓋了起來。
性別偏見
多西在演講中引用了一位非洲裔美國女性研究員布蘭維尼撰寫的論文,題為「性別陰影:商業性別分類中的交叉精度差異」(Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification)。她的「性別陰影」網站上也有一篇介紹。
根據布蘭維尼的說法,她寫這篇論文的初衷是當她用自己的面部照片測試人臉識別程式時,無法確定她的性別。這似乎特別令人困惑,因為在她的論文中,布蘭維尼宣稱有許多性別,不僅僅是男性和女性,因此不清楚應該使用什麼標準來確定性別。但無論性別的分類是「正確的」哪種類別,她聲稱深色皮膚的人,特別是女性,更容易因為算法偏見而被錯誤地分類。
然而,這是一個合理的解釋,深色皮膚的人﹐照片將更難識別,因為簡單的事實是,與人眼相比,照片所能顯示的對比度是有限的。此外,淺膚色的臉會顯示更多的陰影,顯示輪廓和細節,而深膚色的臉則不會。這是可以客觀檢驗的,但事實並非如此。也許算法無法對某些人臉進行分類不是偏見,而是算法的一個天然的困難或缺陷。
公平性指標
多西繼續描述「公平性指標」,據她說,該指標確定算法是否公平。普林斯頓大學計算機科學教授阿爾溫德‧納拉亞南(Arvind Narayanan)已經確定了21種關於算法公平性的定義。多西承認谷歌實際上有超過21個定義。
她還承認,「修正」一種公平性定義的算法實際上會使公平的其它定義變得更糟,但是她對此不屑一顧,因為谷歌只需「考慮我們要選擇的定義及其含義 」。
康奈爾大學和哈佛大學的喬恩·克萊因伯格(Jon Kleinberg)、希爾希·穆蘭納森(Shilhil Mullainathan)和曼尼什·拉格萬(Manish Raghavan)撰寫了一篇關於「算法偏見」內在衝突的優秀論文,題為「公平確定風險分數的內在權衡」(Inherent Trade-Offs in the Fair Determination of Risk Scores)。該文的結論是,不存在能同時滿足三個最常見的「公平」條件的算法修正,更不用說21個或更多條件了。
換言之,根據一個標準使算法更「公平」,根據另一個標準則使算法更「不公平」。
這個數學證明沒有考慮使用了什麼樣的算法,什麼標準,人們如何被分成小組,或者預測了什麼樣的行為。這是一個基於純數學的漂亮證明。除非你認為數學有缺陷,或者數學本身有某種偏見(有些人確實這樣認為,包括西雅圖學區),否則這個證據是無可爭辯的。
在我寫這篇文章的時候,非裔美國人感染新冠病毒的比率比其他種族的人都要高。新冠病毒有偏見嗎?我們是否應該調整統計數據以「修正」其影響?當然不是。這種所謂的「偏見修正」實際上阻止了真正的科學家找到可能導致對世界運轉方式有更好理解的潛在關係。
在假設新冠病毒有偏見的情況下,「修正」偏見將妨礙我們理解疾病並最終找到治療方法的能力。
對於谷歌這樣的搜索引擎來說,讓搜索結果「公平」意味著我們不僅學到了錯誤的東西,而且還學到了一小部分商人、活動家和計算機專家希望我們學習的東西。這種新的研究形式是錯誤而危險的。
作者簡介:
鮑勃· 澤德曼(Bob Zeidman)曾就讀於康奈爾大學和斯坦福大學的物理和電氣工程專業,並在德安扎學院學習電影製作。他是著名的「硅谷餐巾紙」(Silicon Valley Napkin,註:預先印製上表格的餐巾紙,為創業者們提供了巨大的方便)的發明者,也是多家成功的高科技硅谷公司(包括Zeidman Consulting、Software Analysis and Forensic Engineering)的創始人。他還寫小說。他的最新作品是政治諷刺小說《善意》(Good Intentions)。
原文刊登於英文《大紀元時報》。
本文所表達的是作者的觀點,並不一定反映《大紀元時報》的觀點。
責任編輯:高靜#◇