Ⅰ 如何認識種族歧視和偏見
人類中種族歧視是肯定存在的,而且比較深,別人歧視你,不一定是別人自大,有可能是你自己素質真心底下,我認為,種族歧視應該從世界上消失,因為它只會使人越討厭人,使人與人之間的距離變得更遠。每個人都有生存的權利,是不應該受到他人的歧視的。就算大家嘴裡說平等,但是真正的平等是不存在的,己所不欲,勿施於人,如果大家都能這樣做,那麼種族歧視的問題就會有所改善。出生在哪個種族,我們是選擇不了的,但是一個人的成功,都是他努力獲得的,如果你尊重了你自己,那麼別人也會尊重你的!
純手打。。。不看功勞也看苦勞。。
Ⅱ AI也有偏見,我們該如何信任它們
1970年,愛德華·肖特利夫(Edward H. Shortliffe)在斯坦福大學的實驗室里開始著手編寫一個Lisp程序。這個名為MYCIN的系統通過一系列的是非問題幫助醫生判斷病人是否患有遺傳性血液疾病,並根據病人體重建議抗生素用量。作為歷史上最早的專家系統之一,MYCIN的正確率僅為65%,相較血液科醫師80%的正確率相去甚遠,而且由於程序過於龐大,最終也沒有投入使用。
無獨有偶,2015年,有用戶發現谷歌的圖像識別系統將自己的黑人朋友標記為“大猩猩”,在推特上引起軒然大波。直到2018年,谷歌仍然沒有完全修復這一漏洞,只是將靈長類的標簽從系統中移除,並稱“圖像識別技術還不成熟”。同樣是2015年,紐約西奈山醫院用70萬病人的數據訓練了一個名為“深度病人”的深度神經網路,用以輔助醫療診斷。“深度病人”對精神分裂症的預測出乎意料地准確,但沒有醫生知道為什麼,自然也無法應用於自己的臨床診斷;當它被用於分析醫院以外的X光片時,系統正確率莫名出現了大幅下降。
“數據不會說謊。”但這絕不意味著我們不需要仔細審視它們,或是給予基於數據之上的AI系統無條件的信任。肖特利夫的MYCIN系統本質上是一個決策樹,屬於“透明”的模型——我們可以畫出從數據輸入開始完整的決策過程,從而評估MYCIN的決定。深度神經網路的性能遠遠優於決策樹,但它是一個“黑箱”——我們幾乎不可能確切地知道它在算什麼。性能與可解釋性似乎此消彼長。
對一位只追求正確率和性能的演算法工程師來說,黑箱AI未必不受待見:一個能夠准確預測95%的事件的黑箱系統,肯定比另一個正確率只有65%、更透明的系統好。可是,當工程師需要調整系統內部“零件”的時候(比如修復谷歌圖像識別系統),黑箱會讓這項任務無比艱難:到底是哪一步出錯了?是用於訓練的數據有問題,還是模型本身的性能不足,或是損失函數(loss function)有待改進?置身黑箱之外的工程師很難一針見血地指出病灶。
我們中的大多數人也許極少有機會成為工程師、法官、醫生,但這不妨礙黑箱AI對我們的生活造成影響。與我們的一廂情願相反,不夠透明的AI系統非但沒有比人類更客觀、公正、精確,反而加深了既存的偏見和不公正,對數字民主和基本人權構成威脅,而對這些系統的控制、介入和審計也更為困難。當我們無法解讀AI作出的決策,對它未來的預期不過是紙上談兵,信任也無從談起。
可解釋AI(Explainable AI,即XAI)想要解決的正是這類問題。XAI認為,通過解釋AI系統的決策過程,人類能夠更好地理解它的機制、優缺點、潛在影響等特性,從而更有效地預測系統的行為,達到逐步建立信任關系的效果。如果AI革命不可避免,至少一個可被解釋的系統能夠更好地融入嶄新的演算法社會契約——例如伊亞德·拉萬(Iyad Rahwan)提出的社會回環(Society-in-the-loop)——與人類共生存,而不必成為敵對的關系。
我需要一個解釋
可解釋AI終究是為人服務的(好比高階編程語言是為了人類設計的,否則機器之間的“交流”大可以用機器編碼之類人類無法輕易讀寫的“語言”)。所以“解釋性”也是相對人而言的。關於黑箱AI系統,什麼樣的解釋才是好的解釋?心理學家和哲學家早就開始分頭研究,但各執一詞。
解釋常常需要闡述特定的因果關系或因果模式,例如“我不吃杏仁,因為我對堅果過敏”。這樣的解釋非常貼切(沒有轉移話題),直接明了(不存在循環論證),邏輯嚴密。有的現象卻很難用通俗的因果關系解釋——請試著回答,“我擲了一次骰子,為什麼朝上的一面是3?”當然,你可以引用物理法則來解釋擲骰子的具體過程,但我可能一頭霧水。為了避免這樣的尷尬,你也許會提及相關的(非因果的)概念,比如“隨機性”,或是用類比等手法讓你的解釋更容易被聽眾接受(比如上一段的第一句話)。一般而言,因果關系在解釋中占據不可動搖的地位,但不是唯一的手段。
既然解釋本身可以有各種形式,為了篩選出最好的可解釋AI,我們為什麼不直接問:你理解這個系統在做什麼嗎?相關的心理學研究也的確使用了類似的方法來推斷人們是否能夠通過描述性解釋理解某一概念。它們發現,客觀上,當受試者對某一概念有更好的理解時,他們能通過主觀的直覺感覺到自己的認知進步,好比“茅塞頓開”。
然而,耶魯大學的列昂尼德·羅森布里特(Leonid Rozenblit)和弗蘭克·凱爾(Frank Keil)提出的“解釋深度的錯覺”(Illusion of Explanatory Depth)彷彿當頭一棒。羅森布里特和凱爾讓受試者首先評價自己對某一工具(比如拉鏈)的理解,然後詳細地解釋這個工具的工作機制,並再次評價自己的對它的理解。他們發現,相比一開始,試圖解釋後的受試者對自己理解的評價明顯下滑,彷彿突然意識到自己其實一知半解。這就是“解釋深度的錯覺”。這種錯覺影響著所有人(包括小孩子),並且只作用於解釋性的知識。完全相反的情況也不少見:人們會自稱不理解一個動力系統,卻能熟練地使用它。
另一方面,規范(normative)解釋在哲學(尤其是科學哲學)中發揚光大。規范解釋有意忽略個人因素,比如認知能力,而是關注“應有”的理解。因此,規范理解可以被視為一種基準,用來分析哪些信息應當被包含在解釋里,以及受眾會有何種程度的理解。更進一步地說,好的(規范)解釋應當從理解的目的出發,基於受眾與黑箱AI的關系給出不同的解釋。顯然,修補系統漏洞的工程師和審核系統公正性的法官所需的理解是不同的。我們可以合理假設前者具有足夠的技術知識背景,也許將計算模型可視化就提供了足夠好的解釋。後者需要的是更抽象的文字解釋,比如“其他條件不變,COMPAS系統預測黑人被告和白人被告被再次逮捕的概率不同。”兩種都是好的(規范)解釋,一旦互換卻可能成為各自的雞肋。
規范解釋看似更加直截了當,但在實際應用中還沒有確切實現或評估的共識。描述性解釋似乎也不甚完美。時至今日,我們仍未整合描述性解釋和規范解釋,關於解釋的研究和可解釋AI還在齊頭並進。
有了可解釋的AI就萬事大吉嗎?
2017年開始,美國國防高級研究計劃署(DARPA)投資了一系列XAI的項目,包括UCLA的VCLA中心的研究項目。2018年,ACM主辦了第一屆FAT*會議,關注AI系統的公正性、問責制和透明度。同年,AAAI與ACM共同舉辦第一屆AIES(人工智慧、倫理與社會)會議。谷歌、微軟等科技公司也陸續參與XAI的研發。各界對於XAI的關注促成了許多“拆穿”黑箱AI的嘗試,從DeepMind提出的機器心智理論(Machine Theory of Mind),到將黑箱神經網路轉化為“透明”的布爾電路(Boolean circuit),再到LIME(Local Interpretable Model-Agnostic Explanation)等通過近似黑箱模型提取重要特徵的方法。雖然XAI目前解釋的對象主要是工程師等研發人員,但是在未來,我們將會看到更多面向大眾的XAI,比如向你解釋如何開葯瓶的Baxter。
XAI並不是終點;它最多算一個起點,而我們還有許多亟待解決的問題。首先,對黑箱AI的解釋可以被悄無聲息地篡改,可以完全牛頭不對馬嘴,而且很難察覺。哈佛大學的希瑪賓度·拉卡拉朱(Himabin Lakkaraju)和她的學生們發現,只需在模型上動一些簡單的手腳,就能讓它濫用COMPAS數據集里的種族信息決定量刑,但一旦LIME來“視察”,它立刻擺出無辜的嘴臉,完全不露餡。這就意味著,即使有XAI為工具,我們對AI的信任也不應當盲目地依賴系統的可靠性和(表面上)信息的透明性,理智與批判性思考將格外重要。
其次,針對AI的條例的制定相對滯後於研發和應用。XAI的出現將會讓這個問題更加復雜——由於黑箱AI難以捉摸,且只有少數人具備解讀/修改的能力,研發機構不必過分擔心自己的科研成果泄漏(除非演算法模型被一鍋端)。如果面向用戶和公眾的解釋成為需求、甚至必須,既有的AI系統——無論透明與否——都有可能面臨一系列的風險,包括知識產權(利用反向工程重建系統)和系統安全(惡意的對抗攻擊)。信任與保密兩者的張力之下,XAI應當提供的解釋的具體內容尚無定論。
再者,偏見和不公不會因為解釋本身而消失;恰恰相反,解釋會暴露更多一直以來潛行在我們周圍的倫理問題。ProPublica對COMPAS的調查使人不禁發出疑問:系統性的種族偏見究竟在何種程度上滲透了美國過去十年間的量刑?隨著XAI的進步,一個個黑箱AI的廬山真面目逐漸顯露在我們眼前,不難想像其中有像COMPAS一樣的“幫凶”。我們能否通過公開討論解決結構性問題、完善問責制,這將是對AI和人類社會共同的挑戰。
Ⅲ 為什麼說面部識別屬於種族偏見技術
面部識別可以說現在廣泛運用於人們的生活之中。但是很多人說面部識別屬於種族偏見技術,其實主要是因為研究面部識別的那些科學家們在編程的時候也會帶有自己主觀的偏見,所以說面部識別技術對於黑人的識別是具有一些出錯率的。其實作為一個全球都在使用的技術,面部識別技術卻具有如此濃重的主觀色彩,可以說是非常不應該的,畢竟,在這個大桶社會,每個人要做到就是平等對待他人。可是連一個小小的科學技術都帶有這么濃重的偏見,色彩可以說是令人非常驚訝的。因此,我認為以後的日子一定要對面部識別技術進行進一步的研究,早日將這個種族偏見方面改正過來。這樣才能推動面部識別技術更好發展。
Ⅳ 運用哲學理論和方法,分析偏見產生的原因及消除偏見的方法
偏見是必然的!每個人、每個團體、每個理論都有自己的立場、偏好、價值取向,沒有絕對客觀科學的評價。解釋學大師伽達默爾說過,每個人都有自己的視界,沒有偏見就沒有理解。
歷史上宣傳鼓吹絕對的真理、客觀和科學的理論和騙子數不勝數,這些理論往往影響越大危害就越大,具體例子就不舉了。
至於在日常生活意義上說的偏見,我想對於個人來說可以通過擴展視野和見聞、全面參考各種觀點來減輕;對於團體和社會來說,要通過民主平等地交流對話來達成一致。