• <s id="b9zm5"></s>
  • <dd id="b9zm5"><big id="b9zm5"></big></dd>

    <dd id="b9zm5"><track id="b9zm5"></track></dd>
      您的位置:我得雜志網 > 新聞中心 > 雜志文章 > 作為物質與權力結構的人工智能
      作為物質與權力結構的人工智能
       
      黃湘

      《人工智能地圖集:權力、政治以及人工智能的行星成本》

      作者:[美] 凱特·克勞福德(Kate Crawford)

      出版社:Yale University Press

      出版時間:2021年4月

      定價:28美元

      本書揭示了人工智能在真實世界中的成本、運作邏輯和后果,破除了人工智能“技術中立”的神話。

      凱特·克勞福德是紐約大學AI Now研究所的聯合創始人

      2016年,美國學者克勞福德(KateCrawford)和喬勒(Vladan Joler)啟動了一個名為“解剖人工智能系統”的研究項目,以亞馬遜公司發布的智能語音系統Echo為研究對象,旨在追蹤該產品的生命周期,刻畫出其工作所需要的各種條件和因素。最簡單的問題包括:Echo有哪些組件?它怎樣提取數據?數據管道有哪些層次?他們意識到,在這些簡單的問題背后潛藏著很多復雜的問題,諸如:這些組件來自哪里?芯片是在哪里生產的?構成芯片的物質原料在哪里被發掘和冶煉?物流和供應鏈的路徑在哪里?數據提取造成了怎樣的法律和倫理問題?如何追蹤這些設備的壽命終結?如何審視馬來西亞、加納和巴基斯坦等地的電子垃圾堆放點?

      這個研究項目耗時兩年,在2018年結項,現已成為紐約市現代藝術博物館和倫敦維多利亞和阿爾伯特博物館永久收藏的一部分。在研究過程中,克勞福德意識到,有必要將對Echo這個設備的分析擴展到整個人工智能產業,從而揭示這一產業的真實成本,及其對地球的真正影響。這是她的著作《人工智能地圖集:權力、政治以及人工智能的行星成本》(The Atlas of A I: Power, Politics,a nd t he P la net a r y C osts of A r ti f icia lIntelligence)的主題。
       
      克勞福德指出,關于人工智能的著作幾乎無一例外地只是談論非常狹窄的技術成就,這使得大眾對人工智能形成了漫畫式的印象,認為它僅僅是高度抽象的代碼、程序和算法,是一個可以觀察周遭環境并在各種可能的行動選項中作出最佳決定的“智能代理”(intelligentagents),在很大程度上是客觀和中立的。但事實上,人工智能是一種提取技術—從地球中提取礦物,從流水線上的工人群體中提取勞動力,從數十億用戶的每個動作和表達中提取數據,從而對地球的環境和資源產生了強烈而持久的沖擊,并且加劇了人類社會業已存在的各種結構性不平等。

      之所以將本書命名為“人工智能地圖集”,是因為地圖集不是尋常的書籍,它可以提供不同的視角和尺度,可以在一個尺度上統覽整個大陸的規模,也可以在另一個尺度上查看一座山脈或一個城市。與此類似,克勞福德在書中提供了不同的視角和尺度,幫助讀者在更廣泛的背景下理解人工智能。

      本書第一章的主題是“地球”,講述了人工智能產業對于礦物資源和能源的巨大消耗。人工智能的硬件生產需要以多種礦物資源為基礎。2010年美國制定的《多德-弗蘭克法案》要求人工智能的硬件生產商避免使用“沖突礦物”,亦即在爆發武裝沖突的地區由當地軍閥開采,并且以此提供軍費的礦物資源,這在一些非洲國家—比如剛果民主共和國及其周邊地區—司空見慣,不僅采礦的利潤用于戰爭和殺戮,而且礦區的工作條件相當于奴隸制。但是,英特爾和蘋果等技術巨頭只審核冶煉廠而不是礦場,這實際上無法阻止沾滿鮮血的“沖突礦物”進入其供應鏈。
       
      另一方面,雖然人工智能產業的大多數礦物并不是直接來自戰爭地區,這并不意味著它們不存在巨大的災害。稀土礦物的開采常常會導致地貌破壞,河流酸化,以及曾經對當地生態環境至關重要的植物和動物物種的滅絕。

      礦物是人工智能的骨干,電力則是其生命線。在公眾印象中,和煙囪林立的傳統產業相比,人工智能產業的碳排放要少很多?墒聦嵅⒎侨绱,作為當今人工智能核心的“云計算”是一種資源密集型的采掘技術,其計算能力需要消耗大量能源。當前,全球計算基礎設施的碳足跡已經與航空業的高峰期相當,而且在以更快的速度增加。據專家估計,到2040年,人工智能產業將占全球溫室氣體排放量的14%;到2030年,僅僅數據中心的電力需求就會增加15倍。美國馬薩諸塞大學阿默斯特分校2019年發表的一篇論文指出,即使樂觀估計,僅僅運行一個自然語言處理模型就產生了超過66萬磅的二氧化碳排放量,相當于5輛汽油驅動的汽車在其總壽命中的排放量,或者125次往返于紐約和北京的航班的排放量。

      第二章的主題是“勞動”,克勞福德宣稱,她關注的不是機器人能否取代人類,而是人類如何越來越像機器人一樣被對待。人工智能產業一個不太為人所知的事實是,它需要大量低薪工人來幫助建立、維護和測試系統。這些人從事重復性的數字任務,例如對數千小時的訓練數據施加標注,刪除重復的條目,或是對暴力視頻和仇恨言論進行內容審核等等,他們的勞動對維持人工智能系統至關重要,但是報酬很低,通常遠遠低于當地的最低工資標準。這是因為這些工人身處一種特定的勞動關系—“眾包”(crowdsourcing),亦即公司把過去由正式員工執行的工作外包給非特定的大眾網絡!氨姲痹诳臻g和時間上重新定位和分散了勞動,工人成為分布式的隱性勞動力,與自己的工作成果疏遠,并與從事相同工作的其他工人脫節,就更容易受到雇主的剝削。
       
      精密控制每個員工的工作流程,是工業資本主義“福特制”(For di sm)的基本特征。人工智能系統則將“福特制”發揚到了極致,工人的工位上配備的傳感器會不斷地將他們的體溫、身體狀況、與同事的物理距離、用于瀏覽網站而不是執行指定任務的時間等信息匯報給經理。人工智能極大地加劇了人類身體的機械化。

      第三章的主題是“數據”!皵祿鞘汀钡挠^念從21世紀初期開始流行,這意味著個體對于私密數據的所有權和控制權被剝離了,人工智能產業可以在未經同意和許可的情況下提取數據,不僅互聯網上的所有內容都可以在不需要協議的情況下為其所用,而且可以隨意通過攝像頭等設備收集現實世界中的各種數據。這些數據表面上似乎是匿名的,但實際上可以從中得到大量高度個人化的、意想不到的信息,嚴重侵犯了隱私。

      更有甚者,在將數據視為類似于石油的“原材料”的時候,人工智能產業傾向于剝離數據具體而特定的歷史語境、敘事脈絡和人性特征,其后果非?膳。例如,有一組機器學習的研究人員聲稱自己開發了一個“自動犯罪分類系統”,只需要“武器、嫌疑人數量、社區和地點”四項信息就能預測某一起暴力犯罪是否與團伙有關。他們使用加州洛杉磯警察局的犯罪數據庫作為訓練人工智能系統預測犯罪的“原材料”,但是這個數據庫錯誤百出,加州的審計師發現,在其審查的數百條犯罪記錄中,23%的記錄缺少支持,該數據庫甚至還包含了42個嬰兒。

      然而,當有人質疑“怎么能確定訓練數據一開始就沒有偏見”和“如果有人被誤標為幫派成員會怎樣”之時,這個研究小組的成員回應說:“這是我不知道如何適當回答的倫理問題,我只是一個搞技術的!边@種將技術問題和倫理問題分開的做法,體現了當前人工智能產業的一個基本缺陷,即拒絕承認對造成的危害負有責任,理由是超出了研究范圍。

      第四章的主題是“分類”。分類政治是人工智能的一個核心實踐,歧視性人工智能系統的例子不勝枚舉,例如,蘋果公司的信用算法存在性別偏見,預測罪犯是否會再次犯案的風險評估軟件COMPAS存在種族歧視,Facebook的廣告定位刻意阻止某些特定種族、年齡或性別的群體看到廣告,或其他敏感因素有意地阻止人們看到與住房、信貸和就業有關的廣告。
       
      一個典型例子是亞馬遜公司2014年設計的人工智能招聘程序。亞馬遜公司的工程師使用了一個數據庫,內容包括10年來的公司員工簡歷,以此訓練一個人工智能統計模型,讓它自動從應聘者的簡歷中篩選出最出色的人選。然而,這個模型出現了一個嚴重問題,它自動降低了任何包含“女性”一詞的簡歷的估值,導致沒有任何女性被推薦。這是因為亞馬遜公司10年來雇用的絕大多數工程師都是男性,這些簡歷訓練出來的人工智能系統沿襲并放大了已經存在的性別偏見。

      克勞福德強調,歷史形成的不平等會影響資源和機會的獲取,而這反過來又形成了數據,然后,這些數據被提取出來,用于技術系統的分類和模式識別,結果在技術中立的幌子下強化了不平等。每一個用于訓練機器學習系統的數據庫,其實都是把復雜而多變的世界固定為某種分類,這個分類過程隱含了內在的政治、文化和社會選擇,F實世界中的各種權力結構藉此被構建在人工智能的架構之中。

      第五章的主題是“情緒”。通過分析人臉圖像來檢測情緒,是當前人工智能產業的前沿熱點,人工智能招聘公司HireVue、微軟的Face API、亞馬遜的Rekognition等都宣稱具備這一功能。相信人工智能可以檢測情緒,是基于如下假設,即人類存在普遍的、跨文化的幾種情感分類,這些情緒會在人臉上流露出來,并且可以被機器檢測到。然而,這種假設本身就是成問題的,很多人類學家和心理學家都指出,人類的情感復雜微妙,不可能簡單分類,而且臉孔流露的表情是和文化有關的。研究表明,一些軟件把黑人臉孔解釋為比白人臉孔具有更多的負面情緒,認為黑人更容易產生憤怒和輕蔑,這是因為這些軟件的訓練數據本身就包含了種族偏見。

      對于人工智能檢測情緒的盲目信任,在日常生活中會導致求職者因為微表情與其他員工不一致而被不公正地評判,顧客因為某些神情而被人工智能系統標記為有可能偷竊;而對于希望過濾敵我雙方,區分謊言和真相的警察和情報機構來說,后果更是不堪設想。

      第六章的主題是“國家”。2013年,斯諾登向媒體泄露了美國國家安全局關于“棱鏡”項目的秘密文件,震驚全球!袄忡R”是美國國家安全局在2007年啟動的絕密監控計劃,在與全球多家通訊和互聯網技術巨頭簽訂協議的基礎上,參與該計劃的部門可以在未獲得法院批準的情況下秘密監控在美國境外使用這些巨頭服務的任何客戶,或是任何與國外人士通信的美國公民。斯諾登的爆料揭示了美國政府以國家安全的名義,在互聯網技術巨頭的配合下對民眾隱私的嚴重侵犯。
       
      事實上,國家與人工智能之間的關系遠遠超出了國家安全的范疇。在許多國家,曾經只有情報機構才能使用的技術已經滲透到了日常的行政部門和執法機構。人工智能產業正在重塑國家的傳統角色,國家通過提取數據、目標定位和監控的組合,對社會施加大規?刂坪椭笓],嚴重加劇了在國家代理人和他們理應服務的民眾之間的權力失衡。

      最后一章的主題是“權力”?藙诟5驴偨Y說,人工智能并不是一種客觀、普遍或中立的計算技術,相反,它來自地球的礦物和能源,來自人類身體的勞動,來自人類社會每天制造的海量數據;它被嵌入到社會、政治、文化和經濟之中,作為一個結合了基礎設施、資本和勞動力的權力結構發揮作用,無一例外地重現和擴大了現有的結構性不平等。

      人工智能每天都在影響幾十億人的生活,但是計算機科學和工程被視為不涉及人類主體的學科,不需要經過倫理審查,不需要考慮其社會學影響。過去數十年,技術領域關于變革的理論總是以工程為中心,如果出現問題,就通過技術來回應。這種技術中心論的框架造成了越來越多的問題。人工智能產業的發展,已經在一個非常短的時間跨度內導致權力深深地集中在極少數人手中,同時令那些被邊緣化的群體受到巨大傷害。

      直到最近,政策制定者才開始扮演角色,嘗試通過監管來解決人工智能造成的社會問題。在克勞福德看來,這遠遠不夠,應該形成更深入的民主對話,將對個人數據保護、勞工權利、氣候正義和種族平等的呼吁納入討論,通過集體行動形成針對人工智能產業的民主問責制。
      聲明:本平臺對轉載、分享的文章版權歸原作者,其陳述、觀點判斷保持中立,僅供閱讀者參考,本平臺將不承擔任何責任。如文章涉及版權問題,請您與我們聯系,我們將在第一時間刪除處理,謝謝!

      讓發行變的更簡單讓訂閱變的更方便

      嫩模超大胆大尺度人体写真

    1. <s id="b9zm5"></s>
    2. <dd id="b9zm5"><big id="b9zm5"></big></dd>

      <dd id="b9zm5"><track id="b9zm5"></track></dd>