<acronym id="ztsps"></acronym>
    1. 網站首頁 | 網站地圖

      首頁 > 國家治理 > 前沿理論 > 正文

      科技倫理治理的社會心理取向

      ——以人工智能為例

      摘 要:對于科技倫理治理來說,最簡單直接的方式就是制定規則。但現有的無論是國家政府還是組織機構等制定的規條均還不具有普適性,同時,缺乏對“知行合一”的有效約束是“規條式”治理的突出問題。今后進一步充實科技倫理治理,首先要認清人工智能倫理考察的是人工智能和人之間的關系規律,而面向人的人工智能應該考慮普通人是如何看待人工智慧并進行交互的。此外,將人類抽象道德規范轉化為具體的規則,即幫助科技“習得腳本、鍛造美德”,是科技倫理治理的另一方面。

      關鍵詞:科技倫理治理 科技向善 人工智能 科技道德

      中圖分類號B82 文獻標識碼A

      科技倫理治理現狀:尚在羅列規條、以規為宗

      若論科技倫理治理,也許最直接的方式就是制定規則,這種規則可能包括政策、法規、準則、倫理守則等(為簡化表述,下文一律將之簡稱為“規條”)。制定這些規條的主體可能是各國政府或各國政府的聯合體(如歐盟、聯合國等)、可能是國際或者國內的行業協會、研究機構或者研究組織(如美國計算機學會ACM),也可能是相關人工智能頭部企業(如谷歌、騰訊等)。應該沒有人不同意制定這些規條的最終目的都是為了進行科技倫理治理,或者更進一步創造出道德的人工智能體等科技載體,但如此之多的倫理規條本身已經說明了各個層面的規則制定者本身對人工智能的倫理風險沒有達成普遍一致,也沒有形成一個通用普適的倫理風險防范守則。

      以人工智能規條為例,Jobin等人(2019)統計了現存的用英、法、德、意等語言寫就的84個政府規條,發現確實有一些得到多數共識的倫理原則,如果將其進行排名,則為:透明、公正、無傷、負責、隱私、受益、自主、信任、可持續、尊嚴以及團結等。Zeng等人(2019)在其構建的人工智能規條數據庫之基礎上,增加了中、日等亞洲規條和業界規條,用自然語言處理的語義相似性也確定了具有多數共識的倫理原則,即:人性、合作、共享、公平、透明、隱私、安全、可歸責以及強人工智能??萍紓惱硪帡l的計數與語義聚類結果甚至并不相同。當然我國也有較為重要的人工智能規條,比如2019年6月國家新一代人工智能治理專業委員會發布《新一代人工智能治理原則——發展負責任的人工智能》,提出了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理等八條原則。這些規條看似全面,但其是否真實能用于人工智能實踐呢?科技倫理要“塑造科技向善的文化理念和保障機制”,那么完成此目標便需要行勝于言??萍紓惱碇卫頉]有規條寸步難行,但只有規條并不能讓科技向善。

      原因之一在于規條是抽象的。道德心理學的研究發現,抽象道德原則并不能指導實際道德行為,這中間有巨大的鴻溝[1]。譬如小學生守則里有這樣的規條,即“尊敬師長、團結同學”,而實際上一個特定的學生在路上碰到了老師他可能還是不知道怎么辦,因為在心理上不知道如何行為。多數倫理規條均存在此問題,其過于抽象和泛化,而非實際可操作的規則。因此,要讓小學生做出“尊敬師長”的行為結果,不僅需要讓他們背下道德規條,同時還要告訴他們在不同的情境下應當如何做的具體實踐腳本,比如“當老師迎面走來時,你要停下來,鞠躬說:老師好!”。道德教育不能只是講授道德原理和原則、灌輸道德思想,讓學生練習應該怎么做才是正確的[1]。同理,對于人工智能來說,我們不只要列出倫理規條,還應設置大量具體情境的倫理腳本,這一點不僅是對人工智能的設計者、使用者來說如此,對人工智能本身也一樣。即我們不能只設置一條“透明度”原則,我們需要告訴人工智能設計者,類似:“第一,每一個數據點的來源都必須登記和審查;第二,對每一個數據點的來源審查應該……”,只有這樣具體的規則才是具體可行、可以用于風險防范的。

      另一個原因是規條沒有解決知行分離的問題。就如人工智能倫理問題,確實可以立下非常具體的規條,哪怕即使是抽象的規條,也存在人是否可能遵守的現實情況。誠如Müller(2020)所言,人工智能倫理問題的最大現實困難是切實加強政府以及個體的調控,而非制定政策。倫理規條和政策制定是相對前期的工作,而政策的落地執行以及每個人工智能利益相關者的切實執行才是切實有效的。只用規條來進行科技倫理治理容易造成知行不一。很多時候我們看到很多人能大談倫理原則,但卻經常做出不道德的行為。以應該習得了最多倫理規范的倫理學家作為研究對象,心理學家發現,受過良好和長期道德教育、從事道德相關的研究、探討道德問題的倫理學家并不比普通人更加道德(Schwitzgebel&Rust,2009,2010,2013;Schwitzgebel&Cushman,2012;Schwitzgebel,Rust,Huang,Moore,&Coates,2012)。在美國頂尖的學術圖書館中,當代倫理學圖書的丟失率要比非倫理學圖書的丟失率高50%,而經典倫理學著作的丟失率則要高出2倍。這些倫理學專業圖書的閱讀者和借閱者通常為倫理學教授或者研究生。同時,國外倫理學教授也沒有像人們直覺的那樣履行更多的道德責任,他們在美國選舉時的投票率并不比其他專業的教授要高。倫理學家比其他人擁有更多的道德知識、受過更多的道德教育,但是他們卻并不會比他人更多地表現出道德行為,這是道德問題上知行不一的體現。

      科技倫理治理應當以人為本、治心為上

      為什么盡管規則沒有用,但是大部分做法仍在羅列規范呢?答案是,因為規條確實非常重要,也確屬先導工作。而羅列規條較之“做出道德的人工智能體”這樣的具體實踐問題要更易解決。深層次答案則是,規條的產生乃考察精英智慧的結晶。羅列規條的抽象工作通常情況下由哲學社會科學家以及計算機科學家商討而定。而事實上,由于學者關心精英智慧而忽視普通人想法,專家洞見和哲學家智慧不一定正確,而面向人的人工智能應該考慮普通人的感覺,考慮普通人是如何看待人工智慧并進行交互的。從精英智慧轉向人民群眾的實踐智慧才是科技倫理治理之要義。事實上,人工智能以人為本也是學術界和業界共識。2019年,斯坦福大學便成立以人為本的人工智能研究院(HAI),其院長李飛飛前一年便撰文闡述以人為本的人工智能的基本思想,即讓人工智能更好地反映人類的深層智能;人工智能應幫助人類變得更強,而不是替代人類;以及確保人工智能在發展過程中對人類的影響得到正確的引導。以人為本便是要考察普通人在現實生活中與科技的交互與認知,而這是典型的社會心理學研究對象。遺憾的是,社會心理學幾乎在科技倫理治理中被遺忘。

      還以人工智能為例。智能本身是心理學的獨有研究對象,一度被認為是認知科學的核心。而事實上的認知科學已經接近被心理學大量侵蝕的境地,不僅認知科學之父George Miller(2003)斷言在2035年認知科學可能全部會被心理學占領,現今對認知科學雜志上發表的文章進行統計也可以發現,心理學論文對比哲學、語言學、人類學等占巨大優勢,甚至遠遠超過一半比例[2]。事實上,古老的人工智能方法采用的更多是基于人類認知過程的模擬,比如進行決策樹的選擇等。而現今廣泛使用的人工智能方法則是深度學習,這種方法也完全基于心理學的理論。深度學習采用的是基于大數據的神經網絡模型。它來源于David Hubel和Torsten Wiesel(2004)視覺認知上的特征覺察器理論,表明不同的神經元對視覺的不同特征做反應。這就導致了深度學習的分層模式識別過程,即在刺激的輸入層和識別層中加入很多層來識別不同的對象特征,層越多就越深度,且效果就越好。這種模式加上大量數據便可以進行訓練,將特定的輸入和輸出關聯起來。這是現在大部分人工智能生產過程所采取的模式??梢院唵卫斫鉃橐幌盗休斎牒蛯敵鲩g基于大量數據訓練出的中間有結構的數學統計模型,這是以深度學習為基礎的人工智能的本質。

      這種方式可能造成兩點誤解,其一是人工智能似乎和神經科學有關,但這只是因為名義上的混淆,其實它幾乎與大腦神經結構以及當前神經科學研究并無太多關系。外界和心理學界均普遍認為,認知神經科學才做人工智能。而事實上,人工智能倫理考察的是人工智能和人之間的關系規律,這種社會心理學才是以人為本的人工智能。其二是現存人工智能方法是在人類智能研究上的倒退。細究早期人工智能做法,是將人類認知方式進行一步一步邏輯推理并將其用于人工智能,這種方法更像研究人類智慧的心理學中的認知主義。而深度學習這種只管輸入和輸出,而不管中間黑箱過程的做法,更像心理學中的行為主義。行為主義深信刺激反應的聯結足以解釋一切人類行為,而心理過程絕非必要,這是一種非常結果導向的實用傾向。而認知主義需要打開刺激和反應之間的黑箱,看看人類心理究竟如何運作,要知其然還要知其所以然。心理學的發展是從行為主義向認知心理學的發展,而人工智能的發展是相反且倒退的,其發展是從認知主義向行為主義的發展,現在以解決實際問題為主,而幾乎不去考慮中間的原理。深度學習算法造成的問題是人工智能實際上沒有心理,也就是說,人工智能離人反而越來越遠了。它確實可以在有限制的框架下運用強大的計算能力很好地解決問題,比如圍棋領域。但這是因為圍棋相對封閉,規則固定。一旦用它和人進行交互,則倫理問題便很快顯現。比如自動駕駛汽車很難進行道德決策,是不是只要前面出現五位行人,汽車都要選擇寧愿撞死車里的一個乘客來保住行人的安全?如果是這樣,那么誰會買這輛汽車呢,這里明顯存在很難解決的社會心理學悖論[3][4][5]。當然自動駕駛汽車還有很多技術不是使用深度學習,還使用了原有的決策模型,但其結果還尚且如此。遠期來說,我們預期在人類解決了最初的實用性問題后,還是會將人工智能的技術轉向借鑒人類認知,打開黑箱來進行處理,這樣的科技才更有人心的意味。

      科技倫理治理可以習得腳本、鍛造美德

      科技倫理治理的目標如果是科技向善,而道德規條重要又無法僅依靠自身實現有效應用,社會心理學如何幫助我們有效進行呢?簡單來說,讓科技理解規條,或至少按照規條內容產生行為甚為重要。人類已有的價值系統對新興科技來說適用嗎?實際上這個問題的答案非常簡單:不適用。因為人類價值觀系統是一種抽象、盡量簡約化的系統,而人工智能所輸入的必須是一種可以轉化為變量或者代碼表征的極其具體的行為規則。這種規則如果可以,最好表述為“如果…那么…”(if…then…)的形式,這符合認知情感人格系統對于行為發生的定義[1]。而如果將人類總結的抽象道德規范系統轉化為具體的規則,這是一個演繹的過程,而具體需要演繹出多少特異化的規則,也就是說人工智能學習材料中需要包含究竟何種程度多樣化的場景,這需要社會心理學。通常情況下,人工智能科學家面對這樣的問題會進行一個粗略的估計,如李飛飛等人在ImageNet中對于圖片的人工標注數量也只是在進行粗略估計后看其識別率變化[6]。圖片容易獲得,而道德情境卻很難編制或者估計其數量。一個可能的途徑是使用近期心理學對情境的分類模型[7]重新對道德情境進行分類、演繹、編制、提取特征等過程,從而來制作人工智能學習材料。

      腳本是一個“如果……那么……”(If…Then…)的規則,它指導人的行為,并告訴一個人如果你處于某種情境下,那么你就要做某種行為,這也就是自上而下的算法運算所遵循的規則。先前自下而上的深度學習方式在解決科技倫理問題時均是規范倫理學式的,而如果一旦運用腳本方式自上而下地進行人工智能倫理學習,則可以采用美德倫理學方案[1]。因為美德即道德人格,人格表現在對情境的反應上,而如果這些聯接是穩定的,我們就可以把它看作特質,特質就是這樣一定的規則。但是并不是每一個聯接或者每一個規則都是特質,特質應該表現為一套相近的聯接的集合。比如:如果在電梯里有一個陌生人,那么我就與他攀談;以及如果我在和人談話,那么我不會主動停下來。這是兩個腳本,但是這兩個腳本以及其他類似腳本合起來會構成一個特質,那便是外向性人格。所以賦予人工智能以美德,實際上便是讓人工智能習得一套道德行為腳本,這種腳本可能是創造者自上而下直接賦予它的,也可能是給它正確的輸入輸出、由它自下而上自行習得的,前者對應于傳統基于認知主義的人工智能模型,而后者對應于基于行為主義的人工智能模型。由于人工智能無法學習遷移,這種道德行為腳本的獲得必須具體到某種情境,而非泛化的原則;如何制作出如此細致的腳本,便需要基于理論的哲學、倫理學以及基于普通人信念和知覺的心理學共同協作。

      先考慮后者,即基于行為主義的人工智能自下而上的學習模型。這在現實生活中是否可行?實際上是困難的,現實例證便是大多數聊天機器人都以被人類教壞學習到歧視、惡語后慘淡結束,那么如何避免其習得人類并不喜歡的道德規則呢?似乎至少有三種途徑可以選擇[8]:一種是,這些道德人工智能已經在誕生之初便學習得特別順暢,已然具有了明辨是非的能力,它知道選擇何事可為、何事不可為;一種是,限制其今后進行訓練迭代的材料,制定一套專門挑選日后迭代訓練材料的規則,讓其主動選擇合適的向善的迭代學習材料、主動放棄可能會習得作惡的迭代學習材料;再有一種是,訓練一種可能的自我控制能力,來約束人工智能自身,而這時人工智能已然具有人性了。這三種方式均不太可能在現在發生,而真實可以發生之事還是需要以行為腳本形式自上而下地呈現。

      因此,人工智能倫理問題的解決最終一定需要包容社會心理學方式。對于人工智能來說,不要列出具體的倫理規條,應該用美德倫理學方法做出負責任、道德的人工智能體,應該設置大量具體情境,把它設置成倫理腳本。我們不能只設計一條所謂透明度的原則,還要明確規定每個數據來源必須登記和審查等。只有把它設計成規則,即如果怎么樣、那么怎么樣,自上而下地列出規則,讓人工智能知道它如何做才有用。這和現在的底層往上的數據驅動的、深度學習的方法是相反的。心理學的情境研究實際上已經把情境做了分類。應該進行社會心理學研究把人工智能會面臨的情境識別出來,對每個情境寫出道德行為腳本,自上而下地解決科技倫理治理問題。

      【本文作者為武漢大學哲學學院教授;本文系國家社科基金項目“擬人化人工智能的道德責任歸因研究”(項目編號:20CZX059)階段性成果】

      注釋

      [1]喻豐、彭凱平、董蕊、柴方圓、韓婷婷:《道德人格研究:范式與分歧》,《心理科學進展》,2013年第12期,第2235—2244頁。

      [2]Núnez,R.,Allen,M.,Gao,R.,Rigoli,C. M.,Relaford-Doyle,J.,& Semenuks,A. What happened to cognitive science?. Nature Human Behaviour,2019,3(8),728-791.

      [3]Awad,E.,et al.,The Moral Machine experiment. Nature,2018,563(7729),59-64.

      [4]Awad,E.,et al.,Drivers are blamed more than their automated cars when both make mistakes. Nature Human Behaviour,2020,4(2),134-143.

      [5]Rahwan,I.,Cebrian,M.,Obradovich,N.,Bongard,J.,Bonnefon,J. F.,Breazeal,C.,... & Jennings,N. R. Machine behaviour. Nature,2019,568(7753),477-486.

      [6]Deng,J.,Dong,W.,Socher,R.,Li,L. J.,Li,K.,& Li,F. Imagenet: A large-scale hierarchical image database. In Computer Vision and Pattern Recognition,2009 IEEE Conference,248-255.

      [7]Rauthmann,et al., The situational eight DIAMONDS: A taxonomy of major dimensions of situation characteristics. Journal of Personality and Social Psychology,2014,Vol. 107,677-718.

      [8]喻豐、許麗穎:《如何做出道德的人工智能體?——心理學的視角》,《全球傳媒學刊》,2018年第4期,第24—42頁。

      責編: 李 懿/美編:石 玉

      The Psychosocial Aspect of Governance over Ethics in Science and Technology: A Focus on Artificial Intelligence

      Yu Feng

      Abstract: The simplest and most direct way for governance over ethics in science and technology is to make rules. However, the existing rules and regulations made by the central government and organizations are not yet universally applicable. Meanwhile, the lack of effective constraints to achieve "unity of knowledge and action" is a prominent problem of "rule-based" governance. To further enrich the governance over ethics in science and technology in the future, we should first recognize that the ethics of artificial intelligence examines the relationship between artificial intelligence and human beings, and that human-oriented artificial intelligence should consider how ordinary people view and interact with artificial intelligence. In addition, translating abstract moral norms of humans into concrete rules, i.e., helping technology "acquire human virtues," is another aspect of governance over ethics in science and technology.

      Keywords: governance over ethics in science and technology; technology for social good; artificial intelligence; science and technology ethics

      聲明:本文為《國家治理》周刊原創內容,任何單位或個人轉載請回復國家治理周刊微信號獲得授權,轉載時務必標明來源及作者,否則追究法律責任。

      [責任編輯:羅婷]
      2020最新国产高清毛片

      <acronym id="ztsps"></acronym>