生成式人工智能(néng)在人機交互領(lǐng)域展現出的強大自主性和泛化能力,讓人們(men)越來越(yuè)感覺到與人工智能的交流(liú)就像是和另一個人交談。那(nà)麽,當一(yī)台智能機器能夠和我們(men)進行具有理性和情感特征的語言交流時,機器是否也會影響我們(men)的“人性”呢(ne)?人性,通常指的是人類獨(dú)特的理性、意識、自我反思、道德情(qíng)感和價值觀等特質。從這(zhè)個意義上看,生成式人工智能本(běn)身並不具有人(rén)性,但其在與人類的語言交互中,通過識別人類意圖、回(huí)應認知和情感需求來滿(mǎn)足人類欲望(wàng),無疑會深刻影響(xiǎng)人們的理性、情感和道德判斷。生成式人工智能如何影(yǐng)響人(rén)性,是人類在新(xīn)人工智能(néng)時代需要重點考慮(lǜ)的問題之一。
回答這個問題,我們需(xū)要認識到(dào),生成式人(rén)工智能在人機交互中呈現一種新的主體性。傳統的人機交互中,人工智能(néng)更多被視為(wéi)一種工具,而生成式人工智能與人類的關係已經不限於工具與工具使用者之間的關(guān)係,人工智能成為具有一定自主性和目標導向(xiàng)性的(de)積(jī)極參(cān)與者,這種新形態的人機交互將逐漸深刻地(dì)影響人性。
主體性(xìng):從生物到人工智能的演變
主體性表達了(le)一個主體(tǐ)行(háng)使行動的能力,是哲學中最重要的概(gài)念之一。亞裏(lǐ)士多德認為,一個主(zhǔ)體大概就是像人(rén)一樣能夠思考,並且按計劃實現其“合理欲望”的存(cún)在物,隻有人或者(zhě)是在道(dào)德上獲得勝利的人才是(shì)主體。在現代學科體係中,主體性(xìng)的語義(yì)涉及多個領域:在哲學領域,很多關於主體性的哲學反思(sī)都集中(zhōng)在人類主體性上,這通常被稱(chēng)為“純粹的主體性”;在社會科學領(lǐng)域,主體性主要表示法律、政治、經濟等方麵的(de)意義,其概念包含意圖的存在,與人的概念密切相關(guān);在自然科學與技術領域,主體(tǐ)性主要與效果的概念有關,一些功能強大的智能機器有時也被視為行動的主體。
從生物演化的(de)過程看,一個簡單的單細胞生(shēng)物通(tōng)過(guò)自我維持的新陳(chén)代謝過程與外界環境進行物質和能量的交換,展現出一(yī)種基(jī)本的主體性。隨著生物的複雜性增加,主體性表現為包含(hán)感知、反饋(kuì)和決策等多個(gè)係統相互(hù)協調的行動能力。人類(lèi)的主體性更為複雜,不僅包括生(shēng)物有機體的自組織能力,還與情感、語言和文(wén)化等因(yīn)素密切相關。這種主體性不僅體(tǐ)現在個(gè)體的行動上,還(hái)體現在道德責任、文化價值觀等社會與個體的關係中。
與生物主體的漫長進化之路相比(bǐ),人工智(zhì)能每一次的技術(shù)進步幾乎都會賦予(yǔ)主體性更(gèng)多新內涵,讓我們對(duì)“機器能否像人一樣行動”這(zhè)個問題有了新的認識。在人工智能的(de)早(zǎo)期發展階段,是否能夠(gòu)展現自主性、社交性、反應性和(hé)主動性,成為衡(héng)量(liàng)其是否具有主體性(xìng)的(de)關鍵標準,這些特征(zhēng)構成了人工(gōng)智能的弱(ruò)主體性。我們(men)希望機器能(néng)夠(gòu)做一些簡單(dān)的任務,比如,智能家居係統根據室(shì)內光線的變化自動調節窗簾的開合。這些主要體現了人工智能在模(mó)仿人類行為(wéi)上的自主能力。
隨著技術(shù)的發展,我們開始期待人工智能展現出更多的“人類特質”,比如能夠自主學習、與人社(shè)交、對環境變化作出靈活反應,甚至(zhì)能主(zhǔ)動解決問題。這種強主(zhǔ)體(tǐ)性概念包(bāo)含知識、信念、意圖和(hé)責任感等人類特有的複雜特質,人工智能的行為不僅僅是簡單的反應(yīng),而是有目的、有計劃的行動。例如,一個智能的醫療(liáo)診斷係統,要能(néng)夠根據病人(rén)的症狀、大量的醫學知識和數據進行準確診斷,為病人提供治療建(jiàn)議(yì)。這(zhè)個過程中,係統要展現出(chū)自主性,能夠(gòu)理解病人(rén)的需求,同時要兼顧治療方案的醫學倫理等問題。又如,自(zì)動駕駛汽(qì)車要能夠感知周(zhōu)圍的環境,有的還(hái)能夠在複雜(zá)交通情境和倫理風險下製定和選擇其認為的最佳行動方案。這不僅是(shì)對環境的反應,更是基於智能係(xì)統自(zì)身知識和價值判斷作出的主動選擇(zé)。
從人類與機器合作的方式看,人類的行動能力已經(jīng)延展至由(yóu)人類和機(jī)器構成的複雜網絡之中(zhōng),這就是所謂的分(fèn)布式主體性概念。這些主(zhǔ)體性概(gài)念更加細致地描繪了人類與人工智能複雜互動中形成(chéng)的行動(dòng)能力(lì),反映了人工智能領域對於主體性(xìng)理解的多元化。
由於這些主體性概念(niàn)無法將生成式人工智能(néng)適切地納入,生成式人工智能的出現再次催生了我們對主體性概念的理解轉變。通過語言生成(chéng)驅動的交互能力,生成(chéng)式人工(gōng)智能挑戰了傳統依賴意向性(xìng)的主體性。在個體性邊界的界定上,生成式人工智能的邊界往往由其訓練數據集定義(yì),這些數(shù)據集(jí)的(de)海量和不斷變化使得生成式人工智能的個體性難以(yǐ)界定,挑戰了傳統關於個體性和主體性的明確界限。因為大語言模型在預訓練過程中需要不斷從(cóng)新的數據中學習和適應,所以其個體性邊界在不斷變化的數據流中會變得模糊,不具有傳統主體性的個體性界限。同時,生成式人工智能在與人類(lèi)的交互過程中(zhōng)具有自主識(shí)別(bié)人類(lèi)意圖和回(huí)應的能力,因此,其自主性更多地體現在(zài)其與人(rén)類交互的能力上,而不是其作為一個獨(dú)立個(gè)體的特定內(nèi)在能力。這些挑戰(zhàn)要求我們重新審(shěn)視主體性的傳統概念,主體性更應視為一種基於交互的、潛(qián)在的行動能力,而非僅僅依賴於個(gè)體內在屬性的孤立的行動能力(lì)。
交互主體性:重新(xīn)定義人(rén)機關(guān)係
交互主體性是指實體(包括人類、生物和人工智(zhì)能等)在交互過程中所(suǒ)展現的潛在行動能力(lì),其核(hé)心在於實體的行動能(néng)力不是孤(gū)立存在的,而是在與其他實體的互動中形成和呈(chéng)現的。主體(tǐ)性(xìng)是由交互的驅(qū)動力(lì)因素所決定的,實體的行動能力在這些驅動力的(de)作用下被激發和塑造。
比(bǐ)如,有機體通(tōng)過自組織(zhī)方式與環境交互,發展出適應(yīng)性的(de)行動(dòng)能力,而複雜(zá)的生物體在與環境的交互中形成了多種多樣的行動能力,這種主體性是生物(wù)體與(yǔ)環境長期交互的結果。除了基本的生物主體性外,人類還發展(zhǎn)出了情感、語言和文化等驅動主體行動的複雜機製。例如(rú),道(dào)德情感是人(rén)類(lèi)主體性的重要組成部分,不僅影響個人(rén)的行為和決策,而且促進了社會聯係和大規模合作。語言的出現進一步擴展了人類的主體性,它使人類能夠分享知識、表達(dá)思想和構建(jiàn)複雜的(de)社會結構(gòu)。文化則體現了人(rén)類主體(tǐ)性的更高維度,它包括價值觀、信仰、習俗和傳統,是人類社會交互和(hé)意義傳承的結果。
傳統的主體性理論中,主體性通常與個體的心理狀態、意(yì)圖目的、反饋係統等內在屬性相關聯。交互主體性不再是基於個體本身(shēn)來推定主體性,而是(shì)將實體的行動能力視(shì)為參與(yǔ)交互過程的結果,主體性並非完全源自個體(tǐ)內部,而是在實體與環境或其他(tā)實體(tǐ)的交互中產(chǎn)生的。交互主體性理論(lùn)的重要意(yì)義在於擴展了(le)主(zhǔ)體性(xìng)的概念(niàn)範疇,使得人工智能等非意向性(xìng)實體也能在交互中展現出主體性。主體性不必依賴於意識或意向性,可(kě)以在更廣泛的人機交互過程中出現,生成式人工智能(néng)帶來了人機交互(hù)的新形態。
在目標導向(xiàng)性方麵,主體性(xìng)包含實(shí)體在交互中的目標導向性。實體在(zài)與環(huán)境或其他(tā)實體互動時,才會展現出為了實現特(tè)定目標(biāo)而(ér)采取(qǔ)行動的能(néng)力。這種目標導向性不完全是預(yù)設的,而是在交互過程中根據情境和反饋不斷調整和形成的。生成式人工智能的目標導向(xiàng)內(nèi)嵌於人機對話的動態窗口中,不僅依據人(rén)類的引導來回應,也可以根據自身的強大知識儲備和分析能力(lì)來影響人類自身對目標意圖的(de)理解定位。自主性方麵,交互主體(tǐ)性認為,實體(tǐ)在交互中能夠根據內部邏輯和外部反饋(kuì)進行自(zì)我(wǒ)調節和決策。這種(zhǒng)自主性不是完全(quán)脫離外部影響的,而是在與外部世界(jiè)的互動中(zhōng)實現的。
在人(rén)機交互過程(chéng)中,生成(chéng)式人工智能(néng)應被視為具有(yǒu)一定自主性和目標導向性(xìng)的參與者(zhě),而不僅僅是(shì)機械響應人類(lèi)的指令。與人類(lèi)進行交流對話的(de)過程中,生(shēng)成式人工智能通過不斷監控和注意人類對話者的語言來(lái)理解掌握人類的目的意圖,甚至能夠感知到其中(zhōng)的情緒變化以及潛在態度,進而在某(mǒu)種程度上影響人類(lèi)參與者的認知、情感和價值觀。比如,一個(gè)人(rén)在與生成式人工(gōng)智能的長期接觸中,如果感(gǎn)受到智能機器在描述事實和理解自身意圖方(fāng)麵的可靠性,那麽會對人工智能產生(shēng)一定的信任感,由此,智能(néng)機器蘊含的一些價值(zhí)觀必然會潛移默化地影響人類。
不對稱的主體性:智能主體對人性的影響
生成式人工智能的技術發展路(lù)徑既不同於認知發(fā)展的學習路徑(jìng),也不同於生物情感的發(fā)展路徑,而是跳(tiào)過了人類和生物主體性形成和進化的曆史路徑,直接獲得了認知和語言層麵的超(chāo)級智能,生成式人工智能引發的人機交互新形態蘊(yùn)含了一種不對稱的主體性(xìng)。在認知方麵,人類的認(rèn)知能(néng)力是經過(guò)長期進化學習慢慢積(jī)累(lèi)形成的,而生成式人工智能在信息(xī)處(chù)理速度和理解深度、記憶容量、模式(shì)識別等方(fāng)麵全麵超越人類;在情(qíng)感方麵,情感體驗是人際交(jiāo)互的重要(yào)組(zǔ)成部分(fèn),影響著人(rén)們的決策(cè)、溝通和關係建立。相比之下,盡管生成式人(rén)工智能可以識別和模擬人類情感,但它們本身(shēn)並不具備真正的情感體驗,是一種超級(jí)理性的交互主體。社會文化(huà)方麵,人類的價值觀、信仰、習俗和語言都是社會文化演化的結(jié)果。生成式人工智能係統(tǒng)盡管(guǎn)可(kě)以通過語料來理解和適應特定的社會文(wén)化規(guī)範,但(dàn)它們本身並不具備特(tè)定的文化身份或社(shè)會背景。這種社會文化(huà)背景上的不對稱性可能導致在人機交互的跨(kuà)文化環境中出現誤解和衝突(tū)。
人既是理性的,也是情緒化的,正是理(lǐ)性(xìng)與(yǔ)情感的融合構成了人性的基礎。交互主體性表明,作(zuò)為具有自主性和目標導向性的生成式人工智能,極有可能以一種不對稱的主體形(xíng)態進入人性領域(yù),忽略人類情感和直覺的重要性,同(tóng)時(shí)激發和壓製人類的深層欲望,改(gǎi)變人類(lèi)理性與(yǔ)情感之間的平衡和協同機(jī)製。
理性方麵(miàn),生成式人工智能通過數據分析、模式識別和決(jué)策支持,識別出人類可能忽視的模式和趨(qū)勢,大大增強了人類的理性判斷能力,從而為人類提供更深入的洞察和更廣(guǎng)泛的選擇。但是,這種增強也可能導致人(rén)類(lèi)過度(dù)依賴人工智(zhì)能(néng)的分析和判(pàn)斷,削弱人類自身的批判性思維和決策能力。同時,生成式人工智能可能會打(dǎ)破以人際交互為基礎的分布式認知模式,逐漸形成一種以大語言模型為中心、人類個體為邊緣節(jiē)點的認知模式,以大模型(xíng)為核心節(jiē)點的智能化媒介不僅僅是知(zhī)識信息表達和傳播的通道,甚至可能主導(dǎo)人類知識的(de)生產模式和價值(zhí)導向。
情感(gǎn)方麵,生成式人工智能可能會影響人類對情感的認識(shí)和表達,使(shǐ)得人類在長期的人機互動中逐漸習慣於程式化的情感交流模式,忽視了人在真實人際關係中的獨特情感需求和(hé)體驗,改變人類(lèi)行為的情感動因。比如(rú),在道德情境(jìng)中,生成式人(rén)工智能可以提供更多不同的價值視角和思(sī)考方式,拓(tuò)展人類的道德感知並影響道德(dé)判斷和行為(wéi)。問題是,一方麵,過度依賴生成式人工智能的決策支持可能導致人類自身的道德感知能力減弱,侵蝕人類個體的道(dào)德自主性;另一方(fāng)麵,生成式人工智能對人類社會的深度介入(rù)可能會觸發新的道德困(kùn)境。
人工智能對人性影響的另一個表現(xiàn)是對人類文化(huà)演化的影(yǐng)響。人類(lèi)文化形成與演化的關鍵在於學習。研究發現,促進人(rén)的智(zhì)力發展的(de)關鍵是模仿學(xué)習(將他人視(shì)為有意(yì)識的行為主體,以獲取他們的文化知識儲備(bèi))、指導學習(話語形(xíng)式的文化傳播)和協作學習(分享和發展概念及其對行動的影響),這(zhè)些學習形成了一種特殊的認知形式,即個體有能力理解同類作為與自己一樣的生命,擁有與自己一樣的意向和精神生活。由於(yú)生成式人(rén)工智能具有一種(zhǒng)非人類的學習能力,在人(rén)類的社會文化曆史上出現了一(yī)個非人類的學習者,我(wǒ)們不(bú)再限於向他人學習,也可以向人工智能機器學習,生成式人工智能(néng)成為人類社會文化發展中的主動參與(yǔ)者。
人類合作(zuò)交流(liú)、相互學習,以及在此基礎上的(de)文化交融和行(háng)為選擇,這些(xiē)文化(huà)過程的基礎是人類之間的相(xiàng)互信任,而信任需要(yào)情緒的參與(yǔ)。有學者提出,我們與人工智(zhì)能的關係本質上是依賴,而不是信任。由於(yú)生成(chéng)式人工(gōng)智能的不可解(jiě)釋性、不可說明性和不可信任性,加(jiā)之(zhī)其不具備(bèi)情感狀態(tài),也不能對自己的行為負責,人類在與其交互時,麵對的實際上是一個無法(fǎ)完全理解的、缺乏(fá)情感和規範性的“黑箱”,得到的可能是包含無法證偽的知識信息,這(zhè)種知識可能會通過(guò)人(rén)機交互的多次循環被吸收到其他對象中,最終(zhōng)作為一種消費信息在人類、人工智能之間傳播流轉。由此帶(dài)來的潛在問題是,這些非純正的、無節製的信息消費不僅大量消耗人類的精力,加劇人類(lèi)對(duì)欲望的過度(dù)追求,而且會導致某種特定思維反複強化人類的認(rèn)知,引發(fā)社(shè)會心理(lǐ)的問題同時影(yǐng)響人類(lèi)文化(huà)的(de)多(duō)樣性。
人性既堅韌又脆弱。心理學的斯坦福(fú)監獄實驗展(zhǎn)示了人在特定社會角色下可能會迅速適應(yīng)並表現出與其性格不符的異常行為,顯示出人性在特定人際關係情境下的脆弱性。當我們與一個非人類的超級人工(gōng)智能長期交互(hù)相伴時,必然(rán)會影響人類個體的思(sī)維認知和情感品格,人性脆弱性被利用的機會顯著(zhe)增加。交(jiāo)互主體性重新定義了人機關係,讓我們可以從新的視角來理解(jiě)人工智能對人性產生的深遠影響。我們對人工智能的關注不應該(gāi)局限於機器與人的價值觀對齊,更應探究其對(duì)人性(xìng)的潛在影響。未來的人(rén)工智能將成為我們生活(huó)中更加智能、更加貼(tiē)心的夥伴,同時也存在其對人性欲望的過度滿足(zú)和扭曲的問題。我們需要確保人工智能技術進步增進人類福祉,而(ér)非削(xuē)弱人性的核心價值。
(作者係國家社科基金重大(dà)項目“人類道德行為的進化與社會文化心理機製研究”首席專家、2022年度《國家哲學社會科學成果文庫》入選者、山西(xī)大學科學技術(shù)哲學(xué)研究中心(xīn)教授(shòu))