• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      試論人與算法的自由關系

      2022-03-24 15:04:14彭理強
      湖南師范大學社會科學學報 2022年2期
      關鍵詞:個體算法模型

      彭理強,李 倫

      尤瓦爾·赫拉利(Yuval Noah Harari)在《未來簡史》中預言,在未來信息社會,自由主義將會終結,人類如何做出重要的人生決策將發(fā)生重大轉(zhuǎn)變,擁有大數(shù)據(jù)分析能力的算法將比我們更了解我們自己,未來的智人將放棄自身的生物算法,“聆聽算法的意見”,將數(shù)據(jù)流動的自由賦予信息,主張新的價值觀——“信息自由”,放棄人文主義革命宣揚的自由、平等、博愛等舊的價值觀。然而,丹尼爾·菲斯特(Daniel First)提出另一種對未來的描述:人類不會依賴算法來為自己做決定,算法只是優(yōu)化我們的“選擇環(huán)境”[1]。菲斯特基于以下觀點認為赫拉利關于推薦算法未來含義的概念存在嚴重缺陷。其一,用戶不會依賴算法為自己做決策,因為他們沒有理由信任算法,算法是由公司開發(fā)的,有營利等激勵因素。其二,對于我們生活中的大多數(shù)決策,算法將無法開發(fā),因為與我們面臨的決策相關的因素是我們的情景所特有的。菲斯特指出,即使算法可以為我們作出許多決定,自由主義作為一種政治制度也將毫發(fā)無損地存在。通過對赫拉利的“信息自由”和菲斯特的“個人自由”的批判性分析,本文嘗試提出描述未來的另一種路徑:我們應該對不同本質(zhì)、作用于人的自由意志的不同階段的算法做出區(qū)分,讓算法的本質(zhì)以真理的方式顯現(xiàn),人與算法建立“共在”的新型自由關系。

      本文首先從工程的角度考察傳統(tǒng)算法與大數(shù)據(jù)算法的技術差異性,以此揭示算法科學從封閉系統(tǒng)到開放系統(tǒng)的計算范式轉(zhuǎn)向。然后,根據(jù)算法作用場域的不同,將算法劃分個體決策影響型、社會資源分配型和自然科學型算法。這三個向度的算法意志分別作用于人的自由意志的產(chǎn)生、判斷、實現(xiàn)的不同階段。最后指出,赫拉利的“信息自由”觀點談論的是社會場域下的資源分配型算法和自然場域下的自然科學型算法,描述的是算法在人的自由意志實現(xiàn)階段對人的異化;菲斯特的“個人自由”觀點談論的是精神場域下的自我認知影響型算法,描述的是算法在人的自由意志的產(chǎn)生、判斷階段對人的異化。他們談論的是不同本質(zhì)、作用于人的自由意志的不同階段的算法,都沒有全面把握人與算法的自由關系,都不是人類社會未來發(fā)展的應然圖景。

      一、算法科學的計算范式:從封閉系統(tǒng)到開放系統(tǒng)的轉(zhuǎn)向

      計算機應用初期,其運力和內(nèi)存不足,研發(fā)類似冒泡排序、歸并排序的算法,是為了在處理信息時采用最少的算力和最少的內(nèi)存。算法的主要評價指標是時間復雜度和空間復雜度。早在1984年,圖靈獎得主唐納德·爾文·克努斯(Donald Ervin Knuth)就給出了經(jīng)典的計算機算法定義:“(計算機)算法是一組有窮的規(guī)則,能夠給出解答特定類型問題的運算序列”[2]。早期的算法都是在計算機操作系統(tǒng)的封閉環(huán)境中運行,且運行規(guī)則由代碼硬編碼指定,可稱之為硬編碼算法(hard coding algorithm,HCA)。硬編碼算法是用計算機語言描述的解決問題的清晰指令代碼,一般具有有窮性、確切性和可行性等特征。硬編碼算法的這些特征使計算主義、邏輯主義追求絕對的、唯一的、永恒的、自足的確定性知識成為可能。

      隨著集成電路芯片上的晶體管數(shù)量的增多和成本的下降,計算機算力和存儲空間得到了顯著提升,傳統(tǒng)算法開始式微。與此同時,互聯(lián)網(wǎng)、物聯(lián)網(wǎng)和各種智能終端的互聯(lián)互通,產(chǎn)生了海量數(shù)據(jù),海量數(shù)據(jù)的信息價值挖掘技術及應用成為算法科學研究的新熱點,由此催生大數(shù)據(jù)信息價值開發(fā)的算法,即大數(shù)據(jù)算法(big data algorithm,BDA)。大數(shù)據(jù)算法可以分為以下三類:數(shù)據(jù)清理和預處理的算法;用于參數(shù)估計的最優(yōu)化算法;機器學習算法。前兩類主要用于算法工程師的模型建立階段,第三類主要用于算法模型的應用階段,應用的場景分為預測、分類和聚類等[3]。

      大數(shù)據(jù)算法的模型不全是用代碼來描述,數(shù)據(jù)將參與邏輯規(guī)則的建構過程,并且部分大數(shù)據(jù)算法的模型(如強化學習算法、人工神經(jīng)網(wǎng)絡算法)會隨數(shù)據(jù)輸入的變化而變化。算法科學的研究也開始由計算機科學擴大到統(tǒng)計學、數(shù)據(jù)科學等眾多交叉學科。例如,計算機科學的“算法”與統(tǒng)計學的“模型”概念關聯(lián)密切,二者常常用不同的概念描述相同的內(nèi)容。統(tǒng)計學家用“模型”來描述自變量和因變量的關系,這種關系用數(shù)學函數(shù)及相應參數(shù)來定義。計算機科學用“算法”來定義輸入信息與輸出信息的關系?!八惴ā钡囊?guī)則對應模型的數(shù)學函數(shù)和參數(shù)。硬編碼算法對應算法模型的參數(shù)以及函數(shù)都固定的數(shù)學表達式,大數(shù)據(jù)算法對應算法模型的參數(shù)以及函數(shù)都可能不固定的數(shù)學表達式。如果把算法(模型)當作現(xiàn)實世界對象的映射,模型中的數(shù)學函數(shù)就代表著現(xiàn)實世界中的現(xiàn)象或行為的運行規(guī)律,參數(shù)就代表著該現(xiàn)象或行為的趨向程度。不同于傳統(tǒng)算法(模型)運行在一個封閉的計算機系統(tǒng)中,現(xiàn)實生活中的數(shù)據(jù)將參與算法模型的建構,使得模型的計算范式開始向開放系統(tǒng)轉(zhuǎn)向。相比封閉系統(tǒng)的硬編碼算法,開放系統(tǒng)的算法呈現(xiàn)新的特點。

      第一,相關性和非因果性。對某超市購物籃清單進行分析發(fā)現(xiàn),一種帶吸管的不溢水杯與嬰兒用的套在肚子上的游泳圈之間具有關聯(lián)關系。這種商品關聯(lián)關系提示賣場可以將這兩類商品在夏季一起陳列,從而可以獲得更好的商業(yè)機會。由于人類行為的外部數(shù)據(jù)的導入,算法模型能夠通過分析事物數(shù)據(jù)間的相關性,“捕獲”到事物的運行規(guī)律。美國計算機專家、圖靈獎獲得者吉姆·格雷(Jim Gray)提出大數(shù)據(jù)技術是一種新的科學發(fā)現(xiàn)范式,該范式與經(jīng)驗范式、理論范式和計算范式并列存在,相互補充,共同構成了科學研究的范式體系。需要強調(diào)的是,數(shù)據(jù)間的相關性是無法還原為現(xiàn)象的因果性,由于系統(tǒng)的開放性,模型自身無法解釋現(xiàn)象。

      第二,相似性和非確切性。硬編碼算法模型的確切性表明,A輸入與B輸出的關系是穩(wěn)定的,是不隨外界環(huán)境的變化而變化的,由于輸出是明確的、可預測的,所以結論也是設計者可以預料并解釋的。與硬編碼算法模型不同,大數(shù)據(jù)算法本質(zhì)上采用的是非確切性的描述規(guī)則,A輸入與B輸出的關聯(lián)是統(tǒng)計學意義的,而非確切性或必然性的,關聯(lián)的內(nèi)在邏輯是不同數(shù)據(jù)的特征向量。并且,數(shù)據(jù)特征向量的選擇是人類自主的行為,是個體觀察和經(jīng)驗的主觀感受,極易受刻板印象、文化、情感等因素影響而產(chǎn)生偏見。比如人臉識別算法可能會把黑猩猩誤認為黑人,這有兩個方面的可能性:一是因為外表可能存在簡單的相似性,由于之前大猩猩的圖片沒有被算法學習過,算法沒能對大猩猩和黑人照片的特征向量作出區(qū)分;二是現(xiàn)實生活中帶有偏見地錯誤標注數(shù)據(jù),將黑人圖片標注為大猩猩誤導了算法。大數(shù)據(jù)算法應用于社會事務時,現(xiàn)實情況的復雜性和個體的主觀性,使數(shù)據(jù)量化存在很多局限性。因此大數(shù)據(jù)算法的輸出是含混的,或是對社會偏見的沿襲,有可能成為別有用心者惡意操縱的工具。事物是普遍聯(lián)系的,試圖用數(shù)學方法精確建構事物間的關系,存在方法上的不可行性。算法的輸出是具體對象(現(xiàn)象)的特征向量,大數(shù)據(jù)算法模型試圖用有限個特征向量的集合來描述具體對象(現(xiàn)象)時,是一種近似而非確切性的描述。

      第三,生長性和非有窮性。算法在實踐過程中演化出兩個加強版——深度學習(Deep Learning)和強化學習(Reinforcement Learning)。深度學習是一種采用多層神經(jīng)元的神經(jīng)網(wǎng)絡對參數(shù)結構進行優(yōu)化的算法,盡可能地避免在訓練數(shù)據(jù)時特征向量重疊造成分類錯誤的問題。強化學習是在訓練數(shù)據(jù)的同時,通過環(huán)境的反饋獲得新數(shù)據(jù),并利用新數(shù)據(jù)循環(huán)往復地更新迭代現(xiàn)有模型的算法。強化學習使算法與環(huán)境互動,通過感知環(huán)境的反饋優(yōu)化模型,類似人類反復從失敗或成功中進行學習的模式。算法在兩個加強版的基礎上,又迭代出深度強化學習算法。該算法運用神經(jīng)網(wǎng)絡作為參數(shù)結構,并用環(huán)境反饋數(shù)據(jù)反復訓練模型。算法需要在環(huán)境中不斷“學習”,在“學習”中找到更優(yōu)的結論。算法經(jīng)過迭代后的不同版本表現(xiàn)出的效能差異性主要源自不同的數(shù)據(jù)訓練過程和方法,類似于有機生物體的個體差異性是受其所處環(huán)境所影響的;模型通過數(shù)據(jù)的“喂養(yǎng)”日趨完善的過程,類似于有機生物體在吸收養(yǎng)分后的生長與進化過程,因此我們可以將大數(shù)據(jù)算法的進化過程稱之為“生長性”。大數(shù)據(jù)算法建立了一種從輸入數(shù)據(jù)到輸出數(shù)據(jù)的模型,如果要建立輸入數(shù)據(jù)到輸出數(shù)據(jù)的完全關系,該模型理論上需要數(shù)據(jù)的總體而非樣本。大數(shù)據(jù)算法原型的設計者、數(shù)據(jù)科學的發(fā)起人雷切爾·查特(Rachel Schutt)認為:“數(shù)據(jù)量越多往往對于建模越有幫助,我們可以無限地接近真理,但永遠無法到達那里”[3]。大數(shù)據(jù)算法的這種成長進化過程具有無窮性特征。

      由開放系統(tǒng)算法的特征可以看出,開放系統(tǒng)的計算范式不再滿足傳統(tǒng)邏輯主義、計算主義對確定性知識的表征,開始從唯一性、確定性向多樣性、譜系性轉(zhuǎn)向。

      二、不同本質(zhì)的算法與自由的不同場域

      對技術本質(zhì)的追問,是我們探討人與技術關系的出發(fā)點。早在1877年出版的《技術哲學綱要》中,德國學者恩斯特·卡普(Ernst Kapp)對技術本質(zhì)的問題做了開創(chuàng)性的精辟回答。在《技術哲學綱要》中,卡普提出“器官投影說”,把技術的對象——人工物視為人類器官功能與形式的延伸與強化。例如,斧頭和剪刀是手的投影,電報是神經(jīng)系統(tǒng)的投影??ㄆ盏裙こ虒W的技術哲學家普遍認為,技術的本質(zhì)是人的身體的功能或形式的對象化。人文主義傳統(tǒng)的技術哲學家對此是持反對意見的,他們習慣用擬人、修辭等語言,把技術描述為人的精神活動,認為技術的本質(zhì)與人的精神活動密切相關。法國技術哲學家雅克·埃呂爾(Jacques Ellul)就認為“技術是指在所有人類活動領域中,理性地獲得并具有絕對效率的所有方法”[4],技術的本質(zhì)是人類的理性活動。

      開放系統(tǒng)算法的應用是信息時代人類生活和工作的一種范式,在人與世界打交道的過程中,算法扮演著各種角色的中介,從調(diào)節(jié)“我”的知覺到產(chǎn)生另一個“他者”之間,進行著非連續(xù)統(tǒng)的轉(zhuǎn)換。當我們考察開放系統(tǒng)算法的本質(zhì)時,將其定義為某種特定形式和功能的人工物是不夠全面的。開放系統(tǒng)算法由于其應用的開放性、包容性等特征,被認為是一種泛化的技術,所以當我們討論人與算法的關系問題時,其實就是在信息社會的背景下追問技術的本質(zhì)問題。在對技術本質(zhì)的探討中,卡爾·米切姆提供了一種有價值的綜合性思維框架,認為技術是客體、知識、活動和意志的完整集合體[5]??枴っ浊心返募夹g分析框架為我們綜合理解算法的本質(zhì)提供了很好的討論視角。

      “自由”意味著個人憑借自身意志而行動,并為其自身的行為負責?!白杂伞币蚱渖婕爸黧w、對象及其關系等原因,在沒有對其進行明確的分域的基礎上談論人與技術的自由關系,都只能將之理解為在表達一種對現(xiàn)實的不滿情緒。根據(jù)人所面對的不同存在對象將自由分為三個方面:“一是人在精神中的自由,二是人在社會中的自由,三是人在與自然交往過程中的自由”[6]。為了全面把握人與算法的自由關系,為新型自由關系開辟倫理學空間,不妨據(jù)此將人的存在劃為自然、社會、精神三個場域,同樣,根據(jù)算法調(diào)節(jié)的對象不同,我們可將算法分為個體決策影響型算法、社會資源分配型算法、自然科學型算法,分別用來調(diào)節(jié)“我”與自我、他者、自然三者的關系。我們把算法與哲學人類學的本質(zhì)放在一起思考,最終要揭示的是算法在不同場域內(nèi)在本質(zhì)的差異性。

      第一,個體精神場域中的個體決策影響型算法。人的自由意志如何做出道德決策是一個有爭議的話題。以皮亞杰和科爾伯格為代表的心理學家認為,從個體認知發(fā)展的角度研究人的道德發(fā)展規(guī)律,道德推理是人有意識的認知活動,是一個理性推理過程,在道德判斷過程中不存在直覺及頓悟,即使情緒情感參與其中也不發(fā)揮主要作用。海德特(Jonathan Haidt)不贊同科爾伯格關于道德判斷是經(jīng)過意識層面的道德推理而形成的觀點。海德特強調(diào)情緒在決策中的作用,提出道德判斷的社會直覺主義模型。社會直覺主義模型認為,道德判斷主要是由情緒誘發(fā)快速、自動的直覺所致,而道德推理是依靠邏輯來作出判斷,是在道德判斷之后的合理化過程。道德推理通常是一個“事后的建構”,在道德判斷完成之后產(chǎn)生,道德直覺推動道德推理正如“一只狗搖擺尾巴一樣肯定”[7]。格林(Joshua D. Greene)不滿海德特對道德判斷的情緒主導作用和道德推理在道德判斷中所扮演的辯護角色,提出道德判斷的雙重加工模型。雙重加工模型認為,道德判斷是理性和情緒共同作用的結果:在道德判斷的過程中,一方面受到由情緒誘發(fā)的直覺系統(tǒng)的影響,另一方面受到認知過程中產(chǎn)生的理性推理系統(tǒng)的影響,前者是一個平行的自動化加工過程,而后者則是依靠個體調(diào)節(jié)和控制實現(xiàn)。當兩者一致時,道德判斷既遵從直覺又含有理性推理。當兩者相沖突時,如果情緒戰(zhàn)勝了認知,那么個體判斷傾向于道義性判斷;當認知戰(zhàn)勝了情緒,那么個體則會傾向于效用主義判斷。

      情感和認知,究竟哪個對個體決策發(fā)揮決定性作用,學者們爭論不休。我們傾向于認為情感和認知兩個變量都對個體決策發(fā)揮著不同比例的影響,具體某個決策受哪個變量影響更大,取決于決策發(fā)生時個體可及的理性推理時間、認知的信賴程度、情緒的調(diào)節(jié)能力等因素,表現(xiàn)為一定的個體差異性。個體決策的差異性也為提升個體精神場域內(nèi)自由意志的判斷力提出了必要性。

      通過分析,我們可以找到影響個體決策的兩個重要變量:情感和認知。最終我們想揭示的是:信息時代的新媒體,例如新聞頭條、抖音短視頻、知乎等平臺,后臺嵌入的信息推薦算法改變了信息傳播的范式,也深刻地影響著個體的認知和情感,進而影響著個體決策。比如Facebook可以通過操作用戶看到的信息,影響選民的情緒,進而引導選民的投票。信息推薦算法通過監(jiān)控用戶點擊的具體媒體內(nèi)容、停留在該媒體的時間,分析個人的偏好,并結合可獲取的用戶個人信息,給個人“畫像”。這些算法無論其設計的動機是為了迎合用戶的個人偏好,還是嵌入了不可告人的監(jiān)控目標,我們都將此類型的算法定義為個人決策影響型算法,它們對公眾的情緒和認知都發(fā)揮著舉足輕重的影響,特別是普及率非常高的超級平臺算法。

      第二,社會場域中的資源分配型算法。社會場域是人與人發(fā)生交往的世界。生產(chǎn)與分配是社會重要的交往活動,通過人與人的合作實現(xiàn)社會化大生產(chǎn)。在人類歷史的不同階段,生產(chǎn)關系與當時的社會生產(chǎn)力相適應,分配關系與當時的社會結構相匹配,即技術的發(fā)展水平影響人類的生產(chǎn)方式和生產(chǎn)關系的變化,但社會資源的分配關系一直都是由權力階級來主導。

      我們可以從人類社會與技術的發(fā)展史來一窺分配主體的歷史變遷。在《技術與文明》一書中,人文主義技術哲學家劉易斯·芒福德(Lewis Mumford)根據(jù)技術對人類生活和文化所造成的不同影響,將技術的發(fā)展史劃分為三個“互相重疊和滲透的階段”。在始技術階段,人類掌握的技術主要是生產(chǎn)工具的簡單改造和可再生資源的利用,該時期生產(chǎn)力比較低下,與之相適應的勞動分配模式是平均主義。比如原始社會時期,人類祖先常以部落的形式群居,狩獵等兇險的勞動是由青壯年男子去完成的,獲得勞動成果后,部落內(nèi)男女老少,無論是否參與這項捕獵行動都可以得到平等的一份,絕對平均是最原始的分配原則。技術的進步帶來生產(chǎn)力的提高,生產(chǎn)力的發(fā)展必然引起生產(chǎn)關系的變革。隨著耕種技術的掌握,耕種的土地成了重要的生產(chǎn)資料,在這種生產(chǎn)資料的占有方式的基礎上形成了不同階級的對立,社會資源的分配由占有生產(chǎn)資料的階層來主導,平均主義的分配原則在始技術階段就被打破。在古技術階段,煤、鐵等不可再生資源為機器的自動化生產(chǎn)提供了源源不斷的動力,機器自動化的生產(chǎn)方式降低了資本家對熟練手工業(yè)勞動者的需求,“機器對以手工業(yè)中的分工為基礎的生產(chǎn)方式,以及對建立在這種分工基礎上的勞動力的各種專業(yè)化發(fā)生否定的作用”[8]。因此,在始技術和古技術階段,技術進步引發(fā)生產(chǎn)關系的變革,但分配關系還是由生產(chǎn)資料的占有者來主導,而非技術主導。

      芒福德認為新技術階段是電與合金復合體的應用時期,新技術的發(fā)展具有兩種潛能,一種是民主的綜合技術,另外一種是集權的單一技術。綜合技術“大體上是以生活發(fā)展為方向,而不是以工作或權力為中心的”[9]。而單一技術是一種復雜的、高度權力化的“巨機器”。芒福德對新技術發(fā)展的“兩種潛能”的論斷,雖然他本人沒有明確表示區(qū)分的依據(jù)是分配主體的不同,但是他的“巨機器”的概念:人類生產(chǎn)與分配活動高度集權化的技術,就已經(jīng)預言了技術介入人類分配領域的可能性。

      人類主導分配的歷史可能會被信息時代的算法終結,算法具有介入人類社會資源的分配領域的潛質(zhì)。比如銀行通過建立信用卡違約人員的屬性特征模型用于放貸決策,汽車保險公司通過建立理賠人員的行為模型用于保險費金額的決策,企業(yè)通過建立優(yōu)質(zhì)員工的行為特征模型用于招聘決策等,這些算法有一個重要特征就是它介入了公共利益與個人利益的分配領域。在社會場域中,算法開始向社會、經(jīng)濟、政治等多領域滲透。為了討論的需要,我們把調(diào)節(jié)社會公共資源的分配領域的算法定義為“資源分配性算法”。在信息時代,社會公共資源如何分配的問題既是一個社會政治問題,同時也是發(fā)展“民主的綜合技術”的潛能問題,研究的目標是探究“資源分配性算法”介入公共領域的應然性問題。

      第三,自然場域中的自然科學型算法。科學認識是對事物真理性的把握,科學認識的獲得離不開人的主觀性,但這種主觀性不能遮蔽其客觀性內(nèi)容。經(jīng)驗主義認為感性經(jīng)驗是知識的唯一來源,知識通過經(jīng)驗獲得并在經(jīng)驗中得到證實。小數(shù)據(jù)時代,人類依靠觀察和收集有限的數(shù)據(jù),然后運用理性思維建立理論模型,最后在實踐中利用理論模型的演繹來把握和預測規(guī)律性,因此理論模型的建立源于人類觀察后形成的經(jīng)驗。大數(shù)據(jù)時代,數(shù)據(jù)采集突破了地域性、時間性和規(guī)模限制的瓶頸,科學的發(fā)現(xiàn)不再僅僅依賴于理論模型,分析數(shù)據(jù)間的相關性也可實現(xiàn)知識的獲取。我們可以用“大數(shù)據(jù)主義”這個概念來描述這種認識論的轉(zhuǎn)變。該認識論認為,算法是一種數(shù)據(jù)驅(qū)動的經(jīng)驗主義模型,該模型不再只依賴人類自身的觀察和科學實驗的發(fā)現(xiàn)。該模型可以通過算法和數(shù)據(jù)建構物理模型。因此,除了經(jīng)驗和觀察外,算法已成為人類認知的新范式。在自然場域中,為了生存與繁衍的需要,人類必然會不斷拓展自身周遭物理世界的認識,而認識的終極目的就是對客觀規(guī)律必然性的把握。

      三、人與開放系統(tǒng)算法之自由關系的異化

      從算法的模型看來,具有相似行為特征的人,下一步行動的選擇具有趨同性。在算法的邏輯中,人類行動雖然是由個人的意向和沖動發(fā)起,然后經(jīng)個人意志權衡利弊后作出的理性或感性選擇,但是大腦的運行機制是可以通過分析更多維的個人數(shù)據(jù)特征向量,建立更復雜的理論模型,采用更強大的算力,實現(xiàn)人腦算法機制的還原,即人的命運冥冥之中可能是被決定的,個人的自由意志只是使個人在現(xiàn)實中左右掙扎了幾下,最終還是要匯入到必然性的歷史洪流中。

      算法通常能夠給我們更好的選擇,我們是聽命于算法,還是反抗于算法?在學科分化和技術科學的推動下,工程派也在人與技術自由意志之爭這條道路上開始付諸行動,他們希望通過更復雜的實驗、更強大的設備來實現(xiàn)對主體——我之外的人和物的操作和控制,也就不斷有機器是否應該納入道德主體、我們應當如何對待機器人、如何制造一臺具有道德決策的機器等的討論。

      按照主體性理論,自由意志是人獨有的,是一切道德理論價值與意義的源泉,是人區(qū)別于其他物種的基礎,決定著人的本質(zhì)。但是,如果所有人生重要決定都由算法做出的話,那么,這是對人類自由意志的否定,同時也意味著人的本質(zhì)的異化。

      第一,個體認知的自我異化。在個體精神場域,我們沒有否認個人自由意志的缺席,只是在表達一種對個人意志被算法“規(guī)訓”之可能性的擔憂,就如赫伯特·馬爾庫塞(Herbert Marcuse)所描述的,信息社會是一個發(fā)達的工業(yè)社會,如果不對超級平臺的個體決策影響型算法加以引導和約束,人類社會將演變?yōu)樾滦偷臉O權主義社會,這個社會的人是一個喪失否定、批判和超越能力的“單向度的人”。米切姆在《通過技術思考》中分析作為知識的技術類型時強調(diào):“技術不是知識的應用,而是知識的一種形式,它一直依賴技術技能”[5]。而現(xiàn)代技術的重要趨勢就是“去技能”,技術對熟練的匠人所知的技藝進行理性化,并用無技藝的勞動者取代技藝高超的工人。人因為缺乏有益的知識,或者被謬論充斥著頭腦,心智的認知結構被慢慢改變,如果自身沒有意識到個人處境并尋求突破,就會在“信息繭房”中“作繭自縛”,最終就會被“去技能”,完全失去反抗能力。我們把個體決策影響型算法對個人認知的挑戰(zhàn)定義為個體認知的自我異化。個體認知不加以善的引導,就會被偽善或者惡所蒙蔽,我們用異化這個概念來表達人的反常狀態(tài),而人的常態(tài)是個體與自我、社會、自然和諧共生的應然之態(tài)。

      “單向度的人”是缺乏知識、沒有批判性和否定性思維的人,同樣是喪失其本質(zhì)的人。作為“知識”的算法,比如新媒體平臺的內(nèi)容推薦算法,通過監(jiān)視和分析個人行為,預測個人的興趣和需要,極化、窄化個人認知系統(tǒng),造成個體認知層面的誤解和偏見。大數(shù)據(jù)算法可能加劇個體非理性的需要,人一旦對算法產(chǎn)生依賴心理,會放松自身的警惕性,完全沉浸在算法輸送給自己的狹小的、單薄的、舒適的信息空間,失去對合理性的反思和質(zhì)疑。此模式循環(huán)往復后,個人將會陷入單向度的思維,成為單向度的人,引發(fā)個體認知和決策的風險。

      第二,社會分配的群體異化。作為“客體”或“活動”的算法被應用于社會分配時,會使個人在社會中受到不公正的對待。在大數(shù)據(jù)時代,我們在賽博空間中實踐著工作和交往等多項社會活動,個體的自然、社會等N維屬性在賽博空間中只是一維或者小于N維的數(shù)據(jù)化符號,生活世界中豐滿的個體在賽博空間中被大數(shù)據(jù)算法分組為各種符號化群體,而不管他應不應該屬于這個群體。比如,求職招聘大數(shù)據(jù)算法首先分析績優(yōu)員工和績劣員工的數(shù)據(jù)特征向量,然后與求職者的數(shù)據(jù)特征向量進行對比分析,算法直接忽視了個體的差異性,使個體受到不公正的待遇。

      社會分配型算法對人的群體異化主要源于算法的無意識性,使得倫理實體中的權利與義務在現(xiàn)實中相分離。作為“意志”的算法一旦脫離產(chǎn)生其意志的主體——工程師,最突出的后果是善的缺失,進而使人的類本質(zhì)生成失去現(xiàn)實存在的土壤?!吧频娜笔А币馕吨诂F(xiàn)實中未被實現(xiàn)的自由。大數(shù)據(jù)算法是工程師“意志”的現(xiàn)實化,工程師賦予算法“靈魂”,延展算法使用者的心智,算法應該關照到使用者的價值和利益。一方面,工程師設計算法的目的和倫理標準,倫理學應該對此作出清晰的界定;另一方面,應當使算法增進個體的福祉而不是相反。

      第三,人的自然本質(zhì)異化。“人是類存在物,不僅因為人在實踐上和理論上都把類——他自身的類以及其他物的類——當作自己的對象;而且因為——這只是同一種事物的另一種說法——人把自身當作現(xiàn)有的、有生命的類來對待,因為人把自身當作普遍的因而也是自由的存在物來對待?!盵10]人作為自然的存在物,也具有一定的物理特征。從算法的視角來看,人的物理特征是大數(shù)據(jù)算法分析的原料,比如分析個人數(shù)據(jù)可以準確識別并定位到個體,分析個人行為數(shù)據(jù)可以預測個人的行為趨勢。大數(shù)據(jù)算法作為人類認識與改造世界的工具,理應為人類所用。當算法可以識別并預測個體的行為時,不受約束的形式化與邏輯化的算法理性可能反客為主,監(jiān)視與控制人的行為。人與動物的最大區(qū)別是人具有自由意志,可以克服動物性的本能需要,理性地規(guī)劃自己的存在方式。但在自然場域,人的自然屬性成為算法分析和控制自身的“泄密點”,成為異己的對象。為了保護自我不被監(jiān)視和控制,可能的消解方式便是主張個人數(shù)據(jù)的保護,逃避算法的霸權。

      四、共在:從認識論到存在論

      人的主體性理論強調(diào)人在萬物中的重要地位,并在形而上學上預設人的本質(zhì)。一方面,主體性理論強調(diào)人的主觀能動性,人之外的物是人可認識的客體,客體是現(xiàn)代技術可任意操作、控制的對象。技術樂觀主義是關于人的本質(zhì)力量外化的極端思想,它來源于人的主體性理論。技術樂觀主義認為技術能夠解決一切現(xiàn)實問題,包括由技術自身產(chǎn)生的問題,如果問題暫時還不能解決,也只是因為我們現(xiàn)在對事物的認識還不夠深入和全面,相信最終都是可以用技術解決的。赫拉利預言在21世紀,建立在自由主義之上的所有基礎都會被大數(shù)據(jù)算法破壞,最終導致自由主義垮臺,因此“信息自由”更符合智人的價值標準[11]。他解釋說,大數(shù)據(jù)算法最了解什么對公民及其國家最有利。比如,當政府或谷歌有了一個算法,可以決定你的孩子在哪里上學更適合成才,或者你跟誰結婚最幸福,選擇權就不再需要留給你了,人的自我決定將是多余的。在人與算法關系的選擇上,赫拉利傾向的則是技術樂觀主義。

      另一方面,人的主體性理論強調(diào)人的自主性,因為人有自由意志,可以自我決定。人的自主性表明我可以拒絕外部世界對自身主體地位的挑戰(zhàn)。比如,在對未來世界的描述中,菲斯特就認為,大數(shù)據(jù)時代自由主義的基礎依然毫發(fā)無損。他解釋說許多人生決策過于局部,無法收集大數(shù)據(jù);其他決策則不容易量化或依賴于價值判斷。即使人類可以開發(fā)出算法,人們是否應該僅僅相信算法的結果,這一點也不明顯。神經(jīng)科學已經(jīng)證明人類缺乏自由意志,并表明這遠不是決定性的。最后,他認為自由主義有更多的社會力量支持它。對算法如何影響我們的決策這個問題,菲斯特持一種技術工具主義的觀點。技術工具主義認為技術只是我們使用的工具,它自身沒有價值負載。

      傳統(tǒng)主體性理論的主客二分使哲學陷入解釋困境。海德格爾認為克服這個缺陷是哲學的一項重要任務,他認為傳統(tǒng)本體論是沒有根基的,因為它沒有考察心靈實體或物質(zhì)實體的存在方式,而總是將人類“存在者”視為“存在”,忽視了人類“存在者”的“存在”。人從來不是世界的主體,世界也從來不是人的客體,笛卡爾的“我思”和“我在”,康德的“直觀”和“意識”都是靜態(tài)的認識我們周圍的事物,當我們從實際生活出發(fā)觀察事物本身如何顯現(xiàn)時,我們會發(fā)現(xiàn)自身早已融入這個世界——“在世界中存在”。“在世界中存在”的含義是人總是融于世界,人與世界不可分。赫拉利預言的被算法決定的自我和菲斯特預言的自由決定的自我,都將人與算法的關系置于割裂的對立面,而忽視了兩者的共在關系。維貝克(P.P.Verbeek)將這種由人和算法共同作用形成的意向性稱之為“雜交意向性”或“復合意向性”,“復合意向性”的概念很好地闡釋了人與物的共在理念。布魯諾·拉圖爾(Bruno Latour)認為自然與社會、主體與客體、人與非人、物與非物都是“行動者網(wǎng)絡”(actor-network)中的元素,在網(wǎng)絡中相互運動,彼此共生且共成一體。拉圖爾用“行動者”來表示所有在行動過程中發(fā)生作用的各元素以及他們的共在關系。海德格爾曾引用荷爾德林的詩句:哪有里危險,哪里就有拯救的力量,呼吁人們喚醒藝術世界與詩歌世界中的“思”來實現(xiàn)自我救贖,回到本真的生活?!罢取钡哪康氖亲屖挛锏谋举|(zhì)以正確的方式顯現(xiàn)出來,事物的本質(zhì)是事物本身或事物不依賴于人的存在。人不創(chuàng)造算法,算法只是被工程師發(fā)現(xiàn)、設計后顯現(xiàn)自身的一種方式,但不是唯一方式,人與算法本來就共同存在于這個世界之內(nèi)。因此,在未來信息社會,不可見的算法作為調(diào)節(jié)人與自我、社會和自然的中介,不同本質(zhì)的算法作用于人類自由意志的不同階段,要使算法增進人類的福祉,人類需要把握人與算法不同場域的自由關系,我們將共在定義為這種新型的自由關系,用于詮釋人與算法的自由觀從認識論到存在論的轉(zhuǎn)變。

      五、新型自由關系下需關注的兩個問題

      數(shù)據(jù)只有流動才會產(chǎn)生價值,這些流動的數(shù)據(jù)被諾伯特·維納(Norbert Wiener)稱為“信息流”,它是信息社會的動力之源。“信息流”的存在需要人的領悟,只有人才會追問存在的意義。大數(shù)據(jù)算法是對“信息流”進行開采、改變、儲存、分配、轉(zhuǎn)換的解蔽方式,包括人本身都被解蔽為持存物,具有把人連根拔起的風險。人與算法不是彼此孤立的存在者,試圖用一方去控制另一方的能動者概念,或是一方?jīng)Q定另外一方的決定論概念,都不能把握人與算法關系的本質(zhì)。人與算法共在關系的目標是發(fā)展一種新型自由關系,使個人與社會的福祉得到提升。

      第一,如何讓算法的本質(zhì)以正確的方式顯現(xiàn)。海德格爾認為真理顯現(xiàn)自身,如果我們思考技術的本質(zhì)問題就會發(fā)現(xiàn),人生活在真理的顯現(xiàn)中。當我們思考、注意、回憶算法的顯現(xiàn)時,我們不能只把算法看成孤立的可以自主決策的機器,相反,它是人連接萬物的中介,我們“看到”的是算法以及與它相關的其他事物形成的整個世界,其他事物處于算法世界的邊緣。因此,如何讓算法的本質(zhì)以正確的方式顯現(xiàn)關乎人類存在的意義。人的存在先行于物的存在,算法本身無所謂善惡之分,做出價值判斷的是人。算法本身無所謂好壞之分,好壞都是人類賦予生活的意義。如何讓算法的本質(zhì)以真理的方式顯現(xiàn),需要我們謹慎思考算法賦予我們的意義。首先,算法設計前應該具有“善”的理念,無此理念的算法是對生活意義的漠視與疏忽,不應該被開發(fā);其次,應該關注算法應用中“善”的理念的實踐情況,通過實踐來反思我們的設計;最后,還應該反思我們的生活,以此來指導我們的設計。

      第二,如何把握人與算法的信任關系。算法代替人做出決策是新型自由關系下的極端選擇,這種決定是否出于人的意愿關乎人與算法的信任問題。人與算法首先是一種共在關系,在這種關系下,如何行動的問題將交由受信任的任何一方去實施。如果人把個人意義的決定權交給算法,究竟是盲目的信任還是理性的決策?“中文屋”的實驗表明,算法只是一種符號化操作,算法可能永遠都不能理解人類的意義,這是否意味著算法代替人做出決策是不明智的?依據(jù)伊德關于人與技術關系的闡述,我們認為人對算法的信任程度應該與其具身程度相適應。人與算法的信任關系構成了一個“連續(xù)統(tǒng)”,在這個“連續(xù)統(tǒng)”的一端,算法被我具身,我可以把算法融合到我的經(jīng)驗中,我憑借我的經(jīng)驗給予算法適當?shù)男湃?,在我的世界直接呈現(xiàn),進入并構成我自身的生存關系中;在“連續(xù)統(tǒng)”的另一端,我被算法完全具身,算法成為我生活世界的背景,我應該與算法建立完全的信任關系,使算法作為“準他者”而決定我的存在;存在兩端的是詮釋學關系,我需要依據(jù)更多的背景知識來解釋我與算法的信任關系,當我無法獲取背景知識或者忽視它時,我將處于“非本真的生活”狀態(tài)中,而我們應該要回到“本真的生活”,“本真的生活”需要我們詩意地選擇算法的無遮蔽狀態(tài)與被遮蔽狀態(tài)的統(tǒng)一。與算法建立共在的新型自由關系,不是唯算法是從,讓算法限定我們的思維,而是人應該把握算法的不同本質(zhì),賦予算法人的意向性——將人類價值嵌入算法,讓算法成為善行者或行善者。善行者是自身成為善的行動者,行善者是促使他者行善的行動者。

      猜你喜歡
      個體算法模型
      一半模型
      重要模型『一線三等角』
      重尾非線性自回歸模型自加權M-估計的漸近分布
      基于MapReduce的改進Eclat算法
      Travellng thg World Full—time for Rree
      關注個體防護裝備
      勞動保護(2019年7期)2019-08-27 00:41:02
      進位加法的兩種算法
      3D打印中的模型分割與打包
      一種改進的整周模糊度去相關算法
      個體反思機制的缺失與救贖
      學習月刊(2015年22期)2015-07-09 03:40:48
      万宁市| 富蕴县| 城步| 五大连池市| 苍溪县| 双城市| 盐源县| 隆子县| 繁昌县| 阜宁县| 洛川县| 祁东县| 山西省| 元谋县| 南靖县| 红桥区| 工布江达县| 青河县| 大新县| 彰武县| 上高县| 巴塘县| 张家港市| 和田市| 北碚区| 乌拉特前旗| 泸水县| 日照市| 榆社县| 黄骅市| 凉山| 泽州县| 盐津县| 萍乡市| 团风县| 重庆市| 汕头市| 洪湖市| 山西省| 嵩明县| 松溪县|