• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      資訊平臺智能推薦算法的倫理問題研究

      2021-07-27 02:08陳海軍鄒君波趙穎費德馨
      新媒體研究 2021年7期
      關(guān)鍵詞:智能算法

      陳海軍 鄒君波 趙穎 費德馨

      關(guān)鍵詞 資訊分發(fā);智能算法;算法推薦;算法倫理

      中圖分類號 G2 文獻標識碼 A 文章編號 2096-0360(2021)07-0032-03

      1 智能算法及其倫理內(nèi)涵

      1.1 智能算法起源和發(fā)展

      算法一詞源自波斯學者al-Khwarizmi名字的拉丁化,他于9世紀在巴格達撰寫《印度數(shù)字計算》一書,向西方引入了印度教的數(shù)字,以及相應的計算方法,即算法。中世紀拉丁語中出現(xiàn)專有名詞“algorismus”,指用印度數(shù)字進行四個基本數(shù)學運算——加、減、乘、除,后來,術(shù)語“算法”被人們用作表示任何逐步的邏輯過程,并成為計算邏輯的核心[1]。

      隨著信息技術(shù)和人工智能技術(shù)的發(fā)展,算法逐漸智能化和機械化,并廣泛應用到資訊信息分發(fā)領(lǐng)域。所謂智能算法推薦,是指通過大數(shù)據(jù)統(tǒng)計分析技術(shù)及互聯(lián)網(wǎng)信息技術(shù),按照人們的閱讀習慣、興趣愛好與個性化的閱讀行為,精準地為人們提供獲取信息的機器程序?,F(xiàn)代推薦算法大致可以分為三類:基于內(nèi)容的推薦算法、基于知識的推薦算法、協(xié)同過濾算法,此外還有以加權(quán)、串聯(lián)、并聯(lián)等方式融合以上算法的方法[2]。

      1.2 算法推薦倫理內(nèi)涵

      算法的倫理問題,指的是算法越來越多地代替人類智慧進行決策所引發(fā)的倫理危機。人工智能背景下,算法越來越智能化和程序化,在遵循自然邏輯和思維邏輯之外,甚至能代替集體智慧進行決策,人類主體地位受到挑戰(zhàn),人與技術(shù)之間的關(guān)系面臨重構(gòu)。

      2 智能算法與技術(shù)中性論

      技術(shù)中性論最早由英國的福布斯提出,該理論認為技術(shù)對于社會組織和文化等的發(fā)展并沒有什么特殊影響,其本身并無好壞之分,既可以用于善良的目的,也可以用于邪惡的目的,關(guān)鍵是用于何處。在大數(shù)據(jù)背景下,資訊分發(fā)平臺在算法機制的作用下產(chǎn)生了諸多的倫理問題,使得人們對智能技術(shù)的影響和作用產(chǎn)生了質(zhì)疑,重新思考技術(shù)中性論的現(xiàn)實意義。

      2.1 智能算法帶來的倫理問題表現(xiàn)維度

      2.1.1 內(nèi)容呈現(xiàn):加劇“信息繭房”,受眾成為“單向度”的人

      從算法推薦結(jié)果出發(fā),目前最常見的算法推薦機制是平臺根據(jù)用戶對內(nèi)容的點贊評論等數(shù)據(jù),分析其內(nèi)在的興趣和需求,在獲取到相對完善的用戶畫像后,在下一次推送中推薦與用戶相匹配的信息內(nèi)容。這樣的方式一方面實現(xiàn)了人與信息的高效匹配,節(jié)省了用戶的時間,但另一方面也讓用戶在無形之中回避了自身不太感興趣的內(nèi)容,只選擇性地接觸自己感興趣的話題,久而久之失去了解和認識不同事物的能力,從而加劇信息環(huán)境中的“信息繭房”危機。

      馬爾庫塞在其著作《單向度的人》中指出,發(fā)達工業(yè)社會壓制了人們內(nèi)心中的否定性、批判性、超越性的向度,使這個社會成為單向度的社會,而生活于其中的人成了單向度的人,這種人喪失了自由和創(chuàng)造力,不再想象 或追求與現(xiàn)實生活不同的另一種生活[3]。人工智能時代,算法推薦帶來的“信息繭房”加劇,無疑會使得生活在其中的人們更加“單向”化,停滯自身的創(chuàng)造和發(fā)展,無法實現(xiàn)人的價值。

      2.1.2 算法過程:信息選擇權(quán)讓渡,主體權(quán)益面臨搶占風險

      從算法運行過程出發(fā),推薦算法通過獲取用戶以往的行為數(shù)據(jù),對用戶畫像進行標簽化和細分化,根據(jù)其特點向用戶推薦與其歷史瀏覽內(nèi)容相似的信息。在這種程序下,用戶并不知道自己所看到的內(nèi)容已經(jīng)經(jīng)過算法過濾,會自然而然認為平臺推薦的內(nèi)容應是客觀全面的,這就極大可能導致用戶錯過一些本應知情卻被算法機制篩選掉的信息,無法了解客觀世界的全貌。

      這種算法推薦的過程不甚透明,用戶并不知曉算法程序如何分析、分發(fā)信息,因此當用戶過度依賴資訊平臺的推薦來獲取信息時,也就意味著將信息選擇的權(quán)利讓渡給了算法,這樣不僅會導致用戶接觸新鮮事物的主觀能動性下降,所獲信息過于片面狹窄,用戶本身的信息選擇權(quán)和知情權(quán)等權(quán)益也可能受到侵犯,淪為算法程序的奴隸。與此同時,在互聯(lián)網(wǎng)大背景下,大量用戶數(shù)據(jù)被資訊平臺分析檢測,平臺也不能完全保證收集到的用戶數(shù)據(jù)的安全,用戶隱私可能面臨被泄露、被更改的風險,致使隱私權(quán)益得不到保障。

      2.1.3 價值反饋:社會輿論進一步分化,主流價值觀受沖擊

      從算法價值層面來說,由于用戶對資訊平臺推送的信息具有選擇接觸性,在用戶主動獲取所需信息的同時,平臺也會根據(jù)新鮮度和熱度推送信息,這些內(nèi)容通過算法程序推薦給廣大用戶后,在正反饋機制的作用下,能在平臺上獲得更多曝光量和瀏覽量,實現(xiàn)熱度的不斷增值。但由于算法機制缺乏嚴格的審查制度,如果僅靠流量與點擊為算法標準來進行推送,一些低俗、泛娛樂化的內(nèi)容甚至是虛假新聞也可能會被大量推送給用戶,導致網(wǎng)絡環(huán)境中吸引眼球的內(nèi)容獵奇或觀點極端的信息增多,影響人們對真實世界的認知和判斷。

      哈佛大學教授凱斯·桑斯坦認為,互聯(lián)網(wǎng)環(huán)境中的“信息繭房”局限會產(chǎn)生群體“極化”的問題,也就是說當人們長期囿于不良信息環(huán)境中時,自身和群體的價值觀會受不良價值觀的影響,逐漸異化,這種情況導致的不良后果可能是原本和諧統(tǒng)一的社會風氣被破壞,主流價值的輿論引導力下降,社會輿論進一步分化。

      2.2 技術(shù)中性論視角下的倫理問題成因分析

      技術(shù)中性論認為技術(shù)本身是非善非惡的,技術(shù)能產(chǎn)生怎樣的影響,取決于使用它的主體出于怎樣的目的,或使用過程中存在的邏輯問題。算法推薦作為一種人工智能時代的智能技術(shù),其本身也應不具有先天的善惡屬性,智能推薦算法導致的倫理問題的成因可以從以下幾個方面分析。

      2.2.1 人為因素:主觀偏見和潛在歧視

      人為因素更多指的是使用算法的主體存在的主觀偏見。算法推薦基于數(shù)據(jù)分析過程進行,在對收集到的信息進行數(shù)據(jù)分析時,外部主體的主觀判斷和偏見會使得原本的結(jié)果產(chǎn)生誤差,造成不符合預期的結(jié)果出現(xiàn)。人為因素的存在是一種不可抗性,因為任何算法均由人所設(shè)計和開發(fā),縱然算法過程遵循的是科學的數(shù)字分析與歷史數(shù)據(jù)分析路徑,但先前的算法設(shè)計、數(shù)據(jù)導入、結(jié)果應用等環(huán)節(jié)均需由人力來完成,哪怕算法推薦再智能化也不可能排除人力因素的干擾。因此在算法推薦過程中,人為因素的存在會對智能推薦的客觀性產(chǎn)生影響,導致推薦結(jié)果具有偏向性,不管是基于何種算法技術(shù)的算法推薦都有可能被用來人為操控結(jié)果。譬如現(xiàn)有的一些人工智能招聘系統(tǒng)就存在著性別、種族歧視等問題,在對求職者進行簡歷篩選時,會根據(jù)算法分析結(jié)果篩選掉一些不符合預期的簡歷。

      2.2.2 智能算法內(nèi)部原因:數(shù)據(jù)誤差與完整性限制

      智能算法需要基于數(shù)據(jù)的分析處理來實行操作,因此數(shù)據(jù)的完整性和準確性尤為重要,但因為種種客觀因素,我們所得到的數(shù)據(jù)結(jié)果并不是百分百完美的。

      首先,在完整性上有所限制,智能算法在獲取用戶使用數(shù)據(jù)后對其進行分析,然后選取受眾接觸最多、最感興趣的內(nèi)容再次推送,其中比重較低的信息可能會被篩選掉。但這些受眾接觸最多的信息只能說明用戶的大概率喜愛程度,并不能囊括用戶的所有喜好,用戶轉(zhuǎn)發(fā)和收藏某個話題內(nèi)容不全是出于熱愛,可能是出于好奇,也有可能是為了學習某項技能而進行頻繁接觸[4]。因此數(shù)字邏輯無法完全解答個體的行為邏輯,也不可能為受眾推送覆蓋全面需求的信息內(nèi)容。

      其次,是準確性的限制,如果在一群較為集中的數(shù)據(jù)中出現(xiàn)與之差異較大的數(shù)據(jù)點,或被人為加入某些數(shù)據(jù),那得到的分析結(jié)果也會與均值有較大偏差。比如新浪微博熱搜榜上出現(xiàn)的熱點內(nèi)容,并不全部是自發(fā)形成的流量熱點,某些熱點詞條是有些企業(yè)為了推廣自己的產(chǎn)品服務,與平臺進行交易后被安插在其中,這些被買了流量的信息內(nèi)容在微博的算法推薦機制之下,會出現(xiàn)在許多網(wǎng)民的主頁上,但實際上,這些被推薦的內(nèi)容與部分用戶的信息偏好是相離甚遠的,是人為創(chuàng)造的熱度假象,因此用戶是被迫在大數(shù)據(jù)的推薦下接觸了這些內(nèi)容,他們的主觀能動性沒有得到滿足。

      2.2.3 信息壁壘:算法的天然屏障

      信息壁壘是算法內(nèi)部的天然屏障,是指在算法過程中,由于決策者擁有算法信息的知情權(quán)與數(shù)據(jù)分析過程的主導權(quán),受眾無法知曉其具體運作過程,只能是推薦結(jié)果被動的接受者和執(zhí)行者,因此無法對這些推薦內(nèi)容進行準確判斷和評估。譬如在像“今日頭條”這樣的資訊平臺上,用戶所獲得的信息均由平臺算法推薦,用戶無法知曉其背后的運行過程,也無法自主做出信息選擇進行評價。信息壁壘是算法的天然屏障,也是算法倫理問題的最大原因,它讓人們無法接觸到?jīng)Q策過程中的很多核心信息,除了算法本身,沒有人準確地知道到底什么因素在決策過程中起了決定性作用[5]。同時在實際運用中,信息資源的使用具有“馬太效應”,即信息資源豐富的一方對信息的掌控會越來越大,而信息資源匱乏的一方則會逐漸失去對信息的支配權(quán),因此在算法發(fā)展的過程中,決策者和執(zhí)行者之間的信息壁壘也在日益加深,形成更大的信息差異。

      3 智能算法倫理問題的解決思路

      麥克盧漢曾有過著名論斷“媒介是人的延伸”,指出媒介與人的關(guān)系。目前,智能推薦算法作為廣泛使用的媒介技術(shù),面臨著算法倫理危機考驗,因此在行業(yè)未來的發(fā)展中,既要充分堅持技術(shù)的工具理性,發(fā)揮其最大效用,也要堅持人的主體價值,樹立倫理目標。

      3.1 基于新聞自律維度:提升從業(yè)者“算法素養(yǎng)”,堅持自律和規(guī)范

      習近平總書記指出:“要堅持正確新聞志向,提高業(yè)務水平,勇于改進創(chuàng)新,不斷自我提高、自我完善,做業(yè)務精湛的新聞工作者?!毙侣勛月墒菍π侣剺I(yè)界以及新聞從業(yè)者的道德要求,指在從事新聞報道相關(guān)工作時,新聞來源必須真實可靠,決不能嘩眾取寵,新聞界從業(yè)人員必須嚴格遵守新聞出版的法律法規(guī),嚴于自律,真實客觀地去分析、報道有關(guān)的新聞信息。目前算法技術(shù)雖已廣泛應用在各大資訊平臺,但深入了解其原理機制,能靈活使用的技術(shù)人才仍在少數(shù),大多數(shù)公眾對智能算法的認識也停留在表面。因此,必須大力推廣算法知識教育,提升從業(yè)者的算法素養(yǎng)。同時,堅守自律和規(guī)范依然是新聞工作者必須遵循的職業(yè)道德準則。

      3.2 基于算法與人的價值維度:擺脫思維定式桎梏,全面延伸主體價值

      在資訊平臺中,信息分發(fā)大都依賴智能算法對用戶數(shù)據(jù)的分析,這就導致算法推薦會加劇網(wǎng)絡環(huán)境中的“信息繭房”或“回音室”效應,受眾囿于重復低質(zhì)的信息內(nèi)容,無法突破自身局限,無法全面延伸人的價值。因此在算法應用過程中,用戶自身不應完全放棄自主選擇信息的權(quán)利,應開放包容地傾聽全方位的聲音,平臺方也要意識到技術(shù)是為人類服務的工具,通過種種提示幫助人們擺脫思維定勢的桎梏。

      例如,美國BuzzFeed雜志推出的“Outside Your Bubble”功能,在一部分流傳范圍非常廣的新聞底部,加上另一些平臺的評論,比如Twitter、Facebook等,幫助受眾了解多維意見和聲音。再如Google推出的“逃離泡沫”插件,該插件可以根據(jù)用戶的閱讀習慣,反向推薦格調(diào)積極、易于接受的內(nèi)容,幫助用戶逃離熟悉的“信息泡沫”,還能夠在感官上給用戶帶來很好的體驗效果[7]。同時,作為信息消費者,除了依靠社交媒體的技術(shù)支持,用戶自身也應主動接觸各類新鮮事物,了解真實的客觀世界,努力實現(xiàn)自己的主體價值。

      3.3 基于人機關(guān)系維度:堅持人本規(guī)則,加強人機協(xié)作

      隨著人工智能技術(shù)的發(fā)展,智能算法技術(shù)越來越滲透到人們生活的方方面面,但在人與技術(shù)的互動過程中,人機關(guān)系的倫理沖突問題也日益顯著,譬如資訊平臺中智能算法推送的大量信息內(nèi)容,可能在某些時候取代人的主觀選擇,成為決策或行動的主導力量,對人的主體地位造成沖擊。因此在處理人機關(guān)系時,算法信息分發(fā)平臺應當堅持人機結(jié)合的原則,一方面要提高對人本規(guī)則的認識,強調(diào)人的主體性、能動性,認識到人是信息的生產(chǎn)者、傳播者和消費者,算法技術(shù)的應用要以滿足人的需求為導向;另一方面,加強人工把關(guān)和人機協(xié)作,充分將人力和技術(shù)的優(yōu)勢結(jié)合起來,為用戶推薦優(yōu)質(zhì)化的信息內(nèi)容,這樣方能促進智能推薦算法在未來發(fā)展中具有正確導向,更好地體現(xiàn)人的主導性和價值觀[8]。

      參考文獻

      [1]MatteoPasquinelli.算法究竟從何而來[EB/OL].彎月,譯.(2019-08-01)[2021-03-15].https://baijiahao. baidu.com/s?id=1640593404395534400&wfr=spider& for=pc.

      [2]王亞妮.算法推薦新聞的倫理風險以及未來發(fā)展[J].新媒體研究,2019,5(1):29-30.

      [3]赫伯特·馬爾庫塞.單向度的人[M].上海:上海譯文出版社,2006.

      [4]雷鳴.資訊分發(fā)平臺的個性化推薦研究[D].武漢:華中科技大學,2018.

      [5]房雯璐.算法推薦模式下媒介倫理失范研究[J].山東工業(yè)技術(shù),2019(7):138.

      [6]張萌.算法推薦的倫理困境:技術(shù)邏輯基礎(chǔ)上的社會價值規(guī)范[J].今日科苑,2019(10):43-51.

      [7]靖鳴,管舒婷.智能時代算法型內(nèi)容分發(fā)的問題與對策[J].新聞愛好者,2019(5):9-13.

      [8]胡萬鵬.新聞算法推送的倫理困境及其對策研究[D].長春:長春工業(yè)大學,2019.

      猜你喜歡
      智能算法
      智能車自主避障路徑規(guī)劃研究綜述
      賽博經(jīng)濟中的智能硬件商業(yè)模式分析
      基于智能預測算法的食用菌大棚溫濕度控制研究
      圖像處理智能化的發(fā)展方向
      蟻群算法在路徑優(yōu)化問題的應用研究
      智能螞蟻算法應用的最新進展
      基于OMNeT++平臺的AntNet的仿真
      多機器人系統(tǒng)及其路徑規(guī)劃方法綜述
      改進的多目標快速群搜索算法的應用
      煙草香級智能集成分類方法
      葫芦岛市| 五莲县| 石柱| 沈丘县| 阳泉市| 喀什市| 延吉市| 慈利县| 信丰县| 定陶县| 荆门市| 塔城市| 大庆市| 比如县| 松江区| 嘉定区| 桐梓县| 弥渡县| 松溪县| 曲麻莱县| 育儿| 武川县| 长沙县| 青铜峡市| 山丹县| 环江| 长宁区| 临海市| 呼玛县| 玉林市| 华池县| 旺苍县| 申扎县| 英德市| 剑川县| 阿瓦提县| 寿光市| 淅川县| 分宜县| 成都市| 建始县|