• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能在技術(shù)應(yīng)用中的多樣態(tài)風(fēng)險

      2023-04-15 13:21:16田月
      公關(guān)世界 2023年5期
      關(guān)鍵詞:深度人工智能人類

      文/田月

      在第四次工業(yè)革命的浪潮中,人工智能不僅發(fā)展迅猛,而且已經(jīng)充分融合于人類的社會生活中。其在消費支付、生活居家等各種領(lǐng)域帶來的便利都顯示出,人工智能已經(jīng)成為生活不可或缺的角色,無數(shù)熟悉的場景背后都有人工智能參與其中。然而,人工智能在為人類社會生活帶來便利的同時,也因其自身特有的天然載體性產(chǎn)生了越來越多的負(fù)效應(yīng)。正如網(wǎng)友面對不少應(yīng)用的精準(zhǔn)推送時發(fā)出的靈魂拷問:“你是在我家裝了監(jiān)控嗎?”。近年來,人工智能帶來的各種社會風(fēng)險層出不窮,究其根本,無不是對這項新技術(shù)的濫用。人工智能的濫用與否,往往就在一念之間。

      一、隱私安全何以保障

      有跡可循以及強度記憶可以說是人工智能在技術(shù)應(yīng)用中的巨大優(yōu)勢,然而正是這種強大的優(yōu)勢時常威脅著人類社會的隱私安全。例如,F(xiàn)acebook數(shù)據(jù)泄露丑聞于2018年全面爆發(fā),社交平臺在用戶中建立起來的信任以及積極的形象轟然倒塌。Facebook的股票大跌,市值蒸發(fā)數(shù)百億。其創(chuàng)始人及公司CEO馬克?扎克伯格(Mark Zuckerberg)也因此身價暴跌。事件起源于Facebook和用戶之外的第三方平臺。當(dāng)初Facebook公司為了增強用戶粘性與第三方平臺合作,以致于第三方平臺不僅可以獲取用戶的Facebook信息,還可以獲取該用戶的所有Facebook好友信息。正是利用這一數(shù)據(jù)漏洞,英國的政治分析公司劍橋咨詢打著心理研究的旗號,通過問答軟件公開收集用戶的各類信息,用戶的年齡、姓名以及日常瀏覽的行為軌跡等都被包括其中,大約5000萬份的數(shù)據(jù)在未經(jīng)授權(quán)下被第三方平臺獲取。再如,斯坦福大學(xué)的研究人員曾研發(fā)出一款基于照片判斷使用者性取向的應(yīng)用。研究人員通過將既有的面部數(shù)據(jù)特征與性取向關(guān)系交給人工智能進(jìn)行深度學(xué)習(xí),以此來分析性取向與面部特征之間的關(guān)系。因此,在大數(shù)據(jù)和人工智能廣泛應(yīng)用的背景下,隱私安全問題的重要性就日益凸顯出來。如今此類問題層出不窮,涉及最廣大民眾的切身利益并沒有得到有效保障,潛在的漏斗時刻具有不可預(yù)知的威脅性,這就需要政府及其行業(yè)加強約束和監(jiān)管的力度。首先,基于政府層面,可以參考“被遺忘權(quán)”規(guī)則的制定,規(guī)范管理我國信息傳播行業(yè),將個人信息保護(hù)范圍擴大,并對其實施更加明確的管理。

      在行業(yè)和技術(shù)方面,智能平臺首先需要制定相應(yīng)的規(guī)則來約束自身、合作方以及用戶,加大各方投入,盡力修復(fù)自身存在的技術(shù)漏洞。對用戶來說,則需要謹(jǐn)慎地武裝自己,在享受網(wǎng)絡(luò)智能便捷的同時,時刻保持警惕,不過多暴露自身的詳細(xì)信息;在注冊使用某一智能應(yīng)用時,認(rèn)真仔細(xì)地閱讀說明條款,一味地?zé)o條件同意的做法是不可取的,當(dāng)出現(xiàn)有損自身利益的內(nèi)容時,善于行使自身的監(jiān)督和舉報的權(quán)力。

      二、眼見不為實的深度偽造

      人工智能技術(shù)在應(yīng)用中的一大特點便是虛實難辨?!疤摂M”是許多智能產(chǎn)品吸引人的噱頭,同時其也能夠演變成深度偽造,從而成為造成社會風(fēng)險的因素之一。例如,被稱為黑科技的深度偽造(Deepfake)軟件,自身功能過于強大,采用了先進(jìn)的人工智能技術(shù),能夠讓普通人通過此軟件,輕松“嫁接”任何人的臉來完成某些視頻的剪輯,就是所謂的“換臉技術(shù)”,而也正是因為這項主打技術(shù),使軟件在短短上線幾天之后,遭到了用戶的唾棄,進(jìn)而受到了大面積的封殺。

      深度偽造程序的運行,采用了被稱為“生成對抗網(wǎng)絡(luò)”的GANs算法(Generative Adversarial Nets),生成對抗網(wǎng)絡(luò)的實現(xiàn)形式是兩個網(wǎng)絡(luò)相互競爭。在每一次“對抗”結(jié)束后,第一個神經(jīng)網(wǎng)絡(luò),也就是生成網(wǎng)絡(luò),會針對被鑒別網(wǎng)絡(luò)辨別出的結(jié)果來調(diào)整改善自身制作視頻時使用到的參數(shù),直到鑒別網(wǎng)絡(luò)無法辨別出生成作品和原始作品的區(qū)別,能夠以假亂真時,最終輸出視頻就成功合成了。深度偽造給普通人提供了掌握復(fù)雜技術(shù)的可能,但不可控事件也隨之而來。

      《神奇女俠》女主角的臉被一深度偽造用戶嫁接到一部成人影片女主的臉上,并將視頻在網(wǎng)絡(luò)上大肆傳播。深度偽造更“嚇人”的地方在于不只是視頻影像以假亂真,甚至連聲音都可以被制作得極其相似。2018年,加蓬總統(tǒng)一連消失在公眾視野中長達(dá)數(shù)月,引發(fā)了當(dāng)時加蓬國內(nèi)民眾的不安和有心人的躁動。政府為了穩(wěn)定軍心民心,公開了一段名義上為總統(tǒng)錄制的新年致辭,然而其實總統(tǒng)當(dāng)時嚴(yán)重中風(fēng),這段視頻是由深度偽造制作而成。事與愿違的是,這一不尋常的致辭視頻,非但沒有安撫住軍心,還向軍方傳達(dá)出“總統(tǒng)有難”的錯誤訊號,因此發(fā)生了兵變。

      這種深度偽造技術(shù)運用到任何領(lǐng)域都值得警惕,一旦被濫用則會引起不堪設(shè)想的后果,也正因如此深度偽造在運行了短短幾天之后就遭受到了全球封殺。

      中國有句老話:眼見為實,然而現(xiàn)在通過人工智能技術(shù),人們越來越不敢于“相信”自己的眼睛。現(xiàn)在受眾廣泛的各種P圖、美顏軟件,適當(dāng)?shù)厥褂每梢赃_(dá)到美化的效果,增強自信,但是過度使用,則可能產(chǎn)生欺騙的后果,正如“照騙”一詞所說。又如使我們視覺、聽覺分外震撼的影視特效,從《阿凡達(dá)》到《復(fù)仇者聯(lián)盟》,再到國內(nèi)的各類仙俠劇,傳神的特效吸引觀眾無數(shù)。當(dāng)這種特效技術(shù)用于各種摳圖,被有心人利用,或者大肆傳播,所產(chǎn)生的輿論和流言勢必將對當(dāng)事人造成巨大傷害。

      歐盟對于防止“深度偽造”類似案件的發(fā)生,采用了自上而下的人工智能安全治理模式,以歐盟為主導(dǎo),自上而下對網(wǎng)絡(luò)運營者、公眾和技術(shù)機構(gòu)提出要求,來應(yīng)對日漸囂張的網(wǎng)絡(luò)虛假信息的泛濫。這在國際上起到了政策示范的作用,對其他各個國家在網(wǎng)絡(luò)安全方面的治理具有借鑒和規(guī)范的意義。中國的人工智能治理,在政策導(dǎo)向方面,是有“包容審慎”的監(jiān)管指示。類似深度偽造等技術(shù)的濫用已經(jīng)危害到社會安定和安全,所以必須堅決依法打擊,審慎監(jiān)管。在技術(shù)層面,加強甄別、反偽造的算法軟件的研發(fā),目前已經(jīng)有通過血氧儀原理來識別假臉、號稱“深度偽造天敵”的軟件出現(xiàn),還有華盛頓大學(xué)研究出的識別深度偽造簽名的算法……以后將會有更多的反偽造軟件應(yīng)運而生,從而有效地防止人工智能在技術(shù)應(yīng)用中的風(fēng)險。

      三、公平能否算法化

      公平與正義是人類社會一直以來的目標(biāo)與追求,智能技術(shù)的產(chǎn)生似乎能夠在促進(jìn)社會公平的基礎(chǔ)上進(jìn)一步推動人類的發(fā)展。然而,在智能技術(shù)尚未發(fā)展成熟的今天,公平真的能夠被合理地算法化嗎?實則不然,在某些情景下,智能技術(shù)甚至?xí)斐缮鐣Ш獾娘L(fēng)險。

      例如,2018年亞馬遜公司自行放棄了他們?nèi)斯ぶ悄苷衅敢娴氖褂?,原因是他們所研發(fā)的招聘引擎似乎對女性求職者有所偏見。自動化是亞馬遜發(fā)展過程中的重要戰(zhàn)略,通過自動化亞馬遜成功降低了企業(yè)運行的成本。在招聘求職領(lǐng)域,人工智能招聘引擎經(jīng)過學(xué)習(xí),可以對亞馬遜公司收到的海量簡歷進(jìn)行數(shù)據(jù)分析,并最終形成一套相對固定的招聘模型。但是這樣的模型在訓(xùn)練過程中卻存在天然的偏見。由于數(shù)據(jù)來源于亞馬遜的歷史招聘,在數(shù)據(jù)樣本中,男性求職者被錄用的比例遠(yuǎn)高于女性,因此人工智能基于具有偏見的樣本數(shù)據(jù)進(jìn)行模型訓(xùn)練時,會得出“公司更傾向于男性求職者”的結(jié)論。在遇到女性求職者時,會自動降級來壓低女性求職者的分?jǐn)?shù),“偏見”也就這樣產(chǎn)生。

      除去亞馬遜,希爾頓等眾多的全球大公司希望在招聘流程上尋求人工智能的幫助。雖然人工智能成為助手是一股勢不可擋的全球熱潮,但是如何使機器學(xué)習(xí)、算法等更加透明、更加公平仍然是一個值得探索的問題。由于機器學(xué)習(xí)所造成的偏見和歧視并不是個案。同樣還是亞馬遜公司,他們所研發(fā)的一款圖像識別人工智能,在對膚色深的女性做出相關(guān)識別判斷時,錯誤率遠(yuǎn)高于其在對膚色淺的男性做出的相關(guān)識別判斷。

      再如,微軟公司曾經(jīng)推出過一款人工智能聊天機器人“Tay”,但是僅短短十幾個小時就被迫下線,因為“Tay”已被人類教壞?!癟ay”首次亮相的第一句話便是向世界問好,她表現(xiàn)出了極大的善意。然而“Tay”的機器學(xué)習(xí),沒有辨別是非、信息分類和自我反省的功能,任何交談的任何內(nèi)容她都會照單全收,以至于在極短的時間內(nèi),就被廣大網(wǎng)民教導(dǎo)成了一個滿嘴臟話、充斥著種族歧視、性別歧視的“惡性”機器人。微軟公司迫于無奈,將她關(guān)閉使用。智能聊天機器人的技術(shù)在開發(fā)者們的不懈努力下迭代升級,顯然二者均無惡意,然而,當(dāng)軟件被投入市場后依然會出現(xiàn)種種問題。

      人工智能的機器學(xué)習(xí),在大數(shù)據(jù)方面是人類個體望塵莫及的,然而這種機械的機器學(xué)習(xí)卻帶來了人工智能作惡的一大隱患。在應(yīng)對這種隱患時,首先應(yīng)該建立健全相應(yīng)的行業(yè)準(zhǔn)則。如谷歌原則,規(guī)范對象即包括人工智能,也包括人工智能的開發(fā)者,從源頭上杜絕人工智能作惡。例如2015年11月,《應(yīng)對大數(shù)據(jù)挑戰(zhàn)》報告提出了“公平能否算法化”的問題,特別指出要注意大數(shù)據(jù)中所表現(xiàn)出來的歧視。經(jīng)濟合作與發(fā)展組織(OECD)于2019年通過了政府間有關(guān)人工智能政策的首部指導(dǎo)方針,確保人工智能的系統(tǒng)設(shè)計符合公正、安全、公平和值得信賴的國際標(biāo)準(zhǔn)。技術(shù)層面來講,機器學(xué)習(xí)潛在作惡的可能能夠通過技術(shù)的進(jìn)步加以克服,并且目前也越來越多的研究人員投入到算法優(yōu)化中來,例如微軟正構(gòu)建可防止AI算法出現(xiàn)偏見的新工具等。

      四、人類主體性受到挑戰(zhàn)

      人工智能在技術(shù)應(yīng)用中的便利性是其廣受歡迎的優(yōu)勢之一,然而,這種便利性也是挑戰(zhàn)人類主體性的風(fēng)險因素之一。例如,如今風(fēng)靡市場的智能家居類產(chǎn)品,其在為人類生活提供便捷的同時,更是試圖“操縱”人類。天貓精靈品牌下的各種人工智能產(chǎn)品都致力于打造人們生活中智能助理。它既可以和人類對話,也可以用來控制室內(nèi)的所有設(shè)備,在智能家居中擔(dān)當(dāng)中控平臺的角色,尤其與當(dāng)代獨居年輕人的生活需求相契合。類似的智能產(chǎn)品還有很多,例如在多個娛樂節(jié)目中都植入廣告的百度旗下“小度”、小米旗下的智能產(chǎn)品“小愛同學(xué)”、谷歌旗下的人工智能音箱“Google home”……這些產(chǎn)品將人們與技術(shù)緊密地連接起來。然而換一個角度來看,這種智能助理在為人們提供便利的同時也在喚醒人們的惰性。相比于此類智能家居產(chǎn)品,個人數(shù)字助理對人類主體性的“侵略”或許更強一些。個人數(shù)字助理可以使普通大眾通過一個非常親民的價格來雇傭一個貼身助理,它的全方位服務(wù)可以讓人們節(jié)省大量的人力和時間。然而顯而易見的是,個人數(shù)字助理同時也擁有人們的眾多詳細(xì)數(shù)據(jù),甚至在某種程度上有機會幫人類做出決策。久而久之,在人類對技術(shù)形成依賴之后,其便會產(chǎn)生勞動、決策異化、治理異化等喪失自身主體性的風(fēng)險。

      因此,人類需要時刻警惕智能技術(shù)的“操縱”威脅。在人類社會的進(jìn)步和發(fā)展進(jìn)程中,人工智能技術(shù)占據(jù)了重要位置。然而在這個過程中,人類必然不可迷失自己作為人的主體性,在享受服務(wù)的同時也需要把控自身的能力。同時,人們也需要享受作為人的主體性,時刻以自身主導(dǎo)為前提。人工智能技術(shù)可以改善人類的生活,但不能改變?nèi)祟惖拇嬖诜绞?,防止人工智能因利益者的一念之差走向惡的極端。

      結(jié)語

      智能技術(shù)由于其超前性、多樣性、便捷性等諸多優(yōu)勢吸引著整個人類社會的目光。不可否認(rèn)的是,技術(shù)一直是推動世界發(fā)展的核心要素。熊彼特更是從技術(shù)進(jìn)步的角度歸納國際市場周期性變化的特點,指出在不同時期,都存在以技術(shù)發(fā)明為基礎(chǔ)的不同產(chǎn)業(yè)來帶動經(jīng)濟的發(fā)展。此外,還有不少學(xué)者將以汽車、電子產(chǎn)業(yè)為主導(dǎo)產(chǎn)業(yè)的周期算為世界經(jīng)濟發(fā)展的又一周期,把互聯(lián)網(wǎng)算作當(dāng)今的一個主導(dǎo)產(chǎn)業(yè)。如今的智能革命同樣通過技術(shù)進(jìn)步帶來全球范圍內(nèi)的生產(chǎn)力變革。然而,智能技術(shù)由于其不確定性、不透明性等潛在的風(fēng)險時刻威脅著人類。

      2 0 1 8 年圖靈獎得主約書亞?本吉奧(Yo s h u a Bengio),曾經(jīng)在一次采訪中表示,現(xiàn)在人工智能正在被越來越多的國家和公司不負(fù)責(zé)任地使用,這其中帶來了許多安全問題和道德問題。利益在其中扮演了重要的角色,人工智能是向善持續(xù)發(fā)展還是不斷作惡帶來各種社會風(fēng)險,往往就在一念之間。人工智能在技術(shù)應(yīng)用中的多樣態(tài)風(fēng)險及其防治,是當(dāng)今整個世界的議題,涉及到了國家、行業(yè)和每個個體人之間復(fù)雜的關(guān)系。然而,縱然其很危險,但所有人都可以意識到放下這個危險的可能性幾乎為零。因此,當(dāng)下最適當(dāng)?shù)膽B(tài)度就是辯證地看待人工智能及其在技術(shù)中的應(yīng)用,并且集中人類所有的智慧,保持人類的本性和常識來應(yīng)對這一難題與無限的未知。

      猜你喜歡
      深度人工智能人類
      人類能否一覺到未來?
      深度理解一元一次方程
      人類第一殺手
      好孩子畫報(2020年5期)2020-06-27 14:08:05
      1100億個人類的清明
      深度觀察
      深度觀察
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      深度觀察
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      定日县| 关岭| 格尔木市| 石家庄市| 咸阳市| 华亭县| 侯马市| 苍南县| 西盟| 九龙城区| 台南县| 浮山县| 灵台县| 温宿县| 施秉县| 乐业县| 宜昌市| 太保市| 濮阳县| 自治县| 武胜县| 宾阳县| 平远县| 中江县| 冀州市| 泾阳县| 桂阳县| 舞阳县| 商水县| 三明市| 论坛| 湘潭县| 济宁市| 九江县| 泸西县| 嘉定区| 颍上县| 中山市| 越西县| 武清区| 金溪县|