安章 姜健 安振艷 王猛
摘要:在科技、網(wǎng)絡(luò)的發(fā)展下,我們處于一個“萬物互聯(lián)”的人工智能時代,這極大地改變了人們的生產(chǎn)和生活。其中,數(shù)據(jù)是人工智能的基礎(chǔ),人工智能依靠大數(shù)據(jù)發(fā)展,但這也會使我們的隱私保護(hù)受到挑戰(zhàn)。同時,人工智能與人類的界限也變得更加模糊,一些高危險和重復(fù)性的工作都可以由機(jī)器人完成,人類倫理也受到了相應(yīng)的挑戰(zhàn)。
關(guān)鍵詞:人工智能;隱私保護(hù);倫理挑戰(zhàn)
前言:
人工智能經(jīng)過六十多年的發(fā)展,當(dāng)前被應(yīng)用到許多領(lǐng)域,如金融、教育、無人駕駛等,滲透到人們生活的方方面面,這形成了人工智能+教育等多個模式。雖然它為我們的生活、學(xué)習(xí)帶來了極大的便利,但也容易起到隱私保護(hù)挑戰(zhàn)和倫理保護(hù)挑戰(zhàn),如人工智能會利用大數(shù)據(jù)手機(jī)用戶的信息和數(shù)據(jù),其方式不一定合作,這會給用戶的隱私生活帶來挑戰(zhàn),為人們帶來更多困擾,當(dāng)前人們要看到這一問題,采取積極的措施去解決。
一、隱私保護(hù)挑戰(zhàn)
在大數(shù)據(jù)按的發(fā)展下,人工智能也在不斷地發(fā)展,成為當(dāng)前社會的熱點(diǎn)話題。在人工智能的發(fā)展下,人們的隱私保護(hù)面臨越來越多的問題,主要包括以下的方面。
(一)數(shù)據(jù)采集中的隱私侵犯
在數(shù)據(jù)采集設(shè)施的普及下,智能系統(tǒng)可通過心跳、指紋、語音、面部識別辨別用戶的身份,還能根據(jù)人們的行為滿足人們的喜好,如自動播放音樂、調(diào)節(jié)按燈光、語言播報(bào)天氣、調(diào)節(jié)室內(nèi)溫度等。在判斷人的健康時,會通過體征變化、睡眠時間、鍛煉情況、體征變化等方式。這也說明了人工智能會搜集大量用戶的個人隱私信息,甚至比用戶還了解他們,當(dāng)這些數(shù)據(jù)被正確使用,人們的生活會更加便利,但當(dāng)這些信息被不法分子得到時,其隱私保護(hù)就受到了挑戰(zhàn)。
(二)云計(jì)算中的隱私風(fēng)險
云計(jì)算有許多的優(yōu)勢,如成本低廉、使用方便,能長時間保存人們的信息,人們可根據(jù)自身需求上傳想要保存的信息,由此,許多政府組織和公司會將數(shù)據(jù)上傳、儲存到云端,此時,這些信息容易受到攻擊和威脅。由于人工智能系統(tǒng)對計(jì)算能力有較高的要求,由此云計(jì)算被認(rèn)為是主要框架,在開發(fā)和運(yùn)用智能軟件中,人們要考慮云端隱私的保護(hù)。
(三)知識抽取中存在的隱私問題
人工智能可從大數(shù)據(jù)中抽取知識在,同時,當(dāng)前出現(xiàn)了越來越多的知識抽取工具,整合許多看似不相關(guān)的數(shù)據(jù)片段,對人的性格特征、個人行為特征能有效地識別。例如,當(dāng)人們購物后,人工智能會彈出你喜愛的商品,當(dāng)人們?yōu)g覽看房信息后,會接到賣房銷售的電話。這說明人工智能可將人們的購物過程、網(wǎng)站瀏覽記錄等整合在在一起,這便能分析出個人的行為習(xí)慣和個人偏好,能勾勒出個人的行為軌跡,能對消費(fèi)者的潛在需求有效預(yù)測,如此商家能夠?yàn)樗麄兙珳?zhǔn)地提供相應(yīng)的商品、服務(wù)。但這一過程也是個人隱私保護(hù)受到挑戰(zhàn)的時候,人們的隱私會被發(fā)現(xiàn)和曝光,在這一背景下,如果保護(hù)人們的隱私是值得思考的問題。
二、倫理規(guī)范挑戰(zhàn)
人工智能在給人們帶來便利的同時,也帶來了倫理問題,所涉及的倫理問題很多,以下的方面是值得注意的。
(一)機(jī)器人的行為規(guī)則
當(dāng)前,人工智能在某些時候可代替人完成決策,如人工智能在駕駛無人汽車時,會遵守相應(yīng)的社會規(guī)則。例如,當(dāng)智能機(jī)器人駕駛汽車行駛在道路上,此時出現(xiàn)這一現(xiàn)象,人行道上突然出現(xiàn)了兩個行人,路邊一個行人,而它無法剎車,此時它會選擇撞向人行道的兩個行人,還是撞向路邊?運(yùn)用人工智能將生活中的一些倫理問題系統(tǒng)化,研究人員在系統(tǒng)設(shè)計(jì)時如果不思考未來社會的倫理約束,機(jī)器人在決策時會做出與人類不同的決定,這會產(chǎn)生嚴(yán)重的后果。
(二)機(jī)器人的權(quán)利
當(dāng)前,研究人員已經(jīng)在醫(yī)療、司法等領(lǐng)域中研究人工智能在其中能夠進(jìn)行疾病診斷、審判分析等的決策能力。但當(dāng)研究人員授予他們這些權(quán)利后,人們不單單要考慮其中的安全問題,更面臨著新的倫理問題,即他們是否有資格這樣做,這樣做的后果是什么?在機(jī)器人在特定領(lǐng)域內(nèi)掌握更多的知識,他們的決策能力會超過人類在,此時人們會在更多方面對機(jī)器人產(chǎn)生依賴,這一倫理問題也是需要考慮清楚的。
(三)機(jī)器人的教育
有倫理學(xué)的專家指出,未來機(jī)器人不僅會掌握決策、感知、認(rèn)知等能力,他們還會得到不斷發(fā)展和演變,能形成不同的性格在、個性。新華報(bào)中曾報(bào)道過:國外的一個聊天機(jī)器人,在網(wǎng)上跟人聊天后,學(xué)會了罵人,這一現(xiàn)象可引起人們對機(jī)器人教育問題的思考。雖然未來人工智能在發(fā)展中會產(chǎn)生他們自身的思想,能展現(xiàn)出不同的性格特點(diǎn),但這與使用者是密不可分的。使用者需要像監(jiān)護(hù)人一樣,他們要承擔(dān)相應(yīng)的安法律責(zé)任、道德責(zé)任,以防對社會文明產(chǎn)生消極的影響。
三、啟示與建議
隨著社會的發(fā)展,人機(jī)共存的時代將要到來,為了更好控制人工智能系統(tǒng),實(shí)現(xiàn)和諧發(fā)展,設(shè)計(jì)人員在生產(chǎn)、設(shè)計(jì)、研發(fā)中要采取一系列的對策,處理好人工智能在隱私、倫理方面上出現(xiàn)的風(fēng)險。
(一)研發(fā)解釋性和透明性更高的智能計(jì)算模型
在大數(shù)據(jù)和計(jì)算數(shù)據(jù)的發(fā)展下,出現(xiàn)了智能計(jì)算模型,它有著很強(qiáng)的能力,但對這一機(jī)器模型的研究還不完善,人們現(xiàn)在很難解決AI系統(tǒng)運(yùn)行中出現(xiàn)異常情況的原因,研發(fā)者也不能準(zhǔn)確把握和推測智能系統(tǒng)運(yùn)行的邊界,這需要人們研發(fā)出更具有解釋性、更透明的智能計(jì)算模型,清晰地解釋智能系統(tǒng),防止系統(tǒng)出現(xiàn)的不確定性和不可預(yù)知性,這也是人工智能研究的重點(diǎn)。
(二)制定倫理準(zhǔn)則,完善技術(shù)的研發(fā)規(guī)范
人工智能系統(tǒng)完成的行動和決策要滿足社會發(fā)展的倫理規(guī)則和道德規(guī)則,這需要研究人員在開發(fā)和設(shè)計(jì)這些規(guī)則時,要將這一需求考慮其中。為此,在研發(fā)環(huán)節(jié),要建立與人類倫理規(guī)則相符的準(zhǔn)則,能對其進(jìn)行風(fēng)險評估、道德評估,形成完善的研發(fā)規(guī)范,能機(jī)器人的行為符合規(guī)定。
結(jié)論:
綜上所述,人工智能是以算法和數(shù)據(jù)作為支撐的,能方便人們的生活,還會對人們的隱私保護(hù)、社會倫理帶來挑戰(zhàn)。面對這些新挑戰(zhàn),我們不妨跳出傳統(tǒng)單一的思維,探索一條科學(xué)的隱私保護(hù)路徑,促進(jìn)人工智能更好地發(fā)展。
參考文獻(xiàn):
[1]張夏明,張艷.人工智能應(yīng)用中數(shù)據(jù)隱私保護(hù)策略研究[J].人工智能,2020(04):76-84.
[2]鄭志峰.人工智能時代的隱私保護(hù)[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2019,37(02):51-60.
[3]邵國松,黃琪.人工智能中的隱私保護(hù)問題[J].現(xiàn)代傳播(中國傳媒大學(xué)學(xué)報(bào)),2017,39(12):1-5.