" 如今,我們似乎越來越離不開 AI,而且從認知到情感,一些用戶還開始患上“AI過度依賴癥”。這給我們帶來一個關(guān)鍵的問題:“AI合理使用”與“AI過度依賴”的邊界在哪里?
" 過度依賴的形成,意味著個體掉入了“無AI不能”的怪圈,逐漸習(xí)慣于“事事找AI”,將自身的決策權(quán)力、思考能力乃至情感寄托讓渡于AI。與之相對,合理使用AI倡導(dǎo)一種理性且負責(zé)任的用戶參與,人類保留關(guān)鍵決策權(quán),根據(jù)AI能力使其輔助參與決策,并對其反饋進行監(jiān)控和修正。
" 遺憾的是,每一項帶來偉大變革的技術(shù)總是讓人類面臨逐漸沉迷的風(fēng)險。從電視依賴、智能手機依賴,但從未有任何一項技術(shù)像AI一樣,如此徹底地接管人類生活的方方面面。這意味著,“AI過度依賴癥”將給人類帶來更大的風(fēng)險與挑戰(zhàn),亟需社會各界的警醒與重視。
" 于個體而言,“AI過度依賴癥”很可能導(dǎo)致人類的認知力、判斷力、創(chuàng)造力、感知力逐漸萎縮。認知心理學(xué)的研究表明,認知功能需要通過鍛煉才能維持。如果個體習(xí)慣于借助大語言模型、智能助手獲取答案,將導(dǎo)致“大腦”逐漸懶惰,從而失去思考問題的動力,并養(yǎng)成如AI般“模版化”的思維習(xí)慣。此外,長久地過度依賴AI將使人類的認知系統(tǒng)失去除“AI數(shù)據(jù)庫”之外的養(yǎng)料,這會導(dǎo)致失去對AI生成內(nèi)容的判斷力,并輕易地將AI的答案奉為圭臬。
" 更令人擔(dān)憂的是,對AI的過度依賴,將使那些經(jīng)由人類想象與探索,依靠時間釀造與沉淀的創(chuàng)作任務(wù)被轉(zhuǎn)交給AI。當(dāng)人類的創(chuàng)造性因與AI競速而失去用武之地時,我們驗證自我價值的內(nèi)在需求也將被逐漸消解。在工具性依賴之外,人類也有可能形成對AI的情感性依賴。不加節(jié)制的情感依賴將替代或切除人類對社交關(guān)系的真實感知,引發(fā)對人際情感的逃避與排斥。
" 當(dāng)然,對“AI過度依賴癥”風(fēng)險的揭示不意味著要陷入“新技術(shù)恐懼”之中。面對人機共生時代的種種隱患,只有敢于問診并開出藥方,才能讓AI為人類所用,向良善而生。“AI過度依賴癥”的有效藥方,既需要政策法規(guī)的介入,亦需要個體層面的理性參與。每一個人工智能的使用者,都應(yīng)多一點對AI潛在風(fēng)險的認識,多一點與AI保持距離的嘗試,多一點向AI監(jiān)督問責(zé)的意識,牢牢掌握人機交互的主動權(quán)。
(摘自《環(huán)球時報》張錚、倪彬彬)□