《經濟日報》刊載佘惠敏文章
對人工智能大模型開黑箱、對數據泄露上鎖、對虛假內容做標記、對網絡攻擊等危險行為實施監(jiān)測防范,一方面需要從科研倫理規(guī)范上增加透明度,讓大模型研發(fā)、訓練、生成、推理的鏈路變得更加透明;另一方面也需要使用好技術工具,用人工智能大模型來幫助人類理解和控制人工智能大模型。這話聽起來繞口,實際已有成功案例。ChatGPT的締造者美國OpenAI公司近日發(fā)布一項成果,就是用GPT-4大模型來自動解釋GPT-2大模型的行為,在人工智能可解釋性研究領域獲得重大突破。
眼見可為虛,耳聽也不為實。人工智能大模型以其彪悍的信息造假能力,對社會信任帶來重大沖擊。從一些調查結果看,不少人贊同暫停超越GPT-4能力的大模型研究,先解決已知風險再按啟動鍵。人工智能是國家戰(zhàn)略技術,是未來引領經濟發(fā)展的助推器。對中國人工智能產業(yè)而言,需要的不是暫停研究,而是吸取國外大模型發(fā)展的前車之鑒,讓大模型研發(fā)在合規(guī)下運行。