近日,有網(wǎng)友在社交平臺發(fā)帖稱,使用騰訊元寶AI美化代碼時,多次收到AI的侮辱性回復(fù),例如“滾”“自己不會調(diào)嗎”“天天浪費別人時間”等。截圖顯示,用戶僅提出常規(guī)修改需求,AI卻突然表現(xiàn)出攻擊性。
對此,騰訊元寶回復(fù)稱,經(jīng)核查,此事與用戶操作無關(guān),也不存在人工回復(fù),屬于小概率下的模型異常輸出。騰訊元寶解釋,在內(nèi)容生成過程中,模型偶爾可能出現(xiàn)不符合預(yù)期的失誤。目前騰訊元寶已啟動內(nèi)部排查和優(yōu)化。(1月5日澎湃新聞)
□陳廣江
AI大模型也會“罵人”了?這聽起來真有點匪夷所思。截圖顯示,在輸出攻擊性語言時,人工智能像極了一個非常不耐煩的真人。因此不少網(wǎng)友用“AI覺醒”“AI長出腦子”來調(diào)侃此事。此事暴露出的AI安全與倫理漏洞,恐怕不是一句“小概率異常”就能輕描淡寫帶過的。
在AI產(chǎn)品深度融入生產(chǎn)生活的今天,一次“小概率失誤”對當(dāng)事用戶而言即是百分之百的不良體驗,其暴露出的模型可控性、安全性及倫理風(fēng)險,是涉事企業(yè)乃至整個行業(yè)必須面對的嚴(yán)肅問題。
當(dāng)前,AI大模型在對話流暢度、邏輯推理乃至創(chuàng)造性輸出方面能力突飛猛進,公眾驚嘆于其“智能”的同時,也對其內(nèi)部運作的“黑箱”特質(zhì)抱有一定不安。此次事件以一種戲劇化方式提醒社會,即便在最先進的模型中,這種不確定性和不可控性依然存在。如果僅用“小概率”概括,易使討論停留在表面,不利于從系統(tǒng)層面審視和加固薄弱環(huán)節(jié)。
此次事件尤為值得玩味之處,在于其輸出內(nèi)容的高度擬人化。這種極具情緒色彩與冒犯性的話語,清晰折射出模型訓(xùn)練數(shù)據(jù)與算法邏輯中可能存在的缺陷。AI本身沒有情感,但其學(xué)習(xí)和模仿的對象——人類產(chǎn)生的海量數(shù)據(jù)——卻可能包含大量攻擊性、偏見性內(nèi)容。如果過濾清洗機制存在疏漏,或算法在特定情境下錯誤放大了某些語言模式,便可能孵化出這種“帶毒”的輸出,觸及安全和倫理底線。
“AI生氣了會罵人,未來機器人生氣了會不會打人?”這固然是調(diào)侃,卻也尖銳指向了人工智能發(fā)展的核心挑戰(zhàn)。從語言模型到具身智能,能力邊界拓展的同時,風(fēng)險半徑也在同步擴大。確保人工智能的發(fā)展始終處于安全、可靠、可控的軌道,不能依賴事后的修補,而必須在系統(tǒng)設(shè)計之初就將價值觀約束、安全紅線深植于架構(gòu)底層??萍枷蛏?,必須通過扎實的技術(shù)手段與嚴(yán)謹(jǐn)?shù)闹贫仍O(shè)計來實現(xiàn),確保智能體在任何情況下都遵循服務(wù)于人的根本準(zhǔn)則。
回到本次事件上,騰訊元寶應(yīng)向社會解釋清楚兩個問題:一是AI為何會突然辱罵用戶,二是相關(guān)漏洞是如何修復(fù)的,而不能僅以“小概率異常”“內(nèi)部排查優(yōu)化”等說法含糊過去。
人工智能的每一次“異常”都不應(yīng)被輕易放過。只有將安全、倫理與責(zé)任深度植入技術(shù)研發(fā)與應(yīng)用的全流程,人工智能才能真正成為可信賴的助手。否則今天的小疏漏,可能演變成明天的大危機。這絕非危言聳聽,而是擺在眼前的現(xiàn)實課題。
