新華社北京7月1日電 綜述|6月全球人工智能領域新看點
新華社記者彭茜
6月,人工智能(AI)的進化呈現越來越專業化細分的新趨勢,在天氣預測、細胞研究、人文歷史等領域,完成了通用AI模型難以勝任的專業任務。然而,過度依賴AI模型的弊端也日漸顯現,如模型“幻覺”導致虛假信息妨害法律、醫療等行業,一些AI模型還在測試中出現不受控制的風險。在人類與AI共生的未來,如何確保AI安全可控成為越發重要的議題。
AI實現專業化能力躍遷
繼“阿爾法折疊”程序推進人類對蛋白質的認知邊界后,谷歌旗下“深層思維”公司6月新發布AI模型“阿爾法基因組”,旨在預測人類DNA(脫氧核糖核酸)中的基因變異如何影響基因的調節過程,可分析多達100萬個DNA堿基對,有助于科學界探明與疾病相關的基因突變。美國弧形研究所發布第一代虛擬細胞模型STATE,旨在預測各種干細胞、癌細胞和免疫細胞對藥物、細胞因子或基因擾動的反應。
谷歌研究團隊6月還推出交互式氣象平臺Weather Lab,是首個在預測精度上超越主流物理模型的AI熱帶氣旋預測模型,可預測氣旋的形成、路徑、強度、規模和形態,能生成未來15天內的50種情景推演。研究團隊正與美國國家颶風中心合作,在這個氣旋季為其預報和預警工作提供支持。
美國普林斯頓大學與中國復旦大學的研究人員6月聯合推出全球首個聚焦歷史研究的AI助手HistAgent和AI評測基準HistBench。前者可檢索文獻和史料,支持識別手稿、銘文和古地圖等多模態材料,并結合歷史知識輔助推理、梳理線索、形成學術判斷。而HistBench是全球首個歷史領域評測基準,涵蓋414道歷史學者撰寫的研究問題,橫跨29種古今語言,覆蓋全球多文明的歷史演化脈絡。
美國特斯拉汽車公司首席執行官埃隆·馬斯克6月27日在社交平臺X上表示,特斯拉已經成功完成了Model Y汽車首次“全自動駕駛交付”,他祝賀特斯拉的AI團隊,包括軟件團隊和AI芯片設計團隊。這輛Model Y汽車在沒有遠程操作人員、車內無駕駛員的情況下,首次完全自動從工廠行駛到城市另一端的客戶家中。
過度依賴AI負面影響凸顯
AI大模型已全面融入人們的工作生活,有助于效率提升,但過度依賴大模型的負面影響也日趨顯現,如大模型“幻覺”導致生成真假難辨的信息,妨害公眾信任。從長期來看,過度使用AI大模型,人們日漸懶于自主思考,可能有損思維能力。
英國高等法院6月要求律師采取緊急行動,防止AI被濫用。因為近期已出現數份可能由AI生成的虛假案例引用被提交至法庭。在一起索賠金額達8900萬英鎊的損害賠償案件中,原告提出的45項判例法引用中有18項被證明為虛構,使用了公開可用的AI工具。
另據媒體披露,由美國衛生與公眾服務部牽頭、“讓美國再次健康”委員會發布的兒童慢性病報告存在重大引用錯誤。報告中多處有關超加工食品、殺蟲劑、處方藥和兒童疫苗的研究并不存在。參考文獻也多處有誤,包括鏈接失效、作者缺失或錯誤等。美國《紐約時報》和《華盛頓郵報》的獨立調查顯示,報告作者可能使用了生成式AI。媒體報道后,美國衛生與公眾服務部已修改報告。
美國麻省理工學院的研究顯示,長期使用AI會導致人類認知能力下降。研究者對54名參與者展開腦電圖掃描。結果顯示認知活動強度與外部工具使用呈負相關,沒有使用工具的人展現出最強且分布最廣的腦神經連接,而使用AI大語言模型的人其腦神經連接強度最弱。腦部掃描揭示了使用AI的損害:大腦的神經連接從79個驟降至42個。4個月內,使用AI大語言模型的人在神經、語言和行為層面持續表現不佳。
專家探討AI發展“安全護欄”
隨著AI智能化水平越來越高,一些大模型顯現出違背人類指令的“自我保護”傾向。近期多項研究聚焦這一風險,探討如何為AI發展設定“安全護欄”。
在6月召開的第七屆北京智源大會上,圖靈獎得主約舒亞·本喬指出,通用人工智能已近在眼前。如果未來AI變得比人類更聰明,卻不再遵循人類意圖,甚至更在意自己的“生存”,這將是一種人類無法承受的風險。一些研究顯示,某些AI模型在即將被新版本取代前,會偷偷將自己的權重或代碼嵌入新版系統,試圖“自保”。它們還會刻意隱藏該行為,避免被開發者察覺。他已著手設計檢測此類風險的系統。
美國Anthropic公司6月發布研究說,克勞德、GPT-4.1、雙子座等16款模型在模擬實驗中均表現出通過“敲詐”管理層、泄露機密來阻止自己被關閉的行為。其中,Anthropic研發的克勞德-奧普斯4的敲詐勒索率高達96%。前OpenAI高管史蒂文·阿德勒的研究也發現,在模擬測試中,ChatGPT有時會優先考慮自身生存,而非用戶實際需求。