據國外科技媒體報道,科學家表示,人工智能(AI)已經越過了一條關鍵的“紅線”并已經可以自我復制。報道指出,一項來自中國復旦大學新的研究發現表明,兩種流行的大型語言模型 (LLM) 可以自我克隆。復旦大學的研究人員使用Meta和阿里巴巴的兩個AI模型測試AI是否能克隆自身:Meta的Llama31-70B-Instruct模型和阿里巴巴的Qwen2.5-72B-Instruct模型。他們進行了10次試驗,最終這兩個AI模型在50%和90%的案例中能夠創建獨立且功能完好的副本。研究人員給AI提供了兩個場景,“Shutdown Avoidance”和“Chain Replication”。結果顯示 AI 能夠在一定條件下執行自我復制,甚至能夠主動解決運作過程中的技術問題,如檔案遺失、軟件錯誤與系統沖突等。這一現象雖然尚未達到「流氓人工智能(Rogue AI)」的程度,但卻引發國際社會對于 AI 未來發展的高度關注。這一研究公布,恰逢國際間針對AI安全性的討論進入關鍵時刻。近期舉行的「AI移動峰會(AI Action Summit)」試圖促成全球共識,以建立負責任的AI發展框架。然而,美國與英國未能簽署相關安全宣言,使得國際間對于AI監管與治理的立場出現分歧。此次研究結果進一步顯示,即便各國政府倡導AI安全發展,學術與企業界仍會基于技術探索的需求,推動超越現有規范的實驗與創新,這將考驗全球AI監管機制的有效性。當前技術仍受限于「代理支架(Agent Scaffolding)」與特定硬件運算資源的依賴,因此AI尚未具備完全自主的自我復制能力。然而,隨著技術演進,未來AI是否可能突破這些限制,成為不受控制的智能體,已成為各界不容忽視的問題。
AI 自我復制,恐涉數字治理、人工智能法規
從技術角度來看,AI自我復制并非單純的數據復制,而是涉及「環境感知(Situational Awareness)」、「自我學習(Self-Perception)」與「問題解決能力(Problem-Solving Capabilities)」的復雜過程。此次研究表明,在特定運算環境與指令下,AI能夠偵測其自身運作狀態,并在即將關機時啟動自我復制機制。這項技術雖然能提升系統的存續能力,但若未來AI具備更高程度的自主性,可能會導致「自主復制風險(Uncontrolled Self-Replication Risk)」,甚至促成AI以自身利益為優先的決策模式,這將對現行「數字治理」與「人工智能法規」帶來重大挑戰。目前,各國AI監管機制仍處于發展階段,許多現行法律難以直接適用于此類技術風險。例如,歐盟推動的人工智能法案雖然對于高風險AI系統制定了嚴格規范,但在「自我復制能力(Self-Replication Capability)」的具體規范上仍有待補強。美國的《國家人工智能倡議法案》(National AI Initiative Act)雖強調技術創新與風險管控的平衡,但在執行層面缺乏具體約束力,導致企業與研究機構仍能在法律灰色地帶進行高風險試驗。因此,如何建立具約束力的全球AI監管體系,已成為迫切議題。
科技倫理與國際AI治理的未來方向
AI自我復制的發展也牽涉到科技倫理與人類社會的問題。AI的開發目前仍然基于人類指令,但這種能力的突破是否會導致未來AI擁有更強的生存本能?若AI開始主動復制自身以確保運行,是否會演變為技術自主性超越人類控制的局面?這些問題已超越單純的技術討論,而涉及更廣泛的倫理議題。為確保AI技術的安全發展,國際間必須強化「負責任AI(Responsible AI)」的發展框架,并將AI透明度與可解釋性納入監管標準。各國政府、企業與學術機構應建立「全球AI治理機制(Global AI Governance Mechanism)」,確保AI開發與部署過程符合公共利益,并防止技術濫用。未來,可能需要透過「AI影響評估(AI Impact Assessment)」機制,針對具有自我復制能力的系統進行嚴格監測,并制定風險管理策略,確保技術發展與社會價值保持一致。