圖/dig.watch
Meta公布「Frontier AI Framework」白皮書,強調高風險與重大風險人工智慧系統
發布日期:2/5/2025
新聞視界時報 記者 李翌淳 整理報導
Meta近期發布了名為「Frontier AI Framework」(前沿人工智慧框架)的白皮書,其中詳細介紹了人工智慧系統的風險分類。
根據白皮書,Meta將人工智慧系統分為兩類風險系統——高風險系統(high-risk)和重大風險系統(critical-risk)。
這些系統的風險範圍廣泛,可能會被用於網絡安全攻擊,或在更危險的情境中,涉及化學與生物武器攻擊。
高風險與重大風險系統的區別
在這兩種風險系統中,高風險系統雖然可能帶來一定的威脅,但仍可在某些情況下進行管理與控制。
相較之下,重大風險系統則有可能引發無法控制的嚴重後果,對社會、環境或人類安全構成更大的危險。
Meta強調,對這些系統的開發與應用需更加謹慎,並提倡加強對其風險的監管與預防。
保障未來,需共同合作
Meta的這一舉措表明,隨著人工智慧技術不斷發展,對其潛在風險的關注也逐漸增強。
對於開發和應用高風險及重大風險系統,無論是企業還是政府部門,都需要加強協作,建立有效的監管體系,以確保科技發展能夠以安全、可控的方式推進。
Meta希望通過該框架的推廣,讓業界和學術界共同關注人工智慧的安全問題,進一步促進負責任的技術創新。
這不僅有助於提升整體人工智慧系統的穩定性,還能保障全球社會免受可能的危險威脅。