科技巨頭承諾安全開發AI模型:極端風險下會“自拔網線”
當地時間周二(5月21日),微軟、亞馬遜、OpenAI等科技巨頭在“人工智能(AI)首爾峰會”上就AI安全達成了一項具有里
程碑意義的國際協議。
此次峰會由韓國與英國共同主辦,是去年11月在英國召開的全球人工智能安全峰會的后續會議,以“安全、創新、包容”為主
題。
這項國際協議將讓來自全球多國的企業做出自愿承諾,確保他們是以安全的方式開發AI前沿模型。
制作AI模型的公司需要發布安全框架,列出衡量潛在風險的方式,例如檢查不良行為者濫用技術的風險。
框架將包括針對科技公司的一些被視為無法容忍的“紅線”,包括但不限于自動網絡攻擊和生物武器的威脅。
一旦發現了這種極端情況,如果不能保證降低風險,企業們就需要打開“緊急停止開關”(kill switch),叫停AI模型的開發進
程。
英國首相蘇納克在一份聲明中寫道:“這還是首次,有如此多來自全球不同地區的領先AI公司都同意在人工智能安全方面做出同
樣的承諾。這些承諾將確保全球領先的AI公司,讓他們的AI計劃提供透明度和問責制?!?/span>
去年11月,在英國AI安全峰會上,與會方簽署了一份《布萊奇利宣言》(Bletchley Declaration),稱各方需要共同努力,設定
共同的監管方法。
《布萊奇利宣言》寫道,AI為全球帶來了巨大的機遇,它有潛力改變或增強人類福祉、和平與繁榮。同時,AI還帶來了重大風險,
包括在日常生活領域,“所有問題都至關重要,我們確認解決它們的必要性和緊迫性?!?/span>
法國將于2025年初舉辦下一屆AI安全峰會,企業們同意在這次會議前征詢意見,并公布于眾。
日內,歐盟理事會正式批準《人工智能法案》,這是全球首部AI領域的全面監管法規,違反法規的相關方將被追究責任。然而,
英國方面還沒有提出類似的AI法律。
與美國的主張類似,英國選擇了一種名為“輕觸式”的監管方式,通過行業自律和個案監管來應對新興風險,旨在避免過度干預
阻礙技術創新。
在明天的部長級會議期間,各國高級官員將以今日的討論內容為基礎,就進一步保障AI安全性、推進可持續發展等具體合作方案
展開討論。