日本精品一区二区三区高清 久久

ITBear旗下自媒體矩陣:

麻省理工AI教授:量化AI失控風險,能否避免“核試”式危機?

   時間:2025-05-12 18:52:06 來源:ITBEAR編輯:快訊團隊 發表評論無障礙通道

近期,英國《衛報》報道了一項引人深思的研究發現,麻省理工學院的AI安全領域專家馬克斯·泰格馬克提出了一項令人警醒的預測。他參考了美國物理學家阿瑟·康普頓在“三位一體”核試驗前的概率計算方法,對高度發達的AI可能帶來的生存威脅進行了評估。

據悉,康普頓在1945年推進歷史性核試驗前,曾確認原子彈引發大氣層燃燒的可能性極低。泰格馬克借鑒這一思路,與三位麻省理工學生共同發表了一篇論文,其中提出了一個類似的概念——“康普頓常數”,用以衡量強AI失控的概率。

泰格馬克強調,AI企業不應僅憑直覺行事,而應通過嚴謹的計算來評估“人工超級智能”(ASI)失控的風險。他指出,就像康普頓在確認失控核聚變幾率極低后才批準核試驗一樣,打造超級智能的公司也必須計算出具體的失控概率,即“康普頓常數”。他說:“光說‘我們有信心’是不夠的,必須拿出具體數據。”

泰格馬克進一步提出,如果多家公司能夠聯合起來計算這一常數并形成共識,將有助于在全球范圍內推動AI安全機制的建立。他認為,這樣的合作對于確保AI技術的安全發展至關重要。

作為麻省理工學院的物理學教授及AI研究者,泰格馬克不僅是這一研究的推動者,還是致力于AI安全發展的非營利組織“未來生命研究所”的創辦者之一。2023年,該機構發布了一封公開信,呼吁暫停開發更強大的AI系統。這封信迅速獲得了超過3.3萬人的簽名支持,其中包括知名企業家埃隆·馬斯克和蘋果聯合創始人史蒂夫·沃茲尼亞克。

公開信中警告說,各大實驗室目前正陷入一場“失控競賽”,競相開發越來越強大的AI系統。然而,這些系統卻“人類無法理解、預測或可靠控制”,從而帶來了巨大的潛在風險。泰格馬克及其團隊的研究和呼吁,無疑為這一領域的發展敲響了警鐘。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內容
網站首頁  |  關于我們  |  聯系方式  |  版權聲明  |  RSS訂閱  |  開放轉載  |  滾動資訊  |  爭議稿件處理  |  English Version
 
主站蜘蛛池模板: 泰宁县| 昌邑市| 页游| 永春县| 马公市| 海盐县| 丰宁| 香格里拉县| 枣阳市| 吉安市| 东阳市| 沂南县| 海城市| 太保市| 册亨县| 新闻| 泽州县| 东丰县| 和顺县| 高唐县| 河间市| 深圳市| 大丰市| 囊谦县| 康保县| 应城市| 同江市| 莱州市| 尚义县| 稷山县| 拉萨市| 晋宁县| 洪江市| 东明县| 永胜县| 石狮市| 宁陵县| 锦州市| 博爱县| 本溪市| 东乡族自治县|