OpenAI主要領導辭職 人工智能會不會陷入安全困境?

加拿大都市网

 

【星島都市網】揚-萊克(Jan Leike)和伊利亞-蘇茨基弗(Ilya Sutskever)離開 OpenAI 的原因是他們負責監督「超級智能」人工智能系統的團隊在獲取資源方面遇到了問題。儘管該團隊已經解散,但他們的任務將由不同部門的研究人員繼續執行,這引發了人們對 OpenAI 未來人工智能安全性的擔憂。

在 OpenAI,負責開發和監督「超級智能」人工智能系統(被稱為 Superalignment)的團隊在獲取承諾的資源方面遇到了重大問題。儘管他們本應獲得公司五分之一的計算資源,但他們的請求經常遭到拒絕,從而阻礙了項目的實施。這些問題和其他問題導致幾名團隊成員於本周辭職。其中一位離職者是該團隊的共同負責人、前 DeepMind 研究員揚-萊克(Jan Leike)。他透露,他離開公司的原因是對 OpenAI 的優先事項存在分歧,尤其是他認為在引入後續人工智能模型方面準備不足。

關鍵人物的離職

除了萊克,作為前董事會成員的聯合創始人伊利亞-蘇茨基弗(Ilya Sutskever)也因與首席執行官薩姆-奧特曼(Sam Altman)的矛盾離開了 OpenAI。董事會成員對奧特曼表示不滿,但奧特曼最終還是回到了自己的崗位。針對這些事件,奧特曼在 X 平台上寫道,公司未來仍有很多工作要做,但這些工作將全力推進。阿爾特曼的話得到了人工智能聯合創始人格雷格-布羅克曼(Greg Brockman)的支持,他強調必須更加重視安全和流程效率。

雖然 Superalignment 團隊實際上已不復存在,但來自公司各部門的一組研究人員將繼續開展活動。這不禁讓人擔心,OpenAI 是否會繼續同樣關注人工智能開發中的安全問題。

人員變動是否預示着工作重點的轉移?

據 TechCrunch 消息來源稱,OpenAI 的情況反映出其工作重點已經從安全開發超級智能 AI 轉移到更快地向市場發佈產品上。Superalignment 團隊的前成員批評了這種變化,強調了負責任的人工智能方法的重要性。在公司試圖平衡創新與責任的過程中,OpenAI 人工智能安全的未來仍是一個懸而未決的問題。

萊克和蘇茨基弗的離職以及 Superalignment 團隊的解散是否會影響 OpenAI 的項目實施?

萊克和蘇茨基弗的離職以及Superalignment團隊在OpenAI的解散可能會影響公司的項目實施速度及其在人工智能安全方面的長期戰略。這兩位科學家都是監督超級智能人工智能系統開發的關鍵人物。萊克和蘇茨基因工作重點不同而離職,這可能會導致人工智能安全研究的方向和步伐發生變化。

新任首席科學家雅各布-帕喬奇(Jakub Pachocki)將接管萊克和蘇茨基弗的部分職責。他被認為是同代人中最聰明的人之一,這為 OpenAI 在人工智能領域取得更大成功帶來了希望。然而,Superalignment 團隊的任務在公司各部門之間的分工令人擔憂未來安全相關活動的有效性。(都市網Rick編譯,圖片來源星島資料圖)

(ref:https://dailywrap.ca/openais-safety-flounders-as-key-leaders-resign-amid-resource-disputes,7029286137989249a)