商務投稿:18928809533【微信同號】
首頁 » 科技 » 前OpenAI研究员成立新公司,致力于开发“安全超级智能”

前OpenAI研究员成立新公司,致力于开发“安全超级智能”

分享:

據彭博社19日報導,自五月中旬蘇茨克維宣布從OpenAI離職後,這是他首次透露自己在人工智能領域的新項目。這家企業另有兩名聯合創始人,一位是前蘋果公司AI負責人丹尼爾·格羅斯(Daniel Gross),他因投資多家知名AI初創公司而備受矚目,還有一位是前OpenAI研究員丹尼爾·利維(Daniel Levy),他與蘇茨克維一起在OpenAI訓練大型AI模型,建立了良好的聲譽。

去年11月,蘇茨克維與其他OpenAI的董事會成員一道將公司的首席執行官薩姆·奧爾特曼(Sam Altman)免職後,被數百名員工以辭職相威脅,最終奧爾特曼又回到公司繼續任職。談及與奧爾特曼的關係時,蘇茨克維只說“很好”,並表示奧爾特曼“大致了解”這項新業務。

蘇茨克維表示,“這家公司與眾不同之處在於,它的首款產品將是安全的人工智能,在此之前它不會做其他任何事情”。這個項目的關鍵是要確定究竟是什麼讓一個AI系統比另一個更安全,換句話說,確保它絕對安全。目前蘇茨克維對此語焉不詳,但他表明新公司會嘗試通過將工程技術的革命性突破融入AI系統來提升安全性,“我們所說的安全是指像‘核安全’那樣的安全,而不是像‘信任和安全’那樣的安全,”他說。

蘇茨克維拒絕透露該公司的投資人和已籌集到的資金數目。隨著人工智能的不斷發展,其背後的算法愈發龐大,需要大量資金作為其進一步發展的必要支持。這一經濟現實與“安全超級智能”最終目標落地的不確定性,使得“安全超級智能”對投資者來說是一個巨大的賭注,他們將押注蘇茨克維和他的團隊能夠取得突破性進展,並在人工智能領域遙遙領先。不過鑒於創始團隊的背景和人們對這一領域的濃厚興趣,資金籌集將不是問題。

人工智能領域的研究人員幾十年來一直在關注並探索如何使AI朝著符合人類利益的方向發展,但如何防止AI系統失控仍是一個缺乏深入探討的問題。蘇茨克維認為從最基本的角度來說,安全的人工智能不會大規模地危害人類,在達到這一標準之後,它可以基於一些關鍵價值觀來運行,比如自由、民主和個人權利。

蘇茨克維說,主導人工智能的龐大語言模型將在“安全超級智能”中發揮重要作用,但其目標是實現更強大的東西。目前的系統是人們與其對話得到問題的答案後,這一系統流程就告一段落了。而他追求的則是更通用、能力範圍更廣大的系統,是一個能夠自主開發技術的巨型超級數據中心。