當前位置: 妍妍網 > 資訊

OpenAI CTO 采訪揭底「背刺」阿特曼,GPT-4 已經碰到了大模型能力的瓶頸?

2024-06-13資訊

文 | 王啟隆

出品丨AI 科技大本營(ID:rgznai100)

近日,外號「矽谷顏值最高 CTO」的 OpenAI 美女技術總監 Mira Murati 在舊金山【財富】雜誌舉辦的「最具影響力女性」晚宴上,與該刊資深編輯 Michal Lev-Ram 展開了一場 20 分鐘 的對話,議題廣泛,涵蓋了 OpenAI 與蘋果的合作關系、馬斯克在 X 上的強烈反應、人工智慧安全私密顧慮、Mira 學習人工智慧的故事等。

在采訪中,Mira 為了向主持人解釋 AI 技術的龐大機遇,作出了以下發言:

最近我們公開了 GPT-4o 模型, 這是我們唯一的模型 ,而且對所有人免費開放。這件事的非凡之處在於,以目前技術發展的階段, 我們實驗室中的強大模型與公眾免費可獲取的模型其實差距不大。 這與歷史上技術引入世界的路徑截然不同,它讓 更多人 有機會一起參與起來,親身體驗 AI 技術的能力與潛在風險,從而提前做好準備。

而這話令人浮想聯翩:傳說中的 Q* 難道只是一道泡影?還是說當前存在著數據或架構的限制,導致大模型的天花板只能是 GPT-4 水平,沒法再往上突破?

這番發言還把知名學者、OpenAI 的「頭號黑子」 Gary Marcus 給炸了出來:

來自 OpenAI 本身的證據證明了 我關於收益遞減(diminishing returns)的猜想 —— 我認為人們還沒有完全意識到這一時刻的重要性,所以我想把它說出來: OpenAI 一直在虛張聲勢,而他們的技術長剛剛暴露了一個事實: 他們手裏沒有王牌。

從今天起的 12 個月內,GenAI 泡沫破滅的可能性將上升到 75%

底下的評論則調侃道:Mira 把 Sam Altman 精心營造的炒作給搞砸了,她很快就不能再接受采訪了。

為什麽要說「又」?這是因為 Mira 曾經在二月份 Sora 釋出後也接受過一次采訪,當時她在回答 「Sora 是利用 YouTube 視訊的數據訓練嗎」 這個問題時,含糊地表示 「Sora 只使用了 公開可用 的數據」,並迅速遭到了 YouTube 執行長 Neal Mohan 的明確回應:「如果 OpenAI 使用了 YouTube 視訊來訓練 Sora,那將「明顯違反」我們的政策!」

值得一提的是,這一次 Mira 的表情並沒有如上圖一樣耐人尋味,而是比較積極樂觀:她在提到實驗室內的模型和當前上線的模型差距不大時,想表達的意思是 「所以大家的機會很多,每個人都能參與進來」。

但作為技術長,Mira 是最了解內部模型的人之一,這種發言可謂是相當有分量,相當於給 OpenAI 的護城河透了個底。

下面,附上 雙語字幕視訊 和采訪全文,讓我們一起看看 Mira 都還說了什麽:

采訪全文如下:

Micha( 采訪者 :Mira,感謝蒞臨,我們知道你現在分身乏術。

時間只允許我們深入幾個話題,包括近期的新聞動態以及 Mira 作為 CTO 負責的領域。我首先想詢問的是,在如此繁忙且輿論紛雜 —— 輿論好壞參半 —— 的環境下,你大約六年前加入 OpenAI 時,公司情況迥異,那時的 OpenAI 還相對默默無聞。你現在是否偶爾會懷念那段能全神貫註於工作的時光?

Mira :我們依然保持低頭做事的態度,只不過工作的內涵已經今非昔比了。我們現在不再僅限於科研,而且隨著研究的深入,如何安全且有益地將成果推向世界成為了新的挑戰。OpenAI 的使命始終如一,只是研究上的進步促使我們的工作範疇不斷拓展。 現在 公眾對此也有很多關註 ,這對技術人員來說或許有些新奇,但考慮到我們工作的重大意義,這樣的審視是必要的,也是正面的。

Michal :讓我們再回溯一下,向那些不熟悉你成長歷程的朋友簡要概述你的職業生涯。你在互聯網尚未普及的艾爾巴尼亞長大,人工智慧是如何吸引你的?又是什麽經歷引領你走到了今天的位置?

Mira :自小我就對數學和物理學充滿興趣,因 此我的學術背景深植於數學。之後我投身工程領域,在 特斯拉的航空航天和汽車領域 工作過。這就是我開始的地方。我開始對透過自動駕駛汽車在現實世界中套用人工智慧越來越感興趣。

後,我進一步探索了在虛擬現實和增強現實中的 AI 與電腦視覺套用,致力於打造一種更自然、更直觀的資訊互動界面。正是這一系列的實踐,讓我一步步深入到人工智慧的世界。我開始思考如何才能更深入地掌握人工智慧,彼時我正考慮將 AI 套用於多個領域,但最終決定投身於通用人工智慧的研究,深入探索其核心。

正是這份追求,引領我走向 OpenAI。那時 OpenAI 是一個非營利組織,現在我們是一個有限利潤公司,但使命依舊。那就是公司的目標,董事會也在擴充套件。

Michal :接下來,我想聊聊最近的幾則新聞。

Mira 剛剛提到了高層的擴充套件,這讓我想到了 OpenAI 新任首席產品官兼 CFO Sarah Friar,你們剛把她納入麾下。我相信在座的許多女士對 Sarah 應該並不陌生,她是一位有著豐富經驗的上市企業高管,曾任 CEO 及 CFO。

這情形就像新婚夫婦常遇到的那樣,剛舉行完婚禮,第二天就被問及何時要小孩。這次聘請一位經驗豐富的上市企業高管,是否也預示著公司將籌備 IPO?我們該如何解讀這些高層變動?它們對公司的未來意味著什麽?

Mira :實際上,這意味著 OpenAI 正步入一個嶄新階段 ,我們服務於數百萬計的使用者、開發者和企業。為了順利推進這一階段的成長,我們必須有最能幹、最優秀的管理團隊。對於 Sarah 和 Kevin 的加入,以及他們帶來的專業能力和領導力,我們感到非常振奮。

Michal :我早就猜到你嘴很嚴,可能不會透露 OpenAI IPO 的事宜。

那我們來聊聊與蘋果的新聞吧。能否為我們深入剖析一下,從技術角度講,這項合作究竟有何獨特之處和重大意義?蘋果將其譽為「迄今為止在大規模雲端運算 AI 運算上采用的最先進安全架構」。首先,你是否認同這一評價,特別是針對與蘋果智慧整合的部份?再者,能否向我們揭秘幕後,解釋一下技術上為何說這合情合理,又是怎樣的設計使得它既私密又安全?

Mira :與蘋果的合作令我們倍感興奮,因為它提供了一個絕佳的平台,使我們的技術得以無痕融入廣大使用者的生活,無需他們更換裝置。技術以最優、最安全的形式來到使用者 身邊。與蘋果的合作至關重要,我們的理念高度契合,雙方都極其重視產品的私密保護和安全效能,無論是技術研發還是部署環節。我們在這方面完全同步,相信這將引領我們向更佳的方向前進。

Michal :蘋果公司因重視私密和安全的釋出策略而廣為人知,你認為這種特性對於那些對使用生成式 AI 產品(不僅僅是 ChatGPT)感到擔憂的使用者來說,是否能夠促進他們建立起更多的信任呢?

Mira ::在構建人們對 AI 的信任上,確實還有很長的路要走,這涉及到多方面的考量。這次與蘋果的合作,我們希望能在這方面有所作為,為 AI 技術融入各類產品和不同場景的融合中樹立正確的方向。透過這次合作,使用者可以 利用 Apple 帳號便捷登入 ChatGPT ,我們各自遵守適用於 ChatGPT 或 Apple 的私密政策。我們雙方都堅決捍衛產品私密與安全,從 Apple 帳號登入的資訊,我們也不會記錄 —— 但當使用者透過 ChatGPT 登入時,如果他們沒有主動選擇拒絕我們檢視其數據,我們則會基於使用者的同意進行必要的數據檢視 。當然,一旦使用者明確表示不願意,我們就不會檢視他們的數據。此外,我們通常不使用任何未經使用者同意的客戶數據進行模型訓練。

Michal :順帶一提,由於模型無法基於蘋果作業系統使用者的資料進行學習,這是否算是個限制?畢竟,這是海量的數據資源。

Mira :關鍵在於,我們必須首先確保使用者利益得到保障。技術及其套用獲得使用者的信賴極為關鍵,讓使用者對自己的數據擁有控制權,明白數據如何被使用,以及在何處被使用,這些都是至關重要的。這些原則優先於任何可能影響技術進展的因素。

Michal :請原諒我,因為我接下來要參照埃隆·馬斯克(Elon Musk)的話了,抱歉 —— 他並不贊同這是私密和安全的典範,他稱這種整合為令人毛骨悚然的間諜軟體 。你對此有何回應?

(Mira 搖了搖頭,聳了聳肩)

Michal :你不在乎?

Mira :這是他的觀點。顯然,我不這麽認為, 我們 也不這麽想。

我們深切關註使用者的私密及我們產品的安全性,以及我們如何開發和部署這項技術。我們在安全地部署技術方面有著強大的記錄,之前對 GPT-3 就是這樣做的,現在對 GPT-4 也是如此。

我們正盡可能地透明化,向公眾傳達我們的決策過程,並透過準備框架分享我們對前沿模型的看法以及我們在安全方面的策略。我們會繼續透過準備框架和類似規範的東西保持透明度,我認為在模型行為處理方面,沒有其他人有如此成熟且透明的框架,從高層次規則到非常技術性的決定及其復雜性,我們都在與公眾分享,並提供了讓人們提供反饋的機會。

同時,我們也正在嘗試多種實驗性的方式收集非使用者的意見。我認為這些都是重要的事情。工作遠未完成,我們還有很多要做,不僅是開放,我認為整個行業都需要在解釋技術發生的事情上做得更多,增加更多的參與和自主性。但首先,我們必須解釋清楚,因為現在最大的風險其實是 利益相關者誤解了技術本身

Michal :面對這些動態發展和你們正在進行的合作,我知道 你們還正在訓練一個新的 AI 模型,據說它將使公司更逼近通用人工智慧(AGI) 。我知道你對此投入了大量思考,包括預想最壞和最好的情形。我相信在座的各位和我一樣,對這樣的未來充滿好奇。能否分享一下,你如何看待這個問題?你如何為未來做預案規劃?你對未來的美好願景又是怎樣的?

Mira 我們的思考立足點在於,我們正在推進的技術無疑將帶來深刻的變革,這不僅要求開發和套用這些技術的公司努力,也需要社會各界——包括民間團體、媒體、政府、監管機構、公眾以及各行各業的人士——共同參與,形成一種共同的責任感,為這項技術的全球普及做好充分準備。但要實作共同責任,首先要讓大家理解這項技術,並使其觸手可及。

比如,最近我們公開了 GPT-4o 模型, 這是我們唯一的模型 ,而且對所有人免費開放 。這件事的非凡之處在於,以目前技術發展的階段, 我們實驗室中的強大模型與公眾免費可獲取的模型其實差距不大。 這與歷史上技術引入世界的路徑截然不同,它讓 更多人 有機會一起參與起來,親身體驗 AI 技術的能力與潛在風險,從而提前做好準備。

顯然,機遇是巨大的。我們談論風險很多,因為它們極 其重要,但如果我們不相信這裏的機遇巨大,我們也不會這樣做。

我個人認為,在醫療保健、教育等領域,AI 有著不可思議的潛力。而我們只是觸及了這些能力與機會的皮毛,比如像可汗學院那樣的個人化導師。但你可以想象,世界上任何地方,哪怕是最偏遠地區的每個人,都能獲得根據他們的思維方式、文化背景、興趣客製的輔導,這太神奇了。

通常,我們並不會真正思考如何做到這一點,我們不會真正思考我們是如何學習或思考的,直到接受了大約十年的教育左右。這真是一個錯失的良機。我真的相信,如果你能推動人類知識向前發展,就能推動社會和文明前進。在醫療保健、氣候變遷解決方案等方面,存在著無數的機會。帶來這些先進的 AI 系統將極大地幫助我們。

當然,風險總是存在的。每當擁有如此強大的東西時,就必須應對負面影響和濫用問題。想想我們周圍的世界,都是工程造物,而工程伴隨著風險。我們已經學會了如何構建系統,如何建立信任,如何確保我們周圍的工程安全,比如建築、道路、橋梁等。所以,這也是一樣的,我們必須建立所有這些我們信任的基礎設施,使得這些技術的部署既安全又實用。這實際上與商業需求非常契合,因為人們想要可以使用 、信任且安全的產品。

Michal :最後再提一個關於安全的問題,如今一切的進展速度之快,超越了橋梁建設乃至現實基礎設施的發展。我知道你負責監管安全團隊,而外界對此有很多看法,特別是去年底的那場風波,讓人難以忘懷 —— 盡管你曾短暫代理 OpenAI CEO 一職,但之後的劇變實在太多。

能否跟我們說說,為何你堅信現有的約束和安全架構依然穩固?我想你肯定有此信心,否則也不會堅持至今。

Mira :你指的應該是我們的董事會架構吧?OpenAI 自設立之初,就一直在探索最適合的管理架構、激勵機制及組織設計,以確保公司能以最佳狀態推進使命。在這個過程中,我們根據使命實踐和不斷學習,做了幾次調整。畢竟,我們是在探索未知,是在從事研究,這意味著邊學習、邊調整、邊改進。

起初,我們從非營利轉為有限盈利模式,目的就是確保有能力投資超級電腦、吸引人才,同時確保使命優先,這是不變的原則。

然而,去年 11 月我們意識到,原有的非營利董事會構成, 成員多來自業外,且缺乏對外界的責任交代 。考慮到我們正研發並部署著一項影響廣泛的技術,董事會層面理應承擔某種形式的責任。如今的董事會成員在非營利和大型企業領域經驗豐富,他們正在深入探討治理結構,力求找到既能平衡各方激勵、確保使命導向,又能高度負責的最佳途徑。

開發者正在迎接新一輪的技術浪潮變革。由 CSDN 和高端 IT 咨詢和教育平台 Boolan 聯合主辦的 2024 年度「全球軟體研發技術大會」秉承幹貨實料(案例)的內容原則,將於 7 月 4 日-5 日在北京正式舉辦。大會共設定了 12 個大會主題:大模型智慧套用開發、軟體開發智慧化、AI 與 ML 智慧運維、雲原生架構……詳情👉: http://sdcon.com.cn/