Sam Altman 的(de)緻辭發生在6月(yuè)10日智源大(dà)會的(de)AI安全與對(duì)齊分(fēn)論壇上。現場(chǎng)座無虛席,這(zhè)位OpenAI CEO在屏幕上出現時(shí),現場(chǎng)響起掌聲,幾乎所有人(rén)都舉起手機對(duì)著(zhe)屏幕拍(pāi)照(zhào)。不過Altman本人(rén)顯得(de)十分(fēn)平靜,甚至是謹慎。這(zhè)是去年ChatGPT攪動全球AI熱(rè)潮以來(lái),Sam Altman 首度在中國背景的(de)場(chǎng)合公開發表意見。事實上當天他(tā)也(yě)在離中國不遠(yuǎn)的(de)地方,此前他(tā)剛剛抵達首爾,見了(le)韓國總統。在發表演講後,他(tā)還(hái)與智源研究院理(lǐ)事長(cháng)張宏江進行了(le)一對(duì)一問答(dá)。以下(xià)爲要點及實錄。
要點:
随著(zhe)我們在技術上越來(lái)越接近AGI,不對(duì)齊的(de)影(yǐng)響和(hé)缺陷将呈指數級增長(cháng)。
OpenAI目前使用(yòng)強化(huà)學習(xí)人(rén)類反饋技術來(lái)确保AI系統有用(yòng)與安全,同時(shí)也(yě)在探索新的(de)技術,其中一個(gè)思路是使用(yòng)AI系統來(lái)輔助人(rén)類去監督别的(de)AI系統。
十年内人(rén)類将擁有強大(dà)的(de)人(rén)工智能系統(AI System)。
OpenAI沒有相關的(de)新的(de)有關開源的(de)時(shí)間表,盡管他(tā)承認在有關AI安全的(de)問題上,開源模型具有優勢,但開源所有東西可(kě)能并不是一條(促進AI發展的(de))最佳路線。
看明(míng)白神經網絡比看明(míng)白人(rén)類腦(nǎo)子容易多(duō)了(le)。
中國有最優秀的(de)人(rén)工智能人(rén)才,AI安全需要中國研究者的(de)參與和(hé)貢獻。
以下(xià)爲演講實錄:
今天,我想談談未來(lái)。具體來(lái)說,就是我們在人(rén)工智能能力方面看到的(de)增長(cháng)速度。我們現在需要做(zuò)什(shén)麽,爲它們引入世界做(zuò)好負責任的(de)準備,科學史教會我們,技術進步遵循指數曲線。我們已經能從曆史中看到這(zhè)一點,從農業、工業到計算(suàn)革命。人(rén)工智能令人(rén)震撼的(de)不僅是它的(de)影(yǐng)響力,還(hái)有它的(de)進步速度。它拓展了(le)人(rén)類想象力的(de)邊界,并且以快(kuài)速的(de)步伐進行著(zhe)。想象一下(xià),在未來(lái)十年裏,通(tōng)常被稱爲通(tōng)用(yòng)人(rén)工智能(AGI)的(de)系統,在幾乎所有領域都超越了(le)人(rén)類的(de)專業水(shuǐ)平。這(zhè)些系統最終可(kě)能超過我們最大(dà)公司的(de)集體生産力。這(zhè)裏面潛藏著(zhe)巨大(dà)的(de)上升空間。人(rén)工智能革命将創造共享财富,并使提高(gāo)每個(gè)人(rén)生活水(shuǐ)平成爲可(kě)能,解決共同挑戰,如氣候變化(huà)和(hé)全球衛生安全,并以無數其他(tā)方式提高(gāo)社會福祉。我深信這(zhè)個(gè)未來(lái),爲了(le)實現它并享受它,我們需要共同投資于AGI安全,并管理(lǐ)風險。如果我們不小心,一個(gè)不符合目标的(de)AGI系統,可(kě)能會通(tōng)過提供沒有根據的(de)建議(yì),破壞整個(gè)醫療系統。同樣地,一個(gè)旨在優化(huà)農業實踐的(de)AGI系統可(kě)能會由于缺乏對(duì)長(cháng)期可(kě)持續性的(de)考慮而無意中耗盡自然資源或破壞生态系統,影(yǐng)響食品生産和(hé)環境平衡。我希望我們都能同意,推進AGI安全是我們最重要的(de)領域之一。我想把我剩下(xià)的(de)講話(huà)重點放在我認爲我們可(kě)以從哪裏開始的(de)地方。一個(gè)領域是AGI治理(lǐ),這(zhè)是一項具有全球影(yǐng)響的(de)技術。魯莽開發和(hé)部署造成的(de)事故成本将影(yǐng)響我們所有人(rén)。在這(zhè)方面,有兩個(gè)關鍵要素:首先,我們需要建立國際規範和(hé)标準,并通(tōng)過包容的(de)過程,在所有國家爲AGI的(de)使用(yòng)制定平等統一的(de)保護措施。在這(zhè)些保護措施之内,我們相信人(rén)們有充分(fēn)的(de)機會做(zuò)出自己的(de)選擇。其次,我們需要國際合作來(lái)建立對(duì)日益強大(dà)的(de)人(rén)工智能系統安全開發的(de)全球信任,以可(kě)驗證的(de)方式。這(zhè)不是一件容易的(de)事情。我們需要作爲國際社會投入持續而重要的(de)關注,才能做(zuò)好這(zhè)件事。道德經提醒我們,千裏之行始于足下(xià)。我們認爲在這(zhè)裏采取最有建設性的(de)第一步是與國際科技界合作。特别是,我們應該促進增加透明(míng)度和(hé)知識共享的(de)機制,關于AGI安全方面的(de)技術進展。發現新出現安全問題的(de)研究人(rén)員(yuán)應該爲了(le)更大(dà)的(de)利益分(fēn)享他(tā)們的(de)見解。我們需要認真考慮如何在尊重和(hé)保護知識産權權利的(de)同時(shí),鼓勵這(zhè)種規範。如果我們做(zuò)好了(le)這(zhè)一點,它将爲我們打開新的(de)大(dà)門,讓我們能夠加深合作。更廣泛地說,我們應該投資、促進和(hé)引導對(duì)目标和(hé)安全研究的(de)投資。在OpenAI,我們今天的(de)目标研究主要集中在技術問題上,即如何讓人(rén)工智能系統作爲一個(gè)有用(yòng)和(hé)安全的(de)助手,在我們當前的(de)系統中行動。這(zhè)可(kě)能意味著(zhe),我們如何訓練ChatGPT,使它不會發出暴力威脅或協助用(yòng)戶進行有害活動。但是随著(zhe)我們更接近AGI,任何不符合目标的(de)潛在影(yǐng)響和(hé)程度都将呈指數增長(cháng)。爲了(le)提前解決這(zhè)些挑戰,我們努力将未來(lái)災難性結果的(de)風險降到最低。對(duì)于當前系統,我們主要使用(yòng)來(lái)自人(rén)類反饋的(de)強化(huà)學習(xí)來(lái)訓練我們的(de)模型,使其作爲一個(gè)有用(yòng)和(hé)安全的(de)助手行動。這(zhè)是後期訓練目标技術中的(de)一個(gè)例子,我們也(yě)在忙于開發新的(de)技術。要做(zuò)好這(zhè)件事情需要很多(duō)艱苦的(de)工程工作。從GPT-4完成預訓練到部署它,我們花了(le)8個(gè)月(yuè)的(de)時(shí)間來(lái)做(zuò)這(zhè)件事。總的(de)來(lái)說,我們認爲我們在這(zhè)方面走在了(le)正确的(de)軌道上。GPT-4比我們以前的(de)任何模型都更符合目标。然而,對(duì)于更先進的(de)系統來(lái)說,目标仍然是一個(gè)未解決的(de)問題,我們認爲這(zhè)需要新的(de)技術方法,以及更多(duō)的(de)治理(lǐ)和(hé)監督。想象一下(xià),一個(gè)未來(lái)的(de)AGI系統提出了(le)10萬行二進制代碼。人(rén)類監督者不太可(kě)能檢測到這(zhè)樣一個(gè)模型是否在做(zuò)一些邪惡的(de)事情。所以我們正在投資一些新的(de)和(hé)互補的(de)研究方向,我們希望能夠取得(de)突破。一個(gè)是可(kě)擴展的(de)監督。我們可(kě)以嘗試使用(yòng)人(rén)工智能系統來(lái)協助人(rén)類監督其他(tā)人(rén)工智能系統。例如,我們可(kě)以訓練一個(gè)模型來(lái)幫助人(rén)類監督者發現其他(tā)模型輸出中的(de)缺陷。第二個(gè)是可(kě)解釋性。我們想嘗試更好地理(lǐ)解這(zhè)些模型内部發生了(le)什(shén)麽。我們最近發表了(le)一篇論文,使用(yòng)GPT-4來(lái)解釋GPT-2中的(de)神經元。在另一篇論文中,我們使用(yòng)模型内部信息來(lái)檢測模型何時(shí)在說謊。雖然我們還(hái)有很長(cháng)的(de)路要走,但我們相信先進的(de)機器學習(xí)技術可(kě)以進一步提高(gāo)我們産生解釋的(de)能力。最終,我們的(de)目标是訓練人(rén)工智能系統來(lái)幫助目标研究本身。這(zhè)種方法的(de)一個(gè)有希望的(de)方面是,它随著(zhe)人(rén)工智能發展的(de)步伐而擴展。随著(zhe)未來(lái)模型變得(de)越來(lái)越聰明(míng)和(hé)有用(yòng)作爲助手,我們将找到更好的(de)技術,實現AGI的(de)非凡利益,同時(shí)減輕風險,是我們這(zhè)個(gè)時(shí)代最重要的(de)挑戰之一。
以下(xià)爲對(duì)話(huà)實錄:
張宏江:我們離人(rén)工智能還(hái)有多(duō)遠(yuǎn)?風險是不是很緊迫,還(hái)是我們離它還(hái)很遙遠(yuǎn)?無論是安全的(de)人(rén)工智能,還(hái)是潛在的(de)不安全的(de)人(rén)工智能。
Sam Altman :這(zhè)個(gè)問題很難準确預測時(shí)間,因爲它需要新的(de)研究思路,而這(zhè)些思路并不總是按照(zhào)規定的(de)日程來(lái)發展的(de)。它可(kě)能很快(kuài)就會發生,也(yě)可(kě)能需要更長(cháng)的(de)時(shí)間。我認爲很難用(yòng)任何程度的(de)确定性來(lái)預測。但我确實認爲,在未來(lái)十年内,我們可(kě)能會擁有非常強大(dà)的(de)人(rén)工智能系統。在這(zhè)樣的(de)世界裏,我認爲解決這(zhè)個(gè)問題是重要而緊迫的(de),這(zhè)就是爲什(shén)麽我呼籲國際社會共同合作來(lái)解決這(zhè)個(gè)問題。曆史上确實給我們提供了(le)一些新技術比許多(duō)人(rén)想象的(de)更快(kuài)地改變世界的(de)例子。我們現在看到的(de)這(zhè)些系統的(de)影(yǐng)響和(hé)加速度,在某種意義上是前所未有的(de)。所以我認爲做(zuò)好準備,讓它盡快(kuài)發生,并且解決好安全性方面的(de)問題,考慮到它們的(de)影(yǐng)響和(hé)重要性,是非常有意義的(de)。
張宏江:你感覺到了(le)一種緊迫感嗎?
Sam Altman:是的(de),我感覺到了(le)。我想強調一下(xià),我們并不真正知道。而且人(rén)工智能的(de)定義也(yě)不同,但是我認爲在十年内,我們應該爲一個(gè)擁有非常強大(dà)系統的(de)世界做(zuò)好準備。
張宏江:你在剛才的(de)演講中也(yě)提到了(le)幾次全球合作。我們知道世界在過去六七十年裏面臨過很多(duō)危機。不過對(duì)于其中的(de)很多(duō)危機,我們設法建立了(le)共識和(hé)全球合作。你也(yě)正在進行一次全球之旅。你正在推動什(shén)麽樣的(de)全球合作?你對(duì)目前收到的(de)反饋感覺如何?
Sam Altman:是的(de),我對(duì)目前收到的(de)反饋非常滿意。我認爲人(rén)們非常認真地對(duì)待人(rén)工智能帶來(lái)的(de)風險和(hé)機遇。我認爲在過去六個(gè)月(yuè)裏,這(zhè)方面的(de)討(tǎo)論已經有了(le)很大(dà)進步。人(rén)們真正緻力于找出一個(gè)框架,讓我們能夠享受這(zhè)些好處,同時(shí)共同合作來(lái)減輕風險。我認爲我們處于一個(gè)非常有利的(de)位置來(lái)做(zuò)這(zhè)件事。全球合作總是很困難的(de),但我認爲這(zhè)是一種機會和(hé)威脅,可(kě)以讓世界團結起來(lái)。我們可(kě)以制定一些框架和(hé)安全标準,來(lái)指導這(zhè)些系統的(de)開發,這(zhè)将是非常有幫助的(de)。
張宏江:在這(zhè)個(gè)特定的(de)話(huà)題上,你提到了(le)高(gāo)級人(rén)工智能系統的(de)對(duì)齊是一個(gè)未解決的(de)問題。我也(yě)注意到開放AI在過去幾年裏投入了(le)很多(duō)精力。你還(hái)提到了(le)GPT-4是對(duì)齊方面的(de)最佳例子。你認爲我們能否通(tōng)過對(duì)齊來(lái)解決人(rén)工智能安全問題?或者這(zhè)個(gè)問題比對(duì)齊更大(dà)?
Sam Altman :我認爲對(duì)齊這(zhè)個(gè)詞有不同的(de)用(yòng)法。我認爲我們需要解決的(de)是如何實現安全人(rén)工智能系統的(de)整個(gè)挑戰。對(duì)齊在傳統意義上是指讓模型按照(zhào)用(yòng)戶的(de)意圖行事,這(zhè)當然是其中的(de)一部分(fēn)。但我們還(hái)需要回答(dá)其他(tā)一些問題,比如我們如何驗證系統是否做(zuò)了(le)我們想要它們做(zuò)的(de)事情,以及我們要根據誰的(de)價值觀來(lái)對(duì)齊系統。但我認爲重要的(de)是要看到實現安全人(rén)工智能所需要的(de)全貌。
張宏江:是的(de),對(duì)齊還(hái)是。如果我們看看GPT-4所做(zuò)的(de)事情,在很大(dà)程度上,它仍然是從技術角度來(lái)看的(de)。但除了(le)技術之外,還(hái)有許多(duō)其他(tā)因素。這(zhè)是一個(gè)非常複雜(zá)的(de)問題。通(tōng)常複雜(zá)問題是系統性的(de)。人(rén)工智能安全可(kě)能也(yě)不例外。除了(le)技術方面之外,你認爲還(hái)有哪些因素和(hé)問題對(duì)人(rén)工智能安全至關重要?我們應該如何應對(duì)這(zhè)些挑戰?特别是我們大(dà)多(duō)數人(rén)都是科學家,我們應該做(zuò)什(shén)麽?
Sam Altman:這(zhè)當然是一個(gè)非常複雜(zá)的(de)問題。我會說沒有技術解決方案,其他(tā)一切都很難。我認爲把很多(duō)精力放在确保我們解決了(le)安全方面的(de)技術問題上是非常重要的(de)。正如我提到的(de),弄清楚我們要根據什(shén)麽樣的(de)價值觀來(lái)對(duì)齊系統,這(zhè)不是一個(gè)技術問題。它需要技術輸入,但它是一個(gè)需要全社會深入討(tǎo)論的(de)問題。我們必須設計出公平、有代表性和(hé)包容性的(de)系統。而且,正如你指出的(de),我們不僅要考慮人(rén)工智能模型本身的(de)安全性,還(hái)要考慮整個(gè)系統的(de)安全性。所以建立安全分(fēn)類器和(hé)檢測器,可(kě)以在模型之上運行,可(kě)以監控使用(yòng)策略的(de)遵守情況,這(zhè)也(yě)很重要。然後,我也(yě)認爲很難提前預測任何技術會出現什(shén)麽問題。所以從真實世界中學習(xí)和(hé)叠代地部署,看看當你把模型放到現實中時(shí)會發生什(shén)麽,并改進它,并給人(rén)們和(hé)社會時(shí)間去學習(xí)和(hé)更新,并思考這(zhè)些模型将如何以好的(de)和(hé)壞的(de)方式影(yǐng)響他(tā)們的(de)生活。這(zhè)也(yě)很重要。
張宏江:你剛才提到了(le)全球合作。你已經訪問了(le)很多(duō)國家,你提到了(le)中國。但你能否分(fēn)享一些你在合作方面取得(de)的(de)成果?你對(duì)下(xià)一步有什(shén)麽計劃或想法?從這(zhè)次世界之旅中,從你與各種政府、機構、機構之間的(de)互動中?
Sam Altman:我認爲通(tōng)常需要很多(duō)不同的(de)視角和(hé)人(rén)工智能安全。我們還(hái)沒有得(de)到所有的(de)答(dá)案,這(zhè)是一個(gè)相當困難和(hé)重要的(de)問題。
此外,正如所提到的(de),這(zhè)不是一個(gè)純粹的(de)技術問題,使人(rén)工智能安全和(hé)有益的(de)。涉及在非常不同的(de)背景下(xià)了(le)解不同國家的(de)用(yòng)戶偏好。我們需要很多(duō)不同的(de)投入才能實現這(zhè)一目标。中國擁有一些世界上最優秀的(de)人(rén)工智能人(rén)才。從根本上說,我認爲,考慮到解決高(gāo)級人(rén)工智能系統對(duì)齊的(de)困難,需要來(lái)自世界各地的(de)最好的(de)頭腦(nǎo)。所以我真的(de)希望中國的(de)人(rén)工智能研究人(rén)員(yuán)在這(zhè)裏做(zuò)出巨大(dà)的(de)貢獻。
張宏江:我明(míng)白今天的(de)論壇是關注AI安全的(de),因爲人(rén)們對(duì)OpenAI很好奇,所以我有很多(duō)關于OpenAI的(de)問題,不僅僅是AI安全。我這(zhè)裏有一個(gè)觀衆的(de)問題是,OpenAI有沒有計劃重新開源它的(de)模型,就像在3.0版本之前那樣?我也(yě)認爲開源有利于AI安全。
Sam Altman:我們有些模型是開源的(de),有些不是,但随著(zhe)時(shí)間的(de)推移,我認爲你應該期待我們将來(lái)會繼續開源更多(duō)的(de)模型。我沒有一個(gè)具體的(de)模型或時(shí)間表,但這(zhè)是我們目前正在討(tǎo)論的(de)事情。
張宏江:我們把所有的(de)努力都投入到了(le)開源中,包括模型本身、開發模型的(de)算(suàn)法、優化(huà)模型和(hé)數據之間關系的(de)工具。我們相信有必要分(fēn)享,并讓用(yòng)戶感覺到他(tā)們控制了(le)自己所使用(yòng)的(de)東西。你是否有類似的(de)反饋?或者這(zhè)是你們在OpenAI中討(tǎo)論的(de)内容?
Sam Altman:是的(de),我認爲開源在某種程度上确實有一個(gè)重要的(de)作用(yòng)。最近也(yě)有很多(duō)新的(de)開源模型出現。我認爲API模型也(yě)有一個(gè)重要的(de)作用(yòng)。它爲我們提供了(le)額外的(de)安全控制。你可(kě)以阻止某些用(yòng)途。你可(kě)以阻止某些類型的(de)微調。如果某件事情不起作用(yòng),你可(kě)以收回它。在當前模型的(de)規模下(xià),我不太擔心這(zhè)個(gè)問題。但是随著(zhe)模型變得(de)像我們期望的(de)那樣強大(dà),如果我們對(duì)此是正确的(de),我認爲開源一切可(kě)能不是最佳路徑,盡管有時(shí)候它是正确的(de)。我認爲我們隻需要仔細地平衡一下(xià)。
張宏江:關于GPT-4和(hé)AI安全方面的(de)後續問題是,我們是否需要改變整個(gè)基礎設施或整個(gè)AGI模型的(de)架構,以使其更安全、更容易被檢查?你對(duì)此有什(shén)麽想法?
Sam Altman:這(zhè)肯定有可(kě)能,我們需要一些非常不同的(de)架構,無論是從能力還(hái)是從安全性方面來(lái)看。我認爲我們将能夠在可(kě)解釋性方面取得(de)一些進展,在當前類型的(de)模型上,并讓它們更好地向我們解釋它們在做(zuò)什(shén)麽以及爲什(shén)麽。但是,如果在變換器之後還(hái)有另一個(gè)巨大(dà)的(de)飛(fēi)躍,那也(yě)不會讓我感到驚訝。而且實際上我們已經在原始的(de)變換器之後,架構已經發生了(le)很大(dà)的(de)變化(huà)。
張宏江:作爲一個(gè)研究人(rén)員(yuán),我也(yě)很好奇,下(xià)一步的(de)AGI研究方向是什(shén)麽?在大(dà)模型、大(dà)語言模型方面,我們會不會很快(kuài)看到GPT-5?下(xià)一個(gè)前沿是不是在具身模型上?自主機器人(rén)是不是OpenAI正在或者準備探索的(de)領域?
Sam Altman:我也(yě)很好奇下(xià)一步會發生什(shén)麽,我最喜歡做(zuò)這(zhè)項工作的(de)原因之一就是在研究的(de)前沿,有很多(duō)令人(rén)興奮和(hé)驚訝的(de)事情。我們還(hái)沒有答(dá)案,所以我們在探索很多(duō)可(kě)能的(de)新範式。當然,在某個(gè)時(shí)候,我們會嘗試做(zuò)一個(gè)GPT-5模型,但不會是很快(kuài)。我們不知道具體什(shén)麽時(shí)候。我們在OpenAI剛開始的(de)時(shí)候就做(zuò)過機器人(rén)方面的(de)工作,我們對(duì)此非常感興趣,但也(yě)遇到了(le)一些困難。我希望有一天我們能夠回到這(zhè)個(gè)領域。
張宏江:聽(tīng)起來(lái)很棒。你在演講中也(yě)提到了(le)你們是如何用(yòng)GPT-4來(lái)解釋GPT-2的(de)工作原理(lǐ),從而使模型更安全的(de)例子。這(zhè)種方法是可(kě)擴展的(de)嗎?這(zhè)種方向是不是OpenAI未來(lái)會繼續推進的(de)?
Sam Altman:我們會繼續推進這(zhè)個(gè)方向。
張宏江:那你認爲這(zhè)種方法可(kě)以應用(yòng)到生物(wù)神經元上嗎?因爲我問這(zhè)個(gè)問題的(de)原因是,有一些生物(wù)學家和(hé)神經科學家,他(tā)們想借鑒這(zhè)個(gè)方法,在他(tā)們的(de)領域裏研究和(hé)探索人(rén)類神經元是如何工作的(de)。
Sam Altman:在人(rén)工神經元上觀察發生了(le)什(shén)麽比在生物(wù)神經元上容易得(de)多(duō)。所以我認爲這(zhè)種方法對(duì)于人(rén)工神經網絡是有效的(de)。我認爲使用(yòng)更強大(dà)的(de)模型來(lái)幫助我們理(lǐ)解其他(tā)模型的(de)方法是可(kě)行的(de)。但我不太确定你怎麽把這(zhè)個(gè)方法應用(yòng)到人(rén)類大(dà)腦(nǎo)上。
張宏江:好的(de),謝謝你。既然我們談到了(le)AI安全和(hé)AGI控制,那麽我們一直在討(tǎo)論的(de)一個(gè)問題是,如果這(zhè)個(gè)世界上隻有三個(gè)模型,那麽會不會更安全?這(zhè)就像核控制一樣,你不想讓核武器擴散。我們有這(zhè)樣的(de)條約,我們試圖控制能夠獲得(de)這(zhè)項技術的(de)國家數量。那麽控制模型數量是不是一個(gè)可(kě)行的(de)方向?
Sam Altman:我認爲對(duì)于世界上有少數模型還(hái)是多(duō)數模型更安全,有不同的(de)觀點。我認爲更重要的(de)是,我們是否有一個(gè)系統,能夠讓任何一個(gè)強大(dà)的(de)模型都經過充分(fēn)的(de)安全測試?我們是否有一個(gè)框架,能夠讓任何一個(gè)創造出足夠強大(dà)的(de)模型的(de)人(rén),既有資源,也(yě)有責任,來(lái)确保他(tā)們創造出的(de)東西是安全和(hé)對(duì)齊的(de)?
張宏江:昨天在這(zhè)個(gè)會議(yì)上,MIT未來(lái)生命研究所的(de)Max教授提到了(le)一種可(kě)能的(de)方法,就是類似于我們控制藥物(wù)開發的(de)方式。科學家或者公司開發出新藥,你不能直接上市。你必須經過這(zhè)樣的(de)測試過程。這(zhè)是不是我們可(kě)以借鑒的(de)?
Sam Altman:我絕對(duì)認爲,我們可(kě)以從不同行業發展出來(lái)的(de)許可(kě)和(hé)測試框架中借鑒很多(duō)東西。但我認爲從根本上說,我們已經有了(le)一些可(kě)以奏效的(de)方法。
張宏江:非常感謝你,Sam。謝謝你抽時(shí)間來(lái)參加這(zhè)次會議(yì),雖然是虛拟的(de)。我相信還(hái)有很多(duō)問題,但考慮到時(shí)間,我們不得(de)不到此爲止。希望下(xià)次你有機會來(lái)中國,來(lái)北(běi)京,我們可(kě)以有更深入的(de)討(tǎo)論。非常感謝你。