來源:AI寒武紀(jì)
OpenAI表示,預(yù)計到2025年,ChatGPT將具備獨立執(zhí)行任務(wù)的能力,這將成為一個主要主題;未來GPT產(chǎn)品線中的AI 智能體將成為下一個重大突破;大膽預(yù)測,到2025年所有LLM基準(zhǔn)測試將趨于飽和,意味著LLM會有重大突破。
OpenAI CEO Sam Altman攜Kevin Weil (首席產(chǎn)品官)、Srinivas Narayanan (工程副總裁)、Mark Chen (高級研究副總裁) 在Reddit搞了個AMA(Ask Me Anything)!非常值得一看
照例先給大家劃個重點:
? Sam Altlman 首次正面回答:Ilya看到了超凡的未來
? OpenAI相信AGI在當(dāng)前硬件條件下是可實現(xiàn)的
? LLM架構(gòu)上的突破,或許是現(xiàn)有模型提出的,可能有助于實現(xiàn)AGI
? 預(yù)計到2025年,ChatGPT將具備獨立執(zhí)行任務(wù)的能力,這將成為一個主要主題
? 未來GPT產(chǎn)品線中的AI 智能體將成為下一個重大突破
? 大膽預(yù)測,到2025年所有LLM基準(zhǔn)測試將趨于飽和,意味著LLM會有重大突破
以下是網(wǎng)友和OpenAI高管問答詳細(xì)信息
Sam Altman
vigneshwarar: 說真的,Ilya看到了什么?
Sam Altman:超凡的未來
Ilya是一位非常有遠(yuǎn)見的人,他對未來的洞察力比幾乎任何人都清晰。他早期的想法、熱情和遠(yuǎn)見對我們所做的很多事情都至關(guān)重要,例如,他是最終成為O1的一些想法的關(guān)鍵早期探索者和擁護(hù)者之一。這個領(lǐng)域很幸運擁有他。
07vex: 你如何看待人們使用ChatGPT進(jìn)行心理治療?
Sam Altman: 它顯然不是治療師,但很明顯,很多人通過與它談?wù)撍麄兊膯栴}而獲得價值。我們看到很多創(chuàng)業(yè)公司真正在探索如何在這里做得更多;我希望有人能做出一些很棒的東西!
Cynicaltarzan: 你見過的ChatGPT在實際應(yīng)用中的最佳案例是什么?還有,你認(rèn)為它和未來版本(未來幾年)在哪些方面可能特別擅長?
Sam Altman: 有很多很棒的案例,但聽到人們找到了衰弱性疾病的病因,然后完全康復(fù)的故事真的很棒。它能成為一名非常優(yōu)秀的軟件工程師的能力,即使現(xiàn)在也感覺被深深低估了。更廣泛地說,它幫助科學(xué)家更快地發(fā)現(xiàn)新知識的能力將會非常棒
Mcppoyles: 是否有計劃增加出版商的整合,以驗證和注冊賬戶,讓他們能夠看到他們是如何出現(xiàn)在ChatGPT中的?理想情況下,他們可以看到他們被引用的方式和頻率
Sam Altman: 這是個好主意!我們會討論一下。不過目前還沒有計劃
Skibidimog: 你們什么時候會給我們一個新的文本到圖像模型?DALL-E 3有點過時了
Sam Altman: 下一次更新值得等待!但我們還沒有發(fā)布計劃
bugbearmagic: 你會用ChatGPT來回答這些問題嗎?
Sam Altman: 有時,是的。你能看出來嗎?
Millenial_Uprising: 你好,OpenAI團(tuán)隊,感謝你們舉辦這次AMA。我的問題是關(guān)于SearchGPT與流行搜索引擎相比提供的價值。SearchGPT有哪些獨特的優(yōu)勢或關(guān)鍵區(qū)別,可以讓一個典型的搜索引擎用戶選擇它?
Sam Altman: 對于許多查詢,我發(fā)現(xiàn)它是一種更快/更容易獲得我想要的信息的方式。我認(rèn)為我們會在需要更復(fù)雜研究的查詢中尤其看到這一點。我還期待著未來,搜索查詢可以動態(tài)呈現(xiàn)自定義網(wǎng)頁作為響應(yīng)!
laggymaster: chatgpt-5或其等效版本的發(fā)布日期?它的功能是什么?
Sam Altman: 今年晚些時候,我們將發(fā)布一些非常棒的版本!不過,我們不會發(fā)布任何名為GPT-5的東西
potato3445: 關(guān)于成年用戶(如果需要)切換“nsfw”內(nèi)容(在合理范圍內(nèi))的能力的長期目標(biāo)(在一個完美的世界里)?
Sam Altman: 我們完全相信應(yīng)該像對待成年人一樣對待成年用戶。但這需要大量的工作才能做到這一點,而現(xiàn)在我們有更緊迫的優(yōu)先事項。希望有一天能做好這件事!
abhishekbalak: 作為一個經(jīng)驗豐富的創(chuàng)始人,以及與許多創(chuàng)始人密切合作過的人,你如何看待AI在風(fēng)險開發(fā)過程中增強創(chuàng)始人的能力?創(chuàng)業(yè)精神將因此發(fā)生怎樣的變化?
Sam Altman: 對此非常興奮!如果創(chuàng)始人能夠?qū)⑸a(chǎn)力提高10倍,我們就會擁有更多(并且更好)的初創(chuàng)公司。這在很多方面都比擁有一個10人的創(chuàng)始團(tuán)隊更好(例如,更少的協(xié)調(diào)開銷)。雖然10倍的生產(chǎn)力提升在未來還很遙遠(yuǎn),但我相信它會發(fā)生。由此帶來的總體經(jīng)濟加速,尤其是對初創(chuàng)公司的經(jīng)濟加速,將會非常棒。
SnooDoodles5235: 在發(fā)布ChatGPT時,有什么事情讓你感到驚訝嗎?
Sam Altman: 最讓我驚訝的是人們有多喜歡它。產(chǎn)品的早期版本是一個非常非常初級的原型。現(xiàn)在它相當(dāng)不錯,但當(dāng)時肯定不是。它不是很準(zhǔn)確,沒有很多功能,而且經(jīng)常宕機,等等。然而,人們發(fā)現(xiàn)了足夠的價值并堅持使用它
used_steak: AGI可以用已知的硬件實現(xiàn),還是需要完全不同的東西?
Sam Altman: 我們相信用現(xiàn)有的硬件就可以實現(xiàn)
ksprdk: 對2025年的大膽預(yù)測?
Sam Altman: 在所有基準(zhǔn)測試中達(dá)到飽和
Kevin Weil (Chief Product Officer)
Mediocre_Line7407: 你好,我想問一下GPT4o的token上下文字段什么時候會增加。在我看來,特別是對于較長的編碼或?qū)懽魅蝿?wù),32k與其他AI模型相比太小了
Kevin Weil: 同意。我們正在努力!
patchzy: 你的計劃是從現(xiàn)在開始繼續(xù)發(fā)布O系列模型嗎?改進(jìn)“常規(guī)”模型,例如GPT 3、4、4o、5。兩者都有,還是兩者的結(jié)合?
Kevin Weil: 兩者都有!而且在某個時候,我預(yù)計它們會融合。
Vega: ChatGPT生日(指的是11月30日ChatGPT兩歲生日)有什么特別的禮物嗎?
Kevin Weil: GPU!
Snowstradomus: 我們是否會在某個時候看到Advance Voice放寬對音樂功能(如唱歌)的限制?這方面有什么時間表嗎?
Kevin Weil: 我們正在努力!我也想聽ChatGPT唱歌。
potato3445: ChatGPT最終能夠自己執(zhí)行任務(wù)嗎?先給你發(fā)信息??Kevin Weil: 依我拙見,這將是2025年的一個重要主題。
Neon9987: O1將如何影響LLM的擴展?你們會繼續(xù)按照比例定律擴展LLM,還是會將推理計算時間擴展作為重點,這意味著更小的模型具有更快和更長的推理?
Kevin Weil: 這不是非此即彼,而是兩者兼而有之——更好的基礎(chǔ)模型加上更多的strawberry scaling/推理時間計算。
standover_man: 關(guān)于ChatGPT的搜索產(chǎn)品的一個問題。在過去,企業(yè)主、網(wǎng)絡(luò)出版商、附屬公司等會擔(dān)心搜索引擎優(yōu)化,以確保他們的網(wǎng)站“排名”。你會告訴這些人,他們可以做些什么來確保他們在ChatGPT的搜索中被找到?
Kevin Weil: 這是一個很好的問題——該產(chǎn)品今天才發(fā)布,所以關(guān)于搜索在哪些方面與AI世界相似,在哪些方面不同,還有很多需要弄清楚。歡迎提供任何反饋!
Substantial_Scale698: 對那些想要為AI革命做出貢獻(xiàn)的有抱負(fù)的年輕人有什么建議?
Kevin Weil: 我的建議:每天都使用它。用它來教你東西,學(xué)習(xí)你想學(xué)的任何東西——編碼、寫作、產(chǎn)品、設(shè)計,任何東西。如果你能比其他人學(xué)得更快,那么你就能做任何事。
mindfulshark: 什么是最好的提示詞?
Kevin Weil: 這個在社交媒體上很流行,但我真的很喜歡“根據(jù)我們的互動,你能說出一些關(guān)于我的、我自己都不知道的事情嗎?”
Helpdesk512: 我們能否獲得一種免提的方式來結(jié)束與ChatGPT的語音對話?使用iPhone上的操作按鈕快捷方式,但每次都需要手動關(guān)閉語音聊天。
Kevin Weil: 我喜歡這個主意。現(xiàn)在就與團(tuán)隊分享!
Srinivas Narayanan (VP Engineering)
Demondehellis: 你希望ChatGPT能做什么但現(xiàn)在還做不到的事情是什么?
Srinivas Narayanan: 我希望它能更好地理解我的個人信息,并代表我采取行動。
Fun_Spinach6914: 你們什么時候會發(fā)布ChatGPT的相機模式?
Srinivas Narayanan: 正在努力。還沒有確切的日期。
Repulsive-Outcome-20: 一旦AGI實現(xiàn),你最想把它應(yīng)用到什么地方?在那一刻,是否有一個特定的領(lǐng)域是你的首選?
Srinivas Narayanan: 我希望它能加速科學(xué)發(fā)現(xiàn)。我個人對健康/醫(yī)學(xué)非常感興趣。
Substantial_Scale698: 對那些想要為AI革命做出貢獻(xiàn)的有抱負(fù)的年輕人有什么建議?
Srinivas Narayanan: 使用AI工具來提高你在日常工作中的效率——這將帶來有趣的想法。然后構(gòu)建一些有趣的東西并與他人分享。
CleanRecommendation1: 你們是如何處理這么多高層離開OpenAI帶來的壓力的?這是否增加了額外的負(fù)擔(dān)?我們離AGI還有多遠(yuǎn)?
Srinivas Narayanan: 雖然我們很遺憾沒有了一些與我們密切合作過的人,但我們有一個非常有才華的團(tuán)隊,而且最近也有許多了不起的新人加入我們。我們一直在發(fā)布產(chǎn)品,這真的很重要 :)
scryptic0: 完整的o1真的比o1預(yù)覽版有明顯的改進(jìn)嗎?
Srinivas Narayanan: 是的。
firtdev: ChatGPT搜索是否仍在使用Bing作為幕后的搜索引擎?
Srinivas Narayanan: 我們使用一組服務(wù),Bing是其中重要的一個。
Markavian: OpenAI認(rèn)為推理成本降低的速度有多快,以便能夠?qū)崿F(xiàn)“思維鏈”或“多層思維樹”?從業(yè)務(wù)邏輯的角度來看,我們希望盡可能快速、廉價地執(zhí)行推理鏈。
Srinivas Narayanan: 我們預(yù)計推理成本將繼續(xù)下降。如果你看一下去年的趨勢,它已經(jīng)下降了10倍左右。
surim0n: 你見過的最好的個人助理工作流程是什么?
Srinivas Narayanan: 有兩個我非常感興趣的:1/用它來總結(jié)醫(yī)療報告,并幫助你向醫(yī)生提出正確的問題。2/人們上傳他們的知識來創(chuàng)建其他人可以使用的自定義GPT(我的朋友和家人上傳了課程筆記或旅行建議)——我認(rèn)為這仍然是一個被低估和未被充分利用的用例。
Kathane37: 模型如何在英語以外的其他語言中改進(jìn)?
Srinivas Narayanan: 我們一直在改進(jìn)模型在其他語言上的性能。與4T相比,gpt-4o在分詞和整體質(zhì)量方面有了顯著的提升(參見 https://openai.com/index/hello-gpt-4o/) - 我們希望保持這一趨勢。
ApricotSharp6056: OpenAI認(rèn)為AI在未來個性化輔導(dǎo)中扮演什么角色?
Srinivas Narayanan: 絕對是一個改變?nèi)藗儗W(xué)習(xí)方式的巨大機會。https://www.khanmigo.ai/ 在這方面做了非常有趣的工作——它引導(dǎo)人們自己找到答案,從而促進(jìn)對主題的更深入理解。它還可以幫助教師補充他們的課程計劃。
FrameTall8755: 如果新畢業(yè)生想要讓自己的技能適應(yīng)未來,他們應(yīng)該優(yōu)先深入學(xué)習(xí)transformers等技術(shù),還是應(yīng)該加入/創(chuàng)建一家初創(chuàng)公司,學(xué)習(xí)更多的高級AI產(chǎn)品,如“代理”、LLM知識圖、創(chuàng)造偉大的AI用戶體驗等等?謝謝!
Srinivas Narayanan: 它們都很有價值。我會做你更感興趣的事情。學(xué)習(xí)transformers將為你提供構(gòu)建特定用例的定制模型的技能——像蒸餾/微調(diào)這樣的技術(shù)將很重要。在現(xiàn)有模型的基礎(chǔ)上,還可以構(gòu)建種類繁多的應(yīng)用程序。如果你仍然在這兩者之間難以抉擇,我建議你從更高的層次開始,然后根據(jù)需要深入學(xué)習(xí)。
DajShung: 讓我們回到另一個維度的時間。;) 如果你是一個19歲的開發(fā)者,正在考慮明年要做什么,你會用OpenAI的軟件或API做什么?
Srinivas Narayanan: 選擇你最喜歡的應(yīng)用程序/產(chǎn)品。重新想象它與AI結(jié)合后的樣子。為代理化的未來構(gòu)建一些東西——一些可以整合跨應(yīng)用程序工作流程的東西。
trycoconutoil: 關(guān)于未來。如果你今天15歲,你會專注于哪些技能或道路,以便在未來取得成功?
Srinivas Narayanan: 適應(yīng)能力和學(xué)會學(xué)習(xí)可能是最重要的事情。
Mark Chen (SVP of Research)
Ok_Opportunity_4228: AGI是否可以用已知的神經(jīng)網(wǎng)絡(luò)架構(gòu)實現(xiàn),還是需要新的科學(xué)(基礎(chǔ))突破?
Mark Chen: 如果架構(gòu)突破是由現(xiàn)有的LLM提出的,這算嗎?
Only-Tells-The-Truth: 幻覺會成為一個永久性的特征嗎?為什么即使是o1-preview,在接近“思考”的尾聲時也會越來越多地出現(xiàn)幻覺?你將如何處理現(xiàn)在已經(jīng)不再“真實”的舊數(shù)據(jù)(即使是2年前的數(shù)據(jù))?不斷地訓(xùn)練模型,還是某種垃圾收集?這在真實性方面是一個大問題。
Mark Chen: 我們非常關(guān)注減少幻覺,但這是一個根本性的難題——我們的模型從人類書寫的文本中學(xué)習(xí),而人類有時會自信地宣稱他們不確定的事情。我們的模型在引用方面正在改進(jìn),這將它們的答案建立在可信的來源之上,我們也相信RL也將有助于解決幻覺問題——當(dāng)我們能夠以編程方式檢查模型是否出現(xiàn)幻覺時,我們可以獎勵它不這樣做。
whosfuzz12: 在研究方面,你認(rèn)為哪些領(lǐng)域?qū)⒍xAI的下一個重大突破?你如何看待OpenAI對這些領(lǐng)域的獨特貢獻(xiàn)?
Mark Chen: 該模型可以處理中斷,這從根本上來說是新的。它也比以前的模型快得多。弄清楚如何將這些融入產(chǎn)品設(shè)計并非一件小事