国产在线高清无码|欧美日韩国sss|久久51.com|超碰在线公开97|曰夲AV一区二区|成人免费AV网站|成人97在线观看

每日經(jīng)濟(jì)新聞
要聞

每經(jīng)網(wǎng)首頁 > 要聞 > 正文

8月AI圈“大混戰(zhàn)”!谷歌、Anthropic、OpenAI同日“亮劍”,暗藏三種打法

2025-08-06 17:53:24

當(dāng)?shù)貢r(shí)間8月5日,谷歌、Anthropic和OpenAI三大AI巨頭相繼發(fā)布新模型。從戰(zhàn)略上看,三家巨頭“打法”各異:谷歌推出Genie 3世界模型,為通用人工智能(AGI)鋪路;Anthropic深耕編程這一高價(jià)值賽道;OpenAI則重返開源,意在構(gòu)建開發(fā)者生態(tài)。AI行業(yè)的競(jìng)爭(zhēng)或由此進(jìn)入新階段。

每經(jīng)記者|宋欣悅    每經(jīng)編輯|蘭素英    

圖片來源:視覺中國(guó)-VCG211550173673

當(dāng)?shù)貢r(shí)間8月5日,谷歌、Anthropic和OpenAI相繼推出“王炸”新模型,上演了一場(chǎng)“三國(guó)殺”。

在這次激烈的交鋒中,三巨頭展示了截然不同的戰(zhàn)略布局:

谷歌押注未來,發(fā)布了第三代通用型世界模型Genie 3,為通用人工智能(AGI)的實(shí)現(xiàn)鋪設(shè)關(guān)鍵基石;

Anthropic繼續(xù)深耕編程這一高價(jià)值賽道,發(fā)布編程能力更強(qiáng)的Claude Opus 4.1模型;

OpenAI則以開源作為“生態(tài)誘餌”,發(fā)布了免費(fèi)、可商用的gpt-oss系列模型,意在構(gòu)建龐大的開發(fā)者生態(tài)。

這場(chǎng)密集“出招”揭開了差異化競(jìng)爭(zhēng)的底牌。而8月的AI戰(zhàn)場(chǎng)或?qū)⒊掷m(xù) “高能”。Anthropic 5日預(yù)告稱,將在未來幾周內(nèi)發(fā)布“重大改進(jìn)”。OpenAI此前也宣布,“重要的一周即將到來”,外界猜測(cè)GPT-5或?qū)⒌菆?chǎng)。 

谷歌DeepMind:押注世界模型,瞄準(zhǔn)AGI終極戰(zhàn)場(chǎng)

8月5日晚,谷歌以第三代通用型世界模型Genie 3的發(fā)布拉開了這場(chǎng)“暗戰(zhàn)”的序幕。

Genie 3是一款顛覆性的通用型世界模型,能夠生成前所未有的多樣化交互式環(huán)境。

圖片來源:谷歌DeepMind官網(wǎng)

用戶只需輸入文本、圖片甚至草圖,Genie 3就能創(chuàng)造出一個(gè)風(fēng)格一致、符合物理邏輯的3D環(huán)境,并允許用戶實(shí)時(shí)在其中行動(dòng)和互動(dòng)。比如,Genie 3能理解“向左走”或“跳起來”等自然語言指令,并即時(shí)渲染出對(duì)應(yīng)的第一人稱視角畫面。

與此前的視頻生成模型(如谷歌自家的Veo)和前代模型相比,Genie 3主要進(jìn)行了以下升級(jí):

一是實(shí)現(xiàn)高清實(shí)時(shí)生成。它能以720p分辨率、24幀/秒的速度在消費(fèi)級(jí)顯卡上流暢運(yùn)行,畫面流暢度媲美傳統(tǒng)游戲引擎。

https://smcos.cdmgiml.com/tx/others/upload/ai_tool/doc_to_html/200/1811/2025-08/2025-08-06/e0fd54d9b356b6aab4f397e114e672f3.png

圖片來源:谷歌DeepMind官網(wǎng)

二是具備視覺記憶與一致性。Genie 3為場(chǎng)景要素建立了持久的隱變量,解決了早期版本“轉(zhuǎn)身即刷新”的沉浸感斷裂問題。模型可以在生成每一幀的同時(shí),回溯并利用最長(zhǎng)可達(dá)1分鐘的歷史信息,確保環(huán)境的連貫性。

三是加入可提示的世界事件(Promptable World Events)。除了導(dǎo)航指令外,Genie 3還支持用戶追加提示來實(shí)時(shí)改變場(chǎng)景,例如“下雨”“加入兩只狗”,模型會(huì)即時(shí)重算物理與光照,讓世界狀態(tài)隨劇情動(dòng)態(tài)演進(jìn)。

需要強(qiáng)調(diào)的是,Genie 3的核心優(yōu)勢(shì)是通用性,游戲應(yīng)用只是其中一個(gè)場(chǎng)景。Genie 3通過生成可交互的虛擬世界,為游戲開發(fā)、模擬器、機(jī)器人訓(xùn)練乃至元宇宙的實(shí)現(xiàn)路徑提供了極具震撼力的雛形。

英偉達(dá)的研究科學(xué)家Jim Fan直接將其稱為“一次量子躍遷”。這表明谷歌正扮演著“下一個(gè)Transformer時(shí)刻”的締造者角色,為走向AGI提供關(guān)鍵拼圖。

Anthropic:錨定編程場(chǎng)景,深挖商業(yè)護(hù)城河

在谷歌“出招”大約2個(gè)半小時(shí)后,Anthropic宣布推出新模型Claude Opus 4.1,直接瞄準(zhǔn)編程這一“變現(xiàn)高地”。據(jù)稱,該模型的編程、研究和數(shù)據(jù)分析能力有顯著提升。

據(jù)Anthropic介紹,在SWE-bench Verified基準(zhǔn)測(cè)試中,Opus 4.1的編碼性能達(dá)到74.5%,相比前一版本Opus 4提升了2個(gè)百分點(diǎn),而相較于Sonnet 3.7的提升更為明顯,后者得分僅為62.3%。

https://smcos.cdmgiml.com/tx/others/upload/ai_tool/doc_to_html/200/1811/2025-08/2025-08-06/d9cec87500cc755e12000e6c12b583c2.png

https://smcos.cdmgiml.com/tx/others/upload/ai_tool/doc_to_html/200/1811/2025-08/2025-08-06/73da45d8313aeb814755253932626377.png

圖片來源:Anthropic官網(wǎng)

在另一項(xiàng)衡量代碼生成、調(diào)試和邏輯推理能力的HumanEval+基準(zhǔn)測(cè)試中,Claude 4.1 Opus的得分達(dá)到85.2%,首次超越了此前由GPT-4o創(chuàng)下的84.9%的紀(jì)錄。

Anthropic援引開源軟件社區(qū)GitHub的數(shù)據(jù)強(qiáng)調(diào),Opus 4.1此次升級(jí)的重點(diǎn)在于多文件代碼重構(gòu)的性能提升。

此外,根據(jù)AI編程公司W(wǎng)indsurf的報(bào)告,Opus 4.1在其初級(jí)開發(fā)人員基準(zhǔn)測(cè)試中比Opus 4提高了一個(gè)標(biāo)準(zhǔn)差,性能提升幅度與從Sonnet 3.7到Sonnet 4的提升大致相當(dāng)

在定價(jià)方面,Opus 4.1與Opus 4保持一致,輸入和輸出價(jià)格分別為15美元/百萬Token和75美元/百萬Token,基本實(shí)現(xiàn)了“加量不加價(jià)”。這有望進(jìn)一步鞏固Anthropic在編程這一高付費(fèi)意愿場(chǎng)景的競(jìng)爭(zhēng)力。

OpenAI:六年后重返開源,搶占開發(fā)者生態(tài)

當(dāng)天壓軸登場(chǎng)的OpenAI則選擇以“開源”破局。該公司推出了兩款開放權(quán)重模型:gpt-oss-120b和gpt-oss-20b,標(biāo)志著其時(shí)隔六年重返開源賽道。

這一步棋,OpenAI可謂精明。在閉源模型引領(lǐng)消費(fèi)者市場(chǎng)后,OpenAI選擇用開源來構(gòu)建更龐大的生態(tài)系統(tǒng),通過降低門檻,它希望讓gpt-oss成為未來無數(shù)AI應(yīng)用的基礎(chǔ)設(shè)施,從而在下一階段的競(jìng)爭(zhēng)中掌握主動(dòng)權(quán)。

最新發(fā)布的兩款開源大模型定位清晰:

  • gpt-oss-120b擁有1170億參數(shù),每token激活51億參數(shù),是一款為高推理能力、生產(chǎn)級(jí)通用場(chǎng)景打造的模型,可以在單張英偉達(dá)H100 GPU上高效運(yùn)行;

  • gpt-oss-20b更具“普惠性”,總參數(shù)為210億,每token激活36億參數(shù),專為低延遲、本地化或?qū)I(yè)場(chǎng)景設(shè)計(jì),僅需16GB內(nèi)存即可在消費(fèi)級(jí)筆記本電腦或手機(jī)等邊緣設(shè)備上部署。

根據(jù)OpenAI發(fā)布的技術(shù)報(bào)告,這兩款大模型均為純文本語言模型,在文本處理、代碼生成、數(shù)學(xué)問題求解等領(lǐng)域表現(xiàn)出色。尤為值得關(guān)注的是,gpt-oss-120b在多項(xiàng)基準(zhǔn)測(cè)試中的表現(xiàn),媲美甚至超越了專有模型o4-mini。較小的gpt-oss-20b則與o3-mini性能相當(dāng),在AIME和HealthBench等測(cè)試中表現(xiàn)更佳。

https://smcos.cdmgiml.com/tx/others/upload/ai_tool/doc_to_html/200/1811/2025-08/2025-08-06/2b7d21db22808dd96fd350c820d1bbbb.jpeg

https://smcos.cdmgiml.com/tx/others/upload/ai_tool/doc_to_html/200/1811/2025-08/2025-08-06/87c79e0b044becf0e54e77e15dd5437c.jpeg

https://smcos.cdmgiml.com/tx/others/upload/ai_tool/doc_to_html/200/1811/2025-08/2025-08-06/157580c94e691d8884a8a75d47d0ba33.jpeg

https://smcos.cdmgiml.com/tx/others/upload/ai_tool/doc_to_html/200/1811/2025-08/2025-08-06/e0cf2aeb9c245beb4d92673ab93a793b.jpeg

圖片來源:OpenAI技術(shù)報(bào)告

在技術(shù)架構(gòu)上,gpt-oss模型采用了混合專家(MoE)架構(gòu),通過交替使用密集注意力和局部帶狀稀疏注意力機(jī)制,實(shí)現(xiàn)了高效的推理和內(nèi)存利用。模型還支持高達(dá)128000個(gè)token的上下文長(zhǎng)度,相當(dāng)于約300~400頁的小說文本。

同時(shí),模型采用了原生MXFP4量化技術(shù),極大地降低了硬件門檻,使得開發(fā)者可以在更低的配置下運(yùn)行模型。

在許可方面,gpt-oss系列模型采用了對(duì)企業(yè)友好的Apache 2.0許可協(xié)議。這意味著任何消費(fèi)者、開發(fā)者或企業(yè)都可以免費(fèi)下載、進(jìn)行參數(shù)級(jí)微調(diào),并將其用于商業(yè)服務(wù)或創(chuàng)收,而無需向OpenAI支付任何費(fèi)用。

此外,模型支持本地運(yùn)行,無需聯(lián)網(wǎng),可以有效滿足金融、醫(yī)療、法律等對(duì)數(shù)據(jù)隱私有嚴(yán)格要求的行業(yè)需求。

還需要指出的是,OpenAI的開源并不徹底。

gpt-oss使用的是OpenAI自定義的“OpenAI Model License 1.0”,其中包含了“毒丸條款”,禁止年度收入超過1億美元或日活躍用戶超過100萬的商業(yè)實(shí)體,使用gpt-oss來開發(fā)與OpenAI核心產(chǎn)品競(jìng)爭(zhēng)的服務(wù)。這一條款精準(zhǔn)地將所有潛在的大公司競(jìng)爭(zhēng)對(duì)手排除在外,同時(shí)又能讓廣大的中小開發(fā)者和研究者進(jìn)入其生態(tài),是一次重大的戰(zhàn)略轉(zhuǎn)向。

8月AI圈持續(xù)“高能”:Anthropic未來幾周將發(fā)“重大改進(jìn)”

三家AI巨頭在同一天集體發(fā)布新模型,這絕非偶然,意味著AI產(chǎn)業(yè)的競(jìng)爭(zhēng)已進(jìn)入一個(gè)全新的、更復(fù)雜的階段。

從戰(zhàn)略上看,谷歌著眼長(zhǎng)遠(yuǎn),以Genie 3推進(jìn)世界模型研發(fā),押注AGI未來;Anthropic深耕垂直變現(xiàn),錨定編程這一高頻、高付費(fèi)場(chǎng)景,深挖商業(yè)護(hù)城河;OpenAI則以開源為餌,通過降低門檻吸引開發(fā)者,構(gòu)建底層生態(tài)。 

而AI巨頭之間的“混戰(zhàn)”還遠(yuǎn)未落幕。

Anthropic在8月5日新聞稿中預(yù)告,未來幾周內(nèi)將發(fā)布“重大改進(jìn)”。前一日,OpenAI高管也喊話:“重要的一周即將到來”,外界普遍猜測(cè),GPT-5或?qū)⒌菆?chǎng)。

種種跡象顯示,8月的AI圈,注定“好戲連臺(tái)”。

如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

歡迎關(guān)注每日經(jīng)濟(jì)新聞APP

每經(jīng)經(jīng)濟(jì)新聞官方APP

1

0