侵權(quán)投訴

當(dāng)前位置: 首頁 > 技術(shù)應(yīng)用

延遲優(yōu)先:英偉達發(fā)布 Nemotron-Flash,小模型也要“算得更快”

小型語言模型(SLM)的設(shè)計工作主要集中于減少參數(shù)數(shù)量以實現(xiàn)參數(shù)最優(yōu)的 SLM,但參數(shù)效率并不一定能轉(zhuǎn)化為實際設(shè)備上的相應(yīng)加速。 英偉達近日發(fā)表的論文解決了這一難題。該論文旨在識別 SLM 實際設(shè)備延

人工智能 | 2025-12-04 18:02 評論

DeepSeek 一口氣上新兩款模型:性能直逼 Gemini-3.0-Pro

剛剛,DeepSeek 一口氣推出兩個新模型:DeepSeek-V3.2 和 DeepSeek-V3.2-Speciale。 前者專注平衡推理能力與模型長度,可達到GPT-5 級別的性能,適用于日常問

人工智能 | 2025-12-04 17:55 評論

技術(shù)解析|你的想法,智能假肢為什么能“聽懂”?

智能假肢如何通過傳感器和AI,讓殘疾人實現(xiàn)“隨心而動”?這篇技術(shù)解析將告訴你答案

醫(yī)療科技 | 2025-12-04 10:03 評論

DeepSeek 開源全新數(shù)學(xué)模型 DeepSeekMath-V2,主打自驗證框架

剛剛,DeepSeek 開源了全新的數(shù)學(xué)模型 DeepSeekMath-V2,專注可自驗證的數(shù)學(xué)推理框架。 DeepSeek-Math-V2 在 IMO-ProofBench 和 IMO 2025(6

人工智能 | 2025-12-01 17:40 評論

月之暗面強化學(xué)習(xí)訓(xùn)練系統(tǒng) Seer:吞吐量提升 30%

近日,月之暗面和清華大學(xué)聯(lián)合發(fā)表了一篇論文,詳細介紹了一個強化學(xué)習(xí)訓(xùn)練系統(tǒng) Seer——在不改變核心訓(xùn)練算法的前提下,大幅度提升大模型的強化學(xué)習(xí)訓(xùn)練速度。 在生產(chǎn)級 RL 工作負載上的評估表明,See

人工智能 | 2025-12-01 17:31 評論

Rock & Roll:阿里打造智能體“實戰(zhàn)訓(xùn)練場”

阿里最新開源的項目 ROCK,瞄準(zhǔn)了智能體訓(xùn)練中最棘手的問題——缺乏可擴展、可標(biāo)準(zhǔn)化的真實交互環(huán)境。 過去,開發(fā)者在訓(xùn)練復(fù)雜任務(wù)時常常需要手工搭建環(huán)境:配置依賴、調(diào)試狀態(tài)、處理兼容性等,一系列工程工作

人工智能 | 2025-12-01 17:29 評論

90 后華人副教授攻破 30 年數(shù)學(xué)猜想,生成式 AI 受益

塔拉格蘭卷積猜想,困擾數(shù)學(xué)界 30 多年的問題,在近日被一名 90 后的華人副教授攻破。 1989 年,法國數(shù)學(xué)家 Michel Talagrand 提出了一個關(guān)于卷積應(yīng)用于布爾超立方體上的 L 函數(shù)

人工智能 | 2025-12-01 17:26 評論

Anthropic 推出 Claude Opus 4.5:編碼能力排名第一

今日,Claude Opus 4.5 正式發(fā)布。 它在編碼、智能 Agent 和計算機應(yīng)用方面表現(xiàn)優(yōu)秀;在深度研究、處理幻燈片和電子表格等日常任務(wù)方面也取得了不錯的成績。 目前,Claude Opus

人工智能 | 2025-12-01 17:21 評論

Claude 新增三項測試版功能:發(fā)現(xiàn)、學(xué)習(xí)并執(zhí)行工具

AI Agent 在未來能夠使模型與成百上千種工具協(xié)同工作。例如,集成 Git 操作、文件處理、包管理器、測試框架和部署管道的 IDE 助手;以及能夠同時連接 Slack、GitHub、Google

人工智能 | 2025-12-01 17:20 評論

Gemini 3 Pro 上線后,Nano Banana Pro 又來了!

幾個月前,Google 發(fā)布了 Nano Banana ,一款基于 Gemini 2.5 閃存圖像處理軟件的產(chǎn)品。 還未等大家反應(yīng)過來,Google 又迅速推出 Nano Banana Pro(Gem

人工智能 | 2025-12-01 17:15 評論

OpenAI最新智能編碼模型GPT-5.1-Codex-Max:可24小時連續(xù)處理百萬 Tokens

昨日,OpenAI 推出全新的前沿智能編碼模型?GPT-5.1-Codex-Max。 GPT-5.1-Codex-Max 基于 GPT 基礎(chǔ)推理模型的升級版構(gòu)建而成,該模型已在軟件工程、數(shù)學(xué)、研究等領(lǐng)

人工智能 | 2025-12-01 17:09 評論

Meta“分割一切”的SAM 3D 來了!

就在剛剛,Meta MSL 實驗室發(fā)布三維重建模型 SAM 3D。 “分割一切”現(xiàn)在可以直接生成 3D 模型了。 前不久,Meta 發(fā)表 SAM 3 論文,能夠檢測、分割和跟蹤圖像和視頻中的對象,還支

人工智能 | 2025-12-01 17:07 評論

Gemini 3 來勢洶洶,學(xué)習(xí)建構(gòu)規(guī)劃一應(yīng)俱全

今天,谷歌開發(fā)者關(guān)系負責(zé)人、Google AI Studio 負責(zé)人在社交媒體上發(fā)布了一條僅含“Gemini”一詞的推文,引爆話題。 就在昨日,馬斯克剛剛宣布 Grok 4.1 的發(fā)布。Gemini

人工智能 | 2025-12-01 17:03 評論

何愷明新作:Just Image Transformer讓去噪模型回歸基本

當(dāng)今的去噪擴散模型并非傳統(tǒng)意義上的“去噪”。 它們并不直接預(yù)測干凈的圖像。相反,神經(jīng)網(wǎng)絡(luò)預(yù)測的是噪聲或帶噪聲的量。 ResNet 之父、麻省理工副教授何愷明新論文發(fā)現(xiàn)了這一問題。 預(yù)測干凈數(shù)據(jù)和預(yù)測帶

人工智能 | 2025-12-01 17:01 評論

Grok 4.1 發(fā)布!霸榜各大榜單

剛剛,馬斯克在社交平臺上發(fā)布了 Grok 4.1 新鮮出爐的消息!澳銜吹剿俣群唾|(zhì)量上的提升。” 官方表示,Grok 4.1 在創(chuàng)意、情感和協(xié)作互動方面表現(xiàn)出色。能夠更敏銳地感知細微的意圖,更易于溝

人工智能 | 2025-12-01 16:54 評論

π*0.6:一款能從經(jīng)驗中學(xué)習(xí)的VLA模型

今日,美國具身智能創(chuàng)業(yè)公司 Physical Intelligence(簡稱 PI )發(fā)布了最新機器人基礎(chǔ)模型?π*0.6。 官方稱,過去一年,機器人成功完成一半任務(wù)并不難,但要讓它每次都成功卻非常困

人工智能 | 2025-12-01 16:52 評論

監(jiān)督稀疏解決了!DriveVLA-W0用世界模型放大自動駕駛Data Scaling Law

近日,特斯拉在 ICCV 的會議中就分享了其當(dāng)下面臨的挑戰(zhàn) ——監(jiān)督稀疏。 監(jiān)督信號是低維、稀疏的駕駛動作,和 VLA 高維、稠密的視覺信息流不符。即便使用海量數(shù)據(jù)也無法釋放 VLA 模型的巨大潛力。

人工智能 | 2025-12-01 16:50 評論

「21%」審稿竟出自 AI?看 ICLR 2026 如何回應(yīng)

今年的 International Conference on Learning Representations(ICLR)2026 審稿階段掀起波瀾。一份流出的數(shù)據(jù)分析顯示,大約?21%?的審稿意見

人工智能 | 2025-12-01 16:49 評論

補完JEPA理論,這可能是LeCun在Meta的最后一篇論文

聯(lián)合嵌入預(yù)測架構(gòu)(JEPA)由于缺乏實踐指導(dǎo)和理論,研發(fā)工作大多是臨時性的。 Facebook 首席人工智能科學(xué)家、圖靈獎得主 LeCun 提出了一套全面的 JEPA 理論——一個精簡、可擴展且理論基

人工智能 | 2025-12-01 16:44 評論

數(shù)智向“芯”,聚勢共贏!格創(chuàng)東智攜AI+CIM+AMHS全景方案亮相2025求是緣半導(dǎo)體產(chǎn)業(yè)峰會

11月15日至16日,2025求是緣半導(dǎo)體產(chǎn)業(yè)峰會暨求是緣半導(dǎo)體聯(lián)盟十周年慶典在上海市漕河涇會議中心隆重舉行。戰(zhàn)略深耕半導(dǎo)體領(lǐng)域的智能制造工業(yè)軟件與工業(yè)AI解決方案領(lǐng)軍企業(yè)格創(chuàng)東智受邀參會,系統(tǒng)展示了

電子工程 | 2025-11-24 18:02 評論
上一頁   1  2 3 4 5 6 7 ... 737   下一頁

粵公網(wǎng)安備 44030502002758號