5月9日
00:34
Hugging Face:Blog(RSS)
精选72
EMO:为涌现模块化预训练的专家混合模型

EMO是一种新型专家混合模型,通过端到端预训练使模块化结构直接从数据中涌现,无需依赖人类定义的先验。该模型允许在特定任务中仅使用12.5%的专家子集(即8个活跃专家中的部分),同时保持接近全模型的性能;当所有128个专家共同使用时,它仍作为强大的通用模型。EMO具有1B活跃参数和14B总参数,训练数据达1万亿令牌。与标准MoE相比,EMO通过文档级路由约束,鼓励专家形成领域专业化组,从而支持选择性使用而不导致严重性能下降,实现了可组合架构,优化了大型稀疏MoE的内存-准确性权衡。

Hugging Face开源生态数据/训练模型发布

推荐理由:EMO 让 MoE 专家从按词法分散进化到按语义域自然模块化,仅用 12.5% 专家就能接近全模型性能,对需要按需加载的大模型部署是真正的突破。
5月8日
19:18
The Decoder:AI News(RSS)
61
OpenAI 向通过审查的安全研究人员开放 GPT-5.5-Cyber

OpenAI 发布了专门用于网络安全的新模型 GPT-5.5-Cyber。该模型显著降低了安全请求的拒绝率,并能主动对测试服务器执行漏洞利用。目前访问权限仅限于经过验证的关键基础设施防御者,包括思科、CrowdStrike 和 Cloudflare 等合作伙伴。GPT-5.5-Cyber 将直接与 Anthropic 的 Mythos Preview 模型展开竞争。

OpenAI安全/对齐模型发布
13:36
Hacker News 热门(buzzing.cc 中文翻译)
57
ZAYA1-8B 在数学计算方面与 DeepSeek-R1 表现相当,且活跃参数少于 10 亿

ZAYA1-8B 是一个新发布的开源人工智能模型,在数学计算任务中性能与 DeepSeek-R1 相当。该模型的活跃参数数量少于10亿,突显了在保持高性能的同时实现更高参数效率的突破。这一进展意味着模型在计算资源和存储需求上更为高效,可能降低部署成本并加速推理过程,为资源受限环境提供实用解决方案。ZAYA1-8B 的开发展示了在AI模型优化领域的重要进步,其开源性质有望推动进一步研究和应用。

DeepSeek推理模型发布编码
10:16
IT之家(RSS)
57
商汤发布日日新 SenseNova 6.7 Flash-Lite 多模态模型,Token Plan 限时免费

商汤科技推出新一代轻量化多模态模型“日日新 SenseNova 6.7 Flash-Lite”。该模型采用原生多模态架构,能直接理解网页、文档和图表,提升复杂任务处理效率。它取消了视觉转文本中间层,以更小参数量实现能力跨越,在权威测试中取得多项同级别SOTA,并在信息搜索等场景中比纯文本智能体降低60%的Token消耗。同时,商汤推出限时免费的SenseNova Token Plan,为开发者提供首月无门槛调用额度,并将其全线办公技能SenseNova-Skills在GitHub开源。

多模态开源生态模型发布
09:16
IT之家(RSS)
精选70
OpenAI 最智能 AI 语音模型:GPT-Realtime-2 登场,GPT-5 级推理能力

OpenAI 发布三款集成于Realtime API的实时语音模型,旨在解决语音交互中的延迟、打断处理和多语言支持难题。其中,GPT-Realtime-2具备GPT-5级推理能力,可在对话中进行推理、调用工具并处理打断,音频输入输出分别按每百万Token 32美元和64美元计费。GPT-Realtime-Translate支持70种输入语言同步翻译为13种输出语言,每分钟0.034美元。GPT-Realtime-Whisper提供低延迟流式转录,每分钟0.017美元。这些模型为开发复杂语音助手、实时翻译和转录应用提供了底层技术支持。

OpenAI推理模型发布语音
关联讨论 12X:OpenAI Developers (@OpenAIDevs)X:宝玉 (@dotey)X:OpenAI (@OpenAI)X:Testing Catalog (@testingcatalog)X:Kim (@kimmonismus)X:Greg Brockman (@gdb)X:Sam Altman (@sama)X:Artificial Analysis (@ArtificialAnlys)X:Berry Xia (@berryxia)X:邵猛 (@shao__meng)X:Tibo (@thsottiaux)X:Eric Mitchell (@ericmitchellai)
推荐理由:GPT-Realtime-2 把 GPT-5 级的推理塞进了实时语音里,不是简单的语音转文字,是能打断、能纠错、能执行多步任务的真·语音助手能力。做语音产品的人现在就该去读接口文档。
05:49
OpenAI:官网动态(RSS · 排除企业/客户案例)
精选74
Scaling Trusted Access for Cyber with GPT-5.5 and GPT-5.5-Cyber

OpenAI扩展了网络安全领域的可信访问计划,推出了GPT-5.5和专门针对网络安全的GPT-5.5-Cyber模型。此举旨在帮助经过验证的网络安全防御者加速漏洞研究,并加强对关键基础设施的保护。新模型将为安全专业人员提供更强大的AI工具支持。

OpenAI安全/对齐模型发布

推荐理由:GPT-5.5 正式登场,首秀是给安全防御者用的,Trusted Access 机制把模型和真实漏洞环境连起来,做网络安全的可以关注,其他人先看看。
03:10
The Decoder:AI News(RSS)
精选70
OpenAI发布新语音模型,为实时对话带来GPT-5级推理能力

OpenAI发布了三款新型语音模型:GPT-Realtime-2、GPT-Realtime-Translate和GPT-Realtime-Whisper。其中,GPT-Realtime-2具备与GPT-5相匹配的实时推理能力,旨在实现更流畅、智能的实时对话交互。GPT-Realtime-Translate支持超过70种语言的实时翻译,而GPT-Realtime-Whisper则专注于实时语音转写功能。这一系列模型标志着OpenAI在实时音频处理和交互领域的重要进展,有望显著提升跨语言沟通和语音应用的体验。

OpenAI推理模型发布语音
关联讨论 12X:OpenAI Developers (@OpenAIDevs)X:宝玉 (@dotey)X:OpenAI (@OpenAI)X:Testing Catalog (@testingcatalog)X:Kim (@kimmonismus)X:Greg Brockman (@gdb)X:Sam Altman (@sama)X:Artificial Analysis (@ArtificialAnlys)X:Berry Xia (@berryxia)X:邵猛 (@shao__meng)X:Tibo (@thsottiaux)X:Eric Mitchell (@ericmitchellai)
推荐理由:语音助手终于从「能听会说」变成了「能想会说」,GPT-5 推理进实时通道,所有语音交互产品的天花板被抬升了一个量级。
01:18
OpenAI:官网动态(RSS · 排除企业/客户案例)
精选86
通过 API 中的新模型推进语音智能

OpenAI API 推出了新的实时语音模型,能够进行推理、翻译和语音转录。这些模型显著提升了语音交互的自然度与智能水平,支持实时处理与多语言转换。新功能旨在为开发者提供更强大的工具,以构建更流畅、更智能的语音应用体验。

OpenAI多模态模型发布语音
关联讨论 12X:OpenAI Developers (@OpenAIDevs)X:宝玉 (@dotey)X:OpenAI (@OpenAI)X:Testing Catalog (@testingcatalog)X:Kim (@kimmonismus)X:Greg Brockman (@gdb)X:Sam Altman (@sama)X:Artificial Analysis (@ArtificialAnlys)X:Berry Xia (@berryxia)X:邵猛 (@shao__meng)X:Tibo (@thsottiaux)X:Eric Mitchell (@ericmitchellai)
推荐理由:语音模型不再只是‘听写’,开始能推理和翻译了,OpenAI这次API更新的几个新模型把语音智能推向更实用的阶段,做语音产品的值得赶紧试试。
5月7日
18:16
IT之家(RSS)
69
小米开源 OmniVoice 多语言语音克隆 TTS,号称一个模型搞定 600 余种语言

小米AI实验室开源多语言语音克隆TTS模型OmniVoice,覆盖600余种语言。该模型采用极简双向Transformer架构,无需复杂结构即可实现文本到语音的直接转换。其语音合成质量超越同类主流模型,训练速度可达一天10万小时。关键设计包括全码本随机掩蔽策略和引入大语言模型预训练参数,显著提升训练效率与语音可懂度。测试显示,在多种语言中其相似度与可懂度超越多款商用系统,并对低资源小语种也能实现高质量合成。模型还支持自定义音色、带噪音频适配等实用功能。

arXivGitHub多模态开源生态
5月6日
22:16
IT之家(RSS)
精选71
豆包大模型家族首款全模态理解模型:字节跳动 Doubao-Seed-2.0-lite 升级

字节跳动火山引擎发布豆包大模型家族首款全模态理解模型 Doubao-Seed-2.0-lite 升级版。该模型原生统一支持视频、图像、音频和文本理解,并能进行跨模态联合推理,在物理、医疗等学科推理及细粒度感知上表现超越此前Pro版本。音频方面支持19种语种转写及多语种互译,多项基准测试优于Gemini-3.1-Pro。同时,其Agent、Coding与GUI能力升级,能更稳定处理长任务、胜任深度开发,并实现界面理解与操作执行的闭环。新版本已在火山方舟上线,旨在为企业提供高性价比的全模态任务部署方案。

智能体多模态推理模型发布

推荐理由:豆包Seed 2.0 lite把视频、音频、图片、文字原生塞进一个模型,还顺手强化了Agent和GUI操作,对需要全模态处理的企业来说,这可能是目前性价比最高的选择。
08:15
IT之家(RSS)
精选75
OpenAI ChatGPT 默认 AI 模型升至 GPT-5.5 Instant:幻觉最高减少 52.5%、回复更简洁

OpenAI于5月5日将ChatGPT默认模型升级为GPT-5.5 Instant,重点提升准确性与简洁性。新模型在医疗、法律、金融等高风险领域,幻觉声明较前代减少52.5%;在用户标记的事实错误测试中,不准确声明降低37.3%。回复内容更简洁,减少了不必要的表情符号和冗长格式。所有用户即日起开始获得更新,付费用户可继续使用GPT-5.3 Instant三个月。

OpenAI推理模型发布
关联讨论 12X:Greg Brockman (@gdb)X:Kim (@kimmonismus)X:Testing Catalog (@testingcatalog)X:Rohan Paul (@rohanpaul_ai)X:宝玉 (@dotey)X:Eric Mitchell (@ericmitchellai)X:Berry Xia (@berryxia)X:Sam Altman (@sama)X:ChatGPT (@ChatGPTapp)X:歸藏 (@op7418)X:OpenAI Developers (@OpenAIDevs)X:OpenAI (@OpenAI)
推荐理由:GPT-5.5 Instant 不是新模型发布,而是实测提升:少说废话、少犯错。52.5% 的幻觉降幅对高风险领域用户是个实打实的增益,所有 ChatGPT 用户的对话体验今天起都会简洁一档。
02:30
The Decoder:AI News(RSS)
精选72
ChatGPT 更新推出 GPT-5.5 Instant 模型,幻觉减少且答案更个性化

OpenAI 将 ChatGPT 的默认模型更新为 GPT-5.5 Instant。内部测试显示,该模型在医学和法律等高风险主题上产生的幻觉声称减少了 52.5%。新功能“记忆来源”允许用户查看影响特定回答的存储上下文。该模型正立即向所有用户推出,但基于过去聊天记录、文件和 Gmail 的个性化功能将首先在网页版上向 Plus 和 Pro 用户开放。此次更新旨在提升回答的准确性和个性化体验。

OpenAI产品更新安全/对齐
关联讨论 12X:Greg Brockman (@gdb)X:Kim (@kimmonismus)X:Testing Catalog (@testingcatalog)X:Rohan Paul (@rohanpaul_ai)X:宝玉 (@dotey)X:Eric Mitchell (@ericmitchellai)X:Berry Xia (@berryxia)X:Sam Altman (@sama)X:ChatGPT (@ChatGPTapp)X:歸藏 (@op7418)X:OpenAI Developers (@OpenAIDevs)X:OpenAI (@OpenAI)
推荐理由:GPT-5.5 Instant换到默认模型,减少一半幻觉是个硬指标进步,记忆源让用户知道ChatGPT为什么这样回答,透明度这块终于追上了。
01:42
OpenAI:官网动态(RSS · 排除企业/客户案例)
精选75
GPT-5.5 Instant 系统卡片

OpenAI 于2026年5月5日发布了最新即时模型 GPT-5.5 Instant。该模型在网络安全、生物与化学防范两个类别首次被定位为“高能力”级别,并为此实施了相应的安全防护措施。其整体安全缓解方案与此系列前代模型相似。官方明确,不存在名为 GPT-5.4 Instant 的模型,其主要对标基线是 GPT-5.3 Instant。为避免混淆,GPT-5.5 模型被特指为 GPT-5.5 Thinking。

OpenAI安全/对齐模型发布
关联讨论 12X:Greg Brockman (@gdb)X:Kim (@kimmonismus)X:Testing Catalog (@testingcatalog)X:Rohan Paul (@rohanpaul_ai)X:宝玉 (@dotey)X:Eric Mitchell (@ericmitchellai)X:Berry Xia (@berryxia)X:Sam Altman (@sama)X:ChatGPT (@ChatGPTapp)X:歸藏 (@op7418)X:OpenAI Developers (@OpenAIDevs)X:OpenAI (@OpenAI)
推荐理由:GPT-5.5 Instant 是第一个被 OpenAI 标记为「高能力」的 Instant 模型,安全评估里多了些新门槛,做 AI 安全的可以翻开系统卡看看具体红线画在哪。
01:12
OpenAI:官网动态(RSS · 排除企业/客户案例)
精选82
GPT-5.5 Instant:更智能、更清晰、更个性化

ChatGPT的默认模型已更新为GPT-5.5 Instant。新版模型能提供更智能、更准确的答案,并有效减少了幻觉现象。同时,用户获得了更强的个性化控制能力,使交互体验更贴合个人需求。此次升级标志着模型在理解精度与响应定制化方面取得了显著进步。

OpenAI推理模型发布
关联讨论 12X:Greg Brockman (@gdb)X:Kim (@kimmonismus)X:Testing Catalog (@testingcatalog)X:Rohan Paul (@rohanpaul_ai)X:宝玉 (@dotey)X:Eric Mitchell (@ericmitchellai)X:Berry Xia (@berryxia)X:Sam Altman (@sama)X:ChatGPT (@ChatGPTapp)X:歸藏 (@op7418)X:OpenAI Developers (@OpenAIDevs)X:OpenAI (@OpenAI)
推荐理由:ChatGPT默认模型替换为GPT-5.5 Instant,不只是变聪明,幻觉减少和个性化控制才是真改进,每个用户都能马上感觉到不同。
5月3日
15:51
The Decoder:AI News(RSS)
60
小米开源模型 MiMo-V2.5-Pro 瞄准 Claude Opus,实现数小时自主编程

小米发布开源模型 MiMo-V2.5-Pro,其编程基准测试成绩接近 Anthropic 的 Claude Opus 4.6,同时令牌消耗量减少 40% 至 60%。该模型能持续数小时自主处理单一任务,标志着中国开源模型竞争焦点正从单纯追求基准分数,转向降低运行成本与提升任务持久性。小米借此进一步深入与 DeepSeek 等国内开源提供商的竞争。

Anthropic开源/仓库模型发布编码
5月2日
15:50
The Decoder:AI News(RSS)
59
xAI 发布 Grok 4.3,大幅降价并推出创意项目 Imagine 智能体模式

xAI 正式推出 Grok 4.3 模型,其核心策略是大幅降低价格并增强工具使用能力。新模型在实际任务处理上有所提升,但在性能上仍落后于 OpenAI 和 Anthropic 的顶尖模型。此次发布还引入了一个基于智能体的新型图像生成器“Imagine”模式,专门服务于创意项目。

xAI图像生成推理模型发布
5月1日
19:17
Hacker News 热门(buzzing.cc 中文翻译)
精选76
Grok 4.3

x.ai 正式发布了 Grok 4.3 模型,开发者可通过官方文档获取详细信息。该模型在 Hacker News 社区获得关注,相关帖子收获了 100 点热度。此次发布标志着 Grok 系列模型的持续迭代更新。

xAI多模态推理模型发布
关联讨论 1X:OpenRouter (@OpenRouter)
推荐理由:xAI 的 Grok 4.3 如期而至,性能和对标都写在文档里了,想了解最新大模型实力的开发者值得花五分钟看一眼。
16:47
The Decoder:AI News(RSS)
51
Mistral 新旗舰模型 Medium 3.5 将聊天、推理和代码功能整合为一体

Mistral 发布其新旗舰模型 Mistral Medium 3.5,它将此前独立的聊天、推理和代码生成模型合并为一个单一产品。同时,该公司为其编程工具 Vibe 增加了异步云代理功能,并为聊天产品 Le Chat 引入了新的智能体模式。

智能体推理模型发布编码
4月30日
23:10
IT之家(RSS)
精选72
DeepSeek 公布多模态模型技术报告

DeepSeek发布了多模态大模型及技术报告,提出创新的“基于视觉原语的思考”框架。该框架将点、边界框等视觉元素作为推理的基本单元,旨在解决多模态模型在空间参照任务中存在的“参照鸿沟”核心问题,使模型能将抽象认知锚定到图像的具体坐标上。尽管模型规模紧凑且图像标记预算较低,其在多项挑战性计数和空间推理基准测试上的性能,可与GPT-5.4等前沿模型相媲美。

DeepSeek多模态推理论文/研究

推荐理由:DeepSeek 把视觉概念直接变成推理单元,绕开了语言描述空间的先天模糊,在空间推理上把自家紧凑模型拉到和 GPT-5.4 一个水平,做多模态应用的人值得细读。
20:42
The Decoder:AI News(RSS)
49
Tencent 发布 440 MB AI 模型,可在手机上离线翻译 33 种语言

腾讯发布了一款紧凑型开源 AI 翻译模型,其大小仅为 440 MB。该模型支持 33 种语言的互译,并能在智能手机上完全离线运行。腾讯声称,其性能超越了谷歌翻译。这一轻量化设计使得高质量的神经机器翻译无需依赖网络连接即可在移动设备上实现。

开源生态模型发布端侧
20:42
Hacker News 热门(buzzing.cc 中文翻译)
57
Granite 4.1:IBM 的 8 位模型与 32 位 MoE 相媲美

IBM开源了Granite 4.1系列模型,其80亿参数版本在性能上可与320亿参数的混合专家模型相媲美。这一突破表明,通过优化架构与训练方法,较小规模的模型也能达到更大模型的效能水平,为高效部署提供了新选择。该模型家族已开源,在开发者社区中获得关注,相关讨论在Hacker News上获得了超过100点热度。

开源生态模型发布
20:10
IT之家(RSS)
40
OpenAI 将推出前沿网络安全模型 GPT-5.5-Cyber,暂不向公众开放

OpenAI宣布将推出基于GPT-5.5定制的网络安全模型GPT-5.5-Cyber。该模型不会向公众开放,将在未来数日内限量定向开放给经过筛选的网络安全防护人员,以协助强化网络防御。具体技术细节尚未披露,OpenAI表示将联合行业与政府制定可信准入机制。这种分阶段限量推出高风险顶级模型的模式,已成为人工智能行业的普遍趋势。

OpenAI安全/对齐模型发布
09:34
IT之家(RSS)
64
万亿级综合旗舰模型:蚂蚁集团百灵大模型开源 Ling-2.6-1T

蚂蚁集团正式开源百灵大模型万亿级综合旗舰模型 Ling-2.6-1T。该模型不单纯追求参数规模,而是通过MLA与Linear Attention混合架构等创新,系统性优化智效比与复杂任务执行能力。其核心是在更低Token开销下实现强综合智能,减少对冗长思考链的依赖,并在AIME26、SWE-bench Verified等多个执行类基准测试中达到开源SOTA水平。模型具备完整的工程落地能力,并与主流Agent框架兼容,旨在成为可部署于真实业务系统的底座。为方便体验,其在OpenRouter平台的免费API调用服务将延期一周。

开源生态推理模型发布编码
08:00
HuggingFace Daily Papers(社区热门论文)
62
MiniCPM-o 4.5:迈向实时全双工全模态交互

当前多模态大语言模型在交互范式上存在瓶颈,感知与响应分离且缺乏主动性。MiniCPM-o 4.5 通过 Omni-Flow 统一流式框架,将多模态输入输出对齐到共享时间轴,实现实时全双工全模态交互,支持同时感知与响应,并能基于对动态场景的连续理解主动发出提醒或评论。该模型参数量为 90 亿,在视觉语言能力上接近 Gemini 2.5 Flash,在全模态理解上超越 Qwen3-Omni-30B-A3B,且语音生成更优、计算效率显著更高。得益于高效的架构设计和推理优化,模型可在内存小于 12GB 的边缘设备上实现实时全双工全模态交互。

多模态模型发布端侧论文/研究
00:42
Hacker News 热门(buzzing.cc 中文翻译)
63
Mistral Medium 3.5

Mistral 发布了其最新模型 Mistral Medium 3.5。该模型在 Hacker News 社区获得了显著关注,收获了 125 个投票。发布信息通过官方新闻页面公布,标志着 Mistral 在模型迭代上的又一次更新。

智能体模型发布
关联讨论 1X:Testing Catalog (@testingcatalog)
00:40
Mistral AI:News(网页)
精选76
Mistral AI发布Mistral Medium 3.5模型及Vibe远程编程智能体

Mistral AI推出旗舰模型Mistral Medium 3.5,这是一个128B参数的密集模型,拥有256K上下文窗口,在SWE-Bench Verified上获得77.6%的分数。该模型现作为Vibe和Le Chat的默认引擎,并驱动两项新功能:Vibe远程编程智能体可将编码任务移至云端异步并行执行,用户可通过CLI或Le Chat启动并在完成后接收通知;Le Chat的新工作模式则是一个由该模型驱动的智能体,能处理研究、分析和跨工具操作等多步骤复杂任务。这些更新旨在将开发者从本地线性任务中解放出来,提升工作效率。

智能体开源生态模型发布编码
关联讨论 1X:Testing Catalog (@testingcatalog)
推荐理由:Mistral 把 coding agent 从本地搬到云端并行跑,Medium 3.5 是第一个真正为长时任务设计的旗舰合并模型,SWE-Bench 77.6% 加上四卡可自部署,做 coding agent 的团队该认真看看这家的路线了。
4月29日
17:41
The Decoder:AI News(RSS)
55
通过 Nemotron 3 Nano Omni,Nvidia 揭示了现代多模态模型的真实构成

Nvidia 发布了开源多模态模型 Nemotron 3 Nano Omni,该模型能够处理文本、图像、视频和音频。其引人关注之处不仅在于性能表现,更在于其训练数据的构成。模型的部分训练数据来源于 Qwen、GPT-OSS、Kimi 和 DeepSeek OCR 等多个知名项目,这揭示了构建现代多模态模型所需数据集的多样性与复杂性。

多模态开源生态模型发布
17:33
IT之家(RSS)
65
腾讯混元开源手机端离线翻译模型 Hy-MT1.5-1.8B-1.25bit,仅 440MB

腾讯混元开源了手机端离线翻译模型Hy-MT1.5-1.8B-1.25bit,其体积仅440MB,可在手机本地离线运行。该模型支持33种语言及1056个翻译方向,基于1.8B参数原型通过极致量化压缩实现。其1.25-bit版本采用稀疏高效三值量化技术,将原始3.3GB模型大幅缩减。官方称其翻译质量优于谷歌翻译等主流系统,并提供了2-bit和1.25-bit两种量化方案以适配不同机型。模型完全离线工作,不收集用户数据,相关资源已全面开源。

arXivHugging Face模型发布端侧
16:33
IT之家(RSS)
44
科大讯飞总裁吴晓如:今年 10 月将在华为昇腾 950 平台上发布国产旗舰大模型

科大讯飞总裁吴晓如宣布,公司计划于今年10月在华为昇腾950平台上发布国产旗舰大模型,该模型将直接对标业界最先进主流模型。此前,科大讯飞已发布星火X2-Flash模型,采用MoE架构,总参数达30B,最大支持256K上下文,基于华为昇腾910B集群训练完成。财务数据显示,2026年第一季度营业总收入为52.74亿元,同比增长13.23%;归母净利润为-1.70亿元,同比增长12.17%。

数据/训练行业动态
16:33
IT之家(RSS)
59
腾讯多款 Agent 智能体亮相 2026 数字中国建设峰会,混元 Hy3 preview 语言模型同步迎来展会首秀

在2026数字中国建设峰会上,腾讯展示了其Agent智能体生态。其中,WorkBuddy桌面智能体工作台可根据一句话描述自动完成任务;专为中国用户优化的AI技能社区“SkillHub”已集成腾讯核心产品能力,并收录超3.5万个技能。最新发布的混元Hy3 preview语言模型首次亮相,该模型为混合专家模型,总参数295B,支持256K上下文,在复杂推理、代码等能力上大幅提升,旨在助力中小企业低成本快速搭建AI应用,并已在腾讯云、元宝等多款产品中上线。

智能体推理模型发布
15:38
HuggingFace Daily Papers(社区热门论文)
59
Step-Audio-R1.5 技术报告

当前大型音频语言模型普遍依赖基于验证奖励的强化学习范式来驱动听觉推理,但这陷入了“可验证奖励陷阱”——模型为追求孤立文本标签的正确性,牺牲了声学细微差别和对话自然度,导致交互机械、沉浸感差。Step-Audio-R1.5 通过转向基于人类反馈的强化学习实现了范式突破。评估表明,它在保持强大分析推理能力的同时,显著提升了交互体验,特别是在长轮对话中改善了韵律自然性与情感连续性,重新定义了深度沉浸式语音对话的边界。

推理模型发布语音
15:33
IT之家(RSS)
53
科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文

科大讯飞正式发布星火 X2-Flash 模型并开放API。该模型采用MoE架构,总参数300亿,支持256K上下文,基于华为昇腾910B集群训练。其在智能体、代码等能力上大幅提升,在深度研究报告、Skill管理等多项任务上效果接近业界万亿参数模型,而整体token消耗不到主流大尺寸模型的三分之一。通过结合DSA与MTP技术,模型在国产芯片上的训练效率从同规模A800集群的20%提升至90%,并解决了长交互场景采样效率低的问题,为大规模强化学习训练扫清障碍。AstronClaw、Loomy等已率先接入。

MCP/工具推理模型发布
11:19
蚂蚁 inclusionAI:HuggingFace 新模型
51
inclusionAI/Ling-2.6-1T

inclusionAI 发布了 Ling-2.6-1T 模型,这是一个包含 1 万亿参数的大型语言模型。该模型基于开源与开放科学理念构建,旨在推动人工智能技术的进步与民主化。新模型在多项基准测试中展现出更强的语言理解与生成能力,同时提供了更高效的推理性能。这一发布标志着开源社区在规模化 AI 模型开发上的重要进展,为研究者和开发者提供了可访问的高性能工具。

Hugging Face开源生态模型发布
09:33
IT之家(RSS)
60
蚂蚁集团百灵大模型开源 Ling-2.6-flash,提供 BF16、FP8、INT4 等版本

蚂蚁集团百灵大模型宣布开源Ling-2.6-flash,提供BF16、FP8、INT4等多个版本供开发者灵活选用。该模型总参数量104B,激活参数7.4B,是一款Instruct模型。官方基于开发者反馈优化了中英文切换及主流编程框架适配效果。其核心优势包括:采用混合线性架构,在4卡H20上推理速度最快达340 tokens/s;通过Token效率优化,在评测中消耗的tokens仅为同类模型的约1/10;针对Agent场景增强了工具调用与任务执行能力,在多项评测中达到先进水平。模型已在Hugging Face和ModelScope平台开源。

智能体开源生态模型发布
08:33
IT之家(RSS)
65
英伟达推出 Nemotron 3 Nano Omni 模型:采用 30B-A3B 混合 MoE 架构,吞吐量最高提升 9.2 倍

英伟达发布开源全模态推理模型Nemotron 3 Nano Omni,采用30B‑A3B混合MoE架构,集视频、音频、图像和文本处理于一体。该模型旨在替代多模型链,降低推理成本与编排复杂度。在多项基准测试中表现领先,尤其在视频推理任务中,其系统吞吐量相比其他开放式全模态模型最高提升约9.2倍,文档推理任务最高提升约7.4倍。模型权重、训练配方及数据集已完全开放,支持开发者在各类环境中定制部署。

智能体多模态推理模型发布
02:11
The Decoder:AI News(RSS)
47
一个对1930年后世界一无所知的LLM如何想象2026年

名为“Talkie”的130亿参数语言模型仅使用1931年前的文本训练,其对未来世界的预测呈现出强烈的时代局限性。该模型怀疑第二次世界大战是否会发生,并将2026年想象成一个仍以蒸汽船、铁路和廉价小说为主导的世界。这直观揭示了训练数据的时间范围如何从根本上限制大语言模型对现实发展的认知与预测能力。

数据/训练现象/趋势论文/研究
00:37
Hugging Face:Blog(RSS)
精选70
介绍 NVIDIA Nemotron 3 Nano Omni:面向文档、音频和视频智能体的长上下文多模态模型

NVIDIA 发布了 Nemotron 3 Nano Omni 模型,这是一个专为处理长上下文多模态任务设计的轻量级模型。该模型能够同时理解并处理文档、音频和视频数据,旨在赋能新一代多模态智能体。其核心变化在于将长上下文能力与多模态理解结合到一个小型化模型中,提升了在复杂跨模态场景下的处理效率与应用灵活性。

多模态模型发布端侧
关联讨论 3HuggingFace Daily Papers(社区热门论文)Nathan Lambert:Interconnects(RSS)X:Berry Xia (@berryxia)
推荐理由:NVIDIA 把多模态长上下文塞进 Nano 级别模型,文档、音频、视频 Agent 通吃,做端侧多模态应用的团队值得认真看看这个架构思路。
4月28日
17:51
蚂蚁 inclusionAI:HuggingFace 新模型
49
inclusionAI发布Ling-2.6-flash-int4模型

inclusionAI团队宣布推出Ling-2.6-flash-int4模型,作为其通过开源与开放科学推动人工智能技术进步与普及的重要举措。该版本延续了团队降低AI应用门槛、促进技术民主化的核心使命,以轻量化技术方案进一步优化模型性能与部署效率。

开源/仓库模型发布端侧
11:50
蚂蚁 inclusionAI:HuggingFace 新模型
51
inclusionAI/Ling-2.6-flash-fp8

inclusionAI 团队发布了 Ling-2.6-flash-fp8 模型,致力于通过开源与开放科学推动人工智能的发展与普及。该版本采用 FP8 精度优化,显著提升了推理效率并降低了计算资源消耗,是其在推进技术民主化进程中的最新实践。

开源/仓库模型发布端侧
11:27
蚂蚁 inclusionAI:HuggingFace 新模型
精选55
inclusionAI/Ling-2.6-flash

inclusionAI发布了Ling-2.6-flash模型。该模型是其开源语言模型系列的最新成员,旨在通过开源与开放科学推动人工智能的进步与民主化。此次发布延续了团队降低AI技术使用门槛、促进更广泛社区参与开发的使命。

开源/仓库模型发布端侧

推荐理由:蚂蚁 inclusionAI 的 Ling-2.6-flash 上线 HuggingFace,名字带 flash 大概率是轻量推理模型,但官方描述几乎空白,没有 benchmark 也没有用例,建议等社区实测再决定是否投入精力。