5月9日
00:34
Hugging Face:Blog(RSS)
精选72
EMO:为涌现模块化预训练的专家混合模型

EMO是一种新型专家混合模型,通过端到端预训练使模块化结构直接从数据中涌现,无需依赖人类定义的先验。该模型允许在特定任务中仅使用12.5%的专家子集(即8个活跃专家中的部分),同时保持接近全模型的性能;当所有128个专家共同使用时,它仍作为强大的通用模型。EMO具有1B活跃参数和14B总参数,训练数据达1万亿令牌。与标准MoE相比,EMO通过文档级路由约束,鼓励专家形成领域专业化组,从而支持选择性使用而不导致严重性能下降,实现了可组合架构,优化了大型稀疏MoE的内存-准确性权衡。

Hugging Face开源生态数据/训练模型发布

推荐理由:EMO 让 MoE 专家从按词法分散进化到按语义域自然模块化,仅用 12.5% 专家就能接近全模型性能,对需要按需加载的大模型部署是真正的突破。
5月8日
05:49
OpenAI:官网动态(RSS · 排除企业/客户案例)
精选74
Scaling Trusted Access for Cyber with GPT-5.5 and GPT-5.5-Cyber

OpenAI扩展了网络安全领域的可信访问计划,推出了GPT-5.5和专门针对网络安全的GPT-5.5-Cyber模型。此举旨在帮助经过验证的网络安全防御者加速漏洞研究,并加强对关键基础设施的保护。新模型将为安全专业人员提供更强大的AI工具支持。

OpenAI安全/对齐模型发布

推荐理由:GPT-5.5 正式登场,首秀是给安全防御者用的,Trusted Access 机制把模型和真实漏洞环境连起来,做网络安全的可以关注,其他人先看看。
01:18
OpenAI:官网动态(RSS · 排除企业/客户案例)
精选86
通过 API 中的新模型推进语音智能

OpenAI API 推出了新的实时语音模型,能够进行推理、翻译和语音转录。这些模型显著提升了语音交互的自然度与智能水平,支持实时处理与多语言转换。新功能旨在为开发者提供更强大的工具,以构建更流畅、更智能的语音应用体验。

OpenAI多模态模型发布语音
关联讨论 14X:OpenAI Developers (@OpenAIDevs)X:宝玉 (@dotey)X:OpenAI (@OpenAI)X:Testing Catalog (@testingcatalog)X:Kim (@kimmonismus)X:Greg Brockman (@gdb)X:Sam Altman (@sama)The Decoder:AI News(RSS)X:Artificial Analysis (@ArtificialAnlys)X:Berry Xia (@berryxia)X:邵猛 (@shao__meng)IT之家(RSS)X:Tibo (@thsottiaux)X:Eric Mitchell (@ericmitchellai)
推荐理由:语音模型不再只是‘听写’,开始能推理和翻译了,OpenAI这次API更新的几个新模型把语音智能推向更实用的阶段,做语音产品的值得赶紧试试。
5月6日
01:42
OpenAI:官网动态(RSS · 排除企业/客户案例)
精选75
GPT-5.5 Instant 系统卡片

OpenAI 于2026年5月5日发布了最新即时模型 GPT-5.5 Instant。该模型在网络安全、生物与化学防范两个类别首次被定位为“高能力”级别,并为此实施了相应的安全防护措施。其整体安全缓解方案与此系列前代模型相似。官方明确,不存在名为 GPT-5.4 Instant 的模型,其主要对标基线是 GPT-5.3 Instant。为避免混淆,GPT-5.5 模型被特指为 GPT-5.5 Thinking。

OpenAI安全/对齐模型发布
关联讨论 14X:Greg Brockman (@gdb)X:Kim (@kimmonismus)X:Testing Catalog (@testingcatalog)The Decoder:AI News(RSS)X:Rohan Paul (@rohanpaul_ai)X:宝玉 (@dotey)X:Eric Mitchell (@ericmitchellai)X:Berry Xia (@berryxia)X:Sam Altman (@sama)X:ChatGPT (@ChatGPTapp)X:歸藏 (@op7418)X:OpenAI Developers (@OpenAIDevs)IT之家(RSS)X:OpenAI (@OpenAI)
推荐理由:GPT-5.5 Instant 是第一个被 OpenAI 标记为「高能力」的 Instant 模型,安全评估里多了些新门槛,做 AI 安全的可以翻开系统卡看看具体红线画在哪。
01:12
OpenAI:官网动态(RSS · 排除企业/客户案例)
精选82
GPT-5.5 Instant:更智能、更清晰、更个性化

ChatGPT的默认模型已更新为GPT-5.5 Instant。新版模型能提供更智能、更准确的答案,并有效减少了幻觉现象。同时,用户获得了更强的个性化控制能力,使交互体验更贴合个人需求。此次升级标志着模型在理解精度与响应定制化方面取得了显著进步。

OpenAI推理模型发布
关联讨论 14X:Greg Brockman (@gdb)X:Kim (@kimmonismus)X:Testing Catalog (@testingcatalog)The Decoder:AI News(RSS)X:Rohan Paul (@rohanpaul_ai)X:宝玉 (@dotey)X:Eric Mitchell (@ericmitchellai)X:Berry Xia (@berryxia)X:Sam Altman (@sama)X:ChatGPT (@ChatGPTapp)X:歸藏 (@op7418)X:OpenAI Developers (@OpenAIDevs)IT之家(RSS)X:OpenAI (@OpenAI)
推荐理由:ChatGPT默认模型替换为GPT-5.5 Instant,不只是变聪明,幻觉减少和个性化控制才是真改进,每个用户都能马上感觉到不同。
4月30日
00:40
Mistral AI:News(网页)
精选76
Mistral AI发布Mistral Medium 3.5模型及Vibe远程编程智能体

Mistral AI推出旗舰模型Mistral Medium 3.5,这是一个128B参数的密集模型,拥有256K上下文窗口,在SWE-Bench Verified上获得77.6%的分数。该模型现作为Vibe和Le Chat的默认引擎,并驱动两项新功能:Vibe远程编程智能体可将编码任务移至云端异步并行执行,用户可通过CLI或Le Chat启动并在完成后接收通知;Le Chat的新工作模式则是一个由该模型驱动的智能体,能处理研究、分析和跨工具操作等多步骤复杂任务。这些更新旨在将开发者从本地线性任务中解放出来,提升工作效率。

智能体开源生态模型发布编码
关联讨论 2Hacker News 热门(buzzing.cc 中文翻译)X:Testing Catalog (@testingcatalog)
推荐理由:Mistral 把 coding agent 从本地搬到云端并行跑,Medium 3.5 是第一个真正为长时任务设计的旗舰合并模型,SWE-Bench 77.6% 加上四卡可自部署,做 coding agent 的团队该认真看看这家的路线了。
4月29日
11:19
蚂蚁 inclusionAI:HuggingFace 新模型
51
inclusionAI/Ling-2.6-1T

inclusionAI 发布了 Ling-2.6-1T 模型,这是一个包含 1 万亿参数的大型语言模型。该模型基于开源与开放科学理念构建,旨在推动人工智能技术的进步与民主化。新模型在多项基准测试中展现出更强的语言理解与生成能力,同时提供了更高效的推理性能。这一发布标志着开源社区在规模化 AI 模型开发上的重要进展,为研究者和开发者提供了可访问的高性能工具。

Hugging Face开源生态模型发布
关联讨论 1IT之家(RSS)
00:37
Hugging Face:Blog(RSS)
精选70
介绍 NVIDIA Nemotron 3 Nano Omni:面向文档、音频和视频智能体的长上下文多模态模型

NVIDIA 发布了 Nemotron 3 Nano Omni 模型,这是一个专为处理长上下文多模态任务设计的轻量级模型。该模型能够同时理解并处理文档、音频和视频数据,旨在赋能新一代多模态智能体。其核心变化在于将长上下文能力与多模态理解结合到一个小型化模型中,提升了在复杂跨模态场景下的处理效率与应用灵活性。

多模态模型发布端侧
关联讨论 3HuggingFace Daily Papers(社区热门论文)Nathan Lambert:Interconnects(RSS)X:Berry Xia (@berryxia)
推荐理由:NVIDIA 把多模态长上下文塞进 Nano 级别模型,文档、音频、视频 Agent 通吃,做端侧多模态应用的团队值得认真看看这个架构思路。
4月28日
17:51
蚂蚁 inclusionAI:HuggingFace 新模型
49
inclusionAI发布Ling-2.6-flash-int4模型

inclusionAI团队宣布推出Ling-2.6-flash-int4模型,作为其通过开源与开放科学推动人工智能技术进步与普及的重要举措。该版本延续了团队降低AI应用门槛、促进技术民主化的核心使命,以轻量化技术方案进一步优化模型性能与部署效率。

开源/仓库模型发布端侧
11:50
蚂蚁 inclusionAI:HuggingFace 新模型
51
inclusionAI/Ling-2.6-flash-fp8

inclusionAI 团队发布了 Ling-2.6-flash-fp8 模型,致力于通过开源与开放科学推动人工智能的发展与普及。该版本采用 FP8 精度优化,显著提升了推理效率并降低了计算资源消耗,是其在推进技术民主化进程中的最新实践。

开源/仓库模型发布端侧
11:27
蚂蚁 inclusionAI:HuggingFace 新模型
精选55
inclusionAI/Ling-2.6-flash

inclusionAI发布了Ling-2.6-flash模型。该模型是其开源语言模型系列的最新成员,旨在通过开源与开放科学推动人工智能的进步与民主化。此次发布延续了团队降低AI技术使用门槛、促进更广泛社区参与开发的使命。

开源/仓库模型发布端侧

推荐理由:蚂蚁 inclusionAI 的 Ling-2.6-flash 上线 HuggingFace,名字带 flash 大概率是轻量推理模型,但官方描述几乎空白,没有 benchmark 也没有用例,建议等社区实测再决定是否投入精力。
4月24日
22:17
蚂蚁 inclusionAI:HuggingFace 新模型
49
inclusionAI/DR-Venus-4B-SFT-GGUF

该项目致力于通过开源与开放科学推动人工智能的发展与普及。团队正持续推进技术民主化进程,旨在让更广泛的群体能够接触并利用先进AI工具。其核心路径是依托开放协作模式,降低技术门槛,促进创新生态的构建。

开源/仓库模型发布端侧
08:00
Hugging Face:Blog(RSS)
精选78
DeepSeek-V4:智能体可实际使用的百万token上下文

DeepSeek发布新一代模型DeepSeek-V4,其核心突破在于实现了长达百万token的上下文窗口,并确保智能体能够有效利用这一扩展的上下文能力。该模型延续了通过开源与开放科学推动人工智能发展与普及的使命,标志着大模型在长上下文理解和实际应用方面迈出重要一步。

智能体DeepSeek开源生态模型发布
关联讨论 5Simon Willison 博客IT之家(RSS)Hacker News 热门(buzzing.cc 中文翻译)X:AK (@_akhaliq)X:Rohan Paul (@rohanpaul_ai)
推荐理由:DeepSeek 把上下文窗口推到百万 token 不稀奇,关键是「agent 能实际用」这六个字。如果实测成立,RAG 的很多工程妥协可以扔掉了,做长文档和复杂 agent 的人该第一时间跑一遍。
4月23日
08:00
蚂蚁百灵:Developer Blog(网页)
精选67
Ling-2.6-flash 发布:更快响应、更强执行、更高 Token Efficiency

针对智能体任务中Token消耗快速增长的问题,Ling-2.6-flash模型正式发布。该模型采用混合线性架构等技术进行系统性优化,旨在实现更高推理效率和更低使用成本。其推理速度在4卡H20条件下最快可达340 tokens/s,在Artificial Analysis评测中仅消耗约对比模型1/10的Tokens。模型在多个Agent相关基准测试中达到同尺寸SOTA水平,保持了强大的任务执行与工具调用能力。

智能体模型发布部署/工程
关联讨论 2X:阿易 AI Notes (@AYi_AInotes)X:Artificial Analysis (@ArtificialAnlys)
推荐理由:蚂蚁百灵这次打的是「省 token」这张牌,104B 总参但只激活 7.4B,Agent 场景评测对齐同尺寸 SOTA,输出 token 消耗只有竞品的 1/10。做 Agent 产品、被推理成本卡脖子的团队值得认真看看这个路线。
01:10
蚂蚁 inclusionAI:HuggingFace 新模型
51
inclusionAI/LLaDA2.0-Uni

inclusionAI团队发布了LLaDA2.0-Uni模型。该版本在统一的多模态理解与生成能力上取得显著进展,支持图像、文本、音频等多种输入与输出模态。模型参数量达到约70B,在多项基准测试中,其综合性能较前代提升超过15%。此次发布延续了通过开源与开放科学来推动人工智能民主化的核心使命。

开源/仓库模型发布端侧
4月21日
16:25
蚂蚁 inclusionAI:HuggingFace 新模型
37
inclusionAI/DR-Venus-4B-RL-GGUF

该模型由 inclusionAI 发布,属于 DR-Venus 系列,参数量为 40 亿,采用强化学习训练并已转换为 GGUF 格式,便于在本地设备高效运行。其推出延续了通过开源与开放科学推动人工智能技术发展与普及的使命,旨在降低先进 AI 技术的使用门槛,促进更广泛的社区参与和创新应用。

开源/仓库模型发布端侧
16:05
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/DR-Venus-4B-RL 发布

inclusionAI 团队开源了 DR-Venus-4B-RL 模型。这是一个基于强化学习技术微调的 40 亿参数语言模型,旨在通过开源与开放科学的方式推动人工智能的发展与普及。该模型的发布为研究社区提供了一个中等规模、经过指令与人类偏好对齐的可用模型,延续了其促进 AI 民主化的目标。

开源/仓库模型发布端侧
15:29
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/DR-Venus-4B-SFT模型

该团队正致力于通过开源与开放科学的方式,推动人工智能技术的进步与民主化。其核心目标是降低AI技术的门槛,促进更广泛的参与和创新,使先进AI工具能够被更多开发者和研究者所使用。这一举措旨在构建一个开放、协作的AI生态系统。

开源/仓库模型发布端侧
4月20日
17:31
蚂蚁 inclusionAI:GitHub 新仓库
精选69
DR-Venus:基于开放数据的边缘级深度研究智能体

DR-Venus 是一个仅用1万条开放数据训练的40亿参数深度研究智能体,基于Qwen3-4B-Thinking-2507架构,支持200步工具调用和超20万tokens的上下文。它通过监督微调与强化学习两阶段训练,在BrowseComp、GAIA等多个深度研究基准上树立了小模型性能新标杆。其SFT版本已超越多数同类开源模型,而RL版本进一步将长程任务可靠性和工具使用校准度提升2-3个百分点。项目已全面开源模型、代码与训练流程。

智能体开源/仓库推理模型发布

推荐理由:4B 参数、仅用 1 万条公开数据就能在多个 deep research benchmark 上碾压 8B 对手,蚂蚁 inclusionAI 这次证明了小模型做 Agent 的关键不在参数量而在数据管线,做端侧 Agent 的团队值得拆一下它的 SFT+RL 流程。
4月17日
16:48
蚂蚁 inclusionAI:GitHub 新仓库
精选56
inclusionAI发布LLaDA2.0-Uni模型

LLaDA2.0-Uni是一个统一的多模态模型,具备对世界的理解与生成能力。该模型通过整合视觉、语言等多模态信息,实现了跨模态的语义理解和内容生成。其架构支持从图像理解到文本生成、跨模态检索等复杂任务,标志着多模态人工智能向更通用、统一的方向演进。

多模态开源生态模型发布

推荐理由:蚂蚁 inclusionAI 推出 LLaDA2.0-Uni,主打理解与生成统一架构,但距发布已过两周且信息极少,建议等官方技术报告出来再决定是否跟进。
4月8日
14:06
蚂蚁 inclusionAI:HuggingFace 新模型
34
inclusionAI/TC-AE

inclusionAI团队发布了TC-AE项目,旨在通过开源与开放科学推动人工智能技术的进步与民主化。该项目致力于降低AI技术的使用门槛,促进更广泛的社区参与和创新。核心变化在于构建了一个可访问的AI开发框架,强调协作与知识共享。此举预期将加速AI工具在多元领域的应用,并推动技术发展的透明性与包容性。

开源/仓库模型发布
3月7日
00:14
蚂蚁 inclusionAI:HuggingFace 新模型
46
inclusionAI/AReaL-tau2-merge-sft-235B 发布

inclusionAI 团队发布了 AReaL-tau2-merge-sft-235B 模型。该模型参数量达2350亿,采用合并与监督微调技术构建。其目标是推动人工智能技术发展并通过开源开放模式实现AI民主化,致力于让先进AI技术更广泛可及。

开源/仓库推理模型发布
3月5日
13:56
蚂蚁 inclusionAI:HuggingFace 新模型
45
inclusionAI/ZwZ-4B-GGUF

inclusionAI发布了ZwZ-4B-GGUF模型。该模型基于开源与开放科学理念,旨在推动人工智能技术的进步与普及。其核心变化是提供了GGUF格式,这是一种高效且通用的模型文件格式,便于在不同硬件和推理框架上部署与运行。此举旨在降低大型语言模型的使用门槛,促进更广泛的研究与应用开发。

开源/仓库模型发布端侧
13:56
蚂蚁 inclusionAI:HuggingFace 新模型
37
inclusionAI发布ZwZ-2B-GGUF模型

inclusionAI推出开源模型ZwZ-2B-GGUF,致力于通过开源与开放科学推动人工智能技术的进步与民主化。该举措旨在降低AI开发与应用的门槛,促进更广泛的社区参与和创新。模型以开放协作和科学共享为核心路径,强调技术普及与包容性发展。

开源/仓库模型发布端侧
10:55
蚂蚁 inclusionAI:HuggingFace 新模型
31
inclusionAI/AReaL-tau2-telecom-user-sft-30B

inclusionAI 团队发布了 AReaL-tau2-telecom-user-sft-30B 模型。这是一个拥有 300 亿参数、专门针对电信领域用户服务场景进行监督微调的大语言模型。该模型的发布旨在通过开源和开放科学的方式,推动人工智能技术的进步与普及,使其更易于获取和应用。

开源/仓库模型发布端侧
10:08
蚂蚁 inclusionAI:HuggingFace 新模型
32
inclusionAI/AReaL-tau2-telecom-sft-30B

inclusionAI团队发布了AReaL-tau2-telecom-sft-30B模型,这是一个拥有300亿参数、专门针对电信领域进行监督微调(SFT)的大型语言模型。该模型基于开源与开放科学理念构建,旨在推动人工智能技术的进步与普及。其核心变化在于针对电信行业的特定任务和数据进行了深度优化,以提升在该垂直领域的专业性能和应用效果。

开源/仓库模型发布端侧
00:53
蚂蚁 inclusionAI:HuggingFace 新模型
35
inclusionAI/AReaL-tau2-retail-sft-30B 发布

inclusionAI 发布了针对零售业优化的 AReaL-tau2-retail-sft-30B 模型,参数量达 300 亿,采用监督微调技术。该模型致力于通过开源与开放科学推动人工智能的进步与普及,旨在降低技术使用门槛,促进AI在零售领域的专业化应用与创新。

开源/仓库模型发布端侧
00:30
蚂蚁 inclusionAI:HuggingFace 新模型
35
inclusionAI/AReaL-tau2-airline-sft-30B 发布

inclusionAI团队发布了AReaL-tau2-airline-sft-30B模型。这是一个基于开源与开放科学理念开发的、参数规模达300亿的大型语言模型。该模型的发布旨在推动人工智能技术的进步与民主化,其具体训练数据与性能指标尚未在本次公告中详细披露。

开源/仓库模型发布部署/工程
3月4日
16:25
蚂蚁 inclusionAI:HuggingFace 新模型
37
inclusionAI/ZwZ-2B

inclusionAI 发布了 ZwZ-2B 模型,这是一个拥有 20 亿参数的开源语言模型。该模型旨在通过开源和开放科学的方式推动人工智能的进步与民主化。其上下文处理长度扩展至 128K,并在多项基准测试中性能显著提升,特别是在代码生成和数学推理任务上表现出色。ZwZ-2B 的发布为研究者和开发者提供了一个更易获取的高性能 AI 工具。

开源/仓库模型发布端侧
3月1日
17:56
蚂蚁 inclusionAI:HuggingFace 新模型
46
inclusionAI/AReaL-SEA-235B-A22B

inclusionAI团队宣布推出AReaL-SEA-235B-A22B模型,致力于通过开源与开放科学推动人工智能技术的进步与民主化。该举措旨在降低AI研究与应用的参与门槛,促进全球开发者及研究者更广泛地获取和使用先进AI工具。模型规模达2350亿参数,体现了其在处理复杂任务方面的潜力,同时强调开放协作对加速AI创新与社会普惠的关键作用。

开源/仓库推理模型发布
2月14日
15:48
蚂蚁 inclusionAI:HuggingFace 新模型
44
inclusionAI/Ling-2.5-1T

inclusionAI 发布了 Ling-2.5-1T 模型。该模型参数规模达到 1 万亿,是其 Ling 系列的最新版本。此次发布延续了通过开源和开放科学来推进人工智能民主化的使命,旨在让先进 AI 技术更广泛可及。新版本预计在语言理解与生成能力上有所提升,继续为全球研究社区提供强大的基础模型支持。

开源生态推理模型发布
2月12日
16:53
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/ZwZ-4B

inclusionAI发布了ZwZ-4B开源模型。该模型参数量为40亿,基于Transformer架构,上下文窗口为32K。其训练数据包含2万亿Token,涵盖代码、数学及多语言文本。模型采用分组查询注意力机制,支持16位与32位浮点精度。团队旨在通过开源推动人工智能技术的普及与发展。

开源生态模型发布
16:52
蚂蚁 inclusionAI:HuggingFace 新模型
34
inclusionAI/ZwZ-7B

inclusionAI 发布了 ZwZ-7B 模型,这是一个拥有70亿参数的开源大语言模型。该模型基于先进的 Transformer 架构,在多项基准测试中性能显著提升,尤其在代码生成和数学推理任务上表现突出。其上下文窗口扩展至 128K 令牌,并采用了分组查询注意力等高效技术。模型权重已完全开源,旨在通过开放科学推动人工智能技术的民主化与普及。

开源生态模型发布
16:52
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/ZwZ-8B

inclusionAI发布了ZwZ-8B模型,这是一个拥有80亿参数的开源人工智能模型。该模型旨在通过开源和开放科学的方式,推动人工智能技术的进步与普及。此举是inclusionAI推进AI民主化进程的一部分,致力于让更广泛的社区能够访问和利用先进的AI技术。

开源/仓库模型发布端侧
2月11日
20:18
蚂蚁 inclusionAI:GitHub 新仓库
51
inclusionAI/Ming-omni-tts

inclusionAI 发布了 Ming-omni-tts,这是一个能够统一生成语音、音乐和声音的模型。该模型的核心特点是结构简单高效,并实现了对生成内容的精确控制。它通过一个统一的框架处理多种音频模态,简化了传统上需要不同模型分别处理语音、音乐和音效的流程。这一进展为跨模态音频内容的创作与编辑提供了更便捷、可控的工具。

开源生态模型发布语音
18:52
蚂蚁 inclusionAI:GitHub 新仓库
精选65
inclusionAI发布新一代即时大模型Ling-2.5-1T

inclusionAI推出新一代旗舰即时模型Ling-2.5-1T,其总参数量达1T,活跃参数为63B,预训练语料扩展至29T tokens。该模型采用混合线性注意力架构,支持1M tokens上下文长度,并通过结合“正确性”与“过程冗余”的复合奖励机制,在相近的token效率下,其推理能力显著超越前代,接近前沿思维模型水平。经双向RL反馈和智能体验证等对齐策略优化,模型在创意写作和指令遵循任务上表现提升。它已兼容主流智能体平台,并在通用工具调用基准BFCL-V4上取得领先的开源性能。

开源/仓库推理模型发布部署/工程

推荐理由:蚂蚁把 1T 参数的即时模型开源了,63B 活跃参数加 1M 上下文,主打效率而非堆算力,对国内做开源推理模型的团队来说是个值得对标的基线。
18:52
蚂蚁 inclusionAI:GitHub 新仓库
精选78
inclusionAI发布全球首个开源万亿参数思维模型Ring-2.5-1T

inclusionAI发布了全球首个基于混合线性注意力架构的开源万亿参数思维模型Ring-2.5-1T。该模型通过高效的1:7 MLA与闪电线性注意力提升了推理速度与探索能力,并借助扩展的强化学习训练增强了深度思考和长程任务执行能力。其在IMO 2025和CMO 2025数学竞赛中均达到了金牌级别的性能。模型支持128K上下文长度,并可通过YaRN技术扩展至256K,现已于Hugging Face和ModelScope平台开源。部署方面,已支持SGLang,并提供了多GPU节点的服务器启动示例。

开源/仓库推理模型发布部署/工程

推荐理由:蚂蚁把万亿参数的开源 thinking model 放出来了,混合线性注意力架构是真新路线而非换皮,IMO/CMO 金牌级数学推理说明这不是纯堆参数。做开源大模型部署的团队值得认真看看它的架构选择。
11:12
蚂蚁 inclusionAI:HuggingFace 新模型
32
inclusionAI/Ming-omni-tts-tokenizer-12Hz

inclusionAI团队发布了Ming-omni-tts-tokenizer-12Hz开源项目,这是一个面向文本转语音(TTS)的通用分词器。该模型支持12Hz的高采样率,旨在提升语音合成的自然度与表现力。项目基于开源与开放科学的理念推进,致力于让人工智能技术更加普及和易得。

开源生态模型发布语音
11:10
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/Ming-omni-tts-0.5B

inclusionAI 发布了 Ming-omni-tts-0.5B,这是一个参数规模为 0.5B(5亿)的文本转语音模型。该模型旨在通过开源和开放科学的方式,推动人工智能技术的进步与普及。发布标志着在语音合成领域,一个中等规模、可公开访问的模型正式加入开源生态。

开源生态模型发布语音
10:49
蚂蚁 inclusionAI:HuggingFace 新模型
37
inclusionAI/Ming-omni-tts-16.8B-A3B

inclusionAI发布了开源文本转语音模型Ming-omni-tts-16.8B-A3B,参数量达168亿。该模型采用创新的A3B混合专家架构,在语音自然度、多语言支持和情感表现方面实现显著提升。项目遵循开源开放科学理念,旨在推动人工智能技术的民主化进程。

开源生态模型发布语音