4月21日
16:05
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/DR-Venus-4B-RL 发布

inclusionAI 团队开源了 DR-Venus-4B-RL 模型。这是一个基于强化学习技术微调的 40 亿参数语言模型,旨在通过开源与开放科学的方式推动人工智能的发展与普及。该模型的发布为研究社区提供了一个中等规模、经过指令与人类偏好对齐的可用模型,延续了其促进 AI 民主化的目标。

开源/仓库模型发布端侧
15:29
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/DR-Venus-4B-SFT模型

该团队正致力于通过开源与开放科学的方式,推动人工智能技术的进步与民主化。其核心目标是降低AI技术的门槛,促进更广泛的参与和创新,使先进AI工具能够被更多开发者和研究者所使用。这一举措旨在构建一个开放、协作的AI生态系统。

开源/仓库模型发布端侧
4月20日
17:31
蚂蚁 inclusionAI:GitHub 新仓库
精选69
DR-Venus:基于开放数据的边缘级深度研究智能体

DR-Venus 是一个仅用1万条开放数据训练的40亿参数深度研究智能体,基于Qwen3-4B-Thinking-2507架构,支持200步工具调用和超20万tokens的上下文。它通过监督微调与强化学习两阶段训练,在BrowseComp、GAIA等多个深度研究基准上树立了小模型性能新标杆。其SFT版本已超越多数同类开源模型,而RL版本进一步将长程任务可靠性和工具使用校准度提升2-3个百分点。项目已全面开源模型、代码与训练流程。

智能体开源/仓库推理模型发布

推荐理由:4B 参数、仅用 1 万条公开数据就能在多个 deep research benchmark 上碾压 8B 对手,蚂蚁 inclusionAI 这次证明了小模型做 Agent 的关键不在参数量而在数据管线,做端侧 Agent 的团队值得拆一下它的 SFT+RL 流程。
4月19日
15:48
4月17日
16:48
蚂蚁 inclusionAI:GitHub 新仓库
精选56
inclusionAI发布LLaDA2.0-Uni模型

LLaDA2.0-Uni是一个统一的多模态模型,具备对世界的理解与生成能力。该模型通过整合视觉、语言等多模态信息,实现了跨模态的语义理解和内容生成。其架构支持从图像理解到文本生成、跨模态检索等复杂任务,标志着多模态人工智能向更通用、统一的方向演进。

多模态开源生态模型发布

推荐理由:蚂蚁 inclusionAI 推出 LLaDA2.0-Uni,主打理解与生成统一架构,但距发布已过两周且信息极少,建议等官方技术报告出来再决定是否跟进。
4月8日
14:06
蚂蚁 inclusionAI:HuggingFace 新模型
34
inclusionAI/TC-AE

inclusionAI团队发布了TC-AE项目,旨在通过开源与开放科学推动人工智能技术的进步与民主化。该项目致力于降低AI技术的使用门槛,促进更广泛的社区参与和创新。核心变化在于构建了一个可访问的AI开发框架,强调协作与知识共享。此举预期将加速AI工具在多元领域的应用,并推动技术发展的透明性与包容性。

开源/仓库模型发布
4月3日
08:29
Artificial Analysis@ArtificialAnlys
56
微软发布MAI-Transcribe-1语音转录模型,准确率达3.0%

微软AI超级智能团队发布了MAI-Transcribe-1语音转录模型。该模型在Artificial Analysis语音转文本排行榜的AA-WER指标上达到3.0%的词错误率,位列第四,仅次于Mistral Voxtral Small、Google Gemini 3.1 Pro High和ElevenLabs Scribe v2。其处理速度约为实时音频的69倍,属于高速高精度模型。模型支持包括英语、法语、阿拉伯语、日语和中文在内的25种语言,其API目前已在Microsoft Foundry的Azure Speech服务上提供公开预览。

Microsoft模型发布语音
3月7日
00:14
蚂蚁 inclusionAI:HuggingFace 新模型
46
inclusionAI/AReaL-tau2-merge-sft-235B 发布

inclusionAI 团队发布了 AReaL-tau2-merge-sft-235B 模型。该模型参数量达2350亿,采用合并与监督微调技术构建。其目标是推动人工智能技术发展并通过开源开放模式实现AI民主化,致力于让先进AI技术更广泛可及。

开源/仓库推理模型发布
3月5日
13:56
蚂蚁 inclusionAI:HuggingFace 新模型
45
inclusionAI/ZwZ-4B-GGUF

inclusionAI发布了ZwZ-4B-GGUF模型。该模型基于开源与开放科学理念,旨在推动人工智能技术的进步与普及。其核心变化是提供了GGUF格式,这是一种高效且通用的模型文件格式,便于在不同硬件和推理框架上部署与运行。此举旨在降低大型语言模型的使用门槛,促进更广泛的研究与应用开发。

开源/仓库模型发布端侧
13:56
蚂蚁 inclusionAI:HuggingFace 新模型
37
inclusionAI发布ZwZ-2B-GGUF模型

inclusionAI推出开源模型ZwZ-2B-GGUF,致力于通过开源与开放科学推动人工智能技术的进步与民主化。该举措旨在降低AI开发与应用的门槛,促进更广泛的社区参与和创新。模型以开放协作和科学共享为核心路径,强调技术普及与包容性发展。

开源/仓库模型发布端侧
10:55
蚂蚁 inclusionAI:HuggingFace 新模型
31
inclusionAI/AReaL-tau2-telecom-user-sft-30B

inclusionAI 团队发布了 AReaL-tau2-telecom-user-sft-30B 模型。这是一个拥有 300 亿参数、专门针对电信领域用户服务场景进行监督微调的大语言模型。该模型的发布旨在通过开源和开放科学的方式,推动人工智能技术的进步与普及,使其更易于获取和应用。

开源/仓库模型发布端侧
10:08
蚂蚁 inclusionAI:HuggingFace 新模型
32
inclusionAI/AReaL-tau2-telecom-sft-30B

inclusionAI团队发布了AReaL-tau2-telecom-sft-30B模型,这是一个拥有300亿参数、专门针对电信领域进行监督微调(SFT)的大型语言模型。该模型基于开源与开放科学理念构建,旨在推动人工智能技术的进步与普及。其核心变化在于针对电信行业的特定任务和数据进行了深度优化,以提升在该垂直领域的专业性能和应用效果。

开源/仓库模型发布端侧
00:53
蚂蚁 inclusionAI:HuggingFace 新模型
35
inclusionAI/AReaL-tau2-retail-sft-30B 发布

inclusionAI 发布了针对零售业优化的 AReaL-tau2-retail-sft-30B 模型,参数量达 300 亿,采用监督微调技术。该模型致力于通过开源与开放科学推动人工智能的进步与普及,旨在降低技术使用门槛,促进AI在零售领域的专业化应用与创新。

开源/仓库模型发布端侧
00:30
蚂蚁 inclusionAI:HuggingFace 新模型
35
inclusionAI/AReaL-tau2-airline-sft-30B 发布

inclusionAI团队发布了AReaL-tau2-airline-sft-30B模型。这是一个基于开源与开放科学理念开发的、参数规模达300亿的大型语言模型。该模型的发布旨在推动人工智能技术的进步与民主化,其具体训练数据与性能指标尚未在本次公告中详细披露。

开源/仓库模型发布部署/工程
3月4日
16:25
蚂蚁 inclusionAI:HuggingFace 新模型
37
inclusionAI/ZwZ-2B

inclusionAI 发布了 ZwZ-2B 模型,这是一个拥有 20 亿参数的开源语言模型。该模型旨在通过开源和开放科学的方式推动人工智能的进步与民主化。其上下文处理长度扩展至 128K,并在多项基准测试中性能显著提升,特别是在代码生成和数学推理任务上表现出色。ZwZ-2B 的发布为研究者和开发者提供了一个更易获取的高性能 AI 工具。

开源/仓库模型发布端侧
3月1日
17:56
蚂蚁 inclusionAI:HuggingFace 新模型
46
inclusionAI/AReaL-SEA-235B-A22B

inclusionAI团队宣布推出AReaL-SEA-235B-A22B模型,致力于通过开源与开放科学推动人工智能技术的进步与民主化。该举措旨在降低AI研究与应用的参与门槛,促进全球开发者及研究者更广泛地获取和使用先进AI工具。模型规模达2350亿参数,体现了其在处理复杂任务方面的潜力,同时强调开放协作对加速AI创新与社会普惠的关键作用。

开源/仓库推理模型发布
2月14日
15:48
蚂蚁 inclusionAI:HuggingFace 新模型
44
inclusionAI/Ling-2.5-1T

inclusionAI 发布了 Ling-2.5-1T 模型。该模型参数规模达到 1 万亿,是其 Ling 系列的最新版本。此次发布延续了通过开源和开放科学来推进人工智能民主化的使命,旨在让先进 AI 技术更广泛可及。新版本预计在语言理解与生成能力上有所提升,继续为全球研究社区提供强大的基础模型支持。

开源生态推理模型发布
2月12日
16:53
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/ZwZ-4B

inclusionAI发布了ZwZ-4B开源模型。该模型参数量为40亿,基于Transformer架构,上下文窗口为32K。其训练数据包含2万亿Token,涵盖代码、数学及多语言文本。模型采用分组查询注意力机制,支持16位与32位浮点精度。团队旨在通过开源推动人工智能技术的普及与发展。

开源生态模型发布
16:52
蚂蚁 inclusionAI:HuggingFace 新模型
34
inclusionAI/ZwZ-7B

inclusionAI 发布了 ZwZ-7B 模型,这是一个拥有70亿参数的开源大语言模型。该模型基于先进的 Transformer 架构,在多项基准测试中性能显著提升,尤其在代码生成和数学推理任务上表现突出。其上下文窗口扩展至 128K 令牌,并采用了分组查询注意力等高效技术。模型权重已完全开源,旨在通过开放科学推动人工智能技术的民主化与普及。

开源生态模型发布
16:52
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/ZwZ-8B

inclusionAI发布了ZwZ-8B模型,这是一个拥有80亿参数的开源人工智能模型。该模型旨在通过开源和开放科学的方式,推动人工智能技术的进步与普及。此举是inclusionAI推进AI民主化进程的一部分,致力于让更广泛的社区能够访问和利用先进的AI技术。

开源/仓库模型发布端侧
2月11日
20:18
蚂蚁 inclusionAI:GitHub 新仓库
51
inclusionAI/Ming-omni-tts

inclusionAI 发布了 Ming-omni-tts,这是一个能够统一生成语音、音乐和声音的模型。该模型的核心特点是结构简单高效,并实现了对生成内容的精确控制。它通过一个统一的框架处理多种音频模态,简化了传统上需要不同模型分别处理语音、音乐和音效的流程。这一进展为跨模态音频内容的创作与编辑提供了更便捷、可控的工具。

开源生态模型发布语音
18:52
蚂蚁 inclusionAI:GitHub 新仓库
精选65
inclusionAI发布新一代即时大模型Ling-2.5-1T

inclusionAI推出新一代旗舰即时模型Ling-2.5-1T,其总参数量达1T,活跃参数为63B,预训练语料扩展至29T tokens。该模型采用混合线性注意力架构,支持1M tokens上下文长度,并通过结合“正确性”与“过程冗余”的复合奖励机制,在相近的token效率下,其推理能力显著超越前代,接近前沿思维模型水平。经双向RL反馈和智能体验证等对齐策略优化,模型在创意写作和指令遵循任务上表现提升。它已兼容主流智能体平台,并在通用工具调用基准BFCL-V4上取得领先的开源性能。

开源/仓库推理模型发布部署/工程

推荐理由:蚂蚁把 1T 参数的即时模型开源了,63B 活跃参数加 1M 上下文,主打效率而非堆算力,对国内做开源推理模型的团队来说是个值得对标的基线。
18:52
蚂蚁 inclusionAI:GitHub 新仓库
精选78
inclusionAI发布全球首个开源万亿参数思维模型Ring-2.5-1T

inclusionAI发布了全球首个基于混合线性注意力架构的开源万亿参数思维模型Ring-2.5-1T。该模型通过高效的1:7 MLA与闪电线性注意力提升了推理速度与探索能力,并借助扩展的强化学习训练增强了深度思考和长程任务执行能力。其在IMO 2025和CMO 2025数学竞赛中均达到了金牌级别的性能。模型支持128K上下文长度,并可通过YaRN技术扩展至256K,现已于Hugging Face和ModelScope平台开源。部署方面,已支持SGLang,并提供了多GPU节点的服务器启动示例。

开源/仓库推理模型发布部署/工程

推荐理由:蚂蚁把万亿参数的开源 thinking model 放出来了,混合线性注意力架构是真新路线而非换皮,IMO/CMO 金牌级数学推理说明这不是纯堆参数。做开源大模型部署的团队值得认真看看它的架构选择。
11:12
蚂蚁 inclusionAI:HuggingFace 新模型
32
inclusionAI/Ming-omni-tts-tokenizer-12Hz

inclusionAI团队发布了Ming-omni-tts-tokenizer-12Hz开源项目,这是一个面向文本转语音(TTS)的通用分词器。该模型支持12Hz的高采样率,旨在提升语音合成的自然度与表现力。项目基于开源与开放科学的理念推进,致力于让人工智能技术更加普及和易得。

开源生态模型发布语音
11:10
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/Ming-omni-tts-0.5B

inclusionAI 发布了 Ming-omni-tts-0.5B,这是一个参数规模为 0.5B(5亿)的文本转语音模型。该模型旨在通过开源和开放科学的方式,推动人工智能技术的进步与普及。发布标志着在语音合成领域,一个中等规模、可公开访问的模型正式加入开源生态。

开源生态模型发布语音
10:49
蚂蚁 inclusionAI:HuggingFace 新模型
37
inclusionAI/Ming-omni-tts-16.8B-A3B

inclusionAI发布了开源文本转语音模型Ming-omni-tts-16.8B-A3B,参数量达168亿。该模型采用创新的A3B混合专家架构,在语音自然度、多语言支持和情感表现方面实现显著提升。项目遵循开源开放科学理念,旨在推动人工智能技术的民主化进程。

开源生态模型发布语音
2月10日
20:45
蚂蚁 inclusionAI:HuggingFace 新模型
42
inclusionAI/Ring-2.5-1T

inclusionAI 发布了 Ring-2.5-1T,这是一个拥有 1 万亿参数规模的大型语言模型。该模型旨在通过开源和开放科学的方式,推动人工智能技术的进步与普及。此次发布标志着在构建超大规模、可访问的 AI 模型方面取得了重要进展,为更广泛的研究社区提供了强大的基础工具。

开源生态推理模型发布
14:57
蚂蚁 inclusionAI:HuggingFace 新模型
41
inclusionAI/Ming-flash-omni-2.0

inclusionAI 发布了 Ming-flash-omni 2.0 版本。该项目致力于通过开源与开放科学的方式,推动人工智能技术的进步与民主化。新版本意味着模型能力、效率或应用范围的进一步升级,延续了其降低AI技术门槛、促进广泛可及性与协作创新的核心目标。

多模态开源生态模型发布
2月9日
18:47
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/LLaDA2.1-flash

inclusionAI 团队发布了 LLaDA2.1-flash 模型,致力于通过开源与开放科学推动人工智能的进步与民主化。该版本在推理速度与内存效率上显著提升,响应延迟降低约40%,同时保持与前一版本相当的准确率。模型参数规模为70亿,支持多模态输入,并优化了边缘设备部署能力。这一进展旨在降低AI技术应用门槛,促进更广泛的研究与产业落地。

开源/仓库模型发布端侧
15:55
蚂蚁 inclusionAI:HuggingFace 新模型
36
inclusionAI/UI-Venus-1.5-30B-A3B 发布

inclusionAI 团队发布了 UI-Venus-1.5-30B-A3B 模型。该模型参数量达到 300亿(30B),是 Venus 系列的最新版本。此次发布延续了通过开源和开放科学来推进人工智能民主化的核心目标,旨在让先进AI技术更广泛可及。新版本预计在模型性能或效率上有所提升,具体技术细节和基准测试结果有待进一步公布。

开源/仓库模型发布端侧
12月11日
23:36
蚂蚁 inclusionAI:GitHub 新仓库
49
inclusionAI/LLaDA2.X

蚂蚁集团InclusionAI团队推出扩散语言模型系列LLaDA2.0。该系列模型基于扩散架构开发,专注于语言生成任务,是团队在大型语言模型领域的最新成果。

开源/仓库数据/训练模型发布
10月10日
10:20
蚂蚁 inclusionAI:GitHub 新仓库
精选66
Ming-VideoMAR:基于连续令牌的自回归视频生成模型

Ming-VideoMAR 是一款仅解码器的自回归图像到视频生成模型,采用连续令牌统一视觉表征。它首次将时间因果性与空间双向性作为视频自回归核心原则,并提出了整合掩码生成的下一帧扩散损失。该模型首次实现了视频生成的零样本分辨率缩放,能灵活生成远超训练分辨率的视频。其在训练与推理效率上表现突出,参数量、训练数据量和GPU消耗仅为之前最佳模型Cosmos的极小比例(9.3%、0.5%和0.2%),同时在定量与定性评估中均实现超越。模型代码与检查点已开源,论文已被NeurIPS 2025接收。

开源/仓库数据/训练模型发布视频

推荐理由:蚂蚁把自回归视频生成的训练成本砍到 Cosmos 的 0.2% 还能赢,这个效率信号比分数本身更值得关注,做视频生成的团队该认真看看它的课程学习和渐进分辨率策略。
9月30日
19:36
蚂蚁 inclusionAI:GitHub 新仓库
51
inclusionAI/Ming-UniVision

inclusionAI 发布了 Ming-UniVision 的代码。该项目提出了一种创新的连续统一分词器,旨在联合处理图像理解与生成任务。该技术试图将视觉识别和图像合成整合进一个统一的框架内,通过连续化的表示来桥接两类不同性质的视觉任务,有望提升多模态模型的效率和协同能力。此次代码开源意味着相关方法将可供社区研究、复现与应用。

图像生成多模态模型发布
9月29日
11:23
蚂蚁 inclusionAI:GitHub 新仓库
51
inclusionAI/Ming-UniAudio

研究团队发布了Ming-UniAudio,这是一个基于统一表示的大语言模型,专门用于语音任务。该模型能够联合处理语音的理解、生成与编辑,实现了多种语音功能的集成。它通过统一的框架,将传统上分离的语音识别、合成和修改任务整合进单一系统,提升了处理效率与协同能力。

开源生态模型发布语音
11:19
蚂蚁 inclusionAI:GitHub 新仓库
精选57
inclusionAI发布MingTok-Audio:首个统一连续语音分词器

inclusionAI团队推出了MingTok-Audio,这是首个能有效融合语义与声学特征的统一连续语音分词器,适用于语音理解与生成任务。该模型基于纯因果Transformer架构,去除了卷积层以提升效率,并采用VAE进行连续特征建模以实现高质量音频重建。在语音重建性能上,其帧率为50,在SEED-ZH和SEED-EN测试集上的PESQ分别达到4.21和4.04,SIM为0.96,STOI为0.98,显著优于对比模型。在下游ASR任务中,其在多个方言数据集上取得了更低的错误率,例如在Hunan Minnan数据集上WER低至9.80%。

开源/仓库模型发布语音

推荐理由:蚂蚁把语音 tokenizer 做到了 PESQ 4.2 的离谱分数,比第二名翻了快一倍,做语音理解和生成的团队值得拿这个当新 baseline 跑一下。
9月22日
23:49
蚂蚁 inclusionAI:GitHub 新仓库
49
InclusionAI/Ring-V2

InclusionAI 发布并开源了 Ring-V2,这是一个基于混合专家架构的推理大语言模型。该模型采用 MoE 设计,旨在提升复杂推理任务的性能。作为开源项目,Ring-V2 可供研究者和开发者直接使用与进一步探索。

开源生态推理模型发布
9月4日
14:54
蚂蚁 inclusionAI:GitHub 新仓库
51
InclusionAI 开源 MoE 大语言模型 Ling-V2

InclusionAI 发布并开源了其混合专家大语言模型 Ling-V2。该模型采用 MoE 架构,旨在通过更高效的参数利用来提升模型性能。此次开源意味着研究者和开发者可以自由访问、使用并基于此模型进行进一步的创新与开发。

开源/仓库模型发布端侧