腾讯开源了Hy-MT1.5-1.8B-1.25bit翻译模型,其参数量为18亿,经量化后仅440MB,可在手机上完全离线运行。该模型支持33种语言、5种方言及1056个翻译方向,包括藏语、蒙古语等少数语言。在标准测试中,其性能媲美商业翻译API和2350亿参数的大模型。通过量化至1.25比特,模型内存占用从FP16格式的3.3GB大幅降低,比之前的1.67比特方法体积缩小25%、速度提升约10%,且无精度损失。该模型已在国际机器翻译竞赛中获得30项第一,并部署于腾讯多个产品中。
Nvidia 发布了开源多模态模型 Nemotron 3 Nano Omni,该模型能够处理文本、图像、视频和音频。其引人关注之处不仅在于性能表现,更在于其训练数据的构成。模型的部分训练数据来源于 Qwen、GPT-OSS、Kimi 和 DeepSeek OCR 等多个知名项目,这揭示了构建现代多模态模型所需数据集的多样性与复杂性。
腾讯混元开源了手机端离线翻译模型Hy-MT1.5-1.8B-1.25bit,其体积仅440MB,可在手机本地离线运行。该模型支持33种语言及1056个翻译方向,基于1.8B参数原型通过极致量化压缩实现。其1.25-bit版本采用稀疏高效三值量化技术,将原始3.3GB模型大幅缩减。官方称其翻译质量优于谷歌翻译等主流系统,并提供了2-bit和1.25-bit两种量化方案以适配不同机型。模型完全离线工作,不收集用户数据,相关资源已全面开源。
科大讯飞总裁吴晓如宣布,公司计划于今年10月在华为昇腾950平台上发布国产旗舰大模型,该模型将直接对标业界最先进主流模型。此前,科大讯飞已发布星火X2-Flash模型,采用MoE架构,总参数达30B,最大支持256K上下文,基于华为昇腾910B集群训练完成。财务数据显示,2026年第一季度营业总收入为52.74亿元,同比增长13.23%;归母净利润为-1.70亿元,同比增长12.17%。
在2026数字中国建设峰会上,腾讯展示了其Agent智能体生态。其中,WorkBuddy桌面智能体工作台可根据一句话描述自动完成任务;专为中国用户优化的AI技能社区“SkillHub”已集成腾讯核心产品能力,并收录超3.5万个技能。最新发布的混元Hy3 preview语言模型首次亮相,该模型为混合专家模型,总参数295B,支持256K上下文,在复杂推理、代码等能力上大幅提升,旨在助力中小企业低成本快速搭建AI应用,并已在腾讯云、元宝等多款产品中上线。
当前大型音频语言模型普遍依赖基于验证奖励的强化学习范式来驱动听觉推理,但这陷入了“可验证奖励陷阱”——模型为追求孤立文本标签的正确性,牺牲了声学细微差别和对话自然度,导致交互机械、沉浸感差。Step-Audio-R1.5 通过转向基于人类反馈的强化学习实现了范式突破。评估表明,它在保持强大分析推理能力的同时,显著提升了交互体验,特别是在长轮对话中改善了韵律自然性与情感连续性,重新定义了深度沉浸式语音对话的边界。
科大讯飞正式发布星火 X2-Flash 模型并开放API。该模型采用MoE架构,总参数300亿,支持256K上下文,基于华为昇腾910B集群训练。其在智能体、代码等能力上大幅提升,在深度研究报告、Skill管理等多项任务上效果接近业界万亿参数模型,而整体token消耗不到主流大尺寸模型的三分之一。通过结合DSA与MTP技术,模型在国产芯片上的训练效率从同规模A800集群的20%提升至90%,并解决了长交互场景采样效率低的问题,为大规模强化学习训练扫清障碍。AstronClaw、Loomy等已率先接入。
inclusionAI 发布了 Ling-2.6-1T 模型,这是一个包含 1 万亿参数的大型语言模型。该模型基于开源与开放科学理念构建,旨在推动人工智能技术的进步与民主化。新模型在多项基准测试中展现出更强的语言理解与生成能力,同时提供了更高效的推理性能。这一发布标志着开源社区在规模化 AI 模型开发上的重要进展,为研究者和开发者提供了可访问的高性能工具。
关联讨论 1 条IT之家(RSS)NVIDIA发布了多模态模型Nemotron 3 Nano Omni,专为处理长上下文设计,能够同时理解文本、图像、音频和视频。该模型在文档分析、自动语音识别、音视频理解以及智能体计算机使用等实际应用场景中表现优异。在多项基准测试中,Nemotron 3 Nano Omni均展现出领先的准确性和效率。
蚂蚁集团发布Ling-2.6系列模型,通过MoE架构与Fast-Thinking机制,将推理激活率降至7%,在实现接近GPT-5.4非推理水平综合智能的同时,大幅降低token成本。该模型在SWE-bench Verified等真实Agent场景测试中表现领先,旨在解决Agent规模化应用的成本痛点。目前已在OpenRouter提供免费API并即将开源,推动行业焦点从刷榜转向生产落地。其高效率特性尤其适合高频任务,在部分任务中速度比Claude Sonnet 4.6快6倍、成本低50倍。
后续来了兄弟们,卧槽真的太炸了,同样的任务,同样的配置,速度比Claude Sonnet 4.6还快 6 倍,成本低约 50 倍, openrouter 和 官…
关联讨论 2 条X:蚂蚁百灵 (@AntLingAGI)X:Artificial Analysis (@ArtificialAnlys)蚂蚁集团百灵大模型宣布开源Ling-2.6-flash,提供BF16、FP8、INT4等多个版本供开发者灵活选用。该模型总参数量104B,激活参数7.4B,是一款Instruct模型。官方基于开发者反馈优化了中英文切换及主流编程框架适配效果。其核心优势包括:采用混合线性架构,在4卡H20上推理速度最快达340 tokens/s;通过Token效率优化,在评测中消耗的tokens仅为同类模型的约1/10;针对Agent场景增强了工具调用与任务执行能力,在多项评测中达到先进水平。模型已在Hugging Face和ModelScope平台开源。
英伟达发布开源全模态推理模型Nemotron 3 Nano Omni,采用30B‑A3B混合MoE架构,集视频、音频、图像和文本处理于一体。该模型旨在替代多模型链,降低推理成本与编排复杂度。在多项基准测试中表现领先,尤其在视频推理任务中,其系统吞吐量相比其他开放式全模态模型最高提升约9.2倍,文档推理任务最高提升约7.4倍。模型权重、训练配方及数据集已完全开放,支持开发者在各类环境中定制部署。
NVIDIA 重磅发布!🚀 Nemotron 3 Nano Omni 多模态开源模型来了! 🔥 30B 参数 🔥 256K 超长上下文 🔥 最高效开放多模态模型(语言+视觉+语音+视频+音频一体化) 🔥 专为 subagents / Agentic 任务设计 🔥 完全开源(权重 + 数据 + 配方),领跑多项榜单 可通过 NVIDIA NIM API 免费试用!完美驱动多代理工作流。
关联讨论 2 条HuggingFace Daily Papers(社区热门论文)Nathan Lambert:Interconnects(RSS)名为“Talkie”的130亿参数语言模型仅使用1931年前的文本训练,其对未来世界的预测呈现出强烈的时代局限性。该模型怀疑第二次世界大战是否会发生,并将2026年想象成一个仍以蒸汽船、铁路和廉价小说为主导的世界。这直观揭示了训练数据的时间范围如何从根本上限制大语言模型对现实发展的认知与预测能力。
蚂蚁集团AGI团队发布Ling-2.6-1T模型,其核心创新在于聚焦token效率而非参数规模。该模型采用MoE架构,每次推理仅激活7.4B参数,结合Linear Attention与Multi-Token Prediction技术,在保持接近GPT-5.4非推理水平的高智能同时,将token成本降至可比模型的四分之一。在Artificial Analysis评测中以极低消耗获得高分,并在SWE-bench等硬核Agent场景领先。该模型专为处理海量真实生产请求设计,旨在为高频Agent应用提供高效、低成本的解决方案,并通过免费API策略加速生态布局,预示AI竞赛重心正向真实生产成本效率转移。
后续来了兄弟们,卧槽真的太炸了,同样的任务,同样的配置,速度比Claude Sonnet 4.6还快 6 倍,成本低约 50 倍, openrouter 和 官…
NVIDIA 发布了 Nemotron 3 Nano Omni 模型,这是一个专为处理长上下文多模态任务设计的轻量级模型。该模型能够同时理解并处理文档、音频和视频数据,旨在赋能新一代多模态智能体。其核心变化在于将长上下文能力与多模态理解结合到一个小型化模型中,提升了在复杂跨模态场景下的处理效率与应用灵活性。
关联讨论 2 条HuggingFace Daily Papers(社区热门论文)Nathan Lambert:Interconnects(RSS)灵码2.6-flash模型现已开源,这是一个专为现实世界智能体工作流构建的快速、高效的指令模型。该模型总参数量达1040亿,激活参数量为74亿,并提供BF16、FP8和INT4多种量化版本以适应不同部署需求。其核心优势包括:生成速度高达每秒215个token,在完整评估中仅消耗1500万token,效率突出;在代码、文档处理和轻量级智能体工作流等实际任务中表现强劲;同时,其中英文切换能力及与主流编程框架的兼容性也得到了进一步改善。
SenseNova宣布开源其U1 Lite系列模型。该系列基于NEO-unify架构,原生统一了多模态理解与生成能力。其核心优势包括:在开源模型中具备领先的效率,紧凑的8B和A3B模型在保持商业级性能的同时实现了优异的成本效益;支持原生的图像-文本交织生成,单一模型即可在单次流程中生成连贯交织的图文内容,适用于制作指南等实用场景;并拥有高密度信息渲染能力,擅长为知识图解、海报、PPT、漫画等信息密集型格式生成结构丰富的版式。模型已在Hugging Face、GitHub等平台发布。
商汤发布开源可商用的多模态大模型SenseNova-U1,采用NEO-Unify架构统一处理视觉与语言。其核心功能包括图文交错生成、智能图像编辑与图表渲染。模型提供8B密集版和约3B活性参数的轻量版,适合个人显卡本地部署。现提供每日5小时及1500次免费调用额度,并即将推出办公场景应用功能。
inclusionAI团队宣布推出Ling-2.6-flash-int4模型,作为其通过开源与开放科学推动人工智能技术进步与普及的重要举措。该版本延续了团队降低AI应用门槛、促进技术民主化的核心使命,以轻量化技术方案进一步优化模型性能与部署效率。
inclusionAI 团队发布了 Ling-2.6-flash-fp8 模型,致力于通过开源与开放科学推动人工智能的发展与普及。该版本采用 FP8 精度优化,显著提升了推理效率并降低了计算资源消耗,是其在推进技术民主化进程中的最新实践。
inclusionAI发布了Ling-2.6-flash模型。该模型是其开源语言模型系列的最新成员,旨在通过开源与开放科学推动人工智能的进步与民主化。此次发布延续了团队降低AI技术使用门槛、促进更广泛社区参与开发的使命。
Nick Levine、David Duvenaud 和 Alec Radford 发布了 talkie,这是一个基于1931年前历史英文文本训练的130亿参数语言模型。其基础版本在2600亿token的已过版权数据上训练,而指令微调版本则用于驱动聊天界面。该版本借助Claude等现代模型生成合成数据进行训练,可能导致年代错位的知识污染。项目旨在探索此类模型预测未来、超越知识截止点进行发明等能力,并希望最终构建一个完全由复古模型自举的训练流程。模型采用Apache 2.0许可。