Sam Altman 刚宣布,OpenAI 将在未来几天向“关键网络安全防御者”推送 GPT-5.5-Cyber,一个专门为网络安全打造的前沿模型。他说 OpenAI 会和整个行业生态及政府合作,建立可信的访问机制,目标是尽快帮助保护企业和基础设施。
AntLingAGI正式开源其万亿参数旗舰模型Ling-2.6-1T。该模型采用总参数1万亿、激活参数630亿的架构,核心设计理念是“令牌高效”,旨在以极低的令牌开销实现顶尖智能。它通过“快速思考”机制优化,具备可靠的多步骤执行能力,在指令遵循、工具使用和上下文控制方面表现优异。模型为实际生产需求优化,部署便捷,兼容广泛的智能体框架,适用于从代码生成到错误修复等多种任务。
关联讨论 2 条X:蚂蚁百灵 (@AntLingAGI)X:Artificial Analysis (@ArtificialAnlys)IBM发布了三款采用Apache 2.0许可的Granite 4.1开源模型(30B、8B、3B)。其核心特点是极高的令牌效率,例如8B模型运行智能指数仅需4M输出令牌,远低于同类模型。在开放性指数上,三款模型均获得61分,领先多数同行。但高效率也带来了智能指数的相对折衷,其得分低于Qwen3.5、Gemma 4等竞品。不过,与上一代Granite 4.0系列相比,新模型的智能表现仍有提升。该系列模型拥有128K令牌的上下文窗口,主要面向企业和边缘部署,可通过WandB、Replicate和Hugging Face获取。
关联讨论 1 条Hugging Face:Blog(RSS)腾讯开源了Hy-MT1.5-1.8B-1.25bit翻译模型,其参数量为18亿,经量化后仅440MB,可在手机上完全离线运行。该模型支持33种语言、5种方言及1056个翻译方向,包括藏语、蒙古语等少数语言。在标准测试中,其性能媲美商业翻译API和2350亿参数的大模型。通过量化至1.25比特,模型内存占用从FP16格式的3.3GB大幅降低,比之前的1.67比特方法体积缩小25%、速度提升约10%,且无精度损失。该模型已在国际机器翻译竞赛中获得30项第一,并部署于腾讯多个产品中。
NVIDIA发布了多模态模型Nemotron 3 Nano Omni,专为处理长上下文设计,能够同时理解文本、图像、音频和视频。该模型在文档分析、自动语音识别、音视频理解以及智能体计算机使用等实际应用场景中表现优异。在多项基准测试中,Nemotron 3 Nano Omni均展现出领先的准确性和效率。
蚂蚁集团发布Ling-2.6系列模型,通过MoE架构与Fast-Thinking机制,将推理激活率降至7%,在实现接近GPT-5.4非推理水平综合智能的同时,大幅降低token成本。该模型在SWE-bench Verified等真实Agent场景测试中表现领先,旨在解决Agent规模化应用的成本痛点。目前已在OpenRouter提供免费API并即将开源,推动行业焦点从刷榜转向生产落地。其高效率特性尤其适合高频任务,在部分任务中速度比Claude Sonnet 4.6快6倍、成本低50倍。
后续来了兄弟们,卧槽真的太炸了,同样的任务,同样的配置,速度比Claude Sonnet 4.6还快 6 倍,成本低约 50 倍, openrouter 和 官…
关联讨论 2 条X:蚂蚁百灵 (@AntLingAGI)X:Artificial Analysis (@ArtificialAnlys)NVIDIA 重磅发布!🚀 Nemotron 3 Nano Omni 多模态开源模型来了! 🔥 30B 参数 🔥 256K 超长上下文 🔥 最高效开放多模态模型(语言+视觉+语音+视频+音频一体化) 🔥 专为 subagents / Agentic 任务设计 🔥 完全开源(权重 + 数据 + 配方),领跑多项榜单 可通过 NVIDIA NIM API 免费试用!完美驱动多代理工作流。
关联讨论 3 条HuggingFace Daily Papers(社区热门论文)Nathan Lambert:Interconnects(RSS)Hugging Face:Blog(RSS)蚂蚁集团AGI团队发布Ling-2.6-1T模型,其核心创新在于聚焦token效率而非参数规模。该模型采用MoE架构,每次推理仅激活7.4B参数,结合Linear Attention与Multi-Token Prediction技术,在保持接近GPT-5.4非推理水平的高智能同时,将token成本降至可比模型的四分之一。在Artificial Analysis评测中以极低消耗获得高分,并在SWE-bench等硬核Agent场景领先。该模型专为处理海量真实生产请求设计,旨在为高频Agent应用提供高效、低成本的解决方案,并通过免费API策略加速生态布局,预示AI竞赛重心正向真实生产成本效率转移。
后续来了兄弟们,卧槽真的太炸了,同样的任务,同样的配置,速度比Claude Sonnet 4.6还快 6 倍,成本低约 50 倍, openrouter 和 官…
灵码2.6-flash模型现已开源,这是一个专为现实世界智能体工作流构建的快速、高效的指令模型。该模型总参数量达1040亿,激活参数量为74亿,并提供BF16、FP8和INT4多种量化版本以适应不同部署需求。其核心优势包括:生成速度高达每秒215个token,在完整评估中仅消耗1500万token,效率突出;在代码、文档处理和轻量级智能体工作流等实际任务中表现强劲;同时,其中英文切换能力及与主流编程框架的兼容性也得到了进一步改善。
SenseNova宣布开源其U1 Lite系列模型。该系列基于NEO-unify架构,原生统一了多模态理解与生成能力。其核心优势包括:在开源模型中具备领先的效率,紧凑的8B和A3B模型在保持商业级性能的同时实现了优异的成本效益;支持原生的图像-文本交织生成,单一模型即可在单次流程中生成连贯交织的图文内容,适用于制作指南等实用场景;并拥有高密度信息渲染能力,擅长为知识图解、海报、PPT、漫画等信息密集型格式生成结构丰富的版式。模型已在Hugging Face、GitHub等平台发布。
商汤发布开源可商用的多模态大模型SenseNova-U1,采用NEO-Unify架构统一处理视觉与语言。其核心功能包括图文交错生成、智能图像编辑与图表渲染。模型提供8B密集版和约3B活性参数的轻量版,适合个人显卡本地部署。现提供每日5小时及1500次免费调用额度,并即将推出办公场景应用功能。
小米 MiMo -V2.5 系列模型全部开源 采用宽松的 MIT 协议,允许自由商用、二次训练与微调,无需额外授权。 同时他们还推出了Orbit 100T …