4月28日
10:47
Hacker News 热门(buzzing.cc 中文翻译)
51
Talkie:一款诞生于1930年的13B复古语言模型

Talkie是一款参数规模为130亿的复古风格语言模型,其设计灵感源于1930年代的语言特征与表达方式。该模型通过模拟特定历史时期的语料与文风,在文本生成中呈现出独特的复古韵味。项目已在官网发布,并在Hacker News社区获得102点热度关注。这一尝试展示了语言模型在风格化与历史语境模拟方面的技术拓展。

开源/仓库数据/训练模型发布
10:42
歸藏(guizang.ai)@op7418
精选74
小米 MiMo-V2.5 系列模型全部开源

小米正式开源MiMo-V2.5系列模型,采用宽松的MIT协议,允许自由商用、二次训练与微调。该系列包含两个支持100万token上下文窗口的模型:专为复杂Agent和编码任务设计、在多项评测领先的MiMo-V2.5-Pro,以及具备强大Agent能力的原生全模态模型MiMo-V2.5。同时,小米推出Orbit 100T Token计划,包含面向AI开发者的“百万亿Token创造者激励计划”,提供最高价值659元的Credits,以及面向Agent框架团队的“Agent生态共建计划”,为其用户提供MiMo token限免支持。

智能体开源/仓库模型发布端侧
关联讨论 3X:Artificial Analysis (@ArtificialAnlys)X:Testing Catalog (@testingcatalog)IT之家(RSS)
推荐理由:小米把 MiMo-V2.5 全线 MIT 开源,Pro 版在 agent 和编码榜单冲到开源第一,百万亿 Token 激励计划更是直接送钱让你用,做 Vibe Coding 的人没理由不去薅一把。
09:45
meng shao@shao__meng
精选75
小米开源MiMo-V2.5系列大模型

小米正式开源MiMo-V2.5系列模型,包含专注于代码代理的1T参数MoE模型MiMo-V2.5-Pro,以及支持多模态代理的310B参数MoE模型MiMo-V2.5,两者均支持1M上下文长度。其架构核心采用混合注意力、多Token预测和稀疏MoE技术,以支撑万亿参数规模下的高效长文处理。后训练基于MOPD范式,通过多教师策略蒸馏提升模型综合能力。同时,小米推出100T Token的创造者激励计划,为开发者提供免费计算资源以鼓励创新。模型已在Hugging Face平台开源。

智能体开源/仓库模型发布端侧
关联讨论 3X:Artificial Analysis (@ArtificialAnlys)X:Testing Catalog (@testingcatalog)IT之家(RSS)
推荐理由:小米把万亿参数 MoE 做到开源且百万上下文,MTP 三层原生集成让推理速度翻三倍,这在国内大厂开源里是第一个真正敢放权重的万亿级模型,做 Agent 的值得认真看看。
07:23
Berryxia.AI@berryxia
69
小米开源MiMo-V2.5系列模型,支持百万token上下文

小米正式开源MiMo-V2.5系列模型,采用MIT许可证,允许商业部署、持续训练和微调。两个模型均支持100万token上下文窗口:MiMo-V2.5-Pro专为复杂Agent和编码任务设计,在开源模型的GDPVal-AA和ClawEval基准测试中排名第一;MiMo-V2.5是原生多模态模型,具备强大的Agent能力。小米强调,模型的价值不应仅由排行榜衡量,而应取决于其解决实际问题的能力。

智能体开源/仓库模型发布编码
03:45
Fuli Luo@_LuoFuli
精选76
小米宣布开源两个大模型:专攻复杂智能体和编码任务的MiMo-V2.5-Pro,以及原生全模态模型MiMo-V2.5。两者均支持100万token的上下文长度,并采用允许商业部署和微调的MIT许可证。同时,小米为开发者和创作者提供了100万亿token的免费额度,鼓励基于此构建应用。模型的价值不仅在于其在GDPVal-AA和ClawEval等基准测试中的排名,更在于其解决实际问题的能力。
智能体开源/仓库模型发布编码
关联讨论 3X:Artificial Analysis (@ArtificialAnlys)X:Testing Catalog (@testingcatalog)IT之家(RSS)
推荐理由:小米这次把 1T 参数的 Code Agent 模型直接 MIT 开源,还送 100T 免费 token,诚意拉满。做 coding agent 的团队值得认真看看,这可能是目前开源阵营里最强的代码智能体基座。
01:48
Xiaomi MiMo@XiaomiMiMo
精选71
小米开源MiMo-V2.5双模型,支持百万上下文与商用

小米正式开源MiMo-V2.5系列模型,采用MIT许可,支持商业部署、继续训练与微调。该系列包含两个支持100万令牌上下文窗口的模型:MiMo-V2.5-Pro专为复杂智能体和编码任务设计,在GDPVal-AA和ClawEval基准测试中位列开源模型第一;MiMo-V2.5则是具备强大智能体能力的原生全模态模型。官方强调,模型的价值不仅在于排名,更在于其解决实际问题的能力,并已公开模型权重与技术博客。

智能体开源生态模型发布编码
关联讨论 3X:Artificial Analysis (@ArtificialAnlys)X:Testing Catalog (@testingcatalog)IT之家(RSS)
推荐理由:小米把 MiMo-V2.5 直接 MIT 开源且支持商用,1M 上下文 + Agent 能力在开源阵营里确实能打,做 Agent 产品的团队值得花半小时跑一下 benchmark 看看真实水平。
4月27日
19:20
IT之家(RSS)
精选74
阿里:视频生成模型 HappyHorse1.0 开启灰测,千问 App 首发支持 15 秒多镜头叙事

阿里巴巴视频生成模型 HappyHorse1.0 开启灰度测试,支持生成15秒多镜头叙事视频,具备多画幅适配和1080P超分输出功能。官网720P视频生成刊例价为0.9元/秒,千问App上体验价格低至0.44元/秒。大众用户可通过千问App使用,还能创作粤语、英语、法语、韩语等多种语言的剧情短片。该模型此前登顶AI Video Arena排行榜,并将于5月份正式发布商用。

多模态模型发布
关联讨论 1X:Artificial Analysis (@ArtificialAnlys)
推荐理由:HappyHorse 悄悄登顶 AI Video Arena 后才被阿里认领,这个反转让它不只是又一个视频模型。0.44 元/秒的定价对内容创作者是真金白银的信号,做短视频的值得现在就去千问 App 试一轮。
14:19
IT之家(RSS)
52
OpenAI 发布 Privacy Filter:1.5B 参数 PII 脱敏模型,Apache 2.0 开源上线

OpenAI开源了15亿参数的PII脱敏模型Privacy Filter,采用混合专家设计,每次仅激活约5000万参数,可在笔记本电脑等设备上运行。它能根据上下文识别姓名、地址等八类敏感信息,在基准测试中F1分数达97.43%。该模型作为本地预过滤层,帮助用户在文本发送至云端AI前脱敏数据,但高敏感场景仍需结合人工审核。

OpenAI开源生态模型发布部署/工程
13:18
IT之家(RSS)
67
未来三年小米 AI 投入超 600 亿元:MiMo-V2.5 将开源,几乎适配国内所有芯片

小米宣布未来三年在AI领域的投入将超过600亿元。其基座大模型MiMo开始收费后用户留存率超过35%,即将开源的MiMo-V2.5模型在AA智能与Agent指数上位列全球开源大模型并列第一,并几乎适配国内所有芯片。小米首代机器人VLA大模型团队仅用6个月完成开发,并判断机器人的“GPT3时刻”将在未来1-2年到来。在企业效率方面,小米预计通过全面拥抱Agent技术,整体效率将提升500%。此外,小米的智能助理Miclaw未来将与小爱同学全面融合,并贯通人车家全生态设备。

智能体开源生态模型发布
08:00
HuggingFace Daily Papers(社区热门论文)
64
Nemotron 3 Nano Omni:高效开放的多模态智能模型

Nemotron 3 Nano Omni是该系列最新模型,首次原生支持音频、文本、图像和视频输入。通过架构、训练数据及方法的改进,其在所有模态上的准确性均超越前代Nemotron Nano V2 VL,尤其在真实文档理解、长音视频理解和智能体计算机使用方面表现领先。该模型基于高效的Nemotron 3 Nano 30B-A3B骨干网络,并融入创新的多模态令牌缩减技术,实现了比同类规模模型更低的推理延迟和更高的吞吐量。为促进后续研发,团队发布了BF16、FP8和FP4格式的模型检查点,以及部分训练数据和代码库。

多模态开源生态模型发布
4月26日
23:20
向阳乔木@vista8
精选85
OpenAI发布GPT-5.5,重点提升AI自主执行复杂任务能力

OpenAI发布GPT-5.5,核心目标是增强模型自主规划与执行多步骤复杂任务的能力,减少人工干预。在多项基准测试中表现突出:在Terminal-Bench 2.0、FrontierMath Tier 4等复杂任务上超越GPT-5.4及Claude Opus等竞品;在GDPval知识工作与OSWorld-Verified真实电脑操作测试中也保持领先。其代码能力更优且效率更高,科研能力显著提升,甚至辅助发现了拉姆齐数的新证明。尽管模型更大更强,其响应速度与GPT-5.4持平。

OpenAI推理模型发布编码
关联讨论 1X:OpenAI (@OpenAI)
推荐理由:GPT-5.5 的核心叙事不是跑分,而是从「回答问题」到「把事做完」的范式切换。长上下文检索翻倍、代码任务更聪明且更省 token,这两个信号叠加在一起,做 Agent 和科研工具的人该认真评估了。
4月25日
22:17
meng shao@shao__meng
63
腾讯混元发布首个重建基础设施后模型「Hy3 preview」

腾讯混元团队在重建基础设施后,推出首个MoE架构模型Hy3 preview,总参295B,支持256K上下文。团队确立能力体系化、评测真实性、性价比三大原则,推动模型向实用转型。评估显示,Hy3在复杂推理与长上下文任务上进入第一梯队,代码与智能体能力进步显著。其突出亮点是能深度挖掘非结构化对话中的隐含约束,并转化为结构化输出,体现了强大的实际应用潜力。

开源/仓库推理模型发布编码
关联讨论 2IT之家(RSS)X:karminski (@karminski3)
21:36
歸藏(guizang.ai)@op7418
精选79
DeepSeek推出V4模型限时2.5折优惠,其Pro版百万Token输出成本仅6元。模型分为Pro版(总参数1.6T)和Flash版(总参数284B),预训练数据均为32T。在应用中,专家模式对应Pro版,快速模式对应Flash版。测评显示其性能与Claude Opus 4.6持平,Agent能力与世界知识显著增强,并采用新注意力机制以降低计算需求。

歸藏(guizang.ai)DeepSeek V4详细的官方公告也发了: 模型参数 (a) Pro 版本:总参数 1.6T,激活参数 49B (b) Flash 版本:总参数 284B,…

DeepSeek推理模型发布

推荐理由:DeepSeek V4-Pro 百万 token 输出只要 6 块,这个定价直接把 Opus 4.6 级别的能力拉到了白菜价,做 Agent 和长上下文应用的产品人该重新算账了。
20:47
The Decoder:AI News(RSS)
47
Qwen3.6-27B 在多数编程基准测试中击败了规模大得多的前代模型

阿里巴巴新发布的开源模型 Qwen3.6-27B 在多项编程基准测试中超越了其前代模型。该模型仅拥有 270 亿参数,而其前代模型的参数量是其 15 倍。这一结果表明,模型在代码能力上实现了显著的效率提升,以更小的规模取得了更优的性能。

开源生态模型发布编码
关联讨论 2Simon Willison 博客X:Rohan Paul (@rohanpaul_ai)
19:13
Berryxia.AI@berryxia
56
开源OCR模型性能突破,支持90余种语言与完整布局解析

一款新的开源OCR模型在olmocr基准测试中达到85.9%的SOTA性能。该模型参数量为40亿,由90亿参数精简而来,支持超过90种语言并附带基准测试。其核心能力包括保留完整的文档布局信息,能从图像和图表中提取并生成说明文字,同时对手写文本、数学公式、表单及表格具备强大的识别与解析支持。

多模态开源/仓库模型发布
19:11
阿绎 AYi@AYi_AInotes
67
长篇小说AI创作工具autonovel发布,基于Ling-2.6-flash实现极速生成

autonovel是基于Ling-2.6-flash的AI写作工具,专为长篇小说创作优化。它能以200+ tokens/s的速度生成文本,大幅提升创作效率,并在上下文一致性、伏笔回收和人物性格保持方面表现突出,帮助作者从繁琐的码字劳动中解放,更专注于故事构思。目前提供免费体验额度。

阿绎 AYi后续来了兄弟们,卧槽真的太炸了,同样的任务,同样的配置,速度比Claude Sonnet 4.6还快 6 倍,成本低约 50 倍, openrouter 和 官…

智能体模型发布部署/工程
03:12
Greg Brockman@gdb
精选72
gpt-5.5 在性能上实现大幅提升,试试看吧:
OpenAI推理模型发布编码
关联讨论 1X:Greg Brockman (@gdb)
推荐理由:GPT-5.5 本身是代际级更新,但这条推文只是转发 Nadella 的官宣,没有新数据或新角度。真正值得关注的是它已经铺进 Copilot 全线,做编码和办公场景的人今天就能摸到。
02:08
4月24日
22:17
蚂蚁 inclusionAI:HuggingFace 新模型
49
inclusionAI/DR-Venus-4B-SFT-GGUF

该项目致力于通过开源与开放科学推动人工智能的发展与普及。团队正持续推进技术民主化进程,旨在让更广泛的群体能够接触并利用先进AI工具。其核心路径是依托开放协作模式,降低技术门槛,促进创新生态的构建。

开源/仓库模型发布端侧
19:08
IT之家(RSS)
50
美团万亿级大模型 LongCat-2.0-Preview 开放测试,全程基于国产算力集群训练

美团新一代基础大模型LongCat-2.0-Preview已开放邀请测试,其总参数规模突破万亿,采用混合专家架构,整体能力被认为对标GPT-4。关键突破在于该模型完全基于国产化算力集群训练完成,标志着美团在此领域取得领先。此前,美团创始人王兴已披露公司持续投入数十亿美元保障算力供应。去年9月,美团曾开源基于相同架构、拥有5600亿参数的首款自研大模型LongCat-Flash。

开源生态数据/训练模型发布
14:19
Artificial Analysis@ArtificialAnlys
63
小米发布MiMo V2.5 Pro模型,智能与代理能力表现强劲

小米于2026年4月22日发布MiMo V2.5 Pro模型,其在Artificial Analysis智能指数得分54,表现强劲。该模型在代理能力上领先,Agentic Index得分67%,优于Kimi K2.6等开源模型,这主要得益于在τ²-Bench和TerminalBench Hard上的优异表现。此外,其在前沿推理和指令遵循方面也有提升。模型具有1M上下文窗口,1T总参数,API定价具有成本效益,运行同一智能指数仅需462美元。不过,其在事实准确性指数上得分4,存在准确率较低的问题。模型采用MIT许可证,权重暂未公开,目前可通过小米官方API使用。

智能体开源生态模型发布
13:24
11:54
11:54
11:24
10:44
小互@xiaohu
57
GPT-5.5评测重回榜首,性能提升但幻觉率仍高

在独立评测中,GPT-5.5以3分优势超越Anthropic和Google的模型,重回性能榜首。其API定价大幅上涨,输入与输出费用分别达到每百万5美元和30美元,但token消耗减少了约40%。模型通过自我编写的算法进行了优化,使token生成速度提升超过20%。尽管知识准确率达到57%的历史新高,但其幻觉率也高达86%,显示出性能与可靠性之间的显著矛盾。

OpenAI模型发布评测/基准
08:08
IT之家(RSS)
60
小米发布 MiMo-V2.5-TTS / ASR 语音大模型:通过自然语言调度声音表现

小米发布全链路语音大模型系列MiMo-V2.5,包含TTS(语音合成)与ASR(语音识别)两大核心。TTS系列包含三款模型:基础版内置多款音色并支持精细控制;VoiceDesign版可一句话生成新音色;VoiceClone版能通过少量样本高保真复刻音色。三者均支持通过自然语言指令和音频标签精细调度声音表现,已在小米MiMo开放平台限时免费。ASR模型已正式开源,在中英双语、方言、强噪音及多人对话等复杂场景下的识别性能达到业界领先水平。

开源生态模型发布语音
08:00
Hugging Face:Blog(RSS)
精选78
DeepSeek-V4:智能体可实际使用的百万token上下文

DeepSeek发布新一代模型DeepSeek-V4,其核心突破在于实现了长达百万token的上下文窗口,并确保智能体能够有效利用这一扩展的上下文能力。该模型延续了通过开源与开放科学推动人工智能发展与普及的使命,标志着大模型在长上下文理解和实际应用方面迈出重要一步。

智能体DeepSeek开源生态模型发布
关联讨论 4Simon Willison 博客IT之家(RSS)Hacker News 热门(buzzing.cc 中文翻译)X:Rohan Paul (@rohanpaul_ai)
推荐理由:DeepSeek 把上下文窗口推到百万 token 不稀奇,关键是「agent 能实际用」这六个字。如果实测成立,RAG 的很多工程妥协可以扔掉了,做长文档和复杂 agent 的人该第一时间跑一遍。
02:21
4月23日
08:00
蚂蚁百灵:Developer Blog(网页)
精选67
Ling-2.6-flash 发布:更快响应、更强执行、更高 Token Efficiency

针对智能体任务中Token消耗快速增长的问题,Ling-2.6-flash模型正式发布。该模型采用混合线性架构等技术进行系统性优化,旨在实现更高推理效率和更低使用成本。其推理速度在4卡H20条件下最快可达340 tokens/s,在Artificial Analysis评测中仅消耗约对比模型1/10的Tokens。模型在多个Agent相关基准测试中达到同尺寸SOTA水平,保持了强大的任务执行与工具调用能力。

智能体模型发布部署/工程
关联讨论 2X:阿易 AI Notes (@AYi_AInotes)X:Artificial Analysis (@ArtificialAnlys)
推荐理由:蚂蚁百灵这次打的是「省 token」这张牌,104B 总参但只激活 7.4B,Agent 场景评测对齐同尺寸 SOTA,输出 token 消耗只有竞品的 1/10。做 Agent 产品、被推理成本卡脖子的团队值得认真看看这个路线。
01:10
蚂蚁 inclusionAI:HuggingFace 新模型
51
inclusionAI/LLaDA2.0-Uni

inclusionAI团队发布了LLaDA2.0-Uni模型。该版本在统一的多模态理解与生成能力上取得显著进展,支持图像、文本、音频等多种输入与输出模态。模型参数量达到约70B,在多项基准测试中,其综合性能较前代提升超过15%。此次发布延续了通过开源与开放科学来推动人工智能民主化的核心使命。

开源/仓库模型发布端侧
4月22日
18:16
TestingCatalog News 🗞@testingcatalog
56
OPENAI 🚨: GPT-5.5 和一系列内部模型名称最近在 Codex 上被发现,这通常意味着 OpenAI 正准备发布一个新模型。 - oai-2.1 - arcanine - glacier-alpha - glacier-alpha-block-cy4 - glacier-alpha-block-cy3 很快 👀 致谢 @TheAhmadOsman
OpenAI模型发布
关联讨论 7X:小互 (@xiaohu)IT之家(RSS)Simon Willison 博客X:Sam Altman (@sama)X:Tibo (@thsottiaux)OpenAI:官网动态(RSS · 排除企业/客户案例)X:Testing Catalog (@testingcatalog)
4月21日
16:25
蚂蚁 inclusionAI:HuggingFace 新模型
37
inclusionAI/DR-Venus-4B-RL-GGUF

该模型由 inclusionAI 发布,属于 DR-Venus 系列,参数量为 40 亿,采用强化学习训练并已转换为 GGUF 格式,便于在本地设备高效运行。其推出延续了通过开源与开放科学推动人工智能技术发展与普及的使命,旨在降低先进 AI 技术的使用门槛,促进更广泛的社区参与和创新应用。

开源/仓库模型发布端侧