5月6日
02:00
宝玉@dotey
精选77
OpenAI 将 ChatGPT 默认模型全面升级为 GPT-5.5 Instant

OpenAI 将 ChatGPT 默认模型全面升级为 GPT-5.5 Instant,替换原有的 GPT-5.3 Instant,并向所有用户推送。新模型显著减少了事实幻觉,在医疗、法律等高风险领域的错误率大幅降低,并在多项基准测试中性能提升。回答风格更为简洁,减少冗余内容。同时增强了记忆功能,能主动利用用户历史聊天记录等数据提供个性化回答,并上线“记忆来源”功能供用户管理引用。免费用户即可使用新版模型,付费用户可保留旧版三个月。个性化记忆功能将逐步向各版本用户开放。

OpenAI产品更新推理
关联讨论 11X:Greg Brockman (@gdb)X:Testing Catalog (@testingcatalog)The Decoder:AI News(RSS)X:Rohan Paul (@rohanpaul_ai)X:Berry Xia (@berryxia)X:Sam Altman (@sama)X:ChatGPT (@ChatGPTapp)OpenAI:官网动态(RSS · 排除企业/客户案例)X:歸藏 (@op7418)X:OpenAI Developers (@OpenAIDevs)IT之家(RSS)
推荐理由:默认模型直接换到 GPT-5.5 Instant,幻觉砍半、回答更简洁,还开始主动用你的聊天记录,日常对话的体验会有明显提升,值得看看具体变了什么。
01:31
ChatGPT@ChatGPTapp
精选83
GPT-5.5 Instant 开始向所有 ChatGPT 用户推出。 更简洁。记忆更佳。更个性化。 而且对话体验顺畅得多。真的。
OpenAI模型发布
关联讨论 11X:Greg Brockman (@gdb)X:Testing Catalog (@testingcatalog)The Decoder:AI News(RSS)X:Rohan Paul (@rohanpaul_ai)X:Berry Xia (@berryxia)X:Sam Altman (@sama)X:ChatGPT (@ChatGPTapp)OpenAI:官网动态(RSS · 排除企业/客户案例)X:歸藏 (@op7418)X:OpenAI Developers (@OpenAIDevs)IT之家(RSS)
推荐理由:GPT-5.5 Instant 不是 GPT-5,但对每天用 ChatGPT 的人来说,更简洁、更好记忆这些改动比跑分提升更实在,值得等推送。
01:30
OpenAI@OpenAI
精选86
GPT-5.5 Instant 正在 ChatGPT 中逐步推出。 这是一次重大升级,以更温暖、更自然的语调为您提供更智能、更清晰、更个性化的答案。 同时它也更加简洁,这正是我们所了解到的用户需求。我们相信您会喜欢与它对话。
OpenAI模型发布
关联讨论 11X:Greg Brockman (@gdb)X:Testing Catalog (@testingcatalog)The Decoder:AI News(RSS)X:Rohan Paul (@rohanpaul_ai)X:Berry Xia (@berryxia)X:Sam Altman (@sama)X:ChatGPT (@ChatGPTapp)OpenAI:官网动态(RSS · 排除企业/客户案例)X:歸藏 (@op7418)X:OpenAI Developers (@OpenAIDevs)IT之家(RSS)
推荐理由:GPT-5.5 Instant 是 OpenAI 给所有人的即时升级,更聪明更自然还更简洁,这可能是 ChatGPT 推出以来最接地气的版本迭代。
01:27
Eric@ericmitchellai
精选82
OpenAI宣布将ChatGPT的默认模型更新为GPT-5.5 Instant。新版模型在智能水平、图像理解能力和事实准确性方面均有显著提升。其回应风格变得更简洁、直接和自然,同时提供更个性化和清晰的答案。此次升级基于用户反馈,旨在提供更优质的对话体验。
OpenAI模型发布
关联讨论 11X:Greg Brockman (@gdb)X:Testing Catalog (@testingcatalog)The Decoder:AI News(RSS)X:Rohan Paul (@rohanpaul_ai)X:Berry Xia (@berryxia)X:Sam Altman (@sama)X:ChatGPT (@ChatGPTapp)OpenAI:官网动态(RSS · 排除企业/客户案例)X:歸藏 (@op7418)X:OpenAI Developers (@OpenAIDevs)IT之家(RSS)
推荐理由:ChatGPT 默认模型这次升级把智能、图片感知和事实性都拉高了一截,更简洁的写作风格可能终于解决了啰嗦的老毛病,所有用户开机就能感受到变化,值得第一时间试。
01:26
Chubby♨️@kimmonismus
精选83
OpenAI推出GPT-5.5 Instant作为ChatGPT新默认模型,实现显著升级

OpenAI正式将GPT-5.5 Instant设置为ChatGPT的新默认模型,该模型在基准测试中表现大幅提升,变得更智能、准确和可靠。其在图像分析、STEM、写作及医学、法律等高精度领域能力增强。核心升级在于个性化功能,能有效利用用户保存的记忆、过往聊天、文件和Gmail上下文,并展示影响回复的记忆来源。该模型将在未来两天内向所有用户推出,个性化改进优先面向网页版Plus和Pro用户,移动版随后跟进;API版本为gpt-5.5-chat-latest。官方表示,升级后的模型能提供更智能、清晰、个性化的答案,语气温暖自然且更简洁。

OpenAI多模态推理模型发布
关联讨论 11X:Greg Brockman (@gdb)X:Testing Catalog (@testingcatalog)The Decoder:AI News(RSS)X:Rohan Paul (@rohanpaul_ai)X:Berry Xia (@berryxia)X:Sam Altman (@sama)X:ChatGPT (@ChatGPTapp)OpenAI:官网动态(RSS · 排除企业/客户案例)X:歸藏 (@op7418)X:OpenAI Developers (@OpenAIDevs)IT之家(RSS)
推荐理由:ChatGPT默认模型直接换到GPT-5.5 Instant,个性化能力是代际跃迁,明天打开就能感受到不同。
00:56
Rohan Paul@rohanpaul_ai
65
SubQ首发:1200万token上下文窗口,成本降低95%以上

SubQ模型发布,这是首个基于完全次二次稀疏注意力架构(SSA)的前沿LLM,拥有1200万token的上下文窗口。它在处理100万token时比FlashAttention快52倍,成本低于Opus的5%。该模型突破传统Transformer注意力计算所有token关系的限制,通过稀疏注意力选择性聚焦重要关系,使长上下文处理的计算量减少近1000倍,显著改变了LLM的成本曲线和扩展方式。

推理模型发布
关联讨论 1X:邵猛 (@shao__meng)
5月5日
23:56
Luma@LumaLabsAI
精选71
Luma Labs 推出的 UNI-1.1-Max 和 UNI-1.1 多模态模型在 Image Arena 的文本生成图像与图像编辑综合排名中位列第三,且未采用智能体搜索技术。具体来看,在文本生成图像竞技场中,两款模型分别排名第六和第七;在多图像编辑和单图像编辑竞技场中,它们均进入前十一名,其中 UNI-1.1-Max 在单图像编辑中排名第七。这一成绩标志着 Luma Labs 在多模态前沿领域取得了扎实进展。
图像生成模型发布评测/基准
关联讨论 2X:Luma AI (@LumaLabsAI)X:Rohan Paul (@rohanpaul_ai)
推荐理由:Luma这次更新在图像编辑上提升明显,直接挤进竞技场前三,对做设计和视频的人来说是个信号,但文本到图像还是老几样,可以观望一下。
5月4日
21:24
小互@xiaohu
56
传谷歌I/O将发布Omni模型,Gemini或升级为全模态生产力入口

据传谷歌将在I/O大会发布名为“Omni”的新模型,旨在将Gemini从聊天助手升级为集成写作、图片、视频、长上下文记忆与复杂任务流的全模态生产力平台。该模型可能原生支持视频生成与输出,超越现有的Veo 3.1。同时,Gemini 3.2/3.5版本或专注于提升推理速度与效率,而Ultra版本则向长上下文、重记忆及多步骤工作流方向深化。若消息属实,Gemini将成为首个具备视频输出能力的顶级Omni模型。

Google多模态模型发布视频
5月3日
06:50
TestingCatalog News 🗞@testingcatalog
58
谷歌I/O动态:Gemini测试用于视频生成的新Omni模型

谷歌正在其Gemini平台测试一款名为“Omni”的新模型,专注于视频生成功能。泄露信息显示,该模型的界面提示用户“从一个想法开始或尝试一个模板”,并注明“由Omni驱动”。这一模型可能与内部代号“Toucan”的视频生成工具密切相关,后者目前由Veo驱动。如果谷歌计划正式发布用于视频生成的Gemini Omni,其性能很可能超越当前的Veo 3.1版本。若消息属实,Gemini将成为首个具备视频输出能力的顶级Omni模型,这标志着谷歌在视频生成领域的重大技术进展,并可能为未来的Google I/O 2026活动预热。此举显示了谷歌在人工智能视频生成方面的持续创新和竞争态势。

Google多模态模型发布视频
5月2日
15:44
00:47
5月1日
17:46
MiniMax (official)@MiniMax_AI
2
盯--
其他
13:46
07:45
OpenRouter@OpenRouter
精选68
@xai 的新模型 Grok-4.3 现已在 OpenRouter 上线! Grok-4.3 以比 Grok-4.2 更低的价格发布,同时在代理性能上实现大幅跃升:在 @ArtificialAnlys 的 GDPval-AA 基准上 ELO 分数提升 321 点至 1500,尽管价格更低,但仍超越了其他顶级模型。
智能体xAI模型发布评测/基准
关联讨论 1Hacker News 热门(buzzing.cc 中文翻译)
推荐理由:Grok-4.3 降价但性能反升,agentic 跑分直接到 1500,如果之前觉得 Grok 贵而没试过,这次可以上车了。
07:14
Artificial Analysis@ArtificialAnlys
66
xAI发布Grok 4.3模型:智能指数提升且成本大幅降低

xAI推出Grok 4.3模型,其在Artificial Analysis智能指数得分达53,超越Muse Spark等模型,较前代提升4分。模型在显著降低成本的同时保持智能水平,输入与输出价格分别降低约40%和60%。在真实世界智能体任务上表现突出,GDPval-AA基准得分大幅提升至1500 ELO,超越Gemini 3.1 Pro Preview等多款模型,但仍落后于GPT-5.5 (xhigh)。其在指令遵循和客服任务上表现强劲,但AA-Omniscience非幻觉率略有下降。

智能体xAI推理模型发布
关联讨论 1X:Elon Musk (@elonmusk, xAI)
03:14
Artificial Analysis@ArtificialAnlys
65
蚂蚁集团开源Ling 2.6 1T模型,性价比与智能取得平衡

蚂蚁集团InclusionAI实验室发布开源非推理模型Ling 2.6 1T。该模型拥有1万亿参数,在Artificial Analysis Intelligence Index上得分为34分,较前代Ling-1T提升15分,智能水平接近DeepSeek V3.2等同类模型。其在科学推理与知识任务上表现扎实,GPQA得分达75%。模型运行效率较高,执行该指数仅需约1600万输出tokens,成本效益突出,通过官方API运行全套指数成本约95美元。但其事实可靠性较弱,在AA-Omniscience基准上得分为-51分,主要因幻觉率高达92%。模型权重已在Hugging Face公开。

开源生态评测/基准
关联讨论 2X:蚂蚁百灵 (@AntLingAGI)X:阿易 AI Notes (@AYi_AInotes)
01:45
Google AI@GoogleAI
精选69
谷歌发布首个原生多模态嵌入模型Gemini Embedding 2

谷歌上周正式向公众发布了其首个原生多模态嵌入模型Gemini Embedding 2。该模型如同“通用翻译器”,能将文本、图像、视频和音频数据转化为独特的数字向量。其核心突破在于不再依赖关键词匹配,而是基于语义将不同模态的数据映射到同一空间,从而理解内容间的深层联系。开发者已利用该模型构建视频分析工具、视觉购物助手等应用,实现通过拍照或描述场景进行智能搜索的功能。模型现可通过Gemini API或Gemini Enterprise Agent平台使用。

Google多模态搜索模型发布
关联讨论 1Google Developers Blog(RSS)
推荐理由:Google 第一个原生多模态嵌入模型,把文本、图像、视频拉到同一个向量空间,做跨模态搜索的开发者可以不用再手动打标签了,但离「无感理解」还有距离。
01:14
4月30日
23:13
SenseTime@SenseTime_AI
59
SenseNova U1 Lite系列:小规模多模态模型开源发布

SenseNova U1 Lite Series是新一代原生统一的多模态模型,在紧凑的8B/A3B规模下提供商业级性能。其核心能力包括复杂信息图生成,具备强语义完整性和像素级精度;高布局一致性,实现准确可靠的文本渲染;以及行业首创的连续图像-文本生成,支持统一推理和一致视觉风格。该模型现已完全开源,相关代码和资源可通过GitHub、Hugging Face等平台获取。

图像生成多模态模型发布