4月28日
10:47
Simon Willison 博客
65
介绍 talkie:一个源自1930年的130亿参数复古语言模型

Nick Levine、David Duvenaud 和 Alec Radford 发布了 talkie,这是一个基于1931年前历史英文文本训练的130亿参数语言模型。其基础版本在2600亿token的已过版权数据上训练,而指令微调版本则用于驱动聊天界面。该版本借助Claude等现代模型生成合成数据进行训练,可能导致年代错位的知识污染。项目旨在探索此类模型预测未来、超越知识截止点进行发明等能力,并希望最终构建一个完全由复古模型自举的训练流程。模型采用Apache 2.0许可。

开源/仓库数据/训练模型发布端侧
10:47
Hacker News 热门(buzzing.cc 中文翻译)
51
Talkie:一款诞生于1930年的13B复古语言模型

Talkie是一款参数规模为130亿的复古风格语言模型,其设计灵感源于1930年代的语言特征与表达方式。该模型通过模拟特定历史时期的语料与文风,在文本生成中呈现出独特的复古韵味。项目已在官网发布,并在Hacker News社区获得102点热度关注。这一尝试展示了语言模型在风格化与历史语境模拟方面的技术拓展。

开源/仓库数据/训练模型发布
4月27日
19:20
IT之家(RSS)
精选74
阿里:视频生成模型 HappyHorse1.0 开启灰测,千问 App 首发支持 15 秒多镜头叙事

阿里巴巴视频生成模型 HappyHorse1.0 开启灰度测试,支持生成15秒多镜头叙事视频,具备多画幅适配和1080P超分输出功能。官网720P视频生成刊例价为0.9元/秒,千问App上体验价格低至0.44元/秒。大众用户可通过千问App使用,还能创作粤语、英语、法语、韩语等多种语言的剧情短片。该模型此前登顶AI Video Arena排行榜,并将于5月份正式发布商用。

多模态模型发布
关联讨论 1X:Artificial Analysis (@ArtificialAnlys)
推荐理由:HappyHorse 悄悄登顶 AI Video Arena 后才被阿里认领,这个反转让它不只是又一个视频模型。0.44 元/秒的定价对内容创作者是真金白银的信号,做短视频的值得现在就去千问 App 试一轮。
14:19
IT之家(RSS)
52
OpenAI 发布 Privacy Filter:1.5B 参数 PII 脱敏模型,Apache 2.0 开源上线

OpenAI开源了15亿参数的PII脱敏模型Privacy Filter,采用混合专家设计,每次仅激活约5000万参数,可在笔记本电脑等设备上运行。它能根据上下文识别姓名、地址等八类敏感信息,在基准测试中F1分数达97.43%。该模型作为本地预过滤层,帮助用户在文本发送至云端AI前脱敏数据,但高敏感场景仍需结合人工审核。

OpenAI开源生态模型发布部署/工程
13:18
IT之家(RSS)
67
未来三年小米 AI 投入超 600 亿元:MiMo-V2.5 将开源,几乎适配国内所有芯片

小米宣布未来三年在AI领域的投入将超过600亿元。其基座大模型MiMo开始收费后用户留存率超过35%,即将开源的MiMo-V2.5模型在AA智能与Agent指数上位列全球开源大模型并列第一,并几乎适配国内所有芯片。小米首代机器人VLA大模型团队仅用6个月完成开发,并判断机器人的“GPT3时刻”将在未来1-2年到来。在企业效率方面,小米预计通过全面拥抱Agent技术,整体效率将提升500%。此外,小米的智能助理Miclaw未来将与小爱同学全面融合,并贯通人车家全生态设备。

智能体开源生态模型发布
08:00
HuggingFace Daily Papers(社区热门论文)
64
Nemotron 3 Nano Omni:高效开放的多模态智能模型

Nemotron 3 Nano Omni是该系列最新模型,首次原生支持音频、文本、图像和视频输入。通过架构、训练数据及方法的改进,其在所有模态上的准确性均超越前代Nemotron Nano V2 VL,尤其在真实文档理解、长音视频理解和智能体计算机使用方面表现领先。该模型基于高效的Nemotron 3 Nano 30B-A3B骨干网络,并融入创新的多模态令牌缩减技术,实现了比同类规模模型更低的推理延迟和更高的吞吐量。为促进后续研发,团队发布了BF16、FP8和FP4格式的模型检查点,以及部分训练数据和代码库。

多模态开源生态模型发布
4月25日
20:47
The Decoder:AI News(RSS)
47
Qwen3.6-27B 在多数编程基准测试中击败了规模大得多的前代模型

阿里巴巴新发布的开源模型 Qwen3.6-27B 在多项编程基准测试中超越了其前代模型。该模型仅拥有 270 亿参数,而其前代模型的参数量是其 15 倍。这一结果表明,模型在代码能力上实现了显著的效率提升,以更小的规模取得了更优的性能。

开源生态模型发布编码
关联讨论 2Simon Willison 博客X:Rohan Paul (@rohanpaul_ai)
4月24日
22:17
蚂蚁 inclusionAI:HuggingFace 新模型
49
inclusionAI/DR-Venus-4B-SFT-GGUF

该项目致力于通过开源与开放科学推动人工智能的发展与普及。团队正持续推进技术民主化进程,旨在让更广泛的群体能够接触并利用先进AI工具。其核心路径是依托开放协作模式,降低技术门槛,促进创新生态的构建。

开源/仓库模型发布端侧
19:08
IT之家(RSS)
50
美团万亿级大模型 LongCat-2.0-Preview 开放测试,全程基于国产算力集群训练

美团新一代基础大模型LongCat-2.0-Preview已开放邀请测试,其总参数规模突破万亿,采用混合专家架构,整体能力被认为对标GPT-4。关键突破在于该模型完全基于国产化算力集群训练完成,标志着美团在此领域取得领先。此前,美团创始人王兴已披露公司持续投入数十亿美元保障算力供应。去年9月,美团曾开源基于相同架构、拥有5600亿参数的首款自研大模型LongCat-Flash。

开源生态数据/训练模型发布
08:08
IT之家(RSS)
60
小米发布 MiMo-V2.5-TTS / ASR 语音大模型:通过自然语言调度声音表现

小米发布全链路语音大模型系列MiMo-V2.5,包含TTS(语音合成)与ASR(语音识别)两大核心。TTS系列包含三款模型:基础版内置多款音色并支持精细控制;VoiceDesign版可一句话生成新音色;VoiceClone版能通过少量样本高保真复刻音色。三者均支持通过自然语言指令和音频标签精细调度声音表现,已在小米MiMo开放平台限时免费。ASR模型已正式开源,在中英双语、方言、强噪音及多人对话等复杂场景下的识别性能达到业界领先水平。

开源生态模型发布语音
08:00
Hugging Face:Blog(RSS)
精选78
DeepSeek-V4:智能体可实际使用的百万token上下文

DeepSeek发布新一代模型DeepSeek-V4,其核心突破在于实现了长达百万token的上下文窗口,并确保智能体能够有效利用这一扩展的上下文能力。该模型延续了通过开源与开放科学推动人工智能发展与普及的使命,标志着大模型在长上下文理解和实际应用方面迈出重要一步。

智能体DeepSeek开源生态模型发布
关联讨论 5Simon Willison 博客IT之家(RSS)Hacker News 热门(buzzing.cc 中文翻译)X:AK (@_akhaliq)X:Rohan Paul (@rohanpaul_ai)
推荐理由:DeepSeek 把上下文窗口推到百万 token 不稀奇,关键是「agent 能实际用」这六个字。如果实测成立,RAG 的很多工程妥协可以扔掉了,做长文档和复杂 agent 的人该第一时间跑一遍。
4月23日
08:00
蚂蚁百灵:Developer Blog(网页)
精选67
Ling-2.6-flash 发布:更快响应、更强执行、更高 Token Efficiency

针对智能体任务中Token消耗快速增长的问题,Ling-2.6-flash模型正式发布。该模型采用混合线性架构等技术进行系统性优化,旨在实现更高推理效率和更低使用成本。其推理速度在4卡H20条件下最快可达340 tokens/s,在Artificial Analysis评测中仅消耗约对比模型1/10的Tokens。模型在多个Agent相关基准测试中达到同尺寸SOTA水平,保持了强大的任务执行与工具调用能力。

智能体模型发布部署/工程
关联讨论 2X:阿易 AI Notes (@AYi_AInotes)X:Artificial Analysis (@ArtificialAnlys)
推荐理由:蚂蚁百灵这次打的是「省 token」这张牌,104B 总参但只激活 7.4B,Agent 场景评测对齐同尺寸 SOTA,输出 token 消耗只有竞品的 1/10。做 Agent 产品、被推理成本卡脖子的团队值得认真看看这个路线。
01:10
蚂蚁 inclusionAI:HuggingFace 新模型
51
inclusionAI/LLaDA2.0-Uni

inclusionAI团队发布了LLaDA2.0-Uni模型。该版本在统一的多模态理解与生成能力上取得显著进展,支持图像、文本、音频等多种输入与输出模态。模型参数量达到约70B,在多项基准测试中,其综合性能较前代提升超过15%。此次发布延续了通过开源与开放科学来推动人工智能民主化的核心使命。

开源/仓库模型发布端侧
4月21日
16:25
蚂蚁 inclusionAI:HuggingFace 新模型
37
inclusionAI/DR-Venus-4B-RL-GGUF

该模型由 inclusionAI 发布,属于 DR-Venus 系列,参数量为 40 亿,采用强化学习训练并已转换为 GGUF 格式,便于在本地设备高效运行。其推出延续了通过开源与开放科学推动人工智能技术发展与普及的使命,旨在降低先进 AI 技术的使用门槛,促进更广泛的社区参与和创新应用。

开源/仓库模型发布端侧
16:05
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/DR-Venus-4B-RL 发布

inclusionAI 团队开源了 DR-Venus-4B-RL 模型。这是一个基于强化学习技术微调的 40 亿参数语言模型,旨在通过开源与开放科学的方式推动人工智能的发展与普及。该模型的发布为研究社区提供了一个中等规模、经过指令与人类偏好对齐的可用模型,延续了其促进 AI 民主化的目标。

开源/仓库模型发布端侧
15:29
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/DR-Venus-4B-SFT模型

该团队正致力于通过开源与开放科学的方式,推动人工智能技术的进步与民主化。其核心目标是降低AI技术的门槛,促进更广泛的参与和创新,使先进AI工具能够被更多开发者和研究者所使用。这一举措旨在构建一个开放、协作的AI生态系统。

开源/仓库模型发布端侧
4月20日
17:31
蚂蚁 inclusionAI:GitHub 新仓库
精选69
DR-Venus:基于开放数据的边缘级深度研究智能体

DR-Venus 是一个仅用1万条开放数据训练的40亿参数深度研究智能体,基于Qwen3-4B-Thinking-2507架构,支持200步工具调用和超20万tokens的上下文。它通过监督微调与强化学习两阶段训练,在BrowseComp、GAIA等多个深度研究基准上树立了小模型性能新标杆。其SFT版本已超越多数同类开源模型,而RL版本进一步将长程任务可靠性和工具使用校准度提升2-3个百分点。项目已全面开源模型、代码与训练流程。

智能体开源/仓库推理模型发布

推荐理由:4B 参数、仅用 1 万条公开数据就能在多个 deep research benchmark 上碾压 8B 对手,蚂蚁 inclusionAI 这次证明了小模型做 Agent 的关键不在参数量而在数据管线,做端侧 Agent 的团队值得拆一下它的 SFT+RL 流程。
4月17日
16:48
蚂蚁 inclusionAI:GitHub 新仓库
精选56
inclusionAI发布LLaDA2.0-Uni模型

LLaDA2.0-Uni是一个统一的多模态模型,具备对世界的理解与生成能力。该模型通过整合视觉、语言等多模态信息,实现了跨模态的语义理解和内容生成。其架构支持从图像理解到文本生成、跨模态检索等复杂任务,标志着多模态人工智能向更通用、统一的方向演进。

多模态开源生态模型发布

推荐理由:蚂蚁 inclusionAI 推出 LLaDA2.0-Uni,主打理解与生成统一架构,但距发布已过两周且信息极少,建议等官方技术报告出来再决定是否跟进。
4月8日
14:06
蚂蚁 inclusionAI:HuggingFace 新模型
34
inclusionAI/TC-AE

inclusionAI团队发布了TC-AE项目,旨在通过开源与开放科学推动人工智能技术的进步与民主化。该项目致力于降低AI技术的使用门槛,促进更广泛的社区参与和创新。核心变化在于构建了一个可访问的AI开发框架,强调协作与知识共享。此举预期将加速AI工具在多元领域的应用,并推动技术发展的透明性与包容性。

开源/仓库模型发布
3月7日
00:14
蚂蚁 inclusionAI:HuggingFace 新模型
46
inclusionAI/AReaL-tau2-merge-sft-235B 发布

inclusionAI 团队发布了 AReaL-tau2-merge-sft-235B 模型。该模型参数量达2350亿,采用合并与监督微调技术构建。其目标是推动人工智能技术发展并通过开源开放模式实现AI民主化,致力于让先进AI技术更广泛可及。

开源/仓库推理模型发布
3月5日
13:56
蚂蚁 inclusionAI:HuggingFace 新模型
45
inclusionAI/ZwZ-4B-GGUF

inclusionAI发布了ZwZ-4B-GGUF模型。该模型基于开源与开放科学理念,旨在推动人工智能技术的进步与普及。其核心变化是提供了GGUF格式,这是一种高效且通用的模型文件格式,便于在不同硬件和推理框架上部署与运行。此举旨在降低大型语言模型的使用门槛,促进更广泛的研究与应用开发。

开源/仓库模型发布端侧
13:56
蚂蚁 inclusionAI:HuggingFace 新模型
37
inclusionAI发布ZwZ-2B-GGUF模型

inclusionAI推出开源模型ZwZ-2B-GGUF,致力于通过开源与开放科学推动人工智能技术的进步与民主化。该举措旨在降低AI开发与应用的门槛,促进更广泛的社区参与和创新。模型以开放协作和科学共享为核心路径,强调技术普及与包容性发展。

开源/仓库模型发布端侧
10:55
蚂蚁 inclusionAI:HuggingFace 新模型
31
inclusionAI/AReaL-tau2-telecom-user-sft-30B

inclusionAI 团队发布了 AReaL-tau2-telecom-user-sft-30B 模型。这是一个拥有 300 亿参数、专门针对电信领域用户服务场景进行监督微调的大语言模型。该模型的发布旨在通过开源和开放科学的方式,推动人工智能技术的进步与普及,使其更易于获取和应用。

开源/仓库模型发布端侧
10:08
蚂蚁 inclusionAI:HuggingFace 新模型
32
inclusionAI/AReaL-tau2-telecom-sft-30B

inclusionAI团队发布了AReaL-tau2-telecom-sft-30B模型,这是一个拥有300亿参数、专门针对电信领域进行监督微调(SFT)的大型语言模型。该模型基于开源与开放科学理念构建,旨在推动人工智能技术的进步与普及。其核心变化在于针对电信行业的特定任务和数据进行了深度优化,以提升在该垂直领域的专业性能和应用效果。

开源/仓库模型发布端侧
00:53
蚂蚁 inclusionAI:HuggingFace 新模型
35
inclusionAI/AReaL-tau2-retail-sft-30B 发布

inclusionAI 发布了针对零售业优化的 AReaL-tau2-retail-sft-30B 模型,参数量达 300 亿,采用监督微调技术。该模型致力于通过开源与开放科学推动人工智能的进步与普及,旨在降低技术使用门槛,促进AI在零售领域的专业化应用与创新。

开源/仓库模型发布端侧
00:30
蚂蚁 inclusionAI:HuggingFace 新模型
35
inclusionAI/AReaL-tau2-airline-sft-30B 发布

inclusionAI团队发布了AReaL-tau2-airline-sft-30B模型。这是一个基于开源与开放科学理念开发的、参数规模达300亿的大型语言模型。该模型的发布旨在推动人工智能技术的进步与民主化,其具体训练数据与性能指标尚未在本次公告中详细披露。

开源/仓库模型发布部署/工程
3月4日
16:25
蚂蚁 inclusionAI:HuggingFace 新模型
37
inclusionAI/ZwZ-2B

inclusionAI 发布了 ZwZ-2B 模型,这是一个拥有 20 亿参数的开源语言模型。该模型旨在通过开源和开放科学的方式推动人工智能的进步与民主化。其上下文处理长度扩展至 128K,并在多项基准测试中性能显著提升,特别是在代码生成和数学推理任务上表现出色。ZwZ-2B 的发布为研究者和开发者提供了一个更易获取的高性能 AI 工具。

开源/仓库模型发布端侧
3月1日
17:56
蚂蚁 inclusionAI:HuggingFace 新模型
46
inclusionAI/AReaL-SEA-235B-A22B

inclusionAI团队宣布推出AReaL-SEA-235B-A22B模型,致力于通过开源与开放科学推动人工智能技术的进步与民主化。该举措旨在降低AI研究与应用的参与门槛,促进全球开发者及研究者更广泛地获取和使用先进AI工具。模型规模达2350亿参数,体现了其在处理复杂任务方面的潜力,同时强调开放协作对加速AI创新与社会普惠的关键作用。

开源/仓库推理模型发布
2月14日
15:48
蚂蚁 inclusionAI:HuggingFace 新模型
44
inclusionAI/Ling-2.5-1T

inclusionAI 发布了 Ling-2.5-1T 模型。该模型参数规模达到 1 万亿,是其 Ling 系列的最新版本。此次发布延续了通过开源和开放科学来推进人工智能民主化的使命,旨在让先进 AI 技术更广泛可及。新版本预计在语言理解与生成能力上有所提升,继续为全球研究社区提供强大的基础模型支持。

开源生态推理模型发布
2月12日
16:53
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/ZwZ-4B

inclusionAI发布了ZwZ-4B开源模型。该模型参数量为40亿,基于Transformer架构,上下文窗口为32K。其训练数据包含2万亿Token,涵盖代码、数学及多语言文本。模型采用分组查询注意力机制,支持16位与32位浮点精度。团队旨在通过开源推动人工智能技术的普及与发展。

开源生态模型发布
16:52
蚂蚁 inclusionAI:HuggingFace 新模型
34
inclusionAI/ZwZ-7B

inclusionAI 发布了 ZwZ-7B 模型,这是一个拥有70亿参数的开源大语言模型。该模型基于先进的 Transformer 架构,在多项基准测试中性能显著提升,尤其在代码生成和数学推理任务上表现突出。其上下文窗口扩展至 128K 令牌,并采用了分组查询注意力等高效技术。模型权重已完全开源,旨在通过开放科学推动人工智能技术的民主化与普及。

开源生态模型发布
16:52
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/ZwZ-8B

inclusionAI发布了ZwZ-8B模型,这是一个拥有80亿参数的开源人工智能模型。该模型旨在通过开源和开放科学的方式,推动人工智能技术的进步与普及。此举是inclusionAI推进AI民主化进程的一部分,致力于让更广泛的社区能够访问和利用先进的AI技术。

开源/仓库模型发布端侧
2月11日
20:18
蚂蚁 inclusionAI:GitHub 新仓库
51
inclusionAI/Ming-omni-tts

inclusionAI 发布了 Ming-omni-tts,这是一个能够统一生成语音、音乐和声音的模型。该模型的核心特点是结构简单高效,并实现了对生成内容的精确控制。它通过一个统一的框架处理多种音频模态,简化了传统上需要不同模型分别处理语音、音乐和音效的流程。这一进展为跨模态音频内容的创作与编辑提供了更便捷、可控的工具。

开源生态模型发布语音
18:52
蚂蚁 inclusionAI:GitHub 新仓库
精选65
inclusionAI发布新一代即时大模型Ling-2.5-1T

inclusionAI推出新一代旗舰即时模型Ling-2.5-1T,其总参数量达1T,活跃参数为63B,预训练语料扩展至29T tokens。该模型采用混合线性注意力架构,支持1M tokens上下文长度,并通过结合“正确性”与“过程冗余”的复合奖励机制,在相近的token效率下,其推理能力显著超越前代,接近前沿思维模型水平。经双向RL反馈和智能体验证等对齐策略优化,模型在创意写作和指令遵循任务上表现提升。它已兼容主流智能体平台,并在通用工具调用基准BFCL-V4上取得领先的开源性能。

开源/仓库推理模型发布部署/工程

推荐理由:蚂蚁把 1T 参数的即时模型开源了,63B 活跃参数加 1M 上下文,主打效率而非堆算力,对国内做开源推理模型的团队来说是个值得对标的基线。
18:52
蚂蚁 inclusionAI:GitHub 新仓库
精选78
inclusionAI发布全球首个开源万亿参数思维模型Ring-2.5-1T

inclusionAI发布了全球首个基于混合线性注意力架构的开源万亿参数思维模型Ring-2.5-1T。该模型通过高效的1:7 MLA与闪电线性注意力提升了推理速度与探索能力,并借助扩展的强化学习训练增强了深度思考和长程任务执行能力。其在IMO 2025和CMO 2025数学竞赛中均达到了金牌级别的性能。模型支持128K上下文长度,并可通过YaRN技术扩展至256K,现已于Hugging Face和ModelScope平台开源。部署方面,已支持SGLang,并提供了多GPU节点的服务器启动示例。

开源/仓库推理模型发布部署/工程

推荐理由:蚂蚁把万亿参数的开源 thinking model 放出来了,混合线性注意力架构是真新路线而非换皮,IMO/CMO 金牌级数学推理说明这不是纯堆参数。做开源大模型部署的团队值得认真看看它的架构选择。
11:12
蚂蚁 inclusionAI:HuggingFace 新模型
32
inclusionAI/Ming-omni-tts-tokenizer-12Hz

inclusionAI团队发布了Ming-omni-tts-tokenizer-12Hz开源项目,这是一个面向文本转语音(TTS)的通用分词器。该模型支持12Hz的高采样率,旨在提升语音合成的自然度与表现力。项目基于开源与开放科学的理念推进,致力于让人工智能技术更加普及和易得。

开源生态模型发布语音
11:10
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/Ming-omni-tts-0.5B

inclusionAI 发布了 Ming-omni-tts-0.5B,这是一个参数规模为 0.5B(5亿)的文本转语音模型。该模型旨在通过开源和开放科学的方式,推动人工智能技术的进步与普及。发布标志着在语音合成领域,一个中等规模、可公开访问的模型正式加入开源生态。

开源生态模型发布语音
10:49
蚂蚁 inclusionAI:HuggingFace 新模型
37
inclusionAI/Ming-omni-tts-16.8B-A3B

inclusionAI发布了开源文本转语音模型Ming-omni-tts-16.8B-A3B,参数量达168亿。该模型采用创新的A3B混合专家架构,在语音自然度、多语言支持和情感表现方面实现显著提升。项目遵循开源开放科学理念,旨在推动人工智能技术的民主化进程。

开源生态模型发布语音
2月10日
20:45
蚂蚁 inclusionAI:HuggingFace 新模型
42
inclusionAI/Ring-2.5-1T

inclusionAI 发布了 Ring-2.5-1T,这是一个拥有 1 万亿参数规模的大型语言模型。该模型旨在通过开源和开放科学的方式,推动人工智能技术的进步与普及。此次发布标志着在构建超大规模、可访问的 AI 模型方面取得了重要进展,为更广泛的研究社区提供了强大的基础工具。

开源生态推理模型发布
14:57
蚂蚁 inclusionAI:HuggingFace 新模型
41
inclusionAI/Ming-flash-omni-2.0

inclusionAI 发布了 Ming-flash-omni 2.0 版本。该项目致力于通过开源与开放科学的方式,推动人工智能技术的进步与民主化。新版本意味着模型能力、效率或应用范围的进一步升级,延续了其降低AI技术门槛、促进广泛可及性与协作创新的核心目标。

多模态开源生态模型发布