5月7日
00:34
宝玉@dotey
58
OpenAI 联合多家巨头开源 AI 训练网络协议 MRC

OpenAI 联合 AMD、博通、英特尔、微软和英伟达,通过 OCP 开源了新型网络协议 MRC。该协议旨在解决大规模 AI 训练集群中因网络延迟或故障导致的 GPU 闲置问题。MRC 将数据包拆分并通过数百条路径并行传输,实现微秒级故障绕行,无需交换机重算路由。这简化了网络架构,将连接十几万 GPU 所需的交换机层级从 3-4 层减至 2 层,降低了功耗、成本和故障点。该协议已部署于 OpenAI 最大的 GB200 超算,并成功用于训练多个模型,显著提升了训练任务的鲁棒性。

OpenAI开源/仓库部署/工程
00:33
elvis@omarsar0
60
利用智能体与LLM Artifacts革新AI论文研读方式

作者通过自动化流程每日筛选arXiv论文,并利用智能体将其转化为可交互的“LLM Artifacts”。这一系统基于LLM Wikis概念演进,使论文知识可操作化:Artifacts支持动态注入见解、组件及实验建议,并能通过智能体协调器直接提问或自动化执行实验。其核心在于通过多智能体主动协作,持续挖掘可行动的知识,帮助研究者高效学习与跟进前沿。

智能体MCP/工具教程/实践
00:31
00:20
Berryxia.AI@berryxia
精选73
Stanford CS336课程指出,过去三年主流大语言模型架构高度收敛,约90%组件形成共通模板。核心包括:架构普遍采用pre-norm、RMS Norm、无偏置、SwiGLU/GeGLU激活函数、RoPE位置编码;超参数如FFN维度比例、注意力头配置、模型纵横比等已成惯例。为保障训练稳定,Z-loss、QK norm等技术被广泛使用;GQA成为推理部署标配,局部与全局attention交替是处理长上下文的新趋势。这套模板被视为2026年开源LLM的"默认配置"。

Jason ZhuStanford CS336 上,Tatsu 讲了一节 LLM 架构课,把过去 3 年所有主流 LLM 拆开,看它们的共通模板 结论挺爆:90% 的架构选择已…

教程/实践

推荐理由:一份2026年训大模型的标准化配置单,把过去三年业界踩坑得出的最优设置全写清楚了,自己训模型直接抄就行,别费力试错。
00:20
Berryxia.AI@berryxia
精选76
姚老师将其公开分享的提示词整理并开源至GitHub仓库。该合集包含约100个提示词,覆盖AI方法、工作、学习、生活、教育、内容、编程、营销和思考等九大类场景。其中特别推荐的是对用户帮助显著的元提示词,包括简易版和进阶版。作者表示后续将通过该仓库持续更新经过验证的有价值提示词。

姚金刚开源一套我的提示词合集 前几天,收到一位微信好友反馈,说使用了我不少公开的提示词,效果很不错 这一年来,公开分享了不少提示词,一直沉淀在飞书文档 为了方…

GitHub开源生态教程/实践
关联讨论 1X:小互 (@xiaohu)
推荐理由:姚老师把一年沉淀的100个提示词整理开源,尤其元提示词部分能直接拉高AI工作流上限,属于那种收藏即赚到的实用合集。
00:20
00:16
阿绎 AYi@AYi_AInotes
69
从被轻视到行业颠覆者:苏姿丰带领AMD的八年逆袭

2018年F1中国站,AMD CEO苏姿丰曾遭遇记者带有种族微歧视的提问。八年间,她将公司市值从濒临破产的30亿美元提升至6500亿美元。最新财报显示,其数据中心营收同比暴涨57%,股价大涨。她预判AI Agent的兴起将使CPU与GPU需求比例从1:8转向1:1,这为AMD的混合方案开辟道路,并挑战NVIDIA的垄断。凭借Zen架构与MI300系列,AMD在数据中心市场份额已从近乎为零升至40%,完成了最有力的反击。

智能体推理现象/趋势
00:16
叫我阿杭@Astronaut_1216
29
Solo π LAB社区助力个人成为AI时代的超级个体

作者宣布其创立的“Solo π LAB”社区已初具雏形,核心目标是分享个人已验证的独立项目,旨在帮助每个成员成为“超级个体”或“OPC”,并成功运营“一人公司”。为此,社区正在整理并推出“Solo π 计划”,旨在系统性地带领成员实践。作者强调,在AI时代,个人拥有无限可能,并希望陪伴所有热爱AI、积极探索一人公司模式的伙伴共同成长。

行业动态
00:02
宝玉@dotey
65
把视频变成图文博客:Agent + 豆包 Seed2.0 lite 重做 Karpathy 两年前的工作流

作者利用豆包Seed2.0-lite全模态理解模型,重新实践了将长视频自动转换为图文博客的工作流。传统ASR+LLM方案因信息丢失严重而效果不佳,新方案的核心在于模型能同时理解视频的音频、画面和屏幕文字,进行联合推理,从而保留技术视频中的关键视觉信息(如代码、图表)。通过将多模态能力封装为可复用的Agent Skill,并采用四步最佳实践——视频切片、生成结构化素材、反查关键帧配图、生成终稿——解决了传统流程的上下文割裂问题,使输出更接近人类技术编辑的整理成果。

智能体多模态教程/实践视频
5月6日
23:34
Nathan Lambert@natolambert
56
策略蒸馏成为后训练优化核心技术

作者在其著作中补充了关于策略蒸馏如何成为核心后训练优化技术的历史回顾。其数学原理相对简单,其发展得益于分布式训练系统的进步。关键转折在于强化学习设置中采用蒸馏目标,这启发了丰富的奖励塑造思路。策略蒸馏的普及也源于近年来强化学习算法工程的大规模投入。技术演进从学习教师示范转向学生自我推演,回顾看似明显,实则经历了大量工作。相关研究如MiniLLM率先提出了类似策略梯度的在策略推演蒸馏方法。

大佬观点
23:20
Berryxia.AI@berryxia
精选74
一个名为dFlash的GitHub项目宣称,能将Gemma 4模型的推理速度提升至6倍。这一速度提升幅度超过了谷歌官方此前实现的3倍加速,并且据称在实现加速的同时没有损失模型输出的质量。该项目引发了社区关注,被认为展现了民间开发者在模型优化方面的强大能力。

铁锤人这个项目能让Gemma 4 推理提速到6倍 比谷歌的3倍还快,而且不损失质量 https://github.com/z-lab/dflash

Google开源/仓库开源生态推理
关联讨论 1X:Berry Xia (@berryxia)
推荐理由:一个开源库把 Gemma 4 推理拉到官方的两倍速还不掉精度,这对正在用 Gemma 做部署的开发者简直是及时雨,直接抄作业比等谷歌快多了。
23:20
Berryxia.AI@berryxia
精选75
Warp 开源内部高效工具集 Skills,包含15个生产级技能

Warp 团队将其内部用于大幅提升工作流效率的“Skills”工具集完全开源。用户通过一条命令 `npx skills add warpdotdev/oz-skills` 即可安装包含 SEO 与无障碍审计、文档自动写作、Terraform/DevOps 配置、GitHub Issue 处理等在内的15个高质量生产级技能。团队此举旨在将其实用工具开放给整个社区,而非私有化,体现了开放精神。项目 GitHub 仓库已开放,并鼓励社区贡献。

MCP/工具开源/仓库部署/工程
关联讨论 1X:邵猛 (@shao__meng)
推荐理由:Warp 团队把内部压箱底的 15 个生产级 Skills 全开源了,一条命令就能装,SEO 审计、Terraform 配置这些真实场景的技能直接拿来用,开发效率飞起。
23:04
OpenAI@OpenAI
精选66
大规模AI超算需要新型网络来保持芯片同步。OpenAI专家讨论了在庞大芯片集群间可靠高效传输数据的挑战,并介绍了新发布的多路径可靠连接(MRC)网络协议。该协议由OpenAI与AMD、Broadcom、Intel、Microsoft、NVIDIA等行业伙伴共同推出,旨在帮助大型AI训练集群运行得更快、更可靠,减少GPU闲置时间。MRC是一个开放的行业协议,可供整个业界使用。
OpenAI数据/训练行业动态部署/工程
关联讨论 1OpenAI:官网动态(RSS · 排除企业/客户案例)
推荐理由:OpenAI 拉上 AMD、Broadcom、Intel、Microsoft、NVIDIA 一起搞的开源网络协议,专门解决万卡集群的通信瓶颈,做大规模训练的团队值得去翻翻官方博文。
23:00
Chubby♨️@kimmonismus
49
Claude Mythos与GPT-5.5能力相近,未现性能飞跃

一篇关于Claude Mythos和GPT-5.5的分析文章指出,两者在网络安全能力上基本持平,GPT-5.5可能更具成本效益。Mythos在部分通用基准和SWE-bench Pro上略微领先,但并未形成显著的能力突破。分析认为Mythos的性能符合既往趋势,并非偏离趋势的巨大飞跃。与此同时,OpenAI近期发布了多项出色产品,这反衬出Claude Mythos为何仍保持高度保密状态。

AnthropicOpenAI推理编码
22:37
向阳乔木@vista8
62
打造拟人AI助理的实战经验与游戏从业者洞察

洛小山发布了一篇关于如何创建具有“活人感”AI助理的长文,内容包含大量实用干货与实战经验。文章指出,在该领域表现出色的实践者或项目,大多具有游戏开发背景或是资深游戏玩家。这一关联性提示,游戏行业在角色塑造、交互设计和叙事构建方面的经验,可能为开发更自然、拟人化的AI助理提供了关键的方法论借鉴。

智能体教程/实践
22:37
向阳乔木@vista8
精选77
姚老师将其去年编写的提示词整理并开源,强调这些提示词以实干派风格为主,适用于商业场景,源于实际业务需求。合集包含约100个提示词,覆盖AI方法、工作、学习、生活、教育、内容、编程、营销和思考等9类场景,特别推荐其中的元提示词(包括简易版和进阶版)。项目已通过GitHub发布,并将持续更新验证过的有价值提示词,方便用户下载和迭代。

姚金刚开源一套我的提示词合集 前几天,收到一位微信好友反馈,说使用了我不少公开的提示词,效果很不错 这一年来,公开分享了不少提示词,一直沉淀在飞书文档 为了方…

开源生态教程/实践
关联讨论 1X:小互 (@xiaohu)
推荐理由:姚老师这套提示词不是纸上谈兵,全是商业场景里磨出来的,100个覆盖九类场景,尤其是元提示词,可以直接复制就用,做 AI 产品的赶紧收藏。
22:37
22:36
SenseTime@SenseTime_AI
精选71
🚀 SenseNova-U1 更新: ⚡ 开源8步蒸馏LoRA:100 NFE降至8 NFE,H100推理时间从23秒缩短至2秒 🧩 现已支持ComfyUI,提供文生图、图像编辑和交错生成的即用工作流 试用链接 👇 https://github.com/OpenSenseNova/SenseNova-U1/
图像生成开源/仓库推理模型发布

推荐理由:从100步到8步,23秒压到2秒,商汤这个蒸馏LoRA把U1的推理成本打下来了,做实时图像应用的可以认真看看,ComfyUI一接就能跑。
22:08
小互@xiaohu
63
Petdex:Codex终端宠物自定义商店

Petdex是一个专为Codex设计的宠物商店项目,允许用户更换终端小宠物。用户可预览、下载和提交各种动态宠物,通过命令行工具如'npx petdex install <宠物名>'快速安装。在Codex中,可通过Settings → Appearance → Pets界面选择宠物,或使用/pet命令唤出或收起宠物,实现个性化终端体验。

MCP/工具开源/仓库编码
21:38
小互@xiaohu
65
QClaw海外版整合Claude Code实现自动化写作

QClaw海外版通过调用本机Claude Code技能,实现了从任务发起到内容产出的全自动化写作流程。用户仅需在移动端发送一条包含多步骤指令(如筛选主题、撰写推文串、生成公众号初稿、进行去AI化处理及发布前检查)的文本任务,系统即可自动完成全部工作,并将最终文件输出至Obsidian知识库中。该工具的核心在于无缝衔接了自然语言指令与本地AI代码执行能力,显著提升了内容创作效率。

智能体Anthropic教程/实践编码
21:29
Chubby♨️@kimmonismus
54
NVIDIA开源支撑OpenAI Blackwell集群的新型网络传输协议

NVIDIA通过OCP开源了MRC协议,这是一种专为大规模AI训练集群设计的新型RDMA传输协议。其核心创新在于将单一连接分散到多条网络路径上,当某条路径出现故障或拥塞时,能在微秒级时间内通过硬件重路由流量,以解决前沿AI训练中日益严峻的网络瓶颈问题。该协议已应用于OpenAI的Blackwell集群,微软和Oracle也是其主要部署方。NVIDIA此举在表面推动更开放标准的同时,优先为自家Spectrum-X平台优化,实则强化了其全栈竞争优势,并将以太网技术推向传统上由InfiniBand主导的高性能计算领域。

OpenAI开源/仓库数据/训练部署/工程
20:36
向阳乔木@vista8
63
豆包大模型Doubao-Seed-2.0-lite实现全模态理解与能力提升

Doubao-Seed-2.0-lite 0428 内测版本升级,新增音频理解功能,能同时支持图片、视频、音频和文本四种输入,成为豆包大模型家族首款全模态理解模型。该版本在 Agent、Coding 和 GUI 能力上也有明显提升。通过 API 测试,验证了其在前端动效复刻、视频Hooks建议和字幕识别等场景的应用潜力,具体案例详见后续推文线程。

多模态模型发布
20:20
Berryxia.AI@berryxia
47
很多大公司没有创新都是因为大家都害怕"背锅"。

Elon Musk指出,大公司创新停滞的核心原因是对失败的惩罚过于严厉,导致员工因害怕被开除而只敢进行保守的渐进式改进。他强调,风险回报必须明显向大胆行动倾斜,真正的突破才可能发生。SpaceX和xAI能快速迭代,正是因为他们将失败视为必要的学习成本。相反,多数公司一次失败就秋后算账,致使团队形成“安全第一”的保守文化,创新沦为表面表演。真正的创新需要容忍失败、奖励大胆尝试的文化,而非依赖KPI和零容错的管理压力。

xAI大佬观点现象/趋势