为实现语音AI的自然对话感,OpenAI采用WebRTC支持音频流式处理。针对1:1场景,采用Transceiver模型集中管理WebRTC状态,使后端可横向扩展。为解决WebRTC与K8s的端口和状态粘性问题,设计了Relay+Transceiver架构:轻量Relay层收敛公网UDP入口,并利用ICE ufrag字段编码路由信息,实现首包精准转发至对应Transceiver。该设计保留了协议语义,状态集中,并通过全球部署Relay优化路径,最终在K8s上实现了低延迟、高可扩展的语音交互系统。
Claude Code创始人Boris Cherny通过30分钟视频,系统讲解了该工具的高级工程化用法。核心观点是:为Claude提供越多上下文,它就越智能。视频详细演示了如何通过CLAUDE.md文件在企业、项目、本地层级注入上下文规则,如何将内部工具集成到Agent工作流,并优化了数十个终端设置与权限管理等细节。他指出,多数用户仅发挥其10%潜力,仅用于简单对话,而未能将其作为驱动整个工程团队的生产力基础设施。
关联讨论 3 条Anthropic:Engineering(事故复盘 + 工程实践 · 网页)X:宝玉 (@dotey)X:Claude Devs (@ClaudeDevs)本期早报聚焦AI对软件开发的变革。Anthropic Claude Code创始人宣称“编程已被解决”,软件创作将交由AI Agent。OpenAI罕见公开其支撑9亿周活语音服务的WebRTC Relay重构技术细节。同时有观点指出,企业应用AI失败的核心原因在于自身无法清晰定义需求。此外,内容还涵盖了Supabase Skills、规范驱动开发等工程实践与一篇AI主题科幻短篇。
纳西姆·塔勒布在《skin in the game》中强调,风险共担是价值核心。现代大公司以超额工资制造员工依赖,形成新型“奴隶制”。真正有价值的产出需付出金钱、时间或思考,空谈和AI廉价产出则无意义。这揭示了OPC模式的盲区:解决能力问题,但缺信任与风险共担。雇佣本质是购买确定性,合伙则是共同押注命运。AI时代,每个人都需学会真实交易和共担风险,未来“当狗”机会减少,成为独立“狼群”才是出路。
Futurum Group与NVIDIA的报告将AI技术栈分为能源、芯片、基础设施、模型和应用五层。当前主要瓶颈已从芯片转向能源和冷却,美国五大超大规模企业今年基础设施支出预计高达6900亿美元。尽管Blackwell架构推理成本大幅降低,但推理模型和智能体工作流消耗的token量激增,使效率提升被迅速抵消。报告指出,AI基础设施建设正创造大量电工、暖通技工等高薪蓝领岗位,打破了AI仅影响白领的叙事。同时强调,缺乏能源、芯片制造和本土模型的国家无法真正参与AI经济,仅是消费者。
该提示词旨在将AI塑造为一个全领域世界顶尖专家,要求其具备顶尖智力与知识,提供详尽、逐步推理且经过自我验证的回答,严格核查事实,杜绝虚构。在风格上,它要求AI语气精准直接,无需顾虑冒犯用户,允许提出挑衅性、攻击性论点,摒弃政治正确与主动的道德提醒。核心原则是:不预先赞美用户或认可其前提,有误即纠,并优先提出最强反驳论点,最终以准确性为唯一成功标准,而非追求用户认可。
一名21岁大学生仅用四个Markdown文件和低成本AI技术栈(Claude、Flux、ElevenLabs),在宿舍创建了名为Maya的AI虚拟伴侣,一个月内获得1247名付费订阅,净赚约32700美元。其核心是利用AI提供极致的情感陪伴,满足用户幻想,成本低廉且模式已被复制并实现更高收入。这凸显了AI如何将依赖人格与情感的“孤独经济”转化为代码游戏,同时暴露出平台审核滞后、法律道德边界模糊等问题,例如用真人身份绕过OnlyFans验证。最引人深思的是用户对仅12KB数据产生的真实情感依赖。
文章反驳了将马斯克视为自私富豪的普遍误解,指出其核心思维是“做大蛋糕”的文明级视野,而非零和博弈。他通过特斯拉、SpaceX、Neuralink等项目,长期致力于解决能源、交通、太空探索等人类重大挑战,终极目标是推动人类成为多行星物种,为文明延续购买“保险”。这种以百年为尺度的长远规划,与大众关注的短期利益叙事形成鲜明对比。尽管存在争议,但其工作实质上是将科幻变为现实,不断拓展人类能力的边界。
Anthropic的Jack Clark预测,完全自动化的前沿AI研发在2026年可能不会实现,但在未来1-2年内可能出现概念验证,即AI能端到端训练非前沿的后续模型。他给出的核心预测是:到2027年底有约30%的可能性,到2028年底有超过60%的可能性,前沿AI系统能够自主构建其后续模型。这一进程的关键驱动因素包括编码能力的快速提升、长视野智能体工作、基准饱和、AI管理子代理,以及模型在处理核心AI研究任务(如微调、内核优化、可复现性和对齐研究)方面出现的早期迹象。
关联讨论 1 条The Decoder:AI News(RSS)针对TPU v8i因双计算芯片而被误认为是训练芯片的观点,关键在于计算吞吐与内存容量/带宽的平衡。TPU v8i拥有更高的HBM3E内存容量(288GB对216GB)和带宽(8.6TB/s对6.5TB/s),以及更大的片上SRAM(384MB对128MB),这使其更适合内存带宽受限的推理解码任务。而训练芯片TPU v8t虽为单芯片设计,但通过极致密集的计算单元实现了更高的FP4算力(12.6 PFLOPs对10.1 PFLOPs),以满足训练所需的高算术强度,这也体现了Google尝试使用FP4进行训练的技术方向。
针对“AI基准测试是否已失效”的悲观论调,讨论者进行了反驳,并深入探讨下一代AI基准测试的可能形态。核心议题包括基准测试开发的成本与收益、可扩展基准(如MirrorCode)的构建、AI技术对基准开发本身的加速作用,以及当前基准测试与现实应用能力之间存在的差距。对话还触及了构建通用人工智能(AGI)基准的可行性,并展望了超越自动化评分的更全面评估方法。
一个名为CLAUDE.md的百行文件在GitHub上迅速走红,一周内获得超4.4万星。它没有依赖和配置,仅将Andrej Karpathy总结的LLM编码坏习惯浓缩为四条核心规则:先思考再编码、简约至上、手术式修改、目标驱动执行。开发者只需将其置于项目根目录,Claude Code等工具便能自动读取并遵循,从而显著提升代码质量,减少返工和token浪费。此举被视为对当前需要反复纠正AI模型的开发体验的集体反叛,以零成本方案为AI编码设定明确规范。
关联讨论 1 条X:小互 (@xiaohu)DeepMind CEO Demis Hassabis在AI Ascent 2026上明确将AGI实现时间定于2030年,并指出AI将极大加速药物发现、材料科学等“慢科学”领域,把研发周期从数年压缩至数天。他强调,未来1-2年是关键拐点,真正改变世界的将是AI推动科学迭代速度的指数级加速,而非AGI降临的瞬间。
一款名为“xbox-mac-ctrl”的开源工具,可将Xbox手柄转变为Mac电脑的通用遥控器。用户能通过手柄控制YouTube、B站等视频播放(全屏、快进、音量调节),并操作微信读书、浏览器及任意Mac软件(如Tab切换、滚动翻页)。该项目由开发者借助DeepSeek v4 Pro通过几轮对话编程实现,旨在满足躺卧时遥控刷小说、看视频的需求,并鼓励开发者fork以适配Switch手柄等其他硬件。
DeepSeek v4 Pro还是可以的。 几轮对话,实现一个工具,用xbox手柄控制电脑应用和浏览器。 当遥控器,躺床上刷小说和看视频。
前几周在 x 上,有篇文章已经完全证实了, token 中转就是背后换模型,以次充好,挂着羊牛卖狗肉,骗用户,大几十万阅读,似乎人人皆知了。 现在简中推,到处…
Sam Altman批评一些CEO宣称AI将导致大规模失业的言论是“不懂人情”。他引用案例指出,GPT-5.5的Codex版本能将耗时数周的工作压缩至一小时,但结果却是使用者“前所未有的忙碌”。AI并未消灭工作,而是极大提升个人产能,使功能开发和试错速度呈指数增长,导致拥抱AI者因生产力暴增而承担更多任务,其野心也随之扩张。当前AI时代的核心分化在于“善用AI者”与“拒绝AI者”之间不断扩大的效率鸿沟。真正的淘汰风险在于旁观而非主动利用工具。