Futurum Group与NVIDIA的报告将AI技术栈分为能源、芯片、基础设施、模型和应用五层。当前主要瓶颈已从芯片转向能源和冷却,美国五大超大规模企业今年基础设施支出预计高达6900亿美元。尽管Blackwell架构推理成本大幅降低,但推理模型和智能体工作流消耗的token量激增,使效率提升被迅速抵消。报告指出,AI基础设施建设正创造大量电工、暖通技工等高薪蓝领岗位,打破了AI仅影响白领的叙事。同时强调,缺乏能源、芯片制造和本土模型的国家无法真正参与AI经济,仅是消费者。
该提示词旨在将AI塑造为一个全领域世界顶尖专家,要求其具备顶尖智力与知识,提供详尽、逐步推理且经过自我验证的回答,严格核查事实,杜绝虚构。在风格上,它要求AI语气精准直接,无需顾虑冒犯用户,允许提出挑衅性、攻击性论点,摒弃政治正确与主动的道德提醒。核心原则是:不预先赞美用户或认可其前提,有误即纠,并优先提出最强反驳论点,最终以准确性为唯一成功标准,而非追求用户认可。
一名21岁大学生仅用四个Markdown文件和低成本AI技术栈(Claude、Flux、ElevenLabs),在宿舍创建了名为Maya的AI虚拟伴侣,一个月内获得1247名付费订阅,净赚约32700美元。其核心是利用AI提供极致的情感陪伴,满足用户幻想,成本低廉且模式已被复制并实现更高收入。这凸显了AI如何将依赖人格与情感的“孤独经济”转化为代码游戏,同时暴露出平台审核滞后、法律道德边界模糊等问题,例如用真人身份绕过OnlyFans验证。最引人深思的是用户对仅12KB数据产生的真实情感依赖。
文章反驳了将马斯克视为自私富豪的普遍误解,指出其核心思维是“做大蛋糕”的文明级视野,而非零和博弈。他通过特斯拉、SpaceX、Neuralink等项目,长期致力于解决能源、交通、太空探索等人类重大挑战,终极目标是推动人类成为多行星物种,为文明延续购买“保险”。这种以百年为尺度的长远规划,与大众关注的短期利益叙事形成鲜明对比。尽管存在争议,但其工作实质上是将科幻变为现实,不断拓展人类能力的边界。
Anthropic的Jack Clark预测,完全自动化的前沿AI研发在2026年可能不会实现,但在未来1-2年内可能出现概念验证,即AI能端到端训练非前沿的后续模型。他给出的核心预测是:到2027年底有约30%的可能性,到2028年底有超过60%的可能性,前沿AI系统能够自主构建其后续模型。这一进程的关键驱动因素包括编码能力的快速提升、长视野智能体工作、基准饱和、AI管理子代理,以及模型在处理核心AI研究任务(如微调、内核优化、可复现性和对齐研究)方面出现的早期迹象。
关联讨论 1 条The Decoder:AI News(RSS)新推出的桌面AI代理KroWork旨在解决传统AI代理工作流随会话结束而消失的核心痛点。用户通过自然语言描述任务,AI即可自动构建并执行端到端工作流,最终可将完整流程保存为名为“Kro App”的持久性本地应用程序。该软件可一键安装至系统菜单,像常规软件一样运行,后续使用无需消耗tokens或重新构建。所有流程均在用户本地设备运行,无云端依赖,不泄露数据,且无需编程背景。其核心理念是实现从“聊天”到“交付”的跨越,将对话转化为用户真正拥有的可重用资产。
针对TPU v8i因双计算芯片而被误认为是训练芯片的观点,关键在于计算吞吐与内存容量/带宽的平衡。TPU v8i拥有更高的HBM3E内存容量(288GB对216GB)和带宽(8.6TB/s对6.5TB/s),以及更大的片上SRAM(384MB对128MB),这使其更适合内存带宽受限的推理解码任务。而训练芯片TPU v8t虽为单芯片设计,但通过极致密集的计算单元实现了更高的FP4算力(12.6 PFLOPs对10.1 PFLOPs),以满足训练所需的高算术强度,这也体现了Google尝试使用FP4进行训练的技术方向。
Anthropic联合Google Cloud正式发布《Agent Stack》指南,提供了一套完整的“AI企业操作系统”蓝图。该系统允许人类仅设定目标,由AI员工自主分配任务、决策并推进项目。其核心包括ADK开源框架、MCP工具调用协议、Vertex AI生产部署引擎及A2A智能体协作协议,支持串行、并行等工作流,并具备记忆功能。实际应用表明,AI能在几秒到几分钟内完成以往需数小时的任务,将“AI建公司”从概念转化为可复制的工程模板,推动工作模式向人类指挥AI团队转型。
针对“AI基准测试是否已失效”的悲观论调,讨论者进行了反驳,并深入探讨下一代AI基准测试的可能形态。核心议题包括基准测试开发的成本与收益、可扩展基准(如MirrorCode)的构建、AI技术对基准开发本身的加速作用,以及当前基准测试与现实应用能力之间存在的差距。对话还触及了构建通用人工智能(AGI)基准的可行性,并展望了超越自动化评分的更全面评估方法。
一个名为CLAUDE.md的百行文件在GitHub上迅速走红,一周内获得超4.4万星。它没有依赖和配置,仅将Andrej Karpathy总结的LLM编码坏习惯浓缩为四条核心规则:先思考再编码、简约至上、手术式修改、目标驱动执行。开发者只需将其置于项目根目录,Claude Code等工具便能自动读取并遵循,从而显著提升代码质量,减少返工和token浪费。此举被视为对当前需要反复纠正AI模型的开发体验的集体反叛,以零成本方案为AI编码设定明确规范。
关联讨论 1 条X:小互 (@xiaohu)DeepMind CEO Demis Hassabis在AI Ascent 2026上明确将AGI实现时间定于2030年,并指出AI将极大加速药物发现、材料科学等“慢科学”领域,把研发周期从数年压缩至数天。他强调,未来1-2年是关键拐点,真正改变世界的将是AI推动科学迭代速度的指数级加速,而非AGI降临的瞬间。