Soundtrack-adored Mount Fuji: Morning Glory, Sunrise, Sunset. T2V with brilliant…
Claude Code 团队分享了大规模优化提示缓存的核心策略。提示缓存基于前缀匹配工作,能显著降低延迟与成本,高命中率还能支持更宽松的订阅速率限制。关键实践包括:将静态系统提示和工具定义置于提示词前端以最大化共享前缀;通过消息而非修改提示词来传递更新信息,避免缓存失效;在会话中不切换模型、不增删工具,以维持缓存前缀稳定。此外,针对工具过多或“计划模式”等场景,可通过发送轻量存根或设计专用工具来规避缓存失效,从而在复杂功能中持续利用缓存优势。
微软首席执行官萨提亚·纳德拉强调,衡量人工智能业务成功的关键指标应是“深度用户和高强度使用”,而非简单的用户席位数量。尽管微软公布了创纪录的利润和强劲的云业务增长,但其生成式AI业务的具体业绩细节仍未对外披露。这一表态反映了科技巨头在AI商业化初期,更侧重于用户参与质量和实际使用深度,而非单纯追求用户规模扩张。
OpenAI与Anthropic同天发布官方提示指南,核心理念截然相反。OpenAI建议为GPT-5.5明确目标而非步骤,让其自主选择路径;Anthropic则要求对Claude Opus 4.7清晰说明意图、格式与成功标准。这导致旧提示方法失效:模糊指令使Claude输出变窄,而详细流程成为GPT的噪声。这反映出提示工程的核心已从“教模型做事”转变为“使用者自身思考的结构化”,真正的瓶颈可能在于人的思考清晰度,而非模型能力。
我终于明白为啥最近很多人都在说,GPT和Claude突然变笨了, 昨天OpenAI和Anthropic同时发布了官方提示工程指南, 看完我才发现,并不是模型变…
《时代》杂志指出,谷歌在人工智能领域的领先地位,源于CEO桑达尔·皮查伊早期对DeepMind、TPU芯片、云基础设施及AI产品的一系列长期投资,而非对ChatGPT的仓促反应。其核心优势在于对研究、芯片、云服务、产品和覆盖数十亿用户的分发渠道实现全栈控制。通过将定制芯片制造与统一的研究实验室深度融合,谷歌获得了对AI架构的绝对控制权,能利用自研TPU高效执行复杂计算,同时让工程师得以低成本大规模扩展模型预训练,而无需像竞争对手那样承受高昂的外部芯片采购成本。
谈话指出LLM的核心价值在于开启全新可能,如完全由LLM驱动的应用、用自然语言描述替代脚本安装、以及处理传统代码无法应对的非结构化知识库。其次,探讨了LLM能力“锯齿状”不均衡现象,认为这与领域可验证性及经济利益影响训练数据分布有关。最后,话题转向智能体原生经济,涉及将产品服务分解为传感器、执行器和逻辑模块,使信息对LLM高度可读,并讨论了新兴的智能体工程及相关技能。谈话强调,从“氛围编程”到“智能体工程”的转变,不仅是提升效率,更是拓展能力上限,旨在智能体时代构建全新事物。
关联讨论 2 条X:邵猛 (@shao__meng)X:阿易 AI Notes (@AYi_AInotes)CodexPotter 是一个命令行工具,通过后台启动 Codex CLI 并采用“Ralph Loop”机制执行任务。它先将用户目标写入 MAIN.md 文件,随后在全新上下文中反复启动 Codex 会话,对照该文件检查并修正代码,直至输出与目标一致,默认最多进行 6 轮迭代。该工具适用于目标明确的任务(如按文档实现功能),而非交互式讨论。其名称灵感来源于《辛普森一家》中爱重复说话的 Ralph Wiggum。作者推荐此工具,以回应寻找类似 Claude Code 中 Ralph 插件的需求,并指出其不会像某些插件那样修改用户配置。
请问有没有好用的 Ralph Loop for Codex? 类似于 Claude Code 的 Ralph Wiggum Plugin https://git…
近期用户感觉GPT和Claude“变笨”,实因模型能力进化导致提示工程要求改变。官方指南揭示,两大模型进化方向相反:Claude Opus 4.7趋向字面执行指令,而GPT-5.5则更自主,能根据目标自行选择路径。因此,旧提示失效原因也相反——模糊提示在Claude上输出变窄,详细步骤在GPT上反成噪声。提示工程的核心已从“教模型做事”转变为“先结构化人类思考”,未来优势将属于思考最清晰、最明确自身需求的人。
DeepSeek团队提出全新多模态推理框架“Thinking with Visual Primitives”,核心是让模型在推理过程中像人类一样,使用“点”和“边界框”这类视觉原语来指代图像中的具体位置,以此作为思维的最小单位,旨在解决语言在精确描述空间位置时的“指代鸿沟”问题。模型采用DeepSeek-V4-Flash作为语言骨干,并设计了极致的视觉Token压缩流水线,将视觉Token用量压缩至其他前沿模型的十分之一。尽管视觉信息被大幅压缩,模型在空间推理、计数等任务上仍达到或超越了GPT-5.4、Claude-Sonnet-4.6等模型的性能。
关联讨论 2 条X:歸藏 (@op7418)DeepSeek:GitHub 新仓库作者完成DeepSeek最新论文的AI解读,指出论文在独立思考方面表现突出,闪耀创新光辉。数据清洗过程细致严谨,通过多条件过滤将数据规模从近10万缩减至3万条。训练数据构建设计巧妙,例如大量迷宫题等趣味方法,体现了研究团队的创意。整体而言,论文在AI领域具有重要价值,获得高度评价。
DeepSeek-VL旨在解决开源视觉模型在真实场景中应用效果不佳的问题。其核心方案是系统性地从数据、架构与训练三方面进行设计:数据构建强调从真实用户需求出发,并包含70%的纯文本以保留语言能力;模型架构创新性地采用SigLIP与SAM-B混合视觉编码器,兼顾高层语义与低层细节;训练策略则通过三阶段渐进式训练与模态平衡技术,有效缓解了视觉训练对语言能力的侵蚀,最终在同等规模下达到开源模型的顶尖水平。
当前AI Agent产品的交互主要分为两类:一是以Agent为中心,如Cursor的Agent模式和Codex,界面以对话列表指挥AI为主,手动修改为辅;二是以人操作为主、Agent为辅助,如GitHub Copilot,在传统软件界面旁增设侧边栏。设计者需首先明确软件是以Agent为核心还是辅助,否则易导致交互混乱。有观点指出,交互形式三年多来革新缓慢,关键在于缺乏对Agent从“无状态”到“有状态”处理的基础设施支持,状态机抽象有望推动交互设计丰富化。
为什么从gpt到现在已经三年多了 还是这种交互 侧边栏会话记录+对话详情+artifact 再多一点儿可能再分一个层级出四栏 或者上下再分层级tab 之所以没…
阿里巴巴开源了Qwen3.6系列两款模型:27B密集模型和35B A3B混合专家模型。其中,Qwen3.6 27B在Artificial Analysis智能指数上得分46,成为150B参数以下最智能的开源模型,领先于Gemma 4 31B等。但其运行完整测试消耗的输出token约为后者的3.7倍,成本高出约21倍。两款模型均采用Apache 2.0许可,支持262K上下文,具备多模态能力。值得注意的是,其幻觉率较前代大幅下降,但准确率基本持平。更大的Plus和Max Preview版本未开源。
GitHub Copilot CLI 提供了交互与非交互两种主要使用模式。交互模式允许用户通过对话式指令逐步构建和调整命令,适合探索性任务。非交互模式则支持直接输入完整指令快速执行,适用于自动化脚本或已知命令。理解这两种模式的区别能帮助开发者更高效地利用该工具,提升命令行工作效率。
开发者Theo实验发现,Anthropic的官方工具Claude Code会主动扫描用户Git仓库的近期提交记录。一旦检测到包含“openclaw”字符串(无论出现在JSON、文件名或注释中),便会触发“out of extra usage”错误,导致请求被拒绝或强制额外收费。这证实了Anthropic有意通过字符串匹配规则,打压第三方工具OpenClaw,旨在将用户锁定在其自家产品中。此举与其此前宣称的“不做监控”形象相悖,被社区批评为反竞争行为,并引发了用户转向开源替代方案的强烈呼声。
用户惊叹于GPT在效果空间理解方面的强大能力,尝试使用其文生图功能复现经典游戏《纪念碑谷》的风格场景,仅一次尝试便成功生成兼具静谧感与孤独美的图像。推文强调GPT能够准确捕捉并传递特定的美学氛围,同时作者已将生成所用的提示词公开分享供他人尝试。
Qwen团队推出开源稀疏自编码器套件Qwen-Scope,将SAE特征转化为实用工具。该套件支持四大应用方向:无需提示工程即可通过直接操控内部特征引导模型输出;用极少样本对目标数据进行分类与合成,提升长尾能力;追踪代码切换和重复生成问题的根源并进行修复;通过分析特征激活模式优化评测基准并减少冗余。团队希望社区利用Qwen-Scope深入探索Qwen模型内部机制,并开发出超越现有研究范围的应用。相关资源已开放。
Vera 是一种新型编程语言,专为机器自动编写代码而设计,旨在推动编程自动化。该语言已在 GitHub 平台开源发布,项目地址为 github.com/aallan/vera。自亮相以来,在技术社区 Hacker News 上引发热议,相关帖子获得了 100 点的热度指标,显示出业界对其创新潜力的广泛关注。
DeepSeek团队开源视觉语言模型DeepSeek-VL,包含1.3B和7B两个版本,旨在缩小开源模型与GPT-4V在真实场景中的差距。模型从数据、架构、训练三方面优化:数据构建上,采用从真实用户需求倒推的分类体系,并包含70%纯文本以保持语言能力;架构上创新采用SigLIP与SAM-B的混合视觉编码器,分别处理语义与细节特征;训练采用三阶段策略及模态平衡技术,缓解多模态训练对语言能力的侵蚀。
DeepSeek-VL论文指出,多模态训练会损害语言模型的语言能力,使用100%视觉数据训练将导致语言benchmark性能断崖式崩塌。研究确定最佳训练配方为70%纯文本数据与30%多模态数据结合,并强调视觉与语言模态之间存在固有竞争关系,这种竞争无法通过参数调整来规避。论文结论突显了平衡多模态数据比例对维持模型语言性能的关键作用。
腾讯发布开源混合专家模型Hy3-preview,总参数量2950亿,激活参数量210亿。其在Artificial Analysis综合智能指数上得分42,落后于近期开源的GLM-5.1、DeepSeek V4 Flash及Qwen3.6 27B等推理模型。具体评测表现不均衡:在真实世界任务基准GDPval-AA上落后于主要竞品,但在研究级物理评测CritPt上与高分模型GLM-5.1持平;其相对弱项在于AA-Omniscience指数,幻觉率较高。模型采用Tencent HY社区许可协议,商业使用受限,已在Hugging Face和SiliconFlowAI平台提供。