OpenRouter 又上了匿名新模型Owl Alpha! 1M 上下文,强大的工具调用能力! 猜猜他是谁家的哈哈😂
针对AI Agent领域框架频出、基准动荡的现状,一篇实战指南指出“跟上所有东西”是最差策略。核心建议是过滤99%的噪声,专注于变化缓慢、具有长期复利价值的基础概念,如上下文工程、工具设计、Orchestrator-Subagent模式、评估体系和MCP协议。应避免追逐短期热点框架。行动上,应从可量化的业务目标出发,优先建立可观测性与评估体系,用真实失败驱动迭代。在AI加速发展的背景下,胜出者将是能专注复利原语并产出实际作品的人。
X公司一支16人的顶尖工程师团队,仅用六周时间,将堆积了十五年的老旧广告推荐系统彻底重构。他们将100万行Scala代码精简至5万行,底层全部替换为Rust和Grok原生Transformer模型,并将信息流与广告推荐整合到同一个Grok神经中枢进行统一调度。此举大幅降低了基础设施成本,提升了用户体验,使Grok从聊天模型转变为驱动X全部商业流量的底层操作系统,标志着马斯克实现了从算力硬件、底层大模型到商业场景的全栈闭环。
Karpathy指出,当前逐句编写prompt使用AI的方式效率低下,用户自身成为瓶颈。真正的顶级用法是把自己“踢出循环”,转变为系统设计师:提前设定规则、评估标准和反馈循环,让AI自主运行迭代。这创造了“token杠杆”,即以少量指令触发海量工作。LLM的核心价值并非加速现有工作,而是创造以前不可能存在的事物(如完全LLM原生的应用)。未来程序员角色将转变为设计代理系统、守护人类品味的设计师。真正的护城河在于理解LLM的“锯齿状智能”并设计能放大人类品味的agent系统。
Karpathy的最新演讲,把我对AI的认知彻底刷新了一遍, 他说所有人都搞错了LLM的真正价值, 它根本不是用来加速你现有工作的, 核心价值是用来创造那些以…
该书核心观点认为,人类进步的唯一引擎是创造“难以随意改变”的“好的解释”。知识并非来自归纳积累,而是通过“猜想与反驳”的循环产生,错误是进步的燃料而非耻辱。由此推导出物理定律级别的乐观主义:所有问题本质是知识不足,只要持续创造知识,问题终可解决。书中还指出,AI具备真正创造力是时间问题,并批判“可持续发展”是陷阱,强调“持续创新”才是真正的可持续。最终结论是,人类远未到达极限,仍处于进步的起点。
戴维·多伊奇在《无穷的开始》中指出,人类文明进步的核心动力是创造力,即产生“难以随意改变”的好解释。知识通过“猜想与反驳”产生,错误是进步的燃料。他将文化分为压制变革的静态文化与鼓励批判的动态文化,并批判“可持续发展”观念,认为真正的可持续在于持续创新以解决新问题。只要保持创造与批判,在物理定律允许的范围内,进步将永无止境。
Karpathy提出计算机科学正经历第三次主芯片翻转,神经网络将成为计算的宿主进程,CPU则退化为协处理器,类似历史上FPU和GPU的变革。主导工作负载转向语言推理与多模态,市场正疯狂定价推理能力。软件3.0时代到来,应用将临时生成,模型驱动。LLM的核心价值在于创造前所未有的新事物,其能力呈现经济学驱动的“锯齿状智能”。范式迁移下,程序员角色转变为设计代理系统,护城河从编写代码转向理解LLM与设计能放大人类品味的智能体。
Karpathy的最新演讲,把我对AI的认知彻底刷新了一遍, 他说所有人都搞错了LLM的真正价值, 它根本不是用来加速你现有工作的, 核心价值是用来创造那些以…
GPT-image-2的一个图片生成提示词近期在网络上广泛传播。该提示词要求以最粗糙、潦草、拉垮的画风重制图片,背景为白色,模拟系统自带画图软件的鼠绘感,追求似像非像、别扭迷惑的低清像素效果,旨在突出翻车感。用户尝试后表示效果绝佳,引发热议,凸显了AI生成图片在创意风格上的灵活应用。
一篇经济学论文直接建模了AI行业正在发生的“结构性杰文斯悖论”。研究发现,尽管大语言模型的运行成本下降,但总计算能耗却爆炸式增长。数学模型证明,数字智能单位成本的降低,导致对复杂AI代理及其支撑基础设施的总需求呈指数级上升,并催生需要人力管理的新下游生态。这形成一个悖论:AI使用价格下降并未节约成本,反而激励开发者构建消耗指数级算力的更复杂代理。持续进步使得基于大模型开发简单应用的小公司被核心AI吸收的功能所淘汰。竞争动态中,性能完善的模型一旦有更智能的版本出现即失去经济价值。最终,巨大的计算成本与持续的用户数据需求,共同推动整个AI行业走向不可避免的垄断。
LinkedIn联合创始人Reid Hoffman提出,每个组织都应记录所有会议,并利用AI对录音进行分析,其用途远超文字转录。AI能够自动识别会议中提及的关键待办事项,例如提醒与会者通知特定同事、获取上级批准或协调其他团队的工作。他强调,此类自动跟进与协调的技术已经成熟,可供企业立即部署使用。
作者通过个人写作系统的崩溃经历,阐述了一个普遍现象:一个原本运行良好的系统,在持续、过度的优化追求下,反而会走向失控和性能恶化。他将此现象类比到AI模型领域,推测Anthropic的Claude Opus模型可能也经历了类似的“优化-崩溃”路径,即开发者在试图不断改进模型(如从4.0版本迭代)的过程中,可能导致其核心能力或输出质量出现非预期的衰退。这揭示了技术迭代中“过犹不及”的风险。