X公司一支16人的顶尖工程师团队,仅用六周时间,将堆积了十五年的老旧广告推荐系统彻底重构。他们将100万行Scala代码精简至5万行,底层全部替换为Rust和Grok原生Transformer模型,并将信息流与广告推荐整合到同一个Grok神经中枢进行统一调度。此举大幅降低了基础设施成本,提升了用户体验,使Grok从聊天模型转变为驱动X全部商业流量的底层操作系统,标志着马斯克实现了从算力硬件、底层大模型到商业场景的全栈闭环。
Karpathy指出,当前逐句编写prompt使用AI的方式效率低下,用户自身成为瓶颈。真正的顶级用法是把自己“踢出循环”,转变为系统设计师:提前设定规则、评估标准和反馈循环,让AI自主运行迭代。这创造了“token杠杆”,即以少量指令触发海量工作。LLM的核心价值并非加速现有工作,而是创造以前不可能存在的事物(如完全LLM原生的应用)。未来程序员角色将转变为设计代理系统、守护人类品味的设计师。真正的护城河在于理解LLM的“锯齿状智能”并设计能放大人类品味的agent系统。
Karpathy的最新演讲,把我对AI的认知彻底刷新了一遍, 他说所有人都搞错了LLM的真正价值, 它根本不是用来加速你现有工作的, 核心价值是用来创造那些以…
该书核心观点认为,人类进步的唯一引擎是创造“难以随意改变”的“好的解释”。知识并非来自归纳积累,而是通过“猜想与反驳”的循环产生,错误是进步的燃料而非耻辱。由此推导出物理定律级别的乐观主义:所有问题本质是知识不足,只要持续创造知识,问题终可解决。书中还指出,AI具备真正创造力是时间问题,并批判“可持续发展”是陷阱,强调“持续创新”才是真正的可持续。最终结论是,人类远未到达极限,仍处于进步的起点。
戴维·多伊奇在《无穷的开始》中指出,人类文明进步的核心动力是创造力,即产生“难以随意改变”的好解释。知识通过“猜想与反驳”产生,错误是进步的燃料。他将文化分为压制变革的静态文化与鼓励批判的动态文化,并批判“可持续发展”观念,认为真正的可持续在于持续创新以解决新问题。只要保持创造与批判,在物理定律允许的范围内,进步将永无止境。
Karpathy提出计算机科学正经历第三次主芯片翻转,神经网络将成为计算的宿主进程,CPU则退化为协处理器,类似历史上FPU和GPU的变革。主导工作负载转向语言推理与多模态,市场正疯狂定价推理能力。软件3.0时代到来,应用将临时生成,模型驱动。LLM的核心价值在于创造前所未有的新事物,其能力呈现经济学驱动的“锯齿状智能”。范式迁移下,程序员角色转变为设计代理系统,护城河从编写代码转向理解LLM与设计能放大人类品味的智能体。
Karpathy的最新演讲,把我对AI的认知彻底刷新了一遍, 他说所有人都搞错了LLM的真正价值, 它根本不是用来加速你现有工作的, 核心价值是用来创造那些以…
麦肯锡最新研究显示,AI投资正为企业带来显著财务回报。在一批表现最优的公司中,AI投资平均每投入1美元可获得约3美元回报。研究基于对20家全面应用其“Rewired”转型框架企业的分析,该框架强调通过优化人才、运营、技术和数据将数字化投资转化为业务价值。大多数公司在投入AI一至两年后开始看到现金流回报,而真正的利润提升通常还需两到四年,平均核心利润可提高约20%。约三分之二的成功公司将AI应用集中在三个或更少的关键领域,而非全面铺开。
GPT-image-2的一个图片生成提示词近期在网络上广泛传播。该提示词要求以最粗糙、潦草、拉垮的画风重制图片,背景为白色,模拟系统自带画图软件的鼠绘感,追求似像非像、别扭迷惑的低清像素效果,旨在突出翻车感。用户尝试后表示效果绝佳,引发热议,凸显了AI生成图片在创意风格上的灵活应用。
一篇经济学论文直接建模了AI行业正在发生的“结构性杰文斯悖论”。研究发现,尽管大语言模型的运行成本下降,但总计算能耗却爆炸式增长。数学模型证明,数字智能单位成本的降低,导致对复杂AI代理及其支撑基础设施的总需求呈指数级上升,并催生需要人力管理的新下游生态。这形成一个悖论:AI使用价格下降并未节约成本,反而激励开发者构建消耗指数级算力的更复杂代理。持续进步使得基于大模型开发简单应用的小公司被核心AI吸收的功能所淘汰。竞争动态中,性能完善的模型一旦有更智能的版本出现即失去经济价值。最终,巨大的计算成本与持续的用户数据需求,共同推动整个AI行业走向不可避免的垄断。
LinkedIn联合创始人Reid Hoffman提出,每个组织都应记录所有会议,并利用AI对录音进行分析,其用途远超文字转录。AI能够自动识别会议中提及的关键待办事项,例如提醒与会者通知特定同事、获取上级批准或协调其他团队的工作。他强调,此类自动跟进与协调的技术已经成熟,可供企业立即部署使用。
作者通过个人写作系统的崩溃经历,阐述了一个普遍现象:一个原本运行良好的系统,在持续、过度的优化追求下,反而会走向失控和性能恶化。他将此现象类比到AI模型领域,推测Anthropic的Claude Opus模型可能也经历了类似的“优化-崩溃”路径,即开发者在试图不断改进模型(如从4.0版本迭代)的过程中,可能导致其核心能力或输出质量出现非预期的衰退。这揭示了技术迭代中“过犹不及”的风险。
OpenAI总裁布罗克曼指出,AI编程工具进步显著,已从辅助角色转变为主导力量。仅去年12月,AI辅助编写代码的比例就从20%跃升至80%。OpenAI的Codex平台现已能支持“任何使用电脑工作的人”。布罗克曼强调,人类仍需对合并的代码负责,应避免盲目使用或完全拒绝AI生成代码。行业趋势显示,谷歌内部目前75%的新代码由AI生成并交由人工审核,Meta和Anthropic也报告了类似进展。Anthropic CEO预测,未来一年内AI可能编写绝大部分甚至全部代码。
上周,Kimi K2.6、MiMo V2.5 Pro和DeepSeek V4 Pro三大领先开源模型发布,在Artificial Analysis Intelligence Index上得分达52-54分,与顶尖闭源模型GPT-5.5的60分差距缩小至6分以内,相比一年前22分的开源模型进步显著。这些模型均为万亿参数规模的MoE架构。然而,在复杂推理、智能体编码及知识准确性方面,开源模型与闭源模型仍存在明显差距。例如在HLE、CritPt和TerminalBench Hard等专项评估中得分大幅落后;在Omniscience评估中,DeepSeek V4 Pro的幻觉问题尤为突出。
鲸鱼兄弟们好,我是做 DeepSeek-TUI 的那个美国佬。 说真的,特别想跟国内的鲸鱼兄弟们一起混——但我的翻墙技能仅限于写代码,微信到现在都没搞定,属实…