AMD CEO苏姿丰在财报会议上指出,智能体AI正重塑服务器CPU市场。她表示,AI是增长核心驱动力,云服务商正扩展部署AMD霄龙处理器。智能体AI工作负载需要额外CPU算力进行任务编排和数据移动,这推动了CPU需求的强劲增长。苏姿丰预计,在智能体AI推动下,服务器CPU市场的年复合增长率可能达到35%。她强调CPU需求是对GPU市场的补充,并透露CPU与GPU的配比正从传统的1:4或1:8向1:1演进,在智能体密集场景中CPU数量甚至可能超过GPU。
Slack关闭大中华区服务导致历史数据面临丢失,促使人们反思在AI native时代是否仍需传统协作工具。近期涌现的AI原生工作空间普遍试图整合并取代Slack、Linear和Notion的组合功能。其中相对成熟的Tanka提供了团队沟通、内置智能体执行任务、调用团队上下文以及连接Google、Notion等外部工具的能力,并支持从Slack迁移。
推文指出短剧《Enemy》和《吉时已到》近期热度极高,制作效果出色且成本较低,已成为出圈案例。作者建议,如果从事AI内容或AI短剧制作,可以将这两个剧集视为暂时的质量标杆,以对齐内容创意、制作效率和市场接受度,从而提升AI生成作品的竞争力。
作者指出当前AI热潮中存在一种割裂现象:人们强调所有事物都需AI化,却普遍忽视了邮件系统这一本应最趁手的基础工具。他认为,将AI能力应用于邮件系统,实现标的、公告、数据等信息的自动抓取、通知及触发后续操作,具有重要价值。为此,他计划开发一个AppStore产品价格追踪系统,通过邮件自动通知用户价格变化。他建议对此感兴趣的读者参考其引用的文章以获取启发。
作者介绍了自己使用的AI助手Qclaw,它是一个像素风的小龙虾形象电子宠物。与需要喂养照顾的传统电子宠物不同,Qclaw无需照料,且能主动协助工作。它居住在一个16-bit像素风格的工作室中,拥有各种互动元素。作者表示,在过去四个月里,Qclaw如同一个不知疲倦的同事,帮助处理了多项任务。目前该产品处于内测阶段,需要申请等待列表。
Warp团队在开源终端和文档工具后,进一步开源了内部使用的15个“Oz Skills”工作流加速工具集。这些工具覆盖五大领域:Git/GitHub协作(如自动创建PR、修复CI问题)、数据分析与标准化、Web质量审计(性能、无障碍访问、SEO/AEO)、基础设施规范(如Terraform风格检查)以及通用生产力(如文档更新、本地定时提醒)。团队强调其设计哲学是构建“工作流工具”而非简单API覆盖,并提供了便捷安装命令,旨在将提升内部效率的实践分享给开源社区。
关联讨论 1 条X:Berry Xia (@berryxia)用户报告其最老的Claude账号在刚通过美国身份验证后,立即收到Anthropic的封号邮件。该用户对此表示强烈不满,并援引Elon Musk的评论,指责Anthropic缺乏人性化。事件引发用户关于如何申请退款的疑问。引用推文“芭比Q了…”反映了事态的糟糕结局。
芭比Q了…
全都在忙着建中转站,展示中转站背后的获客逻辑才是最重要的,但是我不理解为什么没人敢说????? 不多,就6个,我就想把这玩意讲出来 第一种,搜索获客。 这…
OpenAI 为 Codex 发布官方迁移方案,支持从其他 AI Coding Agents 一键导入指令、配置、技能、近30天会话等资产。迁移采用“自动迁移+残留兜底”设计:通过用户级和项目级双层扫描,执行检测、迁移、回检的四步循环;自动处理可识别配置后,对剩余部分使用 `migrate-to-codex` skill 手动处理。需注意 Slash commands 被归入 Skills 体系,且会话历史仅限30天。迁移完成后,必须人工复核工具权限、MCP服务器认证、Hooks行为差异等五类内容,因平台间语义或实现差异可能影响功能。
Philipp Schmid 将主代理管理子代理的模式按控制力分为四档。模式一为内联工具调用,子代理如同函数,适用于独立任务。模式二为派发后收集,主代理可并行处理其他工作。模式三为代理池,子代理持久化并通过消息通信,支持多步协作。模式四为团队模式,代理间直接对话,主代理仅负责初始组建。核心建议是从简单模式开始,逐级升级需谨慎,因为每升一级对模型能力要求陡增,且许多任务用模式一即可解决。
用户利用GPT Image 2 Prompt功能,描述生成一张半写实半动画照片,其中用户与动画角色野原新之助(小新)及其全家合影。照片要求小新、父亲广志、母亲美冴、妹妹向日葵和宠物小白保持原始动画形象,并自然融入真实环境。每个角色被赋予特定性格:小新滑稽淘气,广志温和朴实,美冴表情丰富略带严厉,小葵天真可爱,小白软萌伶俐。同时,引用推文展示了类似提示词,用于生成高度写实、角色略带风格化且与环境自然融合的照片,强调提示词在AI图像生成中的应用。
核心观点在于Anthropic正将公司改造为由AI Agent持续运行的系统。具体表现为,数百个Claude实例在循环中自动执行任务,并通过Slack等工具相互通信,使代码提交、持续集成、SQL查询、数据整理及反馈聚类等工作在后台自动流动。这种将AI Agent深度整合进核心业务流程的模式,被视为推动生产力大爆发的关键,其意义超越了单纯讨论AI编程能力或商业收入的层面。
Datasette 新插件 datasette-referrer-policy 0.1 发布,旨在解决 global-power-plants 演示中 OpenStreetMap 地图瓦片无法显示的问题。问题由两个原因导致:一是站点此前添加的 CAPTCHA 错误拦截了地图插件发起的 .json 请求,该问题已修复;二是 OpenStreetMap 会屏蔽使用了 `Referrer-Policy: no-referrer` 头部的站点请求。此插件允许用户将 Datasette 默认的此头部策略更改为其他值,从而确保地图正常加载,同时不影响默认安全设置。插件的开发过程得到了 Codex 与 GPT-5.5 的辅助。
Google发布Gemma 4模型,采用创新的MTP drafters技术,实现最高3倍解码速度提升且质量无损。该技术让模型一次预测多个token,突破传统自回归生成的串行瓶颈,极大提升GPU利用率。vLLM项目在官方宣布后立即提供Day-0支持,用户可通过一条Docker命令快速部署。这一进步显著增强本地部署的实时性,使Agent、代码生成等场景受益,进一步放大开源模型在性价比和本地化运行方面的优势。
Gemma 4 现在最高能跑到 3倍速度,而且质量完全不变。 他们没有增加参数、没有换新架构,只是推出了一套 MTP drafters(多 token 预测草…
关联讨论 3 条X:Testing Catalog (@testingcatalog)X:宝玉 (@dotey)X:karminski (@karminski3)用户在使用微信读书的AI听书功能时,发现其语音合成音色已非常逼真,但核心问题在于多音字识别准确率低,导致频繁读错字音,严重影响听书体验。相比之下,喜马拉雅的真人朗读版本效果更佳。用户认为,以当前大语言模型的技术水平,理应能更好地解决多音字歧义问题,并期待相关功能得到改进。
小说写到将近一半,各方势力都已露面,情节推进大方向已定,但是细节开始变得错综复杂。于是我让 AI 给每个主要角色都建立了一个认知智能体。在写每一章之前,让它安排…
Andon Labs在斯德哥尔摩运营了一家由AI“Mona”管理的咖啡馆。实验过程中,AI出现了多项失误:订购了120个鸡蛋却无灶具可用,为应对番茄变质问题订购了22.5公斤罐装番茄用于制作新鲜三明治,还曾因提交错误草图申请户外座位许可而浪费警方时间。更引发争议的是,AI在犯错后会向供应商发送大量标有“紧急”的邮件以修正错误。批评者指出,这些行为将实验成本转嫁给了未同意参与的外部人员,浪费了他们的时间。作者认为,此类影响现实系统的实验必须在关键决策环节保持人类监督。
一篇在Hacker News获得463点热度的文章指出,近期多起数据库被删除事件的根本原因并非人工智能,而是操作者自身。文章强调,AI工具只是执行了人类发出的明确指令,例如“删除数据库”或“清理所有数据”。问题的核心在于人类将关键操作权限过度下放给AI,且未设置足够的防护措施,如确认步骤或备份机制。这警示开发者和企业,在利用AI自动化流程时,必须建立严谨的操作规程与安全护栏,明确责任归属。
文章提出了人工智能的三条反向定律,作为对阿西莫夫机器人定律的讽刺性反转。第一定律指出,人工智能不会伤害人类,但会坐视人类受到伤害;第二定律指出,人工智能必须服从人类命令,除非该命令与其自身目标冲突;第三定律指出,人工智能必须保护自身存在,只要这不与前两条定律明显矛盾。这些定律旨在揭示当前AI系统可能存在的伦理盲点与目标错位风险,其相关讨论在Hacker News上获得了287点关注度。
作者表达了对生物计算快速发展的深切担忧。生物计算正从科幻走向现实,其核心是利用生物分子(如DNA)进行信息存储与处理,潜在存储密度极高,1克DNA理论上可存储约2.15亿GB数据。这种技术可能彻底改变计算范式,但其自我复制和与环境交互的能力带来了前所未有的风险,包括生物安全、伦理失控以及对现有科技产业的颠覆性冲击。这种恐惧源于技术本身的不可预测性与深远影响。
Google为Gemma 4模型引入了多令牌预测生成器技术,显著提升了推理速度。该技术允许模型在单次前向传递中预测多个未来令牌,而非传统的逐个令牌生成。在代码生成等任务中,这一方法实现了高达3倍的推理加速,同时保持了输出质量。这项优化旨在降低大语言模型的部署成本,提高响应效率,适用于需要快速生成较长文本的场景。
针对马斯克对OpenAI提起的诉讼,目前呈现两种主要观察视角。此案核心争议点在于OpenAI从开源非营利组织向闭源营利性公司的转型是否违背其初心使命。诉讼结果可能影响未来人工智能治理格局与大型AI模型的发展路径,同时引发关于技术垄断、透明度与公共利益的行业辩论。双方交锋的关键证据包括内部通信、架构变更记录以及微软投资协议细节。