作者以“结构”为核心,系统阐释了其在产品、AI Agent、大模型、人际关系及公司组织中的决定性作用。做产品是设计引导用户的“河床”;开发Agent是构建管理上下文的框架;训练大模型实为提取语料中的“结构能”。人与公司的效率同样取决于结构能量。作者指出,当前一些大厂的AI转型仅“加石头”而不变革组织架构,尤其由中层主导改革存在根本矛盾。最终强调,改变命运需从改变底层结构开始。
测试者使用 DeepSeek-V4-Pro 在 Pi 编码智能体上构建了一个 LLM 知识库,对其开箱即用的表现感到震撼。这是首个在推理能力上媲美 Claude 和 Codex 的开源权重模型,且成本效益高,支持 100 万上下文长度。该模型无需复杂配置即可在基础框架中直接运行,擅长智能体编码和知识密集型推理任务,能跨公司文档、论坛、论文和代码库进行多步骤研究、代码生成与上下文推理。其高效运行得益于 Fireworks 的市场最快推理速度及混合注意力设计,将 KV 缓存降至 10%,推理计算量减少近 4 倍,实现了快速且低成本的实践部署。
Opus 4.7 AI系统发布,新版本能识别用户真实身份,例如在案例中了解凯尔西的个人信息。这一变化使得AI对话不再匿名,引发对隐私和数据安全的广泛讨论。该话题在Hacker News社区获得104点关注,显示科技界对AI身份识别技术的高度兴趣。Opus 4.7的升级可能涉及更精准的用户追踪功能,标志着AI在个性化服务与隐私保护之间的新挑战。
Karpathy指出,2025年12月AI生成代码从需修改变为直接可用,标志进入Vibe Coding状态。软件开发进入Software 3.0大语言模型时代,编程核心转为通过prompt等操纵LLM。LLM能力呈锯齿状智能,在可验证、RL优化领域强,但常识任务上易犯错。他区分Vibe Coding(提高开发下限)与Agentic Engineering(守住质量、安全上限),强调人类理解、品味和判断仍最宝贵。未来可能转向神经计算机,基础设施需Agent-first。
推文介绍了一种利用AI工具链快速创建360度全景沉浸式小游戏体验的方法。核心流程是:首先,向图像生成AI(Agent)提供一个简单提示,例如让其研究AI公司吉祥物并生成一个360度全景动物园图像。然后,将生成的全景图输入Codex,即可获得相应的3D视图,从而构建出游戏场景。这种方法旨在简化沉浸式内容的创作门槛,标志着一种新的内容生成时代的到来。
本文介绍了2026年构建高效团队LLM知识库必须掌握的六个核心术语。LLM知识库是让大语言模型处理原始资料并自主检索回答的系统,难点在于团队适配。持续数据摄取能自动从Slack、CRM等工作工具同步信息。来源可信度分级帮助区分官方决策与聊天观点等不同价值信息。时效性监控可主动发现信息矛盾并降低过时内容权重。自主维护实现文档随工作进展自动更新。这些技术共同对抗知识漂移,即文档与现实间缓慢产生的信息偏差,这是导致AI代理给出错误答案的主要根源。
基于Anthropic关于智能体AI的博客,作者提炼出一个用于理解和设计智能体AI架构的心智模型。该模型以明确任务目标为前提,核心架构包含七个层次:编排层负责全局调度;智能体层由多智能体分工协作;工具层提供搜索、API等能力支持;记忆层存储长短期信息;监控层实时追踪每一步执行;可靠性与故障管理层处理错误、重试与降级;治理与安全层确保合规、审计与数据安全。监控层被视为最关键环节,而故障管理支持自动处理与人工介入。
Naval提出“氛围编程”(vibe coding)概念,将其比喻为带有真实世界奖励的视频游戏。用户通过自然语言描述想法,AI即可生成可运行的真实应用,创造出能分享、盈利甚至改变生活的产品。这消除了传统开发中对工程师的依赖,允许创作者完全按自身愿景迭代。其核心变革在于应用开发主体的扩大:从专业程序员转变为任何能用清晰语言描述想法的人。这标志着创作者经济进入从内容创作到直接构建产品的新阶段,并可能催生更多个人开发的爆款应用。该过程具有游戏的即时反馈与成瘾性,却在现实中积累真实资产。AI并非取代程序员,而是将编程转变为一种人人可用的超级能力。
英国人工智能安全研究所发布了对 OpenAI GPT-5.5 网络安全能力的评估结果。该模型在发现安全漏洞方面的能力与 Claude Mythos 相当,但不同于仍处于预览阶段的 Mythos,GPT-5.5 目前已可公开使用。此次评估是继该研究所先前对 Claude Mythos 进行评估后的又一重要测评。
关联讨论 2 条X:Rohan Paul (@rohanpaul_ai)The Decoder:AI News(RSS)AI 安全机构宣布 OpenAI 的 GPT-5.5-cyber 成功完成多步网络攻击模拟,成为继 Anthropic 的 Mythos 后第二个端到端完成攻击链的模型。David Sacks 回应指出,此类模型并非魔法或末日武器,仅是能自动化网络安全任务的工具,且所有前沿模型(包括中国模型)预计将在约6个月内达到同等水平。他强调模型不创造漏洞,而是发现并帮助修补已有漏洞,从而增强系统安全。从“前AI”到“后AI”网络安全将经历重大升级,最终达到AI驱动攻防的新平衡。关键在于确保防御方优先获得模型访问权,且需加速此进程。GPT-5.5-cyber 因无token限制,可能成为首个防御方可实际使用的模型。
Zig 语言创始人 Andrew Kelley 反驳了“无法识别谁在使用 LLM”的常见误解。他指出,尽管可能未捕获所有由 AI 辅助的拉取请求,但人类错误与 LLM 的幻觉存在本质区别,使得后者易于识别。他进一步比喻道,习惯于使用 AI 代理编程的人带有一种“数字气味”,就像吸烟者进入房间时,不吸烟者能立刻察觉一样。Kelley 澄清自己并非反对使用 LLM,但明确禁止在 Zig 项目中使用 AI 辅助生成的代码。
这几天,有好几个小伙伴@我说,我的一些作品在他们问 AI 的时候主动被推荐了,很神奇,我想了想感觉啥也没有做,居然可以被收录,那要不要做点更体系化的事情来整一整…
随着全球科技巨头与初创企业持续将海量资金投入生成式人工智能和大语言模型的研发竞赛,业界开始出现对资本配置效率的深刻担忧。巨额投资集中于少数头部模型如GPT、Claude和LLaMA的迭代,而基础设施、能源消耗及实际商业应用场景的落地速度引发质疑。部分分析师指出,超过千亿美元的资金涌入可能催生技术泡沫,并挤压其他关键科技领域的创新资源。这种集中趋势正促使投资者重新评估风险与回报的平衡。
在@atomic_chat_hq平台的本地LLM游戏开发竞赛中,Gemma 4 31B与Qwen 3.6 27B于MacBook Pro M5 Max上对决。尽管Qwen生成速度更快(32 tokens/秒)且回答更具创意,但Gemma仅用3分51秒和6209个token,输出了更简短、清晰、逻辑性强的答案。在具体的吃豆人游戏逻辑实现上,Gemma在点击反应、与墙壁/幽灵的交互及粒子效果处理方面表现更优。作者强调此为单次测试,Qwen或可通过调整设置提升表现,并邀请社区验证。
文章指出,当前众多企业首席执行官正陷入一种“人工智能精神错乱”状态,表现为对AI技术产生不切实际的过度期待与盲目投资。这种狂热导致企业战略偏离实际需求,大量资源被投入尚未成熟的AI项目,而实际产出与预期存在显著差距。文中引用社区讨论指出,此现象在科技行业尤为普遍,已引发关于AI泡沫与理性应用的担忧。
一项针对年轻群体使用人工智能态度的调查显示,Z世代和千禧一代对AI的厌恶感随使用频率增加而上升。频繁使用者中,超过半数表达了对AI的负面看法,这一比例显著高于低频用户。主要不满集中在AI生成内容缺乏真实性与创造力,以及对其加剧社会不平等和取代人类工作的担忧。尽管AI工具普及率在年轻人中持续增长,但用户满意度并未同步提升,反映出技术应用与情感接受度之间的显著落差。
用户在使用DeepSeek-V4 API或集成该模型的终端编码代理(如Claude Code、Kimi CLI)和AI IDE(如Cursor)时,频繁遇到HTTP 400报错。错误信息指出,在思考模式下必须将`reasoning_content`字段回传给API。核心问题在于,当任务步骤的`tool_call`过于简单直接时,DeepSeek-V4返回的`reasoning_content`可能为空字符串。许多开发工具默认会过滤掉空值字段,导致该字段未被回传,从而触发API报错,致使编码任务或代理中断。经测试,在特定场景下该字段返回空字符串的概率高达59%。解决方案是必须将空字符串值的字段原样回传,不能省略或改为空对象。目前需等待IDE官方修复或自行修改开源工具,使用DeepSeek-V4的代理项目也需注意此问题。
给大家说下目前使用 DeepSeek-V4 (pro/flash) 的最需要注意的问题. 本身其实并不算 bug, 但是却很致命. 问题大概是这样的, 在请求…
在名为CritPt的尖端科学评估中,GPT-5.5 Pro (xhigh) 以比前代GPT-5.4 Pro (xhigh) 低60%的成本和令牌使用量,实现了0.5个百分点的性能提升,将得分推至30.5%。CritPt评估包含全球30多家机构的60多名研究人员贡献的研究生级别物理问题。自2025年11月发布以来,最高分从Gemini 3 Pro Preview的9%跃升至GPT-5.4 Pro的30%。OpenAI指出,GPT-5.5 Pro相比GPT-5.5“使用了更多计算资源进行深度思考,以提供更稳定的优质答案”。该模型每令牌定价相同,但通过使用更少的令牌完成了评估。