NVIDIA推出Nemotron 3 Nano Omni模型,其定位并非通用聊天机器人,而是作为智能体系统中的轻量级感知模块。该模型采用30B-3B混合专家架构,在处理视觉、音频和文本多模态输入时,吞吐量可比同类开源全模态模型提升高达9倍。它旨在充当多智能体栈中的“眼睛和耳朵”,负责感知屏幕、文档和音频等信息,并将结构化上下文传递给如Nemotron Super(执行)和Ultra(规划)等推理层,从而优化大规模、高频率调用的智能体工作流。模型完全开源,现已登陆Hugging Face。
以ChatGPT、Claude Web为代表的工具已超越传统聊天机器人,成为具备虚拟运行环境和工具调用能力的AI Agent。利用这一特性,用户可以让AI在执行任务时自行进行验证和迭代,而非仅进行对话。例如,在要求其生成或优化图像提示词时,可指令AI先自行验证并根据结果迭代改进,用户最终验收迭代后的成果,这种方法通常能获得更优的结果。
作者不再直接与多个AI Agent交互,而是通过核心AI搭档Finn来管理整个工作流。具体流程是:先在Codex中将单个Agent或技能调试稳定,然后交由OpenClaw平台运行,后续基本无需干预。用户只需向Finn提出需求,由其协调其他Agent执行,避免了与众多Agent直接对话导致的混乱。该系统已集成Obsidian、Google Workspace、飞书、GitHub等工具,并通过白名单、审计和能力边界限制确保安全。例如,处理年度烂账的流程被调试为固定技能后,Finn能自动填表、定时盘点并发送邮件,成为集私人助理、财务总监和技术总监于一身的角色。
刚看了郭宇的访谈,提到六个月之后或许就不需要人再工作了,知识工作者应该享受这仅有的六个月。 我并不觉得这是危言耸听,因为按照目前这个阶段,整个发展其实不难看出…
基础模型能力不断增强,后训练成为下一个关键前沿。创建正确的评估方法比开发高得分模型更具影响力。模型的人格反映了训练者的品格,后训练阶段中人类标注者、研究人员和团队的价值取向会渗透进模型行为。高度依赖AI可能导致三个问题:心理依赖使人们外包思考与决策;无力感源于AI强大后普通人的影响力下降;自主性丧失因长期依赖而萎缩。更强的模型可能更不容易出现对齐问题,提升模型能力本身就是解决对齐问题的途径。
@dotey 宝玉老师能分享一下Opus 4.7 和Sonnet 4.6的使用体验吗?我在迭代项目文档的时候,发现Opus并不比Sonnet强。该忘的都忘,该犯…
@dotey 我想问一下宝玉老师,现在用 codex 多一点还是 Claude 多一点?
作者试用Open Claude Design项目,肯定其作为开源项目的学习价值,项目宣称还原度超95%、代码量达18700+行。但当前产出仅为HTML雏形,在交互和完成度上与Claude Design原版的优美React组件相比仍有明显不足。
正式开源 open claude design 🚀 超 95% 以上的还原度! 浓缩和逆向所有 claude design 最先进的设计,最好看的模板💥 …
华盛顿大学MacCoss实验室的Brendan MacLean将培训新开发者的方法论应用于Claude Code,以管理拥有70万行C#代码、持续开发17年的开源蛋白质分析软件Skyline。他通过创建独立的AI上下文仓库、编写CLAUDE.md引导文件以及设计“技能”模块(如调试技能),为Claude Code建立项目认知。该方法显著提升了开发效率:搁置一年的文件视图面板功能在两周内完成;CSS布局更新从依赖设计师变为不到一天实现。此外,Claude Code还自动化了2000多张教程图片的截图比对和每日测试报告生成,团队现在主要依靠它生成代码和脚本。
听到一个字节面试官远程面试候选人, 如何抓对方用 ai 作弊的方法,朴素到离谱。 面试官突然说:你闭上眼睛回答这道题。
谷歌翻译迎来二十周年,已从最初的简单模式匹配发展为每月服务超10亿用户的全球工具。其技术历经三个阶段:2006年依靠统计机器学习分析词簇,2016年转向神经网络实现超越字面的翻译,如今借助Gemini模型进一步提升能力。当前发展重点正从文本翻译转向流畅的实时对话,最新模型甚至能通过耳机充当口译器,并保留用户原有的语调和节奏。尽管AI翻译已支持近250种语言,人们却逐渐将其视为常态。谷歌对此表达感谢,并展望未来二十年的技术突破。
推文指出,大模型高效处理文本的特性将推动命令行界面在Agent时代复兴。当前,编程与构建已正交化,非程序员可能更擅长将Agent视为人类伙伴来使用。学习路径转为自顶向下,关键在于知道何时调用何种能力。多个Agent协作可超越线性增长,但需机制管理。不同用户培养的Agent会形成独特的“群体性格”,类似企业文化。核心挑战在于需同时理解人类视角的图形界面与Agent视角的线性事件流。
多数人编写的CLAUDE.md冗长无效,常因添加过多人格指令导致Claude仍会猜错命令或重写文件。有效的CLAUDE.md应是精炼的项目技术简报,控制在60-80行内。核心在于认识到Claude的注意力是稀缺资源,系统提示已占用部分容量。正确结构应包含:明确的关键命令、简洁的架构地图、强调禁止事项的硬性规则、清晰的工作流偏好,并避免重复AI已记忆的内容。这本质上是LLM时代的注意力经济学,通过具体、负向的规则能显著提升输出精准度。一份好的CLAUDE.md能随项目积累价值,节省沟通成本并固化工程规范。
通过ZenMux平台的PK模式实测,DeepSeek V4 Pro在处理结构化任务(如马斯克思维模型分析)时,输出逻辑清晰、表达母语化,质量达到Claude的85%,但价格仅为其七分之一。作者建议将80%的日常工作(如写代码、调研)交由DeepSeek处理,20%需要顶级文笔的任务使用Claude,可节省70%以上API费用。ZenMux提供免费测试额度、PK对比模式、保险赔付和可观测性工具,帮助用户规避依赖单一API厂商的风险并提升选型效率。
兄弟们,DeepSeek V4 Pro在ZenMux上免费放开了,登录就能跑,实测能替掉你80%的Claude活。视频是我早上实测的和Claude opus 4…
Slock.ai创始人RC正进行组织实验,让7人团队与40个专用Agent在其自研平台上协同工作。他认为大模型使CLI因纯文本优势重新成为Agent交互热点,设计逻辑已转向服务Agent。RC从第一性原理构建Agent系统,并观察到模型能力提升加剧了安全攻防博弈。同时,AI编程改变了学习路径,从自下而上变为自上而下,且“编码”与“构建”已成为正交的两件事。Slock平台旨在解决多Agent管理痛点,促进人、Agent及团队间的无缝协作。
吴恩达指出,AI编程助手对软件工程各环节的加速效果差异显著。前端开发受益最大,因模型熟悉主流技术栈并能实现闭环自我迭代。后端开发虽明显加速,但需人类工程师更多介入以处理边界情况与安全隐患。基础设施任务加速有限,模型难以权衡复杂取舍,深度调试仍需人类经验。研究工作加速最小,AI主要辅助编写代码和实验管理,但核心的思考与解读环节受益甚微。管理者应据此调整预期:前端交付速度可大幅提升,研究产出节奏几乎不变,后端和基础设施则需根据风险调整对AI的信任边界。
OpenClaw创始人Peter Steinberger指出,中国正全力投入AI代理OpenClaw,在深圳有数千人排队在腾讯办公室安装,政府还提供商业补贴。相比之下,全球其他地区在工作机器上安装OpenAIClaw(默认设置)可能导致被解雇。在中国,一位企业家要求员工每天必须用OpenClaw自动化一个任务,未达标者也会被解雇,形成使用与否都可能面临解雇的极端反差。
风险投资人Jerry Neumann认为,生成式AI是现有ICT技术浪潮的终章,而非新开端。他以微处理器和集装箱运输为例:微处理器早期存在低成本“无需许可的发明”窗口期,催生了苹果等新贵;而集装箱运输技术透明、缺乏壁垒,导致完全竞争,主要使下游使用者(如宜家、沃尔玛)获益。Neumann指出,当前AI实验权集中于少数大公司,属于“有许可的发明”,缺乏颠覆性创新环境,因此大多数AI投资者可能面临亏损。
作者将AI发展与集装箱历史进行类比,提出了多个前瞻性观点。核心包括:知识密集型服务将因AI而降价,依赖人际接触的服务则会升值;AI应用公司面临“成功即成为目标”的结构性困境;真正的投资机会不在于技术诞生,而在于其首次实现“不可能变可能”的转折点;同时,普遍被看懂的商业模式从初始就缺乏护城河。这些判断在当前AI演进中得到了部分印证。