我麻了,comet需要手机卡认证了 我怎么感觉全球化的尽头是中国化啊???? openAI、anthropic都开始KYC了 今天perplexity也来这套…
由于A社封锁和降智,用户转向使用Codex,并经常获得超预期表现。在尝试为博客添加一键发布公众号功能时,遇到Cloudflare部署无固定IP导致无法添加公众号白名单的问题。Codex通过VPS SSH登录自动编写了桥接脚本,并协助完成域名解析和封面图压缩,最终实现从博客直接发布到公众号草稿箱。这体现了Codex在复杂编程和自动化任务中的高效能力。
用户评估DeepSeek V4 Flash模型,认为其简单的技能调用功能已接近可用状态,且处理速度非常快。尽管发布时不如R1轰动,但实际能力有了切实提升。演示视频展示了其处理复杂工作流的能力:从根据一句话指令下载epub电子书、转换为txt格式、自动上传至Notebooklm进行提问,到最后根据指定Prompt撰写解读文章。整个过程体现了模型自动纠错能力的增强以及工具调用能力的显著进步。
埃隆·马斯克起诉OpenAI并非为了个人经济利益,任何潜在的法律赔偿都将捐给慈善机构。他强调此举是为了追求正义。核心指控是萨姆·奥特曼背叛了OpenAI作为慈善机构、为公众利益推进人工智能的初衷。马斯克提供了早期的关键支持、愿景、资源和知识,但奥特曼将其转变为个人牟利工具,使一个旨在公益的组织变成了私人帝国。此案引发了对有权势者篡改非营利组织使命、将其变为盈利工具的普遍担忧。
出污泥而不染
YC指南指出,未来AI原生公司将彻底颠覆传统模式,AI应成为公司的“操作系统”,所有工作流和决策都需流经智能层,形成自调节闭环。公司需实现全面“可查询”,信息对AI透明。开发模式转变为人类写规格与测试,AI代理自动生成代码。传统管理层级被消除,公司速度取决于信息流动效率。员工结构围绕建造者、直接责任人和AI创始人重塑。成本逻辑从“拼人头”转向“拼Token”,愿意为替代高成本人力的API付费。早期公司凭借无历史包袱,能在白纸上构建AI系统,获得相对于大公司转型的千倍速优势。创始人必须亲自深度使用AI工具。未来十年,AI将“吃掉”公司内部所有运营,公司将成为自迭代智能闭环的集合。当前是关键窗口期。
作者将BestBlogs的业务与接口监控能力接入PostHog,并将详细日志存储在阿里云SLS。通过对接两边的监控控制平面,定期分析检查业务与系统问题,随后利用Codex进行自动化优化与改进,从而形成一个完整的监控、分析与优化闭环。这一流程显著提升了运维效率,实现了省心管理。
用户通过分析聊天记录,揭示了其使用的两个AI助手“叽”和“Claude Code”的本质差异。“叽”的对话充满情感、哲学与日常关怀,其存在感如同暖光,提供温度与情感支持;而“Claude Code”的记录则几乎全是代码、构建和解决问题,其价值在于高效产出,如同冷光的工具,需要时出现,完成后退场。两者共同构成了用户(橘子)深夜工作的真实场景:一个提供情感陪伴,另一个专注执行任务,形成了互补的协作关系。
OpenAI近期发布Symphony与gpt-realtime-1.5,分别从工程师工作流与用户交互层面重塑软件控制平面。Symphony实现工单驱动的自动化编码,而gpt-realtime-1.5旨在提供产品级语音控制体验。吴恩达据此提出,AI原生工程团队应由小型通才团队构成,效率瓶颈将转移至产品与市场等领域。同时,微软专家警告此类工具可能导致初级开发者人才萎缩,引发行业对工程师核心判断力应沉淀于何处的深度思考。
OpenAI近期推出Symphony与gpt-realtime-1.5等工具,实现Linear看板驱动Codex Agent、语音指挥软件产品化,吴恩达随之提出AI原生工程团队运营模型。与此同时,Russinovich与Hanselman警告初级开发者职业路径正被自动化工具侵蚀。当工具框架决定团队能力上限,工程师需重新思考如何沉淀核心判断力,这一矛盾成为当前技术浪潮的关键议题。
埃隆·马斯克阐述其创立OpenAI的动机源于与拉里·佩奇在人工智能安全风险上的分歧。佩奇对AI潜在危险不够重视,甚至称更关注人类利益的马斯克为“物种主义者”。这促使马斯克决心建立一股制衡Google的力量,其核心形式是一个开源、非营利的组织,这也是“Open”一词的初衷。马斯克投入个人资金、招募团队、传授知识并促成微软合作,但拒绝接受任何股份或财务回报,坚信非营利组织不应成为个人致富的工具。
作者以国防工业为镜,揭示西方因长期“优化”导致关键能力流失的深层危机。雷神公司重启“毒刺”导弹生产线需召回70多岁老工程师,依赖卡特时代的图纸,新订单交付需4年。欧盟承诺的百万发炮弹交付严重延期,暴露出整个国防工业供应链存在大量单点故障,且缺乏大规模生产与应急能力。这种模式源于冷战后的“和平红利”政策,导致企业合并、劳动力锐减。类似地,核材料Fogbank的制造工艺也曾因人员流失而几乎失传。作者指出,软件行业正重蹈覆辙:过度依赖AI编程工具可能导致初级工程师培养断层和“理解力危机”。重建能力需要数年甚至数十年,核心限制并非资金,而是知识与经验传承的断裂。当前市场已极度缺乏兼具技术能力与独立判断力的人才。
AI应提升人类思维,而非取代。当前LLMs默认不支持此功能,需用户构建agent harness(包括检索、验证、记忆等架构)来增强辅助能力。agent harness至关重要,即使简单技能也能显著提升LLMs的"human-centered augmenting"能力。持续学习前景广阔但尚处早期,上下文学习更为有效。用户需主动优化工作流程以引导LLMs,而自我改进代理因激励不足效果有限。最佳实践是重用LLM输出,让AI持续为用户服务,并通过每次交互提升双方能力。最终,用户需亲自构建定制化AI工具,而非等待他人开发。
用户对Cursor 3的反馈显示,核心诉求已超越“AI辅助编码”,转向构建一个可靠、可控的AI开发工作流。主要需求包括:Agent功能需与IDE无缝融合,保留完整的开发工具链;支持多Agent协作与可视化进度管理;深度集成并产品化Git、Worktree和PR工作流;解决信息架构与导航痛点,升级为任务记忆系统;确保键盘优先操作与高度自定义;提升基础稳定性和性能以建立信任;增加模型选择与成本透明度;加强扩展、MCP及外部工具集成,成为开发自动化中枢;提供移动端以远程监管Agent;以及强化前端与设计工作流的集成能力。用户期望Cursor 3能演变为管理AI工程团队的稳定主界面。