欸 我发现cursor中间这个没用的区域刚好可以拿来看番欸! :那他妈是编辑框 我去,不早说! https://t.co/ah6t17A1ee
Anthropic 为 Claude Code 推出 /usage 更新,核心在于管理 100 万词元上下文窗口以避免性能衰减。文章介绍了关键策略:开启新会话适用于新任务;使用“回溯”功能从历史节点重启以高效纠错;“压缩”功能自动总结历史,“清空”则需手动提炼要点;当工作产生大量中间结果时,使用“子智能体”在独立上下文中执行并仅返回结论更佳。目前,掌握这些决策是引导 Claude 产出高质量结果的关键。
Claude Code 的百万级上下文窗口在支持长任务的同时,也带来了“上下文腐化”的风险,即模型性能可能在处理约30-40万token后开始下降。因此,有效的会话管理至关重要。关键策略包括:开启新任务时建议新建会话;对于关联任务可酌情保留上下文以提升效率;善用 `/rewind` 回退功能而非直接纠正错误,是维护上下文清洁的核心习惯。用户在每个对话轮次后,应根据情况选择继续、回退、新建会话、压缩或使用子代理。
文章指出,盲目追求“AI优先”战略可能是错误的,真正的瓶颈在于软件工程基础。如果自动化测试、CI/CD流程、A/B测试与监控、任务管理和系统架构等基础不扎实,AI的效能将无法释放。真正的“AI优先”应是一种推动必要工程改进的意识和动力,促使企业夯实基础,从而释放AI的生产力。
Google发布的Gemma4系列开放权重模型包含多个版本,选型需结合场景。带“-it”后缀为指令微调版,开箱即用;不带后缀为基座模型,供自行微调。其中,A4B指激活参数量为4B,E4B则采用逐层嵌入技术,以内存换取计算量,优化移动端性能。选型建议:综合性能与速度选26B-A4B;追求最佳代码或任务效果选31B;开发本地全模态应用选E4B;资源受限设备体验可选E2B,但输出质量有限。