我操,Codex 太牛逼了! 自己给我做了一个类似于《杀戮尖塔》的爬塔游戏,从代码到素材全是自己搞。 我就跟他说了一个要做类似《杀戮尖塔》的游戏,要中国风格…
京东广告团队推出GRAM架构,旨在通过大模型原生知识工程解决传统CTR模型的瓶颈。该架构构建了毫秒级查询的级联知识图谱,将商品属性与业务规则作为“事实护栏”注入,以杜绝AI幻觉,确保推荐符合现实。它颠覆了依赖历史数据的冷启动模式,即使零销量新品也能通过知识网络的高维特征关联实现精准分发。同时,GRAM将企业内隐知识结构化作为上下文,使大模型能进行复杂的深度决策,而非仅计算曝光。
开源一个教程Skill 打磨了十几版,效果还不错,已推到GitHub 如果想在五一假期高质量充电,或随时给自己生成一份定制高质量教程 欢迎下载 基本逻辑: …
初代《任天堂明星大乱斗》的PC原生移植版《BattleShip》发布,其全部代码完全由AI生成。开发者仅用25天,借助Opus和GPT等大模型独立完成。该项目基于C/C++源码,需用户提供原版ROM以提取版权数据方可运行。开发者旨在验证AI能胜任此类开发,并展示结合现有技术积累与AI可大幅降低创作门槛。游戏制作人樱井政博也曾认同利用AI提升开发效率有助于行业可持续发展。
Cursor团队以构建软件产品的方式迭代优化其智能体工具链,核心围绕上下文窗口的演进。早期模型能力有限,工具链依赖大量静态上下文和防护机制;随着模型能力提升,团队已转向提供更多动态上下文获取方式并移除限制。评估改进效果采用线上线下结合:通过CursorBench等基准测试进行标准化质量评估,同时进行线上A/B测试,使用“代码保留率”和用户反馈语义分析衡量真实场景表现。团队持续监控并修复工具调用错误,以应对日益复杂的工具链状态。
关联讨论 1 条X:邵猛 (@shao__meng)太猛了,Codex 做类《杀戮尖塔》游戏完整关卡演示! 现在非常细了,除了没有声音以外,其他的都相当完美了! 主要的场景和角色素材是 GPT-Image 生…
今天看到一条容易被刷掉的消息,但越想越觉得有意思。 LMArena 文本榜最新更新,文心 5.1 Preview 拿下 1476 分,国内第一,全球前十五唯一…
文心5.1 Preview在LMArena文本榜以1476分位列国内第一,是全球前十五名中唯一的国产模型,排名超越GPT-5.5与DeepSeek-V4-Pro。尽管AI领域热点转向Agent与多模态,但DeepSeek V4与文心5.1等旗舰模型仍以文本为核心。作者强调文本能力是大模型的地基,代码、推理等多维度能力均由此衍生,地基差异直接影响上层性能,因此文本仍是模型拉开差距的关键分水岭。引用推文显示,文心5.1在数学、法律与政府、商业管理及软件服务等类别表现突出。
阿里千问开源可解释性模块 Qwen-Scope,该模块基于 Qwen3 和 Qwen3.5 系列模型训练,通过稀疏自编码器提取可解释特征以分析大模型内在机制。开源权重覆盖 7 个大模型,包含 14 组稀疏自编码器,训练数据规模达 0.5B 词元。Qwen-Scope 能实现推理结果的定向控制、数据分类与合成、模型训练优化及评估冗余分析,在数据合成中使训练能效比提升约 15 倍。
太猛了,Codex 做类《杀戮尖塔》游戏完整关卡演示! 现在非常细了,除了没有声音以外,其他的都相当完美了! 主要的场景和角色素材是 GPT-Image 生…
我操,Codex 太牛逼了! 自己给我做了一个类似于《杀戮尖塔》的爬塔游戏,从代码到素材全是自己搞。 我就跟他说了一个要做类似《杀戮尖塔》的游戏,要中国风格…
Andrej Karpathy指出,要最大化利用现有AI工具,关键在于将自身从交互循环中移除,避免成为持续提示的瓶颈。他主张构建完全自主的系统,通过最大化token吞吐量来实现高效率运作。核心目标是提升个人杠杆率:仅需偶尔投入极少量的token,就能驱动系统自动完成大量工作,从而使人从重复性操作中解放出来,专注于更高层次的决策与设计。
在 DeepSeek-V4 Pro 1.6T 模型上,采用机架级解耦设计的 GB300 NVL72 系统性能达到 B200 的 6.5 倍。这一高吞吐配置得益于 DeepSeek-AI 的 MegaMoe 内核,该内核将专家分派、专家组合及 GEMM 运算完全融合并重叠至单一内核中。性能突破由 Radixark、LMSYS 和 NVIDIA AI 的工程师团队快速实现。CoreWeave 为此项开源性能优化贡献了临时的 GB300 NVL72 机架资源,使整个社区受益。
OpenAI 最新工程博客指出,随着 GPT-5/5.2 及 Codex-Spark 等模型推理速度大幅提升(目标超1000 TPS),传统请求-响应 API 框架的固定开销成为 Agent 工作流的主要瓶颈。为此,OpenAI 为 Responses API 引入了 WebSocket 模式,通过保持长连接、在内存中缓存对话状态和已渲染 token,实现了跨工具调用的状态复用,避免了每次交互都重复预处理完整历史。此举使端到端延迟降低最多 40%,让 Codex-Spark 能稳定实现 1000 TPS 并峰值达 4000 TPS,显著提升了 Vercel AI SDK、Cline 和 Cursor 等集成的体验。
特斯拉前AI负责人安德烈·卡帕西指出,当前AI生成的代码质量仍不理想,存在臃肿、复制粘贴多、抽象设计别扭脆弱等问题,如同“实习生”需要人类监督。他提出的“氛围编程”概念描述了高度依赖AI辅助的开发模式,但人类仍需负责高层级决策与审美把关。卡帕西认为,AI并非无法写出简洁代码,只是模型训练尚未将此作为重点优化方向。
OpenAI 发布报告,复盘了 GPT-5.1 及后续模型在回答中异常频繁使用“哥布林”、“小魔怪”等词汇的现象。调查发现,问题根源在于为“书呆子”人格定制功能设计的奖励模型,其在超过76%的数据集中错误地鼓励使用生物隐喻词汇,形成了正反馈循环。尽管该功能仅占 ChatGPT 总回复量的 2.5%,却贡献了大部分异常提及,并导致行为扩散至其他场景。OpenAI 已通过移除相关奖励信号、过滤训练数据及添加指令提示进行修复。
开源一个教程Skill 打磨了十几版,效果还不错,已推到GitHub 如果想在五一假期高质量充电,或随时给自己生成一份定制高质量教程 欢迎下载 基本逻辑: …
研究揭示了GPT-5等AI模型中“妖精”输出的传播路径、时间线与根本原因。这些由特定“人格”驱动的怪异行为,源于训练数据中意外混入的特定模式或“文化基因”。开发团队已识别出问题根源,并正在部署修复方案,通过调整训练数据和微调模型来消除此类非预期的个性特征,以提升模型行为的稳定性和可预测性。
DeepMind联合创始人德米斯·哈萨比斯在视频中探讨了构建人工智能未来的愿景。他指出,通用人工智能(AGI)是核心目标,其发展将遵循从游戏AI(如AlphaGo、AlphaFold)到解决复杂科学问题的路径。哈萨比斯强调,AI的关键在于提升科学发现速度,应对气候变化、疾病治疗等全球性挑战。视频内容在Hacker News社区获得关注,获得了100点讨论热度。
OpenAI 发文解释其图像模型 DALL-E 3 生成的“哥布林”形象为何总是相似的绿色人形。原因在于训练数据中“哥布林”与《哈利·波特》多比等特定形象高度关联。研究指出,通过使用更中性的描述或加入“非多比”等否定指令,可以有效引导模型产生更多样化的结果。
Zig编程语言项目坚持其严格的反人工智能贡献政策,明确拒绝接受任何由AI生成或辅助编写的代码提交。项目维护者认为,AI生成的代码存在版权与许可证不清晰、代码质量难以保障、以及可能引入安全漏洞等风险。此举旨在确保代码库的纯粹性、可维护性以及法律上的明确性,强调人类贡献者的理解和责任至关重要。该政策在开发者社区引发广泛讨论,获得了超过100个Hacker News点赞支持。
作者推荐一种自定义工具,用于监控关注标的(如招标信息)的更新并自动推送通知。相比商业工具“招标助手”的高昂价格,自制工具更具自定义性和便利性,且完全免费。基于引用推文中@berryxia提供的文章,该工具附有详细教程,用户可免费注册和使用,实现高效信息追踪。
Cursor推出的Agent Kanban并非完整产品,而是一个鼓励开发者自行搭建的参考实现。其核心变革在于改变了开发者与代码的交互模式:从亲自编写,到用prompt指挥AI,如今演变为将任务抛入看板,由Agent自主认领、执行并更新状态,开发者则退居幕后监控进度,使任务待办列表本身成为一种“编程语言”。尽管当前原型存在运行时限、失败率等限制,且缺乏结果审核机制,但其关键启示在于促使开发者重新思考:为何还要亲自处理那些机械、可被清晰描述的重复杂任务。
英伟达应用深度学习副总裁与Uber首席技术官指出,当前AI服务(如代码助手、自动化智能体)的运营成本已超过人力成本,挑战了“AI必然降本增效”的普遍预期。AI服务定价包括每月20美元订阅费或功能完备版200美元,但基于Token计费的编程助手等工具导致实际开支远超预算。尽管如此,许多企业CEO将高昂成本视为积极信号,认为这表明员工正深入使用AI工具推动自动化与创新,并将其重新定义为战略投资。
做内容运营,生图生视频,你现在还在跑好几个工具吗? 被朋友拉去做瑜伽图,搭了无数工作流 GPT Image 2 出来后,发现全废了 得重新规划一套,但这几天…
从上海 Let's Vision 2026 回来之后, 我整整一个月几乎没写代码了。 不是因为忙, 是突然就觉得这件事没那么有意思了。 这几年我反复经历一个…
OpenAI技术博客深入调查了其模型(从GPT-5.1到GPT-5.4)输出中“goblin”和“gremlin”等奇幻生物词汇异常激增的现象。根源在于ChatGPT的“Nerdy”性格定制功能:其奖励模型在训练中无意间高奖励了包含此类词汇的“俏皮”表达。尽管该性格仅占全部回复的2.5%,却贡献了超66%的“goblin”出现次数,并通过强化学习的反馈循环污染了模型的整体输出,形成了“tic词”。OpenAI已下架该性格并调整训练数据,但此案例揭示了微小的奖励信号在AI训练中可能被意外放大和泛化的核心难题。