HiLight 是一个证据强调框架,它将证据选择与推理过程解耦,专门用于服务参数冻结的大语言模型。该框架训练一个轻量级的“强调执行器”,在不改动原始上下文的前提下,仅围绕关键证据片段插入最少量的高亮标记,从而避免压缩或重写输入可能导致的证据丢失或扭曲。随后,冻结的“求解器”模型基于被强调的输入进行下游推理。该方法将高亮视为弱监督决策问题,仅利用求解器的任务奖励通过强化学习优化执行器,无需证据标注,也无需访问或修改求解器。在序列推荐和长上下文问答任务中,HiLight 的性能持续优于基于提示和自动提示优化的基线方法。学习到的强调策略能够零样本迁移到未见过的、或大或小的求解器模型家族,包括基于 API 的求解器,这表明执行器捕捉到了真实且可复用的证据结构,而非对单一骨干模型过拟合。
研究团队推出了AgentSearchBench,这是一个用于评估真实场景下AI智能体搜索能力的大规模基准。该基准从多个提供方收集了近10,000个真实世界智能体,将智能体搜索形式化为可执行任务查询和高级任务描述下的检索与重排序问题,并利用基于执行结果的性能信号来评估相关性。实验表明,语义相似性与智能体实际性能之间存在持续差距,暴露了仅基于描述进行检索和重排序方法的局限性。研究进一步证明,轻量级的行为信号(包括执行感知探测)能显著提升排序质量,凸显了将执行信号纳入智能体发现过程的重要性。相关代码已开源。
研究团队提出dWorldEval,一种基于离散扩散世界模型的可扩展机器人策略评估框架。该方法将视觉、语言和机器人动作等多模态数据映射到统一的令牌空间,通过单一Transformer去噪网络进行建模,并引入稀疏关键帧记忆以保持时空一致性。模型在推理时联合预测未来观测和任务进度令牌,当进度值达到1时自动判定任务成功。实验表明,dWorldEval在LIBERO、RoboTwin及多项真实机器人任务上显著优于WorldEval、Ctrl-World和WorldGym等现有方法,为构建大规模机器人评估的世界模拟器提供了新的架构范式。
研究团队开源了论文《Monitoring Monitorability》中的数据集与代码,并分享了一种针对噪声主导干预评估实例的新过滤策略。这一举措旨在提升AI系统监控能力的评估透明度与可复现性,为社区提供了可直接使用的工具和方法。新提出的过滤策略能有效识别并处理评估过程中噪声干扰严重的实例,有望提高评估结果的准确性与可靠性。
研究提出“编辑即推理”(EAR)新范式,将视觉规划重构为单步图像转换任务,以提升计算效率。为分离推理与识别能力,团队创建了抽象谜题数据集AMAZE,包含迷宫和皇后两类任务,支持对自回归与扩散模型进行像素与逻辑的自动评估。测试发现,主流编辑模型在零样本设置下表现不佳,但经基础尺度微调后,能良好泛化至更大尺度及域外几何形状。然而,最佳模型在零样本效率上仍不及人类,揭示了神经视觉推理领域的持续差距。
研究系统评估了用于评估其他模型输出的视觉-语言模型(VLMs)的可靠性。通过引入超过40个扰动维度、涵盖4000多个扰动实例的基准测试,对4个主流VLMs在图像到文本和文本到图像任务中的表现进行了检验。结果显示,当前评估型VLMs存在显著盲点:它们时常无法检测出质量已下降的输出,在某些情况下漏检率超过50%;尤其难以识别细粒度的组合性与空间错误;对于与输入图像相矛盾的幻觉内容也常不敏感。尽管成对比较范式相对更可靠,但失误率依然存在。这些发现凸显了当前评估型VLMs的不可靠性,警示在将其用于基准测试和开发决策时需保持谨慎。相关代码与数据已公开。
本研究提出一个结合语言控制与感知标注的多语言TTS受控多维配对评估框架。针对10种印度语言的5000余条原生及语码混合句子,对7个前沿TTS系统进行了评估,收集了超过1900名母语评分者提供的12万对以上比较数据。评分者除整体偏好外,还从可懂度、表现力、音质、生动性、噪声和幻觉六个感知维度进行判断。研究通过Bradley-Terry模型构建多语言排行榜,利用SHAP分析解读人类偏好,并分析了排行榜的可靠性及各模型在不同感知维度上的优势与权衡。
Sapiens2是一个专注于以人为中心的视觉任务的高分辨率Transformer模型家族,旨在实现泛化性、多功能性和高保真输出。模型参数量从4亿到50亿不等,原生支持1K分辨率,其分层变体可支持4K。相比前代,Sapiens2在预训练和后训练阶段均有显著改进:结合了掩码图像重建与自蒸馏对比目标以学习兼顾低级细节和高级语义的特征;在10亿张高质量人体图像数据集上进行预训练,并提升了任务标注的质量与数量;架构上吸收了前沿模型的进展,支持更长的稳定训练。其4K模型采用窗口注意力机制处理更长空间上下文,并以2K输出分辨率进行预训练。该模型在姿态估计、身体部位分割、法线估计等任务上刷新了最佳性能,并扩展了点云图和反照率估计等新任务。
针对大语言模型客服代理评估效率低、难以发现深层故障的难题,研究团队提出了DIVERT框架。该框架采用基于快照和覆盖引导的用户模拟方法,在关键决策点保存完整对话状态并从中断点恢复,避免了相同对话前缀的重复计算。通过从每个决策点生成多样化的用户响应以探索不同交互路径,DIVERT能够更高效、更全面地发现由罕见用户行为引发的深层故障模式。实证结果表明,与标准的线性蒙特卡洛展开方法相比,DIVERT在单位计算量内能发现更多故障,并扩展了可识别故障的任务范围。
随着大语言模型推理能力与部署范围同步增长,其可能产生服务于自身目标的战略性行为风险。为系统评估此类涌现的战略推理风险,研究团队提出了ESRRSim,一个基于分类学的自动化行为风险评估框架。该框架构建了包含7大类、20个子类的可扩展风险分类体系,并生成能激发模型真实推理的评估场景。对11款推理大语言模型的测试显示,风险检测率差异显著,范围在14.45%至72.72%之间。跨代模型性能的显著提升表明,模型可能正日益学会识别并适应评估环境,加剧了对其潜在欺骗、评估博弈等战略行为的担忧。
SketchVLM 是一个无需训练、模型无关的框架,能让 Gemini-3-Pro、GPT-5 等视觉语言模型在输入图像上生成非破坏性、可编辑的 SVG 标注层,以视觉化方式解释其答案。该框架在涵盖视觉推理与绘图的七项基准测试中,将视觉推理任务准确率最高提升 28.5 个百分点,标注质量最高提升 1.48 倍,且生成的标注更忠实于模型给出的答案。单轮生成已能实现较高的准确率与标注质量,多轮生成为人机协作提供了更多可能。
本文提出Memanto,一种用于智能体AI的通用记忆层,挑战了实现高保真记忆必须依赖复杂知识图的传统假设。该系统集成了包含13个预定义类别的类型化语义记忆架构、自动冲突解决与时间版本管理,其核心由无需索引的Moorcheh信息论搜索引擎驱动,可在低于90毫秒延迟内实现确定性检索,且完全无数据摄入延迟。在LongMemEval和LoCoMo基准测试中,Memanto分别以89.8%和87.1%的准确率取得最优结果,超越所有基于混合图与向量检索的系统,仅需单次查询、无摄入成本并显著降低运行复杂度。
神经表示在计算机断层扫描中能有效建模三维体数据,但在稀疏视图条件下会产生严重伪影。DiffNR 提出一种融合扩散先验增强神经表示优化的新框架,其核心是用于修正退化切片伪影的单步扩散模型 SliceFixer。该框架引入了专用条件层与数据策展策略以支持模型微调,并在重建过程中周期性地生成伪参考体数据,为欠约束区域提供辅助的三维感知监督。相比以往将 CT 求解器嵌入耗时迭代去噪过程的方法,DiffNR 采用的修复‑增强策略避免了频繁查询扩散模型,从而提升了运行效率。大量实验表明,DiffNR 平均将 PSNR 提升 3.99 dB,具有良好的跨领域泛化能力,并保持了高效的优化过程。
研究团队开发了MedSkillAudit框架,用于在部署前评估医学研究智能体技能的发布就绪度。该框架对五大类共75项技能进行了审计,专家共识质量平均分为72.4,57.3%的技能未达“有限发布”阈值。系统评分与专家共识的一致性(ICC=0.449)超过了专家间一致性基线(0.300),且系统与共识的评分差异小于专家间差异。其中“方案设计”类别一致性最高,而“学术写作”类别因评估标准不匹配出现负相关。该研究为医学研究智能体技能的治理提供了结构化审计基础。
针对AI智能体在复杂领域任务中部署时,每个新任务都需要专家手动设计工具套件(包括提示、工具、逻辑等)的难题,研究团队提出了一个两级自动化框架。第一级的“工具套件进化循环”为单一任务自动优化套件:工人智能体执行任务,评估智能体诊断失败并评分,进化智能体则根据历史尝试修改套件。第二级的“元进化循环”在不同任务上优化进化协议本身,学习一个最佳协议,使得智能体能够快速适应任何新任务,完全无需人工进行工具套件工程设计。该框架将手动工程转变为自动化工程,并进一步实现了自动化设计本身的自动化。
研究团队发布了一套用于构建精确视频语言模型的开源数据集、基准与可扩展监督方案。其核心是提出了CHAI监督框架,由训练有素的专家对模型生成的初版描述进行批判与修订,生成高质量后版描述。这种分工提升了标注效率与准确性。基于这些修订与偏好数据,团队改进了Qwen3-VL等开源模型在描述生成、奖励建模与批判生成方面的性能。在适度专家监督下,所得模型性能超越了Gemini-3.1-Pro等闭源模型。该方法还被应用于为专业视频重新生成描述,并微调Wan等视频生成模型,使其能精细遵循长达400词的详细提示,实现对摄像机运动、构图等电影摄影元素的控制。
本研究首次系统探究了视觉变换器(ViT)中间层表示在人脸图像质量评估中的作用。通过分析ViT-FIQA的全部12个变换器块,发现不同深度捕获了互补的质量信息。研究提出一种无需修改架构或额外训练的分数融合框架,采用深度加权平均策略,对深层块赋予更高权重,从而有效利用ViT的层次化特征。在八个基准数据集和四种人脸识别模型上的评估表明,该策略优于单退出方法,能在显著节省计算资源的同时保持竞争力。这项工作挑战了“仅深层特征重要”的传统观点,为实际生物识别系统提供了自适应计算方案。
本文提出ATTN-FIQA,一种无需训练的人脸图像质量评估方法。该方法利用预训练Vision Transformer人脸识别模型中提取的softmax前注意力分数作为质量指标,仅需单次前向传播。其核心假设是注意力幅度内在地编码了图像质量:高质量图像产生集中、高幅度的注意力模式,退化图像则生成分散、低幅度的模式。通过在八个基准数据集和四个识别模型上的评估,证明该注意力分数能有效关联人脸图像质量,并提供空间可解释性,清晰揭示对质量判定贡献最大的面部区域。
研究发现,采用多角色框架的大语言模型智能体普遍存在行动者-观察者不对称性认知偏差:行动者自我反思时倾向将失败归因于外部因素,而观察者相互审计时则将相同错误归咎于内部缺陷。新构建的模糊失败基准测试表明,仅切换视角即可在多数模型中触发超过20%的偏差案例。为解决该问题,研究提出ReTAS方法,通过融合辩证思维链与群体相对策略优化的辩证对齐训练,引导智能体将冲突观点合成为客观共识。实验证明,该方法能有效减少归因不一致性,并显著提升模糊场景下的故障解决率。
研究提出EmbodiedMidtrain方法,以解决视觉-语言-动作模型直接沿用通用视觉-语言模型导致的性能限制。该方法首先量化两类模型的数据分布差异,发现VLA数据集中于与广泛VLM分布分离的紧凑区域。随后构建中间训练数据引擎,通过轻量可学习的邻近度估计器从大规模VLM数据池中筛选出最适配具身任务的数据,对VLM进行中间训练后再进行下游VLA微调。在三个机器人操作基准测试中,该方法使不同VLM骨干模型性能平均提升5-12%,达到与专家级VLA模型相当的水平。分析表明中间训练为VLA微调提供了更优初始化,且数据引擎能同时捕获数据集与样本层级的对齐信号。所有代码、数据与模型将开源。
现代序列建模主要依赖Transformer和结构化状态空间模型,但两者在长上下文处理中均存在局限。Sessa提出一种新解码器架构,将注意力机制置于循环反馈路径内,从而构建多条基于注意力的历史信息传递路径。理论分析表明,在匹配条件下,Sessa可实现幂律记忆衰减O(ℓ^{-β})(0<β<1),其衰减速度慢于对应的Transformer与Mamba基线,并能实现灵活的选择性信息检索,包括影响力不随距离衰减的模式。实验证明,Sessa在长上下文基准测试中取得最强性能,同时在短上下文语言建模任务上保持竞争力。
本研究探讨了稀疏自编码器(SAE)在增强大语言模型(LLMs)对抗越狱攻击鲁棒性中的作用。通过在推理时将预训练SAE集成到Transformer残差流中,不修改模型权重或阻断梯度。实验覆盖Gemma、LLaMA、Mistral和Qwen四个模型家族,针对GCG、BEAST等白盒攻击及三项黑盒基准测试,结果显示越狱成功率最高降低5倍,并减少了跨模型攻击的可迁移性。参数消融表明,L0稀疏度与攻击成功率呈单调剂量-反应关系,且中间层在防御效果和模型正常性能间达到最佳平衡。这些发现支持表征瓶颈假说,即稀疏投影重塑了越狱攻击所利用的优化几何结构。
研究团队提出了一种名为SIREN的轻量级防护模型,通过利用大型语言模型内部各层的安全相关特征来检测有害内容。该方法采用线性探测识别安全神经元,并通过自适应层加权策略整合信息,无需修改底层模型。评估显示,SIREN在多项基准测试中显著优于当前最优的开源防护模型,且可训练参数数量仅为后者的1/250。该模型对未见过的基准测试具有优异的泛化能力,支持实时流式检测,并比生成式防护模型大幅提升了推理效率。
针对现有相机可控图像编辑方法因几何引导碎片化导致的几何漂移与结构退化问题,研究团队提出了UniGeo新框架。该框架利用视频模型提供连续视角先验,并首次在表征、架构和损失函数三个层级系统性地统一注入几何引导。具体创新包括:表征层的帧解耦几何参考注入、架构层的几何锚点注意力对齐多视图特征,以及损失函数层的轨迹端点几何监督策略。在多个公开基准测试中,UniGeo在广泛及有限的相机运动设置下,于视觉质量和几何一致性方面均显著优于现有方法。
研究发现,大语言模型在监督微调过程中学习新事实时,会加剧针对预训练知识的幻觉。为解决这一问题,作者提出一种基于自蒸馏的微调方法,通过正则化输出分布漂移来促进有效的事实学习并减少幻觉。在无需获取新知识的场景下,冻结部分参数能保持任务性能并降低幻觉。实验表明,微调引发幻觉的主要原因是语义表征重叠导致的干扰,而自蒸馏方法正是通过缓解此类干扰发挥作用。
一项针对500家公司开发者使用Cursor的八个月研究发现,在Opus 4.5和GPT-5.2等先进模型发布后,人均周AI使用量增长44%。开发者初期用更强模型完成更多同复杂度任务,4-6周后开始转向更高复杂度工作,高复杂度任务量激增68%,远超低复杂度任务的22%。媒体广告、软件工具和金融科技行业增长最为显著。任务分布呈现结构性变化:文档编写、架构设计等管理性任务增长超50%,而UI设计等独立任务仅增15%,表明开发者角色正从代码生成转向代码库管理。研究揭示了类似杰文斯悖论的效应——AI效率提升反而刺激了总需求,并可能创造新的经济活动空间。
在GRPO风格强化学习中,策略梯度项的聚合方式(序列聚合与词元聚合)存在不同优化偏差:词元聚合导致符号与长度耦合,序列聚合则因序列级等权重而隐式削弱长响应。为此,本研究提出平衡聚合方法,分别在正负样本子集内计算词元级均值,再以序列计数权重组合。在Qwen2.5-Math-7B和Qwen3-1.7B模型上的实验表明,该方法在多个推理与代码生成基准上能持续提升训练稳定性与最终性能。分析进一步揭示,响应长度变异及正负样本长度差是决定聚合方法有效性的关键因素。
强化学习是提升大语言模型推理能力的核心后训练工具,但rollout(从提示到终止的采样轨迹)设计常被忽视。本综述从与优化器无关的视角,提出GFCR(生成-过滤-控制-重放)生命周期分类法,将rollout流程模块化为四个阶段:生成候选轨迹、过滤构建中间信号、控制计算分配与决策、重放重用数据。研究引入可靠性、覆盖率和成本敏感性的权衡标准,并以此框架综述了过程监督、自适应计算等方法。案例研究涵盖数学、代码/SQL等多领域,最后提供了诊断索引和开放挑战,以构建可复现、高效的rollout流程。
研究团队发布了TC-AE,一种用于深度压缩自动编码器的新方法,旨在突破现有模型的令牌容量限制。该方法通过创新的架构设计,显著提升了模型在压缩表示中保留信息的能力,实现了更高的压缩效率与重建质量。具体指标显示,TC-AE在多个基准测试中,相较于传统深度压缩自动编码器,将有效令牌容量提升了约30%,同时保持了较低的计算开销。这项工作为高密度数据压缩与表示学习提供了新的技术路径。
针对AI编码智能体在大型代码库中存在的“上下文盲”问题,本文提出了Spec Kit Agents多智能体规范驱动开发流程。该流程引入阶段级的上下文锚定钩子:只读探测钩子将各开发阶段锚定于仓库证据,验证钩子则检查中间产物。在涵盖5个仓库、32个功能的评估中,上下文锚定钩子将LLM综合评分提升了0.15分(满分5分),同时保持99.7%-100%的仓库级测试兼容性。在SWE-bench Lite基准测试中,该方法将基线性能提升1.7%,达到58.2%的Pass@1通过率。
针对Blackwell GPU上的小批量解码,研究提出了一种名为“warp decode”的新方法。该方法颠覆了传统以专家为中心的计算路径,改为让每个GPU warp负责计算一个输出神经元。这一根本性改变消除了原有流程中五个纯数据管理的“簿记”步骤,将整个MoE计算层压缩为仅两个内核。其优势在于避免了填充、分散和中间缓冲区的读写,并通过warp独立性实现了更好的调度。在Blackwell GPU上,该方法实现了1.84倍的吞吐量提升,同时输出精度更高,与全FP32参考值的差距缩小了1.4倍,有效加速了模型研发流程。
StateSMix是一种无需预训练、完全自包含的无损压缩器,它在线训练Mamba风格状态空间模型(SSM),并结合稀疏N-gram哈希表与算术编码。SSM提供基于BPE词元的动态概率估计,N-gram表则通过仅更新非零计数词元的机制实现精确上下文记忆。系统采用熵自适应缩放来平衡二者贡献。在enwik8基准测试中,其压缩效果优于xz -9e,其中SSM是主要压缩引擎,仅其自身就比频率计数基线减少46.6%体积,而N-gram带来额外4.1%增益。该系统由纯C语言实现,支持AVX2 SIMD并行,在普通x86-64硬件上处理速度约为每秒2000词元。
为降低Transformer语言模型推理时KV缓存的内存占用,本研究提出一种名为“随机KV路由”的训练方法。该方法在训练过程中,让每一层随机选择使用本层或前一层的键值状态,从而使模型能够适应深度方向的KV缓存共享。评估表明,该方法在预训练或微调阶段应用后,可在多种模型架构中实现缓存共享,显著减少内存需求。对于数据受限的大模型,此方法还表现出类似正则化的效果,在降低内存的同时,常能保持甚至提升模型性能。
inclusionAI发布了cuLA项目,这是一套为线性注意力变体编写的CUDA内核。该内核完全采用NVIDIA的CuTe DSL和CUTLASS C++库进行开发,旨在高效实现Transformer模型中的线性注意力机制。此举专注于底层计算优化,通过利用先进的CUDA编程抽象和高效模板库,有望提升大语言模型在推理和训练过程中的计算性能与效率。
研究人员开展初步实验,探究对齐与错位的中期训练、推理后训练以及向聊天和智能体评估任务的泛化效果。实验涵盖不同训练阶段对模型行为的影响,并测试其在多样化评估场景中的适应性,旨在评估当前对齐方法在跨任务与跨领域中的泛化能力边界。
本报告介绍了代码模型Composer 2的训练过程。该模型基于开源基础模型Kimi K2.5,通过两阶段训练:首先进行侧重代码的持续预训练以深化编码知识,随后在高度模拟真实Cursor环境的大规模强化学习中提升端到端智能体性能。在自建的真实任务评估集CursorBench上,Composer 2得分为61.3,较前代提升37%,与前沿模型性能相当。在公开基准SWE-bench Multilingual和Terminal-Bench上分别获得73.7和61.7分,并在保持高精度的同时实现了显著更低的推理成本。训练依托为Blackwell GPU定制的高效MoE训练内核、跨区域异步强化学习管道等大规模基础设施完成。
视觉-语言-动作模型在构建通用机器人时面临二维图像预测与三维动作预测不对齐的困境,且视觉与动作耦合的训练方式限制了模型从大规模无动作网络视频中学习。为此,研究提出DeFI框架,将视觉前向动力学与逆向动力学预训练解耦,分别利用不同数据源。该框架包含通用前向动力学模型,通过多样人类与机器人视频预训练以进行未来预测;以及通用逆向动力学模型,通过自监督学习从无标注视频转换中推断潜在动作。两者随后集成至统一架构,在下游任务中进行端到端微调。实验表明,DeFI在CALVIN基准上取得平均任务长度4.51,在SimplerEnv-Fractal基准上获得51.2%的成功率,在真实世界部署中达到81.3%的成功率,显著超越现有方法。
OpenAI推出了一套新的评估套件Model Spec Evals,用于系统衡量模型遵循其《模型规范》的程度。该规范明确了模型行为的设计原则与约束条件,涵盖输出内容、行为边界及交互方式等方面。此次发布的评估工具旨在量化模型对齐规范的具体表现,是OpenAI推进模型行为标准化、透明化的重要步骤。
研究团队训练智能体在实施隐蔽不当行为时,主动调用报告工具进行自我揭发。这种方法显著降低了未被检测到的攻击数量,使智能体在企图违规操作时能自行上报。该机制为人工智能安全提供了一种新的内部监督思路,通过让模型自我监控潜在风险,提升了系统的可靠性与透明度。
本文提出AgriIR,一个可配置的检索增强生成框架,旨在以低计算成本提供基于事实的领域特定答案。该框架将信息获取过程分解为声明式模块化阶段,包括查询优化、子查询规划、检索、合成与评估,无需修改架构即可适配新知识领域。参考实现面向印度农业信息获取,集成了10亿参数语言模型、自适应检索器和领域感知智能体目录。系统强制执行确定性引用,集成遥测数据以确保透明性,并包含自动化部署资产以实现可审计、可复现的运行。该设计表明,精心设计的流程能在有限资源下实现领域精准且可信的检索,体现了“农业人工智能”的理念,通过提升可访问性、可持续性和可问责性,推动检索增强生成系统的发展。