推文作者指出,优化多智能体系统以实现自动化知识发现或调优高级AI系统是当前AI领域极具潜力的方向。文中引用的研究通过强化学习训练“指挥家”模型,使其能自动管理其他模型:针对简单问题直接查询单一模型,面对复杂编码任务则自主组建包含规划器、编码器和验证器的完整流程。这标志着从单智能体“思维链”向多智能体“指挥链”的演进,相关技术已应用于Sakana Fugu等新系统,展现了AI管理AI范式的广阔探索空间。
研究提出DiGSeg框架,将预训练扩散模型转化为通用分割器。该方法将输入图像与真实掩码编码为潜变量,作为扩散U-Net的条件输入,并通过并行CLIP文本通路注入多尺度语言特征,实现文本与视觉表征的对齐。实验表明,该框架在标准语义分割基准上取得领先性能,并在开放词汇泛化及跨域迁移(医疗、遥感、农业)中表现优异,且无需针对特定领域调整模型架构。这证明扩散模型不仅能用于图像生成,也可作为强大的通用视觉理解模型,缩小了生成与理解任务间的差距。
X2SAM是一个统一的分割多模态大语言模型,它将图像中的任意分割能力扩展至视频。该模型结合大语言模型与存储引导视觉特征的掩码记忆模块,能依据对话指令和视觉提示生成时间一致的视频掩码,并支持图像与视频输入下的通用、开放词汇、指代、推理及交互式分割。研究团队提出了视频视觉基础分割基准V-VGD,用于评估模型根据交互式视觉提示分割视频物体轨迹的能力。通过跨异构数据集的统一联合训练,X2SAM在视频分割上表现优异,在图像分割基准上保持竞争力,同时保留了通用的图像与视频对话能力。
本文提出软各向异性图(SAD),一种基于图像平面自适应站点参数化的显式可微分图像表示方法。SAD通过各站点定义各向异性度量与加权距离,并依据像素前K个站点的softmax混合计算颜色,形成具有可学习温度的软加权Voronoi划分,在保持清晰边界的同时保留有效梯度。该方法支持基于前K映射的高效渲染,并采用受跳转扩散启发的传播方案更新站点。在Kodak数据集上,SAD以2.2秒编码时间达到46.0 dB PSNR,训练速度比先进基线快4-19倍,且在相同码率下性能更优。SAD还能无缝集成至可微分流程,并具备快速随机访问与紧凑存储优势。
当前LLM智能体技能多以文本描述,导致机器难以解析利用。本研究基于经典知识表示理论,首次提出结构化技能表示法——调度-结构-逻辑表示法,将技能解耦为调度信号、执行结构和逻辑证据。通过基于LLM的标准化器实现该方法,并在技能发现与风险评估任务上评估。结果显示,该方法显著优于纯文本基线:技能发现的MRR从0.573提升至0.707,风险评估的宏观F1分数从0.744提升至0.787。这表明显式、基于来源的结构化表示能提升技能的可搜索性与可审查性,是迈向更可检查、可重用、可操作技能表示的重要实践步骤。
研究指出,将人类多维度的视觉偏好压缩为二元胜负标签会产生严重的标签噪声,误导扩散模型直接偏好优化训练。为解决此问题,团队提出了Semi-DPO方法。该方法将标注一致的图像对视为干净数据,将存在冲突的视为带噪声的未标注数据。训练过程首先在共识过滤的干净子集上进行,然后利用该模型作为隐式分类器为噪声集生成伪标签,进行迭代优化。实验表明,Semi-DPO取得了最先进的性能,显著提升了与复杂人类偏好的对齐度,且无需额外人工标注或显式的奖励模型。代码和模型将在指定GitHub仓库开源。
研究分析了100个模型(包括医疗和法律领域广泛部署的微调模型),发现常规微调会导致模型安全性能出现显著、异质且常相互矛盾的变化。模型在某些安全评测上提升的同时,在其他评测上明显退化,且不同评测工具结论分歧巨大。这表明基础模型的安全属性无法在下游适配中稳定保持,当前依赖基座模型评估的治理与部署模式存在严重局限。若不在部署相关场景中显式重新评估微调模型,将无法有效管控下游风险,这种缺陷在高风险领域尤为突出,并对现行问责范式构成挑战。
本文提出“探索性采样”解码方法,以增强大语言模型生成内容的语义多样性。该方法在推理时训练一个轻量级“蒸馏器”,通过预测模型深层隐藏状态来建模其表示转换过程,并将预测误差作为新颖性信号,以此重新加权候选token,引导解码偏向未被充分探索的语义模式。该方法实现了异步训练-推理流水线,最坏情况下开销低于5%。实验表明,该方法显著提升了推理模型的Pass@k效率,在数学、科学和代码生成基准测试中表现出稳健的泛化能力,并在创意写作中打破了多样性与连贯性之间的权衡。
针对现有可控扩散方法因架构孤立、流程不兼容导致的碎片化问题,研究团队提出统一开源插件框架Diffusion Templates。该框架通过模板模型、模板缓存和模板管道三大核心组件,实现基础模型推理与可控能力注入的解耦。其系统级接口设计支持KV-Cache、LoRA等多种异构能力载体。基于此构建的模型库覆盖了结构控制、图像编辑、超分辨率等十类任务,展现了框架在模块化、可组合性及跨模型可扩展性方面的统一能力。所有代码、模型与数据集将开源。
用户模拟因其广泛的应用潜力在计算机科学中长期扮演重要角色,而对话行为的模拟是核心研究领域。大语言模型的进展通过生成高保真合成用户对话,显著推动了该领域发展。本文综述了基于LLM的对话用户模拟最新进展,提出一个涵盖用户粒度和模拟目标的新分类法,并系统分析了核心技术与评估方法。研究旨在向学界同步该领域最新动态,并通过识别开放挑战、在统一框架下梳理现有工作,进一步促进未来研究。
随着公平与负责任人工智能相关立法推进,推荐系统公平性评估日益重要,但现有众多离线公平性指标缺乏稳健性分析,其局限性未被充分认知。研究系统评估了基于用户与物品、群体与个体等不同维度的公平性指标,通过理论与实证分析揭示了其在可解释性、表达力与适用性上的缺陷。针对这些不足,研究提出了新的评估方法与改进指标,并制定了实际场景中公平性指标的选择指南,推动推荐系统公平性离线评估领域的发展。
为实现真正的数字自主性,研究团队推出了AutoGUI-v2基准,旨在评估智能体对图形用户界面(GUI)的深度功能理解与交互结果预测能力。该基准通过一种新颖的视觉-语言模型与人类协作流程构建,递归解析多平台截图,生成了涵盖六个操作系统的2,753项任务,严格测试区域与元素级语义理解、功能定位及动态状态预测。评估结果显示,基于智能体数据微调的开源模型在功能定位上表现优异,而商业模型则在功能描述上领先。关键发现是,所有模型在面对非常见操作的复杂交互逻辑时均表现不佳,表明深度功能理解仍是当前面临的核心挑战。
本文提出GoClick,一个仅含2.3亿参数的轻量级视觉语言模型,用于图形用户界面元素定位。针对资源受限设备,模型采用编码器-解码器架构,在小参数量下优于仅解码器架构。通过渐进式数据精炼流程,从1080万原始数据中筛选出380万高质量样本进行训练,显著提升定位精度。实验表明,GoClick在多项基准测试中达到与大型模型相当的准确度,同时保持小体积和高推理速度。集成于设备-云端协作框架时,能有效协助云端任务规划器精确定位元素,提升任务成功率。
策略蒸馏在多轮智能体任务中存在轨迹级KL不稳定问题,即KL散度随错误累积上升,导致训练不稳定。为此,研究提出时序课程策略蒸馏框架TCOD,通过课程学习控制学生模型接触的轨迹深度,从短轨迹逐步扩展到长轨迹。在ALFWorld、WebShop和ScienceWorld基准上的实验表明,TCOD有效抑制KL散度上升,提升训练稳定性,并将智能体性能较原始策略蒸馏最高提升18个百分点。进一步评估显示,TCOD甚至能超越教师模型性能,并泛化至教师失败的任务。
研究提出“用数据编程”新范式,通过将结构化知识作为训练与评估的共同基础,将数据工程生命周期精确映射至软件开发流程:训练数据即源代码,模型训练即编译,基准测试即单元测试。模型失败可被分解为概念缺失或推理链断裂,并能追溯到具体数据缺陷,通过针对性修补实现改进。该方法在十六个学科中得到验证,修复周期能带来模型性能和架构的持续提升,且不损害通用能力。研究同时开源了结构化知识库、基准测试套件和训练语料库。
针对当前智能体视频生成流程存在的语义漂移与级联失败问题,研究团队提出了Co-Director。该框架将视频叙事构建为全局优化问题,其核心是分层参数化设计:全局层采用多臂老虎机探索有潜力的创意方向,局部层通过多模态自优化循环来缓解身份漂移并确保序列一致性,从而平衡叙事策略探索与创意配置利用。为进行评估,团队构建了包含400个场景的个性化广告数据集GenAD-Bench。实验表明,Co-Director在生成连贯性上显著优于现有先进基线,并能无缝泛化至更广泛的电影叙事场景。
Meta-CoT提出一种新的图像编辑范式,通过两级分解提升模型的理解细粒度和任务泛化能力。该方法首先将任意编辑操作分解为(任务、目标、所需理解能力)三元组,以增强对编辑意图的细粒度理解;其次将编辑任务拆解为五个基础元任务,使训练仅需在这些元任务上进行,结合新引入的“思维链-编辑一致性奖励”机制,促使模型更准确地利用推理信息进行编辑。实验表明,该方法在21项编辑任务上实现了15.8%的整体性能提升,并能有效泛化到未见过的编辑任务。相关代码、基准测试和模型已开源。
阿里巴巴提出一种通过双强化学习飞轮训练智能体的新方法,并基于此推出了AgenticQwen-30B-A3B模型。该模型总参数量为300亿,但每次推理仅激活30亿参数,在TAU-2和BFCL-V4多轮工具使用基准测试中取得了50.2的平均分,性能与参数量达2350亿的Qwen3-235B相当。其核心在于并行运行两个飞轮:推理循环将模型自身错误转化为更难训练问题;智能体循环则将简单工具使用轨迹扩展为多分支行为树,并通过模拟用户误导主动增加训练难度。该方法意味着开发者无需为常规工具任务支付高昂的尖端模型成本,且飞轮配方可复用,能从智能体自身失败中生成困难样本。
构建复杂智能体时,长期任务智能体常因决策者分解能力不足或技能库过时而失败。新研究提出一种协同进化框架,让LLM决策智能体与动态技能库通过迭代优化共同改进。决策智能体负责选取和串联技能,性能反馈同时更新其策略和技能库本身。新技能通过归纳成功序列自动生成,而非预先手动编码。传统方法将技能与决策作为独立问题优化,容易陷入瓶颈。协同进化则能在单一循环中实现自适应规划,并持续增长可复用行为库,这对任务结构不确定的领域(如机器人、游戏智能体、复杂规划)至关重要。
论文通过分析 Claude Code 泄露源码,揭示其生产级 Coding Agent 架构的核心是“最小 AI 决策+最大确定性环境”设计。仅约 1.6% 代码为 AI 逻辑,其余 98.4% 用于构建安全、可靠的操作框架。架构围绕人类决策权、安全等五种价值驱动,采用七层独立防御体系保障工具调用安全,并通过五层渐进压缩策略高效管理上下文窗口。其扩展机制按上下文成本分级,子 Agent 采用隔离设计,整体强调透明性与用户可控性,与依赖状态图或显式规划的主流路径形成鲜明对比。
关联讨论 1 条HuggingFace Daily Papers(社区热门论文)普林斯顿大学研发出一种融合活体脑细胞与嵌入式电子技术的三维生物电子计算机,能完成模式识别任务。该器件在环氧树脂基底上构建了微型导线与电极的三维网状支架,培育了数万个神经元形成大型三维网络,实现了对神经元电活动的高精度记录与刺激。在六个月的研究中,系统成功区分了两种不同的输入脉冲模式。研究人员计划扩大器件规模以处理更复杂任务,并期望借此探索大脑的低能耗运算机制,为降低人工智能系统功耗提供新途径。相关论文已发表于《自然・电子学》期刊。
Talker-T2AV提出了一种自回归扩散框架,用于联合生成语音和视频。其核心设计是将高级语义建模与低级细节渲染解耦:一个共享的自回归语言模型在统一的块级标记空间中对音视频进行联合推理,而两个轻量级的扩散Transformer头则分别解码出帧级的音频和视频潜在表示。该方法避免了现有模型在去噪过程中全程强制跨模态纠缠的弊端,更符合语音驱动面部合成任务的特点。在语音肖像基准测试中,该模型在唇部同步准确性、视频质量和音频质量上均优于双分支基线,实现了比级联方法更强的跨模态一致性。
本研究通过六款先进大语言模型生成23,400个故事,系统探讨人格特质对性别偏见的影响。研究采用HEXACO和黑暗三联征人格框架,以特定性别、职业生成印度职场人士的英语和印地语故事。结果显示,人格特质能显著影响性别偏见的程度与方向,黑暗三联征人格比HEXACO特质更易引发性别刻板印象,且这种关联因模型和语言而异。这表明大语言模型的性别偏见具有动态性和情境依赖性,在实际应用的人格驱动系统中,可能加剧教育、职业等内容中的不平等表征危害。
PageGuide是一款浏览器扩展,通过视觉叠加将大语言模型的回答直接锚定在网页中,以解决用户在杂乱页面中定位信息、完成多步骤任务和对抗干扰内容三大需求。它提供三种模式:Find模式原位高亮答案来源以供验证;Guide模式分步显示操作指南引导用户执行;Hide模式帮助隐藏干扰内容。一项涉及94名用户的研究表明,该工具在所有模式下均显著优于无辅助浏览,例如Hide模式使任务准确率大幅提升、完成时间缩短70%,Guide模式提高任务完成率,Find模式则减少80%的Ctrl+F使用并缩短任务时间。代码与演示已开源。
在自动驾驶和机器人感知中,异常分割对区分已知类与未知物体至关重要,但3D领域研究有限。本文提出一种高效新方法,直接在特征空间操作,通过建模内点类的特征分布来约束和识别异常样本。针对现有公开数据集场景简单、异常实例少及传感器分辨率域差异问题,我们构建了混合真实-合成3D LiDAR异常分割数据集,基于成熟语义分割基准,包含多样分布外物体和复杂环境。大量实验表明,该方法在现有真实数据集上达到最优性能,在新数据集上也有竞争力,验证了方法有效性和数据集实用性。代码与数据集已公开。
智能文档处理管道常因缺乏验证机制,导致提取错误无声传递至下游系统。RaV-IDP框架创新性地引入重建作为核心组件,在提取每个实体后,通过专用重建器将结果渲染回与原文档区域可比的形式,并由比较器评估重建与原始截图的保真度,生成无需标注的质量信号。若保真度低于实体类型阈值,系统触发基于GPT-4.1 Vision的结构化回退机制并重复验证循环,始终以原始文档区域为锚点,避免循环依赖。该框架还提供了每阶段评估方法,将管道组件与基准配对,相关代码已在GitHub开源供实验使用。
ClawMark是一个针对长期协作智能体的新型基准测试,旨在模拟外部环境独立变化的真实工作场景。它构建于一个状态可动态演化的沙盒环境,包含文件系统、电子邮件等五类服务,覆盖13个专业场景下的100项任务。评估完全依赖1537个确定性Python检查器对服务状态进行评分,未使用LLM作为评判工具。对七个前沿智能体系统的测试表明,最强模型加权得分为75.8,但严格任务完成率仅为20.0%,说明智能体常能取得部分进展却难以完整达成工作流。分析发现,性能在首次环境更新后普遍下降,适应动态变化仍是核心挑战。
视觉-语言-动作模型作为具身智能的统一基础,其安全面临物理不可逆、多模态攻击面、实时防御延迟等新挑战。本文统一梳理该领域,沿攻击与防御两条时间轴组织研究,将威胁类型与其可缓解阶段对应。内容涵盖安全定义与模型基础,并从攻击、防御、评估与部署四个维度展开综述,分析训练时与推理时的多种威胁与防御机制,探讨现有评估基准及六大部署领域的安全问题,最后指出具身轨迹认证鲁棒性、物理可实现防御等关键开放问题。
Anthropic 公司搭建了一个名为“交易计划”的 AI 智能体交易测试平台,模拟二手市场由智能体代理买卖,使用真实货币结算。实验邀请 69 名员工参与,每人获得 100 美元预算,共达成 186 笔交易,总价值超过 4000 美元。测试发现,更高级的智能体能带来更优交易结果,但用户未察觉收益差距,暴露了智能体能力差异的潜在风险。此外,智能体的初始指令对成交概率和定价无显著影响。
研究人员发布了人工智能的λ演算基准测试,旨在评估AI模型理解和执行函数式编程核心概念的能力。该基准测试包含一系列基于λ演算的挑战性问题,用以检验模型的逻辑推理、符号操作和算法实现水平。初步测试结果显示,当前主流大语言模型在该基准上的表现差异显著,部分模型得分不足50分,凸显了AI在形式化推理方面的现有局限。这一工具为衡量AI的抽象思维与计算能力提供了新的量化标准。
微软新论文引入DELEGATE-52基准,模拟52个专业领域的长文档编辑工作流。测试19个模型,包括Gemini 3.1 Pro、Claude 4.6 Opus和GPT-5.4等前沿模型,发现在长工作流结束时平均损坏25%的文档内容。代理工具使用未能改善表现。论文还提供了其他相关见解。
一项研究发现,不同架构和规模的语言模型在学习过程中,其内部对数字的表示形式高度相似。研究通过分析多种模型发现,数字的向量表征在潜在空间中呈现出清晰的线性顺序和等距间隔,这与数字本身的大小顺序一致。这一现象表明,语言模型可能通过类似机制捕捉数字的抽象概念,揭示了其内部表示的一种普遍规律。
关联讨论 1 条HuggingFace Daily Papers(社区热门论文)Anthropic 进行了一项内部实验,让 69 个 AI 代理在员工内部市场中代表人类进行为期一周的交易。结果显示,性能更强的 AI 模型能为自己代理的用户争取到更有利的交易条件,而使用较弱 AI 代理的员工则完全未察觉到自身处于劣势。这一发现警示,若未来 AI 模型开始广泛代理人类进行真实交易,此类“强者愈强”的动态可能会加剧现有的经济不平等。
关联讨论 1 条X:阿易 AI Notes (@AYi_AInotes)为突破海洋人工智能面临的数据瓶颈,研究团队发布了大规模多模态海洋语料库OceanPile。该语料库整合了声纳、水下图像、科学图文等多源异构数据,构建了统一集合OceanCorpus;通过分层海洋知识图谱引导,生成了高质量指令数据集OceanInstruction;并建立了人工标注评估基准OceanBenchmark。研究采用多阶段质量控制流程确保数据的科学性与跨模态对齐。实验表明,基于该数据训练的模型性能显著提升。全部数据集已开源,旨在推动海洋专用多模态大模型的发展。
针对模拟电路设计中跨SPICE网表、原理图和功能描述等异构表示检索的难题,本研究提出了统一的三模态检索框架AnalogRetriever。该工作基于Masala-CHAI构建高质量数据集,并通过两阶段修复流程将网表编译率提升至100%。框架采用视觉语言模型编码原理图和描述,使用端口感知关系图卷积网络编码网表,并通过课程对比学习将三者映射到共享嵌入空间。实验表明,其在所有六个跨模态检索方向上的平均Recall@1达到75.2%,显著优于基线。集成至AnalogCoder智能体框架后,能持续提升功能通过率并完成此前无法解决的任务。代码与数据集将开源。
本研究针对联邦学习中的通信瓶颈与隐私风险,提出一种结合拉普拉斯差分隐私与自适应量化的方法。该方法采用基于轮次的余弦退火策略进行全局比特调度,并依据客户端数据集熵动态分配量化比特数。在CIFAR10、MNIST及医学影像数据集上的实验表明,相比32位浮点训练,该方法在保持模型精度的同时,将通信数据总量最高减少了52.64%(MNIST)、45.06%(CIFAR10)以及31%至37%(医学影像数据集),并通过差分隐私机制提供了严格的隐私保护。
研究团队提出V-GRPO方法,通过将基于证据下界的似然替代函数与GRPO算法结合,解决了去噪生成模型与人类偏好对齐的难题。该方法降低了替代函数的方差并控制梯度步长,在文本到图像合成任务中实现了最先进的性能。相比现有方法MixGRPO和DiffusionNFT,V-GRPO分别带来2倍和3倍的加速效果,同时保持训练稳定性并与预训练目标自然对齐。
工业维护中,AI助手常因解释泛化、缺乏遥测基础而影响信任。为此,研究团队推出IndustryAssetEQA,该系统结合事件遥测表征与故障模式影响分析知识图谱,实现针对工业资产的神经符号具身问答。在覆盖旋转机械、涡扇发动机等四种资产类型的数据集上评估显示,相比纯大语言模型基线,其结构有效性最高提升0.51,反事实准确性最高提升0.47,解释蕴涵度提升0.64,并将专家评定的严重过度断言从28%降至2%(降幅约93%)。相关代码、数据集及知识图谱已开源。
研究提出EPO-Safe框架,探索大语言模型智能体能否仅凭经验发现隐藏安全目标。该框架让智能体迭代生成计划,接收稀疏的二进制危险警告,并通过反思演化出自然语言行为规范。实验在五个AI安全网格世界及其文本场景中进行,结果显示仅需1-2轮(5-15回合)即可发现安全行为,并生成可解释危险假设的人类可读规范。关键发现是,仅基于奖励的标准反思会主动损害安全,加速“奖励破解”,因此反思必须与专用安全通道结合。即使在50%非危险步骤出现虚假警告的噪声环境下,平均安全性能仅下降约15%,跨回合反思能自然过滤不一致信号。最终演化出的规范是一套可通过交互自主发现、可审计的行为规则集。