Evaluating machine learning models for predicting pesticides toxicity to honey bees
作者: Jakub Adamczyk, Jakub Poziemski, Pawel Siedlecki
研究方向: 农药毒性预测与机器学习
该研究旨在评估机器学习模型在预测农药对蜜蜂毒性方面的能力,使用ApisTox数据集进行实验,并对比分析了多种机器学习方法和现有基准数据集。
作者: Jakub Adamczyk, Jakub Poziemski, Pawel Siedlecki
研究方向: 农药毒性预测与机器学习
该研究旨在评估机器学习模型在预测农药对蜜蜂毒性方面的能力,使用ApisTox数据集进行实验,并对比分析了多种机器学习方法和现有基准数据集。
作者: James B. Holliday, Darren Blount, Hoang Quan Nguyen, Samee U. Khan, Khoa Luu
研究方向: 量子优化算法在无人机物流领域的应用
本文研究了如何利用量子计算优化无人机物流中的路径规划和调度问题,提出了QUADRO框架,结合量子近似优化算法(QAOA)和经典启发式算法,以提高无人机配送效率。
作者: Iovka Boneva, Jose Emilio Labra Gayo, Eric Prud'hommeaux, Katherine Thornton, Andra Waagmeester
研究方向: 语义网和知识图谱
本文提出了一种名为Shape Expressions with Inheritance的继承机制,用于扩展Shape Expressions语言(ShEx)。ShEx是一种用于描述和验证RDF数据的语言。继承机制借鉴了面向对象编程语言中的继承概念,提供重用、模块化和更灵活的数据建模等优势。本文介绍了继承机制的主要特性、语法和形式语义,并展示了一个验证算法,该算法是先前ShEx验证算法的扩展,同时保持了相同的算法复杂度。
作者: Thinesh Thiyakesan Ponbagavathi, Alina Roitberg
研究方向: 视频动作识别
该研究针对几乎对称动作的识别问题,即视觉上相似但执行顺序相反的动作(例如,拿起与放置物体)。现有的图像到视频探测机制,如DinoV2和CLIP,虽然利用注意力机制进行时间建模,但本质上是对称不变的,导致无论帧顺序如何,预测都相同。为了解决这个问题,研究人员提出了Self-attentive Temporal Embedding Probing (STEP),这是一种简单而有效的方法,旨在在参数高效的图像到视频传输中强制执行时间敏感性。
作者: Jingcheng Hu, Yinmin Zhang, Qi Han, Daxin Jiang, Xiangyu Zhang, Heung-Yeung Shum
研究方向: 大规模强化学习与语言模型
Open-Reasoner-Zero (ORZ) 是一种开源的、面向大规模推理的强化学习训练方法,旨在提高训练效率、简单性和可访问性。该方法利用了简单的 PPO 算法、基于规则的奖励函数,并避免使用 KL 正则化,从而在推理任务上实现了显著的性能提升。
作者: Jiacheng Lin, Tian Wang, Kun Qian
研究方向: 推荐系统与生成式大型语言模型结合
本文提出了一种名为REC-R1的强化学习框架,旨在通过闭环优化将大型语言模型(LLM)与推荐系统相结合。该框架通过直接优化LLM生成内容,利用来自固定、黑盒推荐模型的反馈,避免了数据蒸馏所需的大量成本和努力。
作者: James B. Holliday, Darren Blount, Eneko Osaba, Khoa Luu
研究方向: 量子优化与物流优化
本文研究了量子退火在解决带时间窗的车辆路径问题中的应用,重点关注旅行商问题(TSP)和时间窗车辆路径问题(VRPTW)。研究者使用D-Wave的量子退火器和约束二次模型(CQM)求解器,在混合框架中解决这些问题。
作者: Wesley A. Suttle, Jesse Milzman, Mustafa O. Karabag, Brian M. Sadler, Ufuk Topcu
研究方向: 欺骗路径规划(Deceptive Path Planning)和对抗性干预下的决策过程(Adversarial Interventions in Decision Processes)
本文研究了在观察者能够进行对抗性干预的环境中,如何设计路径以隐藏其真实目标。作者提出了一个基于马尔可夫决策过程(MDP)的模型,并开发了一种新的信息价值(VoI)目标来指导欺骗路径规划策略的设计。通过VoI目标,路径规划代理能够欺骗对抗性观察者选择次优干预措施,从而选择对观察者信息价值低的轨迹。作者还推导了高效的线性规划(LP)方法来合成在对抗性干预下执行欺骗路径规划的政策。
作者: Jian Wang, Xin Lan, Jizhe Zhou, Yuxin Tian, Jiancheng Lv
研究方向: 生成对抗网络(GAN)训练与图像生成
针对数据有限的GAN训练问题,提出了一种名为SQ-GAN的新型方法,通过引入风格空间量化方案来增强一致性正则化,从而提高GAN训练效率和生成图像质量。
作者: Zhiyuan Zhou, Pranav Atreya, You Liang Tan, Karl Pertsch, Sergey Levine
研究方向: 机器人学习与评估
该研究旨在开发一个名为AutoEval的系统,用于自主评估通用机器人操作策略在现实世界中的性能。该系统通过自动化场景重置和成功检测,减少了人工干预,从而提高了评估效率和可靠性。