Lattice Protein Folding with Variational Annealing

作者: Shoummo Ahsan Khandoker, Estelle M. Inack, Mohamed Hibat-Allah

研究方向: 计算生物学,蛋白质折叠,机器学习,变分退火

本文研究了蛋白质折叠中的二维水-极(HP)格点模型,提出了一种新的变分退火方法,结合扩展循环神经网络(RNN)和掩码技术,有效地寻找最低能量折叠,并展示了在基准系统中的性能。

ID: 2502.20632v1来源: arxiv发布时间: 2025-03-03

Subtask-Aware Visual Reward Learning from Segmented Demonstrations

作者: Changyeon Kim, Minho Heo, Doohyun Lee, Jinwoo Shin, Honglak Lee, Joseph J. Lim, Kimin Lee

研究方向: 机器人强化学习与视觉奖励学习

该研究提出了一种名为REDS的视觉奖励学习框架,通过分析视频演示中的子任务分割,生成相应的奖励信号,以帮助机器人完成复杂任务。REDS利用视频演示、子任务分割和对比学习,在无需大量人工干预的情况下,有效训练机器人完成复杂任务。

ID: 2502.20630v1来源: arxiv发布时间: 2025-03-03

PersonaBench: Evaluating AI Models on Understanding Personal Information through Accessing (Synthetic) Private User Data

作者: Juntao Tan, Liangwei Yang, Zuxin Liu, Zhiwei Liu, Rithesh Murthy, Tulika Manoj Awalgaonkar, Jianguo Zhang, Weiran Yao, Ming Zhu, Shirley Kokane, Silvio Savarese, Huan Wang, Caiming Xiong, Shelby Heinecke

研究方向: 人工智能与个性化

该研究旨在评估人工智能模型在理解个人信息方面的能力,特别是在访问(合成)私人用户数据的情况下。研究人员开发了一个合成数据生成管道,用于创建多样化的用户资料和私人文件,以模拟人类活动。基于这些合成数据,他们提出了PersonaBench,一个用于评估AI模型从模拟私人用户数据中理解个人信息性能的基准。

ID: 2502.20616v1来源: arxiv发布时间: 2025-03-03

Continuous Adversarial Text Representation Learning for Affective Recognition

作者: Seungah Son, Andrez Saurez, Dongsoo Har

研究方向: 情感计算、自然语言处理

本文提出了一种名为CARL(连续对抗文本表示学习)的框架,旨在通过结合动量连续标签对比学习和基于梯度的扰动词检测来增强情感感知嵌入,从而提升情感识别的准确性。

ID: 2502.20613v1来源: arxiv发布时间: 2025-03-03

Leveraging Large Language Models for Building Interpretable Rule-Based Data-to-Text Systems

作者: Jędrzej Warczyński, Mateusz Lango, Ondrej Dusek

研究方向: 自然语言生成(NLG)和数据到文本(Data-to-Text)

本文提出了一种利用大型语言模型(LLM)构建可解释的基于规则的NLG系统的方法。该方法通过让LLM编写Python代码来生成文本,从而实现数据到文本的转换。

ID: 2502.20609v1来源: arxiv发布时间: 2025-03-03

Exploring the Impact of Temperature Scaling in Softmax for Classification and Adversarial Robustness

作者: Hao Xuan, Bokai Yang, Xingyu Li

研究方向: 深度学习、图像分类、对抗性攻击、softmax函数

本研究探讨了softmax函数中的温度参数对图像分类的影响,包括其实践和理论方面。研究发现,适度的温度可以改善模型的整体性能,并且高温度可以增强模型对常见 corruption、自然 perturbation 和非目标对抗攻击的鲁棒性。

ID: 2502.20604v1来源: arxiv发布时间: 2025-03-03

NutriGen: Personalized Meal Plan Generator Leveraging Large Language Models to Enhance Dietary and Nutritional Adherence

作者: Saman Khamesian, Asiful Arefeen, Stephanie M. Carpenter, Hassan Ghasemzadeh

研究方向: 个性化营养与饮食规划

本文提出了一种名为NutriGen的个性化餐食计划生成框架,利用大型语言模型(LLM)和提示工程来生成符合用户定义的饮食偏好和限制的个性化餐食计划。

ID: 2502.20601v1来源: arxiv发布时间: 2025-03-03

Scalable Coordinated Learning for H2M/R Applications over Optical Access Networks (Invited)

作者: Sourav Mondal, Elaine Wong

研究方向: 下一代光纤无线接入网络中的人机/机器人协同通信

本文提出了一种名为GLAD的全球-本地AI协调学习框架,用于支持在光纤无线接入网络上实现可扩展的人机/机器人协作。该框架允许快速部署机器人和机器人,而不会干扰现有机器人和机器人的操作,并支持更远距离的人机/机器人交互。

ID: 2502.20598v1来源: arxiv发布时间: 2025-03-03

LLMs Have Rhythm: Fingerprinting Large Language Models Using Inter-Token Times and Network Traffic Analysis

作者: Saeif Alhazbi, Ahmed Mohamed Hussain, Gabriele Oligeri, Panos Papadimitratos

研究方向: 安全与隐私,自然语言处理

该研究提出了使用模型生成的文本的标记间时间间隔(ITTs)作为大型语言模型(LLMs)的指纹识别技术,旨在识别特定语言模型的来源和身份。这种方法通过分析网络流量数据来捕捉模型生成的独特时间模式,从而在本地和远程网络场景中实现被动和实时识别。

ID: 2502.20589v1来源: arxiv发布时间: 2025-03-03

LiteASR: Efficient Automatic Speech Recognition with Low-Rank Approximation

作者: Keisuke Kamahori, Jungo Kasai, Noriyuki Kojima, Baris Kasikci

研究方向: 语音识别(ASR)

本文提出了一种名为LITEASR的自动语音识别(ASR)编码器压缩方法,通过低秩近似技术显著降低了推理成本,同时保持了转录准确性。该方法利用了中间激活的强低秩特性,通过PCA对少量校准数据进行分析,将线性变换近似为低秩矩阵乘法链,并进一步优化了自注意力机制以在降低的维度上工作。

ID: 2502.20583v1来源: arxiv发布时间: 2025-03-03