Robust Multi-View Learning via Representation Fusion of Sample-Level Attention and Alignment of Simulated Perturbation

作者: Jie Xu, Na Zhao, Gang Niu, Masashi Sugiyama, Xiaofeng Zhu

研究方向: 多视角学习(MVL)与鲁棒性

提出了一种名为RML的鲁棒多视角学习方法,通过样本级注意力机制和模拟扰动对齐来融合和校准多视角数据,从而提高模型在异构多视角数据集上的鲁棒性和泛化能力。

ID: 2503.04151v1来源: arxiv发布时间: 2025-03-07

Ticktack : Long Span Temporal Alignment of Large Language Models Leveraging Sexagenary Cycle Time Expression

作者: Xue Han, Qian Hu, Yitong Wang, Wenchun Gao, Lianlian Zhang, Qing Wang, Lijun Mei, Chao Deng, Junlan Feng

研究方向: 自然语言处理,尤其是大型语言模型在处理长期时间信息时的时序对齐问题

提出了一种名为“Ticktack”的方法,用于解决大型语言模型(LLM)在处理长期时间信息时的时序对齐问题。该方法通过使用六十甲子年表达方式代替格里历表达方式,使用极坐标建模六十甲子周期和每个周期中的年份顺序,并通过额外的时序编码确保LLM能够理解这些信息,从而提高LLM在时间相关任务上的性能,尤其是在处理长期时间信息时。

ID: 2503.04150v2来源: arxiv发布时间: 2025-03-10

Ticktack : Long Span Temporal Alignment of Large Language Models Leveraging Sexagenary Cycle Time Expression

作者: Xue Han, Qian Hu, Yitong Wang, Wenchun Gao, Lianlian Zhang, Qing Wang, Lijun Mei, Chao Deng, Junlan Feng

研究方向: 自然语言处理(NLP)与长期时间信息处理

本文提出了一种名为“Ticktack”的方法,旨在解决大型语言模型(LLMs)在处理长期时间信息时的时空错位问题。该方法通过利用干支年表达和极坐标建模来改善LLMs在长期时间尺度上的时间知识学习。

ID: 2503.04150v1来源: arxiv发布时间: 2025-03-07

Dynamic Benchmarking of Reasoning Capabilities in Code Large Language Models Under Data Contamination

作者: Simin Chen, Pranav Pusarla, Baishakhi Ray

研究方向: 代码大型语言模型(Code LLM)的推理能力评估与数据污染问题

该研究针对代码大型语言模型(Code LLM)在数据污染情况下推理能力评估的难题,提出了一种名为DyCodeEval的动态基准测试套件。DyCodeEval通过使用多个智能代理来提取和修改上下文,同时保持核心逻辑不变,生成语义等效的变体,以评估Code LLM在潜在数据污染情况下的推理能力。

ID: 2503.04149v1来源: arxiv发布时间: 2025-03-08

DM-Adapter: Domain-Aware Mixture-of-Adapters for Text-Based Person Retrieval

作者: Yating Liu, Zimo Liu, Xiangyuan Lan, Wenming Yang, Yaowei Li, Qingmin Liao

研究方向: 文本基于的人检索(Text-based Person Retrieval, TPR)

本文提出了一种名为DM-Adapter的文本基于的人检索方法,该方法结合了Mixture-of-Experts(MOE)和参数高效迁移学习(PETL)技术,旨在提高特征表示的细粒度同时保持效率。

ID: 2503.04144v1来源: arxiv发布时间: 2025-03-07

MTS: A Deep Reinforcement Learning Portfolio Management Framework with Time-Awareness and Short-Selling

作者: Fengchen Gu, Zhengyong Jiang, Ángel F. García-Fernández, Angelos Stefanidis, Jionglong Su, Huakang Li

研究方向: 金融投资与算法交易

本文提出了一种名为MTS的基于深度强化学习的投资组合管理框架,旨在解决传统投资组合管理在复杂和波动市场中表现不佳的问题。MTS通过结合时间感知性和卖空机制,提供了一种稳健且自适应的投资策略,以实现可持续的投资回报。

ID: 2503.04143v1来源: arxiv发布时间: 2025-03-07

Artificial Intelligence in Pronunciation Teaching: Use and Beliefs of Foreign Language Teachers

作者: Georgios P. Georgiou

研究方向: 人工智能在外语发音教学中的应用与教师信念研究

本研究旨在探讨人工智能(AI)在外语发音教学中的应用情况以及教师对AI工具的信念,分析不同人口统计学和专业因素对AI使用和教师信念的影响。

ID: 2503.04128v1来源: arxiv发布时间: 2025-03-07

Simple Self Organizing Map with Visual Transformer

作者: Alan Luo, Kaiwen Yuan

研究方向: 视觉Transformer(ViT)与自组织映射(SOM)的结合研究

本文研究了如何将视觉Transformer(ViT)与自组织映射(SOM)相结合,以解决ViT在小型数据集上的性能不足和SOM的特征抽象能力不足的问题。

ID: 2503.04121v1来源: arxiv发布时间: 2025-03-07

Generalizability of Neural Networks Minimizing Empirical Risk Based on Expressive Ability

作者: Lijia Yu, Yibo Miao, Yifan Zhu, Xiao-Shan Gao, Lijun Zhang

研究方向: 神经网络泛化能力与表达能力

本文研究了神经网络在最小化经验风险下的泛化能力,基于网络的表达能力建立了人口准确率的下界,并分析了网络大小和数据量对泛化能力的影响。

ID: 2503.04111v1来源: arxiv发布时间: 2025-03-07

The MASK Benchmark: Disentangling Honesty From Accuracy in AI Systems

作者: Richard Ren, Arunim Agarwal, Mantas Mazeika, Cristina Menghini, Robert Vacareanu, Brad Kenstler, Mick Yang, Isabelle Barrass, Alice Gatti, Xuwang Yin, Eduardo Trevino, Matias Geralnik, Adam Khoja, Dean Lee, Summer Yue, Dan Hendrycks

研究方向: 人工智能与机器学习

本研究旨在评估大型语言模型(LLMs)的诚实度,并提出了一种名为MASK的基准,用于区分模型的准确性与其诚实度。研究者通过设计一系列的测试,来评估模型在受到诱导时是否会产生虚假信息,从而评估其诚实度。

ID: 2503.03750v1来源: arxiv发布时间: 2025-03-07