InftyThink: Breaking the Length Limits of Long-Context Reasoning in Large Language Models

作者: Yuchen Yan, Yongliang Shen, Yang Liu, Jin Jiang, Mengdi Zhang, Jian Shao, Yueting Zhuang

研究方向: 大型语言模型(LLM)的推理能力与效率提升

本文提出了一种名为INFTYTHINK的新型推理范式,旨在解决大型语言模型在长文本推理中的计算效率问题。通过将长文本推理分解为多个短推理段,并在每段之间进行总结,INFTYTHINK实现了无限制的推理深度,同时保持了有限的计算成本。

ID: 2503.06692v1来源: arxiv发布时间: 2025-03-11

Censoring-Aware Tree-Based Reinforcement Learning for Estimating Dynamic Treatment Regimes with Censored Outcomes

作者: Animesh Kumar Paul, Russell Greiner

研究方向: 医疗与健康数据分析,动态治疗方案优化

本文提出了一种名为Censoring-Aware Tree-Based Reinforcement Learning (CA-TRL)的框架,用于估计具有删失结果的动态治疗方案。该框架通过结合增强的逆概率加权(AIPW)和删失感知修改,提高了传统基于树的强化学习方法的有效性和可解释性。

ID: 2503.06690v1来源: arxiv发布时间: 2025-03-11

UniGenX: Unified Generation of Sequence and Structure with Autoregressive Diffusion

作者: Gongbo Zhang, Yanting Li, Renqian Luo, Pipi Hu, Zeru Zhao, Lingbo Li, Guoqing Liu, Zun Wang, Ran Bi, Kaiyuan Gao, Liya Guo, Yu Xie, Chang Liu, Jia Zhang, Tian Xie, Robert Pinsler, Claudio Zeni, Ziheng Lu, Yingce Xia, Marwin Segler, Maik Riechert, Li Yuan, Lei Chen, Haiguang Liu, Tao Qin

研究方向: 科学数据生成与建模

UniGenX是一种结合自回归模型和条件扩散模型的统一生成框架,旨在解决科学数据中序列和结构信息生成的挑战。该框架通过结合自回归模型的灵活性和扩散模型的精度,实现了对科学数据的准确和灵活生成。

ID: 2503.06687v1来源: arxiv发布时间: 2025-03-11

Exploring LLM Agents for Cleaning Tabular Machine Learning Datasets

作者: Tommaso Bendinelli, Artur Dox, Christian Holz

研究方向: 机器学习数据清洗与大型语言模型(LLM)应用

研究LLM在数据清洗中的作用,通过实验验证LLM在识别和纠正数据集中的错误,以提高机器学习模型性能的能力。

ID: 2503.06664v1来源: arxiv发布时间: 2025-03-11

AA-CLIP: Enhancing Zero-shot Anomaly Detection via Anomaly-Aware CLIP

作者: Wenxin Ma, Xu Zhang, Qingsong Yao, Fenghe Tang, Chenxu Wu, Yingtai Li, Rui Yan, Zihang Jiang, S. Kevin Zhou

研究方向: 零样本异常检测、视觉-语言模型、CLIP模型

本文提出了一种名为AA-CLIP的模型,旨在通过增强CLIP模型在文本和视觉空间中的异常识别能力,来解决CLIP模型在零样本异常检测任务中的异常无意识问题。

ID: 2503.06661v1来源: arxiv发布时间: 2025-03-12

Enhancing NLP Robustness and Generalization through LLM-Generated Contrast Sets: A Scalable Framework for Systematic Evaluation and Adversarial Training

作者: Hender Lin

研究方向: 自然语言处理(NLP)的鲁棒性和泛化能力提升

本研究利用大型语言模型(LLM)自动化生成多样化的对比集,以评估和提升NLP模型的鲁棒性和泛化能力。通过在SNLI数据集上创建3000个实例的对比集,研究评估了在对抗训练中模型的表现,并探讨了其对抗未见过的扰动的能力。

ID: 2503.06648v1来源: arxiv发布时间: 2025-03-11

Deep Cut-informed Graph Embedding and Clustering

作者: Zhiyuan Ning, Zaitian Wang, Ran Zhang, Ping Xu, Kunpeng Liu, Pengyang Wang, Chong Chen, Pengfei Wang, Yuanchun Zhou, Erik Cambria

研究方向: 图嵌入与聚类

该论文提出了一种名为DCGC的深度图嵌入和聚类框架,旨在解决现有基于图神经网络(GNN)的深度图聚类算法中存在的表示崩溃问题。DCGC通过从图切割的角度出发,提出了一种非GNN的图聚类范式,有效融合了图结构和节点属性信息,并利用最优传输理论进行自监督图聚类。

ID: 2503.06635v1来源: arxiv发布时间: 2025-03-11

BTFL: A Bayesian-based Test-Time Generalization Method for Internal and External Data Distributions in Federated learning

作者: Yu Zhou, Bingyan Liu

研究方向: 联邦学习(Federated Learning)

本文针对联邦学习中内部和外部数据分布的测试时泛化问题,提出了一种基于贝叶斯的方法,旨在平衡模型在内部分布和外部分布上的泛化能力。

ID: 2503.06633v1来源: arxiv发布时间: 2025-03-11

Hardware-Accelerated Event-Graph Neural Networks for Low-Latency Time-Series Classification on SoC FPGA

作者: Hiroshi Nakano, Krzysztof Blachut, Kamil Jeziorek, Piotr Wzorek, Manon Dampfhoffer, Thomas Mesquida, Hiroaki Nishi, Tomasz Kryjak, Thomas Dalgaty

研究方向: 硬件加速事件图神经网络在低延迟时间序列分类中的应用

本文提出了一种基于SoC FPGA的硬件加速事件图神经网络,用于低延迟时间序列分类。该网络通过将时间序列信号转换为稀疏事件数据格式,利用人工耳蜗模型,显著减少了计算量。实验结果表明,该方法在Spiking Heidelberg Digits (SHD)数据集上取得了92.7%的准确率,同时参数量比现有模型少10倍以上。

ID: 2503.06629v1来源: arxiv发布时间: 2025-03-11

Revisiting Early Detection of Sexual Predators via Turn-level Optimization

作者: Jinmyeong An, Sangwon Ryu, Heejin Do, Yunsu Kim, Jungseul Ok, Gary Geunbae Lee

研究方向: 网络安全,人工智能,机器学习,自然语言处理

本文研究了在线诱拐(online grooming)的早期检测问题,提出了一种名为SCoRL(Speed Control Reinforcement Learning)的模型,通过结合速度控制强化学习和诱拐沟通理论(Luring Communication Theory)来提高早期检测的准确性和及时性。

ID: 2503.06627v1来源: arxiv发布时间: 2025-03-11