Transforming Tuberculosis Care: Optimizing Large Language Models For Enhanced Clinician-Patient Communication

作者: Daniil Filienko, Mahek Nizar, Javier Roberti, Denise Galdamez, Haroon Jakher, Sarah Iribarren, Weichao Yuwen, Martine De Cock

发布时间: 2025-03-03

来源: arxiv

研究方向: 健康领域人工智能应用,特别是针对结核病的治疗和患者支持

主要内容

该研究旨在开发一个基于大型语言模型(LLM)的结核病治疗支持工具,通过整合多种上下文学习技术,提高患者参与度和治疗效果。该工具旨在帮助医疗工作者更有效地与患者沟通,并提供个性化的治疗建议和情感支持。

主要贡献

1. 开发了一个基于LLM的结核病治疗支持工具,该工具能够理解患者的需求并提供个性化的治疗建议。

2. 提出了一种多语言LLM,用于提供文化上相关且具有同理心的医疗信息。

3. 引入了隐私保护机制,以减少LLM在医疗应用中的数据泄露风险。

4. 评估了模型在语言适宜性、同理心、医疗准确性和隐私方面的表现。

研究方法

1. 使用GPT模型开发对话模型,以支持西班牙语使用者的结核病治疗。

2. 结合上下文学习技术,如零样本、少量样本和检索增强生成(RAG),以提高模型的性能。

3. 采用多代理序列,将查询分类为寻求同理心或信息密集型,并分配给相应的代理。

4. 使用差异隐私(DP)技术进行文本净化,以保护患者隐私。

5. 进行定性评估,包括语言适宜性、同理心、医疗准确性和隐私。

实验结果

模型在语言适宜性、同理心和医疗准确性方面表现良好,但在保持上下文连续性和避免过度使用通用回答方面存在挑战。在隐私方面,DP技术有助于保护患者隐私,但可能影响模型的性能。

未来工作

改进LLM在结核病治疗支持中的应用,包括解决模型中嵌入的不精确医疗知识和文化偏见问题。探索更精确的工具,能够检测并修正不准确的信息泄露。