选择语言:
通俗语言摘要 (PLS)(即面向非专业受众的摘要)正成为扩大临床研究和促进公众对研究界信任的重要沟通工具。通俗语言摘要以易于理解的语言提供试验结果摘要,临床试验志愿者不需要具备专业科学知识即可读懂内容。这种摘要还可以为医学界以外的受众提供有关研究结果、疾病和治疗方法的可信信息。
根据欧盟 (EU) 临床试验法规 (CTR) 第 536/2014 号,公开披露面向非专业受众的摘要现已成为 EU 的一项监管要求。那么,这是否为生成式 AI (GenAI) 和生命科学开辟了新的应用领域呢?AI 内容创作能否帮助撰写这些摘要并减轻临床试验报告负担?PLS 通常由医学写作专业人员和/或披露专家撰写。撰写时要遵守严格的欧盟监管时限。此外,由于需要披露敏感的研究结果(通常是在药品或治疗干预措施被批准用于临床实践之前),因此报告撰写工作可能具有挑战性。
在这篇博客中,我们将探讨 AI 和临床试验的这一新潜在应用:AI 内容工具能否在不牺牲科学准确性的情况下协助制作和翻译通俗易懂的语言摘要?
人们常常低估用通俗易懂的语言制作高质量、中立的临床结果摘要所需的努力和技能。这是一项多学科任务,不仅需要语言、沟通和视觉设计技能,还需要掌握以下方面的专业知识:
值得注意的是,总结临床研究结果时存在以下风险:
考虑到总结和公开披露临床研究结果的风险,许多试验申办者在制作 PLS 时对于部署 AI 感到担忧。对于缺乏必要跨学科专业知识的试验申办者来说,确定 AI 应用场景以及在 AI 和人类参与之间找到合适的平衡可能是一个挑战。
如果使用得当,AI 可以显著减轻总结和起草通俗语言摘要的负担。AI 在临床试验中的应用并不会取代人类的角色。根据 EU 人工智能法案,AI 系统的部署者必须指派具备必要能力、接受过必要培训和拥有必要权限的人员进行人工监督。人类必须根据以下几点来确定上下文并验证 AI 输出内容:
此外,在临床试验中过度依赖 AI 存在风险,因为不准确的摘要可能会造成潜在的损害或引发信任危机。
考虑到 PLS 沟通的敏感性和语言挑战,Lionbridge 建议使用 AI 来自动处理撰写 PLS 草稿这一初始阶段的任务。随后,在摘要的其他阶段中,可以利用 AI 优化内容。
申办者可以利用卓越的提示词工程自动生成 PLS 初稿。可以指示大型语言模型 (LLM) 从临床试验报告和其他相关参考文件(例如临床试验方案、知情同意书或表格、清单和图表)中提取和总结预定义信息。糟糕的提示会产生低质量的回应,从而增加 PLS 写作负担。为避免这种负担,工程专家应设计提示词工程来预防:
Lionbridge 设计了一个符合 EU CTR、附件 V 内容要求和健康素养原则的主提示词模板。此模板有助于自动创作 PLS 初稿。通过提示词模板,试验申办者可获得信息正确且自带通俗语言风格的完善 PLS 初稿。还可以将提示词模板与申办者的临床试验报告和模板相匹配,从而指导 LLM 在哪里找到正确的信息。临床试验报告长达成百上千页,精心设计的提示词工程可以为医学作者和试验团队节省大量时间,同时让他们能够专注于准确解读技术细节和摘要细化。
一旦生成 PLS 初稿并进入审查和修订阶段,提示词工程迭代就会变得更加复杂,并且需要预定义的工作流程来提高效率并优化 PLS 的整体制作。LLM 可在初稿阶段之后用于完善内容、语言和 PLS 的可读性。自然语言翻译也可以使用 AI 和人工后期编辑进行优化。
申办者可以根据 PLS 提示词工程主模板开展工作,并对模板进行调整,以将以下因素纳入考量:
此外,还可以在同一临床开发计划下的不同临床试验中调整和重复使用主提示词。AI 在 PLS 中的参与程度取决于与 PLS 制作相关的风险和申办者的风险承受能力。
偏见是研究摘要中的常见风险,试验申办者在制作通俗语言摘要时必须减轻这种风险。值得注意的是,在选择要纳入摘要的终点时,这一点至关重要。第 3 阶段或第 4 阶段方案可能包含主要、次要和三级终点。申办者可能会认为其中一些与患者相关,应纳入 PLS 中。《简明摘要良好实践建议》(GLSP) 指南建议申办者根据记录在案的既定终点选择框架来预先确定要纳入哪些终点。这将有助于避免 PLS 终点选择中的偏见风险。试验申办者可以将这些预选终点构建到 PLS 提示词模板中,从而确保 LLM 呈现并提取正确的结果。
在 PLS 制作过程中,当 LLM 受命总结常见不良反应或患者临床试验招募的纳入和排除标准时,也可能出现偏见、遗漏或失实陈述。如果没有提前提示和人工监督,LLM 可能会忽略患者感兴趣的不良事件,甚至由于缺乏背景信息而误解安全数据。或者它可能会错过关键的资格标准,并在试验环境中总结不太相关的标准。试验团队和医学作者应确保 PLS 符合下列条件:
训练有素的提示词工程师可以准备和完善提示词模板、自动进行提示词循环利用并执行后处理提示,以优化工作流程。通过提前投入精力开发和测试提示词主模板,申办者能够改进自动生成的 PLS 草稿。PLS 可能需要多次提示词迭代,具体取决于试验申办者的方法。提示词模板还可在临床开发项目的不同研究中重复使用和配置。随着 AI 的发展和自然语言语料库的改进,从用源语言起草 PLS 到将其翻译成目标语言的整个过程可能会进一步简化。
LLM 是基于大量数据集进行训练的,这意味着需要进行精细调整和卓越的提示工程,才能生成所需的 PLS 输出内容。申办者应记住,提示是由人生成的,可能会引入偏见,而 LLM 则可能放大或复制这些偏见。这种源自 AI 和临床试验的偏见(无论是有意还是无意)可能会导致结果摘要出现偏差或不公正。
负责任的 AI 使用应当是透明的。根据 EU AI 法案,使用 AI 生成或处理供公众访问的文本时,部署该 AI 和临床试验的实体必须进行披露。应明确试验申办者在 PLS 流程中应用 LLM 的位置和方式。
Lionbridge 制定了 TRUST 框架,以建立对我们使用 AI 的信心,并确保在研究界、客户和公众中树立对 AI 的信任。如需详细了解 AI 和临床试验,请阅读我们的电子书《生命科学领域的 AI 与语言策略》获取相关见解。敬请联系我们。
我们渴望倾听您的需求,并向您展示我们的创新功能如何助您冲破藩篱、拓宽全球舞台。期待探索新机遇?我们随时待命,愿助您扬帆启航。