在近日发布的新闻稿中,EBSCO分享了其在公司临床护理资源中实施生成式人工智能(AI)的方针,包括DynaMedex和Dynamic Health,目标是为医疗现场提供快速访问基于证据的临床资源。
在临床环境中考虑使用AI,尤其是在临床诊断和治疗方面,一个慎重、基于证据的方针至关重要。作为探索AI的第一步,临床决策部门的编辑团队,由DynaMed主编彼得·奥特根博士、Dynamic Health主编黛安·汉森和临床决策部门高级医疗主任凯瑟琳·艾森堡博士领导,围绕质量、安全、患者隐私、透明度、治理和公平制定了负责任使用AI的原则。以下是概述团队编辑放法的关键原则:
我们优先考虑保持用户对我们信息作为权威、基于证据、经临床专家验证的源的信心。我们将采取慎重的方针来实施任何基于AI的工具,尤其是考虑到将生成式AI应用于临床诊断和治疗的实验性质。任何潜在的生成式AI使用都将受到偏见、质量、安全、道德、监管考虑和科学严谨性的持续审查。在适当的监督和保障措施下,我们将通过临床医生、技术人员、主题专家、编辑和其他利益相关者之间的协作努力,负责任地探索这些工具的潜在重大益处和局限性。
以下原则指导我们以负责任、道德和安全的方式使用生成式AI:
质量:患者安全是我们的首要任务。我们的质量方针确保我们能够访问到我们临床专家按照严格的编辑流程开发的可靠、基于证据的内容。我们将限制生成式AI工具在用户面向的应用程序中的使用,仅限于我们精选内容中的信息。
安全和患者隐私:数据受到最佳实践的数据安全保护,符合HIPAA标准。我们的系统根据AI中建立的安全原则进行设计和监控。
透明度:我们产品上使用的生成式AI驱动技术将明确标记,以支持我们利益相关者做出明智的决策。临床信息将附带证据来源。
治理:临床专家负责监督生成式AI技术的临床应用的开发和验证,并进行持续监控以确保质量和可用性。
公平:我们致力于通过整合措施来促进健康公平,这些措施旨在从生成式AI驱动的应用程序的初期到部署阶段,以及持续的监控过程中,识别和缓解算法和社会偏见。