核医学与医学影像学会人工智能工作组与乔纳森-赫林顿博士合作提出了一系列建议,以引导人工智能在医疗领域的伦理进步和应用。
随着人工智能在医疗保健领域大放异彩,有望提高诊断和治疗水平,特别工作组强调了保持人类监督以避免潜在伤害和不平等的关键作用。
随着人工智能在医学领域的应用日益广泛,透明度是确保道德开发和应用的关键。
Herington 博士强调,医疗服务提供者必须掌握人工智能系统的复杂性,了解其预期用途、性能和局限性。
"临床医生应将人工智能作为自己决策的输入,而不是取代自己的决策"。
要实现这一目标,需要人工智能开发人员的积极参与,提供有关其医疗设备的准确信息。
工作组建议在人工智能系统中嵌入警报,以传达预测的不确定性水平,类似于癌症扫描的热图。
这种方法力求在人工智能的潜在优势与避免健康不平等的当务之急之间取得平衡。
此外,还强烈敦促开发人员确保其人工智能模型不仅能满足资源充足的医院的需求,还能在不同的环境中发挥有效作用。
赫林顿博士对先进的系统偏袒特权病人表示担忧。
他说:
"一个令人担忧的问题是,这些高科技、昂贵的系统将被部署在真正资源丰富的医院,并改善相对较好的患者的治疗效果,而资源不足或农村医院的患者将无法使用这些系统,或者使用这些系统会使他们的治疗效果更差,因为这些系统不是为他们设计的"。
随着人工智能领域的迅速发展,赫林顿博士提醒说,我们为人工智能医学建立伦理和监管框架的窗口正在缩小。
开发者和医疗服务提供者都有责任在人工智能的潜在益处和人类参与的伦理考虑之间保持平衡。
问题是,我们能否在确保所有人都能公平获得医疗和护理的同时,引导人工智能与医疗的融合。