这项研究首次提供了有关医生使用人工智能的潜在责任的数据个性化医疗这通常会偏离标准治疗。“新的人工智能工具可以帮助医生提出治疗建议和诊断,包括解释医学图像凯文·托比亚(Kevin Tobia)说,他是法学博士、法学博士,是华盛顿特区乔治敦大学法律中心的助理教授AI工具一旦出了问题,陪审员有多大可能认定他们负有法律责任?许多这样的案件永远不会有陪审团,但如果有陪审团,答案取决于医学专家的观点和证词,以及非专业陪审团的决策。我们的研究是第一个关注最后一个方面的,研究潜在陪审员对使用人工智能的医生的态度。”
为了确定陪审员的责任判断,研究人员对美国2000名成年人的代表性样本进行了一项在线研究,每个参与者阅读四种场景中的一种,在这些场景中,人工智能系统向医生提供药物剂量治疗建议。这些场景改变了人工智能的建议(标准或非标准药物剂量)和医生的决定(接受或拒绝人工智能的建议)。在所有情况下,医生的决定都会对病人造成伤害。
然后,研究参与者通过评估在类似情况下,治疗决定是否可以由“大多数医生”和“合理的医生”做出来评估医生的决定。得分越高,表示认同程度越高,因此,责任也就越低。
研究结果表明,参与者使用两个不同的因素来评估医生对医疗人工智能系统的使用:(1)所提供的治疗是否标准,(2)医生是否遵循人工智能的建议。参与者对接受人工智能标准建议的医生的评价比对拒绝的医生要好。然而,如果医生收到了人工智能的非标准建议,他或她拒绝了它,并不能被判定为更安全的责任。
虽然之前的文献表明,外行人非常反对人工智能,但这项研究发现,事实上,他们并不强烈反对医生接受人工智能的医疗建议。这一发现表明,医生接受人工智能建议而承担法律责任的威胁可能比人们普遍认为的要小。
在JNM邀请的角度来看,价格w·尼科尔森二世和他的同事们指出,“责任可能会影响医生的行为决定是否遵循AI的建议,实现人工智能工具的医院医生使用这些工具和开发人员创建的。Tobia等人的研究为进一步研究将人工智能整合到医疗实践中的可能性奠定了基础。”
这项研究已经发表在核医学杂志.
来源:核医学与分子成像学会