14.01.2021•

潜在的陪审员赞成在精准医疗中使用人工智能

根据美国一项对潜在陪审团候选人的新研究,遵循人工智能(AI)建议的医生可能被认为对医疗事故的责任比人们普遍认为的要小

这项研究首次提供了有关医生使用人工智能的潜在责任的数据个性化医疗这通常会偏离标准治疗。“新的人工智能工具可以帮助医生提出治疗建议和诊断,包括解释医学图像凯文·托比亚(Kevin Tobia)说,他是法学博士、法学博士,是华盛顿特区乔治敦大学法律中心的助理教授AI工具一旦出了问题,陪审员有多大可能认定他们负有法律责任?许多这样的案件永远不会有陪审团,但如果有陪审团,答案取决于医学专家的观点和证词,以及非专业陪审团的决策。我们的研究是第一个关注最后一个方面的,研究潜在陪审员对使用人工智能的医生的态度。”

为了确定陪审员的责任判断,研究人员对美国2000名成年人的代表性样本进行了一项在线研究,每个参与者阅读四种场景中的一种,在这些场景中,人工智能系统向医生提供药物剂量治疗建议。这些场景改变了人工智能的建议(标准或非标准药物剂量)和医生的决定(接受或拒绝人工智能的建议)。在所有情况下,医生的决定都会对病人造成伤害。

然后,研究参与者通过评估在类似情况下,治疗决定是否可以由“大多数医生”和“合理的医生”做出来评估医生的决定。得分越高,表示认同程度越高,因此,责任也就越低。

研究结果表明,参与者使用两个不同的因素来评估医生对医疗人工智能系统的使用:(1)所提供的治疗是否标准,(2)医生是否遵循人工智能的建议。参与者对接受人工智能标准建议的医生的评价比对拒绝的医生要好。然而,如果医生收到了人工智能的非标准建议,他或她拒绝了它,并不能被判定为更安全的责任。

虽然之前的文献表明,外行人非常反对人工智能,但这项研究发现,事实上,他们并不强烈反对医生接受人工智能的医疗建议。这一发现表明,医生接受人工智能建议而承担法律责任的威胁可能比人们普遍认为的要小。

在JNM邀请的角度来看,价格w·尼科尔森二世和他的同事们指出,“责任可能会影响医生的行为决定是否遵循AI的建议,实现人工智能工具的医院医生使用这些工具和开发人员创建的。Tobia等人的研究为进一步研究将人工智能整合到医疗实践中的可能性奠定了基础。”

这项研究已经发表在核医学杂志

订阅我们的时事通讯

相关文章

向医生那样的人工智能诊断迈进

向医生那样的人工智能诊断迈进

研究人员展示了他们如何让人工智能显示它是如何工作的,以及让它的诊断更像医生,从而使人工智能系统与临床实践更相关。

人工智能的表现优于医生:专家表达了担忧

人工智能的表现优于医生:专家表达了担忧

发表在《英国医学杂志》(The BMJ)上的研究人员警告称,许多声称人工智能在解读医学图像方面与人类专家一样好(或更好)的研究质量都很差,而且可能被夸大了。

水凝胶改善了癌症诊断方法

水凝胶改善了癌症诊断方法

研究人员测试了专用水凝胶的有效性。

COVID-19: AIs的捷径导致误诊

COVID-19: AIs的捷径导致误诊

研究人员发现,人工智能模型有寻找捷径的倾向。在人工智能辅助疾病检测的情况下,如果在临床环境中使用这些捷径,可能会导致诊断错误。

微流体和人工智能显微镜测量血红蛋白

微流体和人工智能显微镜测量血红蛋白

印度科学研究所和SigTuple技术公司的研究人员开发了一种方法来测量小容量血液样本中的血红蛋白水平。

生物医学研究:深度学习优于机器学习

生物医学研究:深度学习优于机器学习

深度学习方法有潜力提供更好的结果,产生更好的表征人类大脑的特征。

人工智能检测糖尿病眼病不一致

人工智能检测糖尿病眼病不一致

尽管一些人工智能软件测试得相当好,但只有一款软件达到了人类筛选者的表现。

深度学习平台准确诊断肌张力障碍

深度学习平台准确诊断肌张力障碍

研究人员开发了一种独特的诊断工具,可以从核磁共振扫描中检测肌张力障碍,这是同类技术中第一个提供客观诊断的障碍。

人工智能开发中嵌入的伦理方法

人工智能开发中嵌入的伦理方法

Alena Buyx是慕尼黑工业大学医学和健康技术伦理学教授,她解释了嵌入式伦理学方法。

受欢迎的文章

订阅简报
Baidu