呼吁对人工智能进行更严格的评估以指导提供者和患者

导读 在 2014 年至 2020 年评估人工智能在现实世界共享临床决策中的使用的 34 项代表性研究中,只有两项包括对模型的外部验证以供考虑。此

在 2014 年至 2020 年评估人工智能在现实世界共享临床决策中的使用的 34 项代表性研究中,只有两项包括对模型的外部验证以供考虑。

此外,大多数审查的研究仅使用一种算法进行训练、测试和内部验证,只有八项研究采用了多种算法。

因此,报告行业研究人员进行了系统的文献审查,以评估专注于使用机器学习来协助患者-提供者联合决策的研究的稳健性。

BMC 医学信息学和决策制定于 2 月 15 日发表了这项研究。

礼来 (Eli Lilly) 的 Lisa Hess 博士和 Alan Brnabic 用如此多的话表示,他们的审查揭示了方法、统计软件和验证策略的不规则分类。

Hess 和 Brnabic 在评论一系列方法以及许多已发表研究的相对薄弱时,呼吁临床 AI 研究人员确保“在开发基于机器学习的患者护理模型时采用多种建模方法,这需要可靠地支持共享的基于证据的决策的最高研究标准。”

作者建议,展望未来,在为现实世界的患者护理提出模型之前,应该通过内部和外部验证来调整实验性机器学习模型。

“很少有研究达到为患者提供者决策提供依据的证据,”赫斯和布纳比克评论道。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。