AI可能使医疗事故责任认定复杂化,专家警告
随着临床人工智能开发的蓬勃发展,专家警告称,人工智能在医疗保健领域的应用可能使医疗事故的责任认定变得法律上复杂。
研究人员已开发出多种AI工具,从协助解读扫描结果的算法到辅助诊断的系统。人工智能还被用于医院管理,包括优化床位容量和管理供应链。
尽管专家承认该技术可能为医疗保健带来诸多好处,但他们也表示存在担忧:从AI工具有效性测试的缺乏,到患者出现不良后果时责任归属的问题。
某大学专家指出:"肯定会出现人们认为出了问题并寻找责任方的情况。"
去年由某医学杂志主办的人工智能峰会汇集了临床医生、技术公司、监管机构、保险公司、伦理学家、律师和经济学家等众多专家。
resulting报告不仅研究了AI工具的性质及其在医疗保健领域的应用范围,还探讨了这些工具带来的挑战,包括法律问题。
某法学院教授、报告合著者表示,患者可能难以证明人工智能产品使用或设计中的过错。获取其内部运作信息可能存在障碍,同时提出合理的替代设计方案或证明不良后果由AI系统引起也可能具有挑战性。
"各方之间的相互作用也可能给提起诉讼带来挑战——他们可能相互指责对方为责任方,并且可能已有合同协议重新分配责任或存在赔偿诉讼。"
另一位来自某法学院的报告作者指出,法院完全有能力解决法律问题。"问题在于这需要时间,早期会出现不一致,这种不确定性提高了AI创新和采用生态系统中所有参与者的成本。"
报告还对AI工具的评估方式表示担忧,指出许多工具处于某监管机构等监管部门的监督范围之外。
专家表示:"对临床医生而言,有效性通常意味着改善健康结果,但无法保证监管机构会要求提供相关证明。而且一旦投入使用,AI工具可能以不可预测的方式部署于不同的临床环境、不同类型的患者,由技能水平各异的用户使用。无法保证审批前看起来不错的想法在实践中能真正实现。"
报告指出,目前评估AI工具存在诸多障碍,包括它们通常需要在临床使用中才能得到充分评估,而当前的评估方法既昂贵又繁琐。
专家强调必须为医疗AI工具的性能评估提供资金支持,数字基础设施投资是关键领域。"峰会期间出现的一个现象是:评估最充分的工具采用率最低,而采用最广泛的工具评估却最不充分。"