AI模型可以代替医生去看医生吗?现实离这个场景还很遥远。
在上海和深圳的几家公立医院宣布进入通用模型DeepSeek之后,Nanjing,Zhengzhou和其他地方的医院也通过其官方的微信公开帐户发了推文,称他们已经从DeepSeek的“ Guidance”和Deepseek接受了同时的患者。提供运输方法,预防措施等。
许多接受采访的临床医生说,在此阶段,医院的AI模型最多才能用于院内指导和辅助诊断,并且不能用于提供药物建议或手术计划,并且不能产生电子处方。
谨慎使用AI模型
最近,一家社交媒体说:“患者使用DeepSeek后对医生的治疗计划提出了质疑。医生再次搜查,发现该指南已更新。”相关新闻引起了激烈的讨论。
“到目前为止,我还没有遇到这种情况,但是一个患者使用在网上发现的结果来解释和确认,这使人们发笑和哭泣。”霍比(Hubei)是武汉(Wuhan)二级医院的临床专家,最近告诉第一家金融。
“在诊断,治疗和处方期间,患者不会介意我使用一些学术应用软件来查询准则和共识。相反,他们会认为我更加谨慎和负责。”山东在青岛一家三级医院的一般外科部门负责人告诉《新闻》,记者在此阶段,已经在中国开设了16万多种药物,而不包括医疗设备。 AI模型可以提出建议,但是药物组合计划,副作用等仍然需要私人医生来做出专业判断。
上述三级医院总体外科部门负责人说,通过离线诊断,医生可以就患者的症状和症状提出多个逐渐和自主的问题。只有在获得多个反馈结果并结合图像数据之后才能达到最终结果。诊断,“此过程是AI不可替代的。”
负责人说,在AI大型模型可以授权医生诊断和治疗的程度上,这取决于患者信息是否足够准确,足够全面,另一方面,这取决于是否背后的方法AI大型模型具有足够的指导和路径。作为一个基础。
“因此,在此阶段,AI模型可能仅适用于某些简单疾病(例如感冒)的辅助诊断,从而为某些基层医生或能力较弱的新医生提供参考。诸如罕见疾病之类的水平不合适。阶段。
“实际上,我们希望通过AI模型快速整合多维信息,并为医生提供更多尖端和个性化的治疗计划作为参考。” Fudan Zhongshan医院信息和情报部计划和管理中心主任Qian Kun告诉记者,AI大型模型可以帮助医生或护理人员进行一些慢性疾病管理,日常维护和其他工作。 “我们发现,AI大型模型是改善交互过程并降低成本的人性化的好方法。提高效率的工具,因此,预计使用AI模型(例如诊断后随访和患者教育)的场景。”
Qian Kun进一步指出,某些高风险场景不适合应用AI大型模型,例如急诊科和术前计划。这些情况可能涉及医生与患者或家庭之间的沟通,许多AI模型背后的专业知识尚未得到涵盖。此外,AI模型将向一些专家提供相应的药物建议,但还会有一些冲突。医生应该小心,不要被AI模型的答案误导。
Qian Kun提醒人们,就辅助诊断而言,AI模型的精度可能超过80%,但没有人愿意成为AI模型产生的错误答案的用户。 “基于生命的原则,我们需要非常仔细地使用这些模型。”
“人机合作”是指南
最近,匈奴省医疗保险局发布了“有关进一步加强基本医疗保险中指定零售药房的管理的通知”,该通知清楚地指出“严格禁止使用人工智能和其他处方自动生成处方。”国家卫生委员会和2022年中药州政府共同发行的“互联网诊断和治疗监督规则(审判)”还提出,“处方应由接受这些处方的医生发行,并严格禁止使用。使用人工智能自动生成处方,等等。”
除了隐私和安全性外,AI模型背后的未知风险是什么?
Qian Kun告诉记者,首先,AI模型背后的算法是由“黑匣子”产生的。算法生成过程没有强大的逻辑链,因此推理结果可能具有“幻想”,也就是说,据说我们信任的推理结果有些混乱。实际上,患者以AI模型的推理结果“挑战”医生是不合适的。
其次,从价值一致的角度来看,国际社会中的一些尖端机构已经进行了类似的分析,这意味着有必要确保AI模型可以匹配人类价值并确保模型以有益的方式是有益的。对人类和社会。 ACT,包括医学,社会道德,隐私保护等。
AI大型模型公司和Twin Medical Technology的创始人Lin Zheng还告诉记者,AI Big Model是医生的“超级助手”,而不是“替代者”。目前,如果AI模型想“替换”医生,仍然存在多个障碍,例如技术瓶颈,数据隐私,法律道德,临床验证和医生关系。预计至少需要5到10年的迭代和改进。
Lin Zheng说,现有的AI模型主要依赖于模式识别(也就是说,在遇到问题时使用不同的医疗指南来给出答案),并且缺乏真正的因果推理和逻辑推理能力,因此很难完成复杂的诊断和治疗决策。 AI模型需要通过长期,大规模和多中心的临床验证来证明,以证明其在复杂情况下的安全性和可靠性。
如何处理AI模型可能的结果错误?林郑说,这需要多个保险,例如高质量的数据培训,实时反馈和偏差校正机制,透明的决策道路和人机合作。例如,在训练和测试阶段,添加对抗样本以提高模型应对异常情况的能力。例如,在涉及重大决定(例如癌症诊断,外科手术判断)的情况下,建立了AI和人类专家之间的双重审查机制。
“将来,AI大型模型的开发方向可能以辅助诊断为中心 +决策支持 +人机合作,目的是增强医生的诊断和治疗能力并提高医疗资源利用的效率。时间,AI大型模型只有通过长期跟踪和验证才能获得严格的临床试验,我们才能获得监管机构的批准。” Lin Zheng添加了。