在稀缺的高质量医疗资源的背景下,AI模型的干预无疑正在改变传统的行业竞争格局和医生的关系。
自本月初以来,许多地方的公立和私立医院正式宣布进入DeepSeek并开始当地部署。 Ruijin,Zhongshan和Union等领先的A级医院已依次发布了大型医疗垂直领域。 DeepSeek的开源路径不仅打破了“黑匣子”技术带来的应用程序夹具,而且还可以将“技术平等”的想法植入医学生态系统中。
但是,在热潮下也需要冷思思。医疗场景的严重性,复杂性和低容忍度使医院,医生,患者和人工智能之间的奔跑道路注定会受到阻碍且长期。
悖论似乎正在增加:当普通患者和基层医生通过AI获得大量知识时,这在理论上对分层诊断和治疗以及精确药物有帮助,但是AI幻觉会增加医生和患者之间的冲突和不信任。大型模型减轻了医生的负担并降低了医院的管理成本,但大型模型的实施和维护成本很高;生态开放降低了医疗大型模型的进入阈值,但是大型模型的迭代需要大量的高质量数据,而强者总是强大的故事仍在进行中。
此外,开放创新可以找到包容性的知识产权保护机制和工业生态学吗?随着生态系统的开放,谁将保护患者隐私,诊断和治疗的准确性?
医疗欢迎新企业家的“一百个模型战争”
“医疗机构本身投资于行业大型模型培训的趋势变得越来越清晰。” Youshi Capital董事长Xing Jie在接受First Financial Daily的采访时说。
数据显示,2024年,有100多家AI大型公司涌入医疗领域。今年,在国内推理模型DeepSeek-R1推出后,这是一轮大型模型研究和开发以及大型模型在医疗行业的应用。正如Xing Jie所说,在DeepSeek的V3和R1发行后,一般大型模型领域的“ 100 Model War”已经褪色,并且已经确定了模式,但是医疗行业的大型模型中的“ 100 Model War”正在迎来新的参与者,并迎来了AI Applications AI Applications -Medical Instituctions -Medical Institutions的新参与者和前“保守”。
Xing Jie说,这背后的核心原因之一是,大型模型的发展进入了第二阶段,也就是说,从训练前的通用模型到以训练后推理模型为主的阶段。医院,尤其是在某些专门疾病中具有权威数据资源并具有某些临床转型能力的“三大”医院,逐渐意识到,培训后推理模型阶段的培训成本远低于培训前阶段的培训成本,而用于培训训练培训培训模型的数据量也比训练阶段的培训量也要低得多。
自2月中旬以来,许多大型公立医院宣布了大型模型开发的最新成就。
Ruijin医院隶属于上海Jiaotong University医学院,发行了单型大型模型 - “ Ruipath”;中央医院隶属于福丹大学,发行了一种心血管专业疾病大型模型“公毒”,称其结合了多模式数据的深层推理能力。北京联合医学院医院正式宣布,“ Concord Taichu”稀有疾病大型模型已进入临床应用阶段。首先,《金融日报》了解到,该模型采用了由双轮“数据 +知识”驱动的“小样本学习”模型,并结合了大型模型的强大推理能力。
但是,与技术公司,医疗AI公司和互联网医疗公司相比,这些大型医院的研发投资更加谨慎,通常从单个模型,单疾病或特殊疾病开始。
“行业大型模型的研发是一个逐步的过程。目前,在医学成像诊断的领域,该行业基本上已经达成了共识。因此,大多数医院选择从单个模式(例如文本或图像)开始训练细分行业模型,这并不那么困难。” Xing Jie说。
目前,就诊断和治疗而言,由医疗机构培训的小型模型可以大致分为两类:一个是一种自发发展的模型,可以全面考虑培训数据的量,计算能力,对实际医疗场景的适应性以及需要解决的实际医疗问题;另一个是一种特殊的模型,该模型是根据一般大型模型(例如DeepSeek)开源的“蒸馏”和本地部署的。
JDH XLAB的首席科学家Wang Guoxin告诉Caixin,对于前者来说,尽管DeepSeek允许该行业通过算法优化和深层推理能力以更具成本效益的方式实现大型模型培训,但“小样本学习”或实时学习的能力实际上并不容易实现。在出现破坏性训练方法之前,模型培训对于计算能力以及高质量和大规模数据仍然是迫切的。
关于后者,“每个人有时都低估了医院自己的软件和卓越硬件的大型模型的要求。” Wang Guoxin举了一个例子,例如医院中计算能力的消化,信息基础设施的投资等,所有这些都与大型模型的实际有效性有关。
一名医院的人告诉中国商业新闻,由于计算能力有限,医院需要在云平台上的大型模型上部署数据,而不是医院的内置服务器上。为了医疗数据隐私和安全,在大型模型上进行咨询的患者无法直接跳到医院门诊预约平台。他们需要重新注册并通过医务人员的手动干预来帮助患者与医院建立真正的诊断和治疗关系。如何制作大规模诊断和治疗以及离线医疗治疗的渠道更加“丝般”?它仍在等待医院信息的持续转变。
小型模型打败了大型模型?
在接受首次金融新闻采访时,DCCI-Future智囊团和FutureLabs-Future实验室的首席专家Hu Yanping表示:鉴于该行业的特殊性,医疗大型模型的发展可能是从“特殊”到“一般”的过程。
在这个阶段,一方面,“很难说医疗领域具有所谓的广义模型”,相反,“越通用,在特定方向上的能力越少”;另一方面,该行业对于大型模型的概括函数并不是很紧迫,但是更必要使用病理模型来提高检查效率并通过专门的疾病模型有效提高诊断准确性。
上述人在医院采访的人也表达了类似的看法。她举了一个例子:以前,Openai声称,通过“加强微调”技术,通用大型型号O1为诊断稀有疾病的新解决方案提供了新的解决方案。在官方示范案例中,O1模型从数百例有关罕见疾病的科学病例报告中提取了一系列疾病信息,并预测可能导致遗传疾病的基因。
医院认为,在上述情况下,所有疾病表型都是已知的,这等同于在大型模型具有完整版本的患者信息后做出决策。这是一个纯粹的知识映射。更接近诊断和治疗现实的模型是在没有医生和患者都知道疾病类型的情况下自由参与人机相互作用。垂直模型已经可以了。
一个常见的行业观点是,一些一般的大型模型可能能够实现个人准确的诊断,但是单个病例的成功并不意味着该模型具有准确诊断特定疾病的能力。
“但是,这并不意味着'小型模型击败大型模型'。” Hu Yanping认为,有两个原因:首先,特殊(春季)模型的培训不能与一般模型分开,或者特殊模型通常是根据具有低幻觉和强大推理能力的一般模型进行微调,训练后或蒸馏的;其次,很容易将特殊模型的准确性从50分提高到70分,而且许多特殊模型甚至声称其疾病诊断能力达到80到90分。但是进一步,专用模型的性能提高将遇到瓶颈。目前,需要三个通用模型的能力来增强他们的能力 - 一般能力,思维和推理能力以及多模式能力。
Xing Jie还认为,在疾病诊断方面,多模式数据,例如患者图像数据,检查和测试数据,声音数据,文本数据等通常需要进行交叉验证,因此多模式大型模型一直是行业趋势。
Wang Guoxin说,多模式推理模型可以被视为将来在大多数医学情况下应用的AI的基本技术。只有这样,AI才能逐渐具有类似人类的能力,进入数字人类舞台,甚至可以实现所谓的“强大人工智能”,而不仅仅是对话工具。目前,在许多医院方案中,小体积,单模式和特殊疾病的应用大型模型更多是要继续“ AI改变原始技术链接”的想法,而不是“培训AI来重现生产模型”。
生态开放性
许多接受采访的行业内部人士指出,无论是互联网医疗公司和AI医疗公司之类的第一名,还是后来的进入医院,都需要进行生态合作和数据开放。
“从某种意义上说,回到基本逻辑上,医疗行业是一个以数据为导向的行业。大型模型和AI医生的培训过程需要大量的医疗数据。但是,现在,医疗数据不仅很小,而且数量很小,而且缺乏质量。因此,医院需要合作,医院需要与互联网医院和患者进行合作,” Wang Guoxin说。”
此外,Wang Guoxin说,大型模型天生具有“去化”的特征,而脱敏后的医疗数据通常可以实现更准确的训练结果。此外,诸如数据安全和隐私计算之类的技术变得越来越成熟,在大型模型的培训中,医学数据的生态开放也可以。
但是医院显然有更多的担忧。 "As a professional tool, the disease diagnosis model trained by medical institutions does not have an open source background and foundation. Because the execution rights of medical diagnosis and treatment cannot be handed over to AI tools. For the generation of recommended solutions for large models, doctors need to review and decision-making. If the parameters of the large model are opened, the data and knowledge source of the large model will no longer be controlled. If the 'AI hallucination' is generated, not only the patient's诊断和治疗结果可能会受到影响,但是大型模型研发单位的声誉和声誉也可能受到影响。”接受采访的医生说。
因此,“值得信赖和相互信任”是开源中的第一步。正如其他行业中相关的治理思想已经出现,Xing Jie认为,当许多医疗机构开始培训自己的中小型,中和大型细分行业模型时,几种权威或官方的医疗和健康行业AI模型评估系统似乎会验证各种行业模型的绩效指标,例如疾病诊断的准确性和稳定性。在这种背景下,医疗行业模式将逐渐朝着优胜胜的生存阶段迈进。
医疗机构也可以从开源中受益。鉴于在某些医疗机构培训的小型模型或专业疾病模型中,在某些疾病的诊断和治疗中比一般模型显示出更高的准确性和实际价值,因此Xing Jie认为,即使有更多权威的行业范围内的一般疾病模型,这些专业疾病模型也具有足够的价值,可以与这些行业范围内的一般模型合作。细分领域中的高质量数据始终是模型培训的稀缺资源。
从这个阶段开始,很难在医疗机构中打开数据。相比之下,企业方面的开源生态系统已经开始出现。
今年,DeepSeek开源后,许多国内技术公司宣布实施大型开源。在医疗AI行业中,包括AI药物,AI诊断和其他子轨道,尽管企业中的开源措施不多,但它们已经开始发生。
例如,JD Health最近正式宣布,其“北京医疗Qianxun”医疗模式已成为国内医疗行业的第一个完全开源的垂直模型。在这方面,Wang Guoxin表示,大型模型技术和医疗AI行业都处于发展的早期阶段。目前,开源和透明合作方法可以快速促进技术的使用和接受并培养行业生态系统。
患者挑战专家?
当DeepSeek触发的“技术平等”浪潮席卷了医疗领域时,医疗服务供应方面的生态竞争模式不仅发生了变化,而且医生和患者之间的关系也在悄然改变。
最近,广东的一名医学博客作者在社交媒体上发布了他为患者开了治疗计划。在检查了DeepSeek之后,另一方报告说存在问题。他“很高兴再次检查医疗指南”,但发现医疗指南已更新。因此,他别无选择,只能嘲笑自己:他觉得“天空倒下”。
因此,在医生组中,“一块石头搅动了一千浪”,一些医生有危机感,一些医生认为,大型模型的诊断“大而完整但不一定有用”,有些医生谴责AI幻觉,一些医生认为,大型模型可以训练基层医生,并提高诊断和治疗的同质性水平。
在Hu Yanping的观点中,“患者挑战专家”是一件好事。长期以来,医疗市场一直是医生和患者之间的信息非常不平等的市场。增强患者知识储备的能力不仅可以迫使医生提高其专业能力,而且还可以在一定程度上避免过度诊断和治疗,或者选择因概念和兴趣等因素而对患者而言并非最有益的治疗计划。
从更宏观的角度来看,Hu Yanping认为,AI模型的应用也有助于“权力下放”医疗服务,赋予初级医疗服务,并帮助以市场为导向的实体(例如Internet医疗服务)参与医疗市场的竞争,从而减少了高质量医疗资源的垄断和稀缺性。
他认为,诸如“患有AI时的医生会变得懒惰”和“患者在拥有AI时不会寻找医生”之类的现象是的确,但是从长期的角度来看,大型模型可以使高质量的医疗资源更加普遍,更易于访问。
在接受采访的专家中,“技术谨慎主义者”和“技术乐观主义者”都认为,说“ AI处方”还为时过早。
接受态度谨慎的采访专家认为,医疗诊断和治疗的执行权不能移交给AI工具,医生需要对患者负责。医生的咨询过程也是与患者的情感互动过程。可以为患者提供更个性化的诊断和治疗计划。更不用说AI幻觉仍然很难抑制。
接受访谈的专家认为,当AI成为医生和患者广泛认可的技术时,与AI处方权有关的问题,AI诊断和治疗付款价格标准将被监管机构认真对待并解决。但是它仍处于技术发展的早期阶段,需要扩大医学大型模型的应用方案。
为了增加医生和患者对AI技术的信任,其中之一在于抑制AI幻觉。
Xing Jie分析了大型模型“幻觉”的主要原因:首先,训练数据偏差;其次,作为概率模型,大型模型不可能达到100%的精度。第三,幻觉将在概括过程中发生。第四,大型模型的训练数据通常是非实时时间的。五,对话长度以及上层和下长的长度可能导致幻觉问题;六,在反馈微调过程中,不同公司的偏好也将带来某些幻觉。
Wang Guoxin认为可以抑制AI幻觉。 “我们必须粉刷诊断过程的推理过程。这不仅是为了使医生的团队信任,而且更重要的是要使技术进步。”
他认为,今天的大型模型技术仍然是“学生”,但可以用来延长推理过程并反复验证它,从而取得更好的结果。换句话说,在技术层面上,AI幻觉不是无法解决的问题,而AI将无限地接近准确性。