当前位置:首页 > Deepseek最新资讯 > 正文内容

清华学者Nature Medicine发文:DeepSeek狂奔,已在近800家

23小时前Deepseek最新资讯44

  DeepSeek-R1 成为美国苹果应用商店下载量最高的聊天机器人,超越了 OpenAI 的 ChatGPT。与相比,DeepSeek-R1 在效率、成本和透明度方面具有优势,一度导致美国科技股大幅下跌。

  大语言模型在包括临床决策支持、医疗文档处理、研究与教育以及慢性病护理支持在内的多种医疗任务中提高效率和效果的潜力。然而,实体医院部署大语言模型,一直面临着持续的挑战,包括数据隐私、高昂的计算成本、集成复杂性以及有限的可解释性。

  这些挑战导致了中国只有少数大型医院能够部署大语言模型,但DeepSeek-R1的出现迅速改变了这一局面。

  研究团队通过监测医疗机构在微信公众号平台上的公告,追踪了 DeepSeek-R1 在中国医院的部署情况,截至 2025 年 5 月 8 日,短短几个月内,DeepSeek-R1 至少已在中国 755 家医院部署。

  研究团队表示,大语言模型在医疗领域的应用正处于监管的“灰色地带”,缺乏完善的监管框架,这引发了对患者和医院潜在风险的诸多担忧。因此,该文章呼吁进行监管改革,以促进大语言模型在中国医疗领域的安全部署。

  截至 2025 年 5 月 8 日,研究团队确认有超过755家医院部署了 DeepSeek-R1,涵盖了顶尖三甲医院到基层医疗机构。其中,超过 500 家实现了本地部署(OPD),即在医院自身的基础设施内部署和运行 DeepSeek-R1 模型,而非使用外部云服务或第三方应用程序。

  这些医院使用DeepSeek-R1 这个超级 AI 大脑看病历、提出诊断建议、撰写报告、管理药品,甚至帮助患者导诊。这场医疗 AI 的“闪电战”效率惊人,DeepSeek-R1 的成本低到许多小医院也部署得起。

  但大语言模型在医院的狂奔也拉响了警报——这些部署目前处于监管的“灰色地带”,给患者和医院都带来了潜在风险,这也凸显了加强监管指导的紧迫性。

  想象一下,医院里来了一个不知疲倦、知识渊博的“超级助手”。它不是人,而是一个名为DeepSeek-R1的大语言模型(LLM)。这款由中国初创公司 DeepSeek 研发的开源模型,能力媲美美国顶级大语言模型,但成本却大幅降低,最低不到 10 万美元就能在医院内本地部署一套完整系统。

  关键是,这一切都跑在医院的“自家服务器”上! 这就是本地部署(OPD)的巨大优势——所有敏感的医疗数据和患者隐私都牢牢锁在医院内部,避免了数据上传云端可能带来的泄露风险,也更容易满足国家医疗数据的合规要求。下图展示了北京一个真实医院本地部署 DeepSeek-R1 系统的架构,核心就是确保数据安全的本地模块和控制层。

  DeepSeek-R1 之所以能在中国医院掀起这场部署浪潮,核心在于它解决了之前医疗 AI 落地的几大“拦路虎”:

  1、超高的性价比: 相比动辄数百万的 AI 系统,DeepSeek-R1 的开源定制化的特性加上优化的模型大小,让部署成本大大降低,最低只需 10 万美元以下,许多县级医院、基层机构也能负担。两个主流的商用一体机方案的价格也相对亲民。

  2、强大的“脑力”: DeepSeek-R1 采用多阶段训练,其推理能力(理解和分析复杂问题的能力)已接近甚至达到国际顶尖水平,这对于处理复杂的医疗任务(例如诊断支持)至关重要。

  3、开源带来的灵活定制: 采用宽松的 MIT 开源协议,医院可以自由修改、定制模型,无缝集成到现有的挂号、病历、影像等系统里,打造真正适合自己的 AI 助手。

  4、本地部署,数据安全: 本地部署模式是保护患者隐私和医院核心数据安全的“金钥匙”,是医院敢于应用的核心前提。

  5、上手快: 对于之前就接触过开源大模型(例如通义千问、Llama)的医院,部署 DeepSeek-R1 更是轻车熟路。

  然而,DeepSeek 掀起的这场“大模型进医院”的速度之快,把现有的监管体系远远甩在了后面。当前的部署存在明显的“灰色地带”,至少潜藏四大风险:

  幻觉:AI 有时会自信地编造错误信息,即所谓的“幻觉”,尤其是在面对复杂、模糊的症状或多模态信息(文字+图片)时,医生或患者如果轻信,可能导致误诊误治。

  内部风险: 医院IT部门的技术水平参差不齐,在整合 AI 大模型过程中操作不当,也可能导致数据泄露或被污染。

  AI 大模型是如何得出结论的?医生和患者往往一头雾水。这在需要高度信任的医疗场景(尤其是诊断决策)是个大问题。虽然 DeepSeek-R1 具备“思维链”(Chain-of-Thought)能力,能展示一定的推理步骤,但其核心机制仍是个“黑盒”。

  缺乏分类标准: 哪些 AI 应用算高风险(例如辅助诊断)?哪些算低风险(例如行政助手)?中国目前没有清晰的基于风险的分类标准。国际上(美欧)很多医院用的 AI 应用都被定义为需要严格监管的“医疗器械”。

  监管主体不清:在我国,医院活动归卫健委(NHC)管,医疗器械归药监局(NMPA)管,医院既是 AI 使用者又是开发者,导致两个部门监管责任模糊,存在盲区。

  传统监管失灵: 大语言模型与传统医疗 AI(例如看片子的 AI)截然不同,大语言模型它能处理的信息类型太多,输出结果变化多样,还能持续学习更新。现有针对特定用途 AI 的审批和监管方式完全跟不上。

  面对这场 AI 医疗革命与监管滞后的矛盾,文章作者呼吁,必须立刻建立中国自己的医疗大模型监管框架! 他们提出三大优先行动建议:

  1、划红线:按风险等级给 AI 应用分类管理。 卫健委和药监局应联手,明确界定哪些 AI 应用属于高风险(例如直接辅助诊断、治疗决策、面向患者提供诊断信息的),哪些属于低风险(例如行政办公、内部知识库)。不同风险等级,监管严格程度不同。

  2、设门槛:高风险应用必须按“医疗器械”严管。 对于像诊断支持这类能直接影响患者生命健康的高风险应用,必须明确将其纳入医疗器械监管范畴,走严格的审批、验证和上市后监管流程。药监局应尽快出台专门针对大语言模型的指导原则。

  专业考试: 使用专门为医疗大语言模型设计的“考卷”,必须公开评测结果,重点考察准确性、安全性(防止幻觉)、公平性等。

  持续监控: 强制要求进行真实世界应用效果评估和长期监控,因为大语言模型在实际使用中表现可能变化。

  DeepSeek-R1凭借其开源、高效、低成本的优势,正在中国医疗系统掀起一场深刻的效率革命,为基层医院带来了前所未有的 AI 赋能机遇。然而,技术狂奔突进之时,患者的安全线绝不能失守。中国亟需补上监管短板,在鼓励创新与保障安全之间找到平衡点。只有建立起科学、健全的规则,这场由 DeepSeek 点燃的医疗 AI 之火,才能真正照亮健康中国之路,而非灼伤信任与安全。医院批量“安装”AI 医生的时代已来,但监管的“安全阀”必须及时拧紧!

标签: deepseek

“清华学者Nature Medicine发文:DeepSeek狂奔,已在近800家” 的相关文章

海因克斯:期待一名客观、公平、判罚准确的裁判,让球员决定比赛而不是裁判

海因克斯:期待一名客观、公平、判罚准确的裁判,让球员决定比赛而不是裁判

  在皇马论坛App说皇马的底裤历史,必被删,整个就一暗黑团队,能做到一直靠裁判拿成绩还垄断话语权   在皇马论坛App说皇马的底裤历史,必被删,整个就一暗黑团队,能做到...

900 万、DeepSeek 部署大单

900 万、DeepSeek 部署大单

  需求概况:有效支撑各委办局在政务场景下对大模型等智能化应用的迫切需求,以政府采购服务的方式搭建岳阳市市级政务云智算专区,部署...

真是烦死人了-英超-曼城专区-虎扑社区

真是烦死人了-英超-曼城专区-虎扑社区

  这东西明显就是故意求骂来满足自己畸形的心理的,如果版主不能将它封印,那么建议各位城迷默契的无视即可,这种东西越骂它越来劲   这东西明显就是故意求骂来满足自己畸形的心...

你的主队愿意出多少年薪签老詹?

你的主队愿意出多少年薪签老詹?

  这有啥偷着乐的……现在老詹也不是当年的水平了,来了之后还需要战术地位,再加上一堆詹密詹黑涌进来,社区环境这块算是完蛋了,联盟现在也没必要在哨子方面偏袒他,也不会有啥额外的照顾。非要说的...

党建引智入基层,AI惠民暖民心

党建引智入基层,AI惠民暖民心

  7月8日-11日,广东工业大学“数智燎原”社会实践队赴广东省湛江市吴川市,开展以“科技不再是高高在上,而是服务于每一个人”为主题的“三下乡”社会实践活动。实践队不仅深入苏村等多个村委会...

又是梅西粉丝集体沉默的一天

又是梅西粉丝集体沉默的一天

  这都发到乒乓球区了,是不是怕人知道今天梅西助攻梅开二度,补时助攻队友绝杀,罗密还不得哭天喊地?   这都发到乒乓球区了,是不是怕人知道今天梅西助攻梅开二度,补时助攻队...