

▲2025年4月,清华大学宣布成立人工智能医院。右一为黄天荫教授。(受访者供图)
作为医生,黄天荫最关注的始终是医疗安全性,最担心系统给出错误的信息或误导性的结论,对患者造成潜在风险。
AI系统的运行需要稳定的网络、电力和信息系统支持。如果这些基础条件不足,再好的技术也很难真正落地。中国医疗数据异质性高、编码体系不统一、记录规范差异大,AI模型往往难以在不同机构之间推广应用。
AI不应该被神化,更不能在缺乏安全评估和责任机制的情况下直接进入临床决策。
文|南方周末特约撰稿 袁端端
责任编辑|黄思卓
2026年1月以来,关于AI系统是否应引入医疗机构的日常诊疗,在医疗圈和科学界不断掀起讨论。事实上,越来越多的医疗机构已经对AI敞开怀抱。
清华大学医学院院长、讲席教授黄天荫也关注到了近期一些争议。作为知名的眼科专家,他长期活跃在临床与科研一线工作,并取得多项荣誉。他相继当选新加坡国家科学院院士、美国国家医学院外籍院士、澳大利亚健康与医学科学院外籍院士,以及英国皇家学会院士。
除学术研究外,黄天荫也深度参与医学教育与医疗体系建设。他曾参与杜克-新加坡国立大学医学院的建设与管理。2022年,黄天荫受邀来到中国,负责清华大学医学体系建设。
作为新组建的清华大学医学院首任院长,他推动医学与工程、人工智能及临床服务的深度融合,整合基础医学、临床医学、生物医学工程、药学院和健康管理等五个学院,并统筹包括北京清华长庚医院在内的三家附属医院,构建一体化发展的医学体系。2023年,他因在这一领域的贡献获得北京市政府授予的“长城友谊奖”。
尽管承担着繁重的管理与科研任务,黄天荫仍坚持每周一天出诊。对他而言,持续面对患者,是保持临床敏感性、理解医疗真实需求的重要方式。
近年来,他也持续推动人工智能在基层医疗中的应用,带领团队开展示范项目与真实场景实践,探索AI如何真正嵌入日常医疗流程。
2026年2月11日,黄天荫及其团队关于医疗人工智能评价的研究发表于《自然·医学》(Nature Medicine)。该文章指出,目前医疗AI的评估大多集中在算法准确率等技术指标上,缺乏基于真实世界患者结局和基层服务能力改善的系统证据。
AI如何在实际医疗场景中提升基层能力,并最终改善健康结果?以下为南方周末与黄天荫的对话。
1
AI医疗和基层医疗试点
南方周末:为什么你会把AI应用的重点放在基层医疗,而不是大型医院?
黄天荫:基层医疗的问题是全球性的,尤其在发展中国家。我们的医疗体系过去是以医院和专科医生为中心,但现在情况发生了变化。
第一,人口老龄化非常快,慢病成为主要负担;第二,城乡医疗资源不均衡,大城市医疗资源承压,不能只满足所在城市需求,还得顾上二、三线城市和乡村上来的病患;第三,全科医生等医学人才不足。
所以我们必须寻找新的技术手段。人工智能不是替代医生,而是作为一个能力放大器,帮助基层医生更快获取信息、做出判断、提高效率。
南方周末:你们团队目前有哪些具体实践?
黄天荫:一是人才培养,在医学教育中加入人工智能课程,培养未来的复合型医生。
二是建设示范区。2025年4月,清华大学宣布成立人工智能医院,通过AI医院系统“紫荆AI医院”对北京和广西的8家医院进行第一批次系统公开测试。
例如在北京天通苑社区,患者进入后先通过AI系统完成基本信息收集和初步评估,再由全科医生接诊,系统会给出风险提示和转诊建议。
在眼科领域,我们也做了筛查应用,比如通过眼底影像预测青光眼或糖尿病视网膜病变风险,帮助基层医生判断是否需要转诊。项目准备了一年多,目前运行了几个月,仍在不断调整。
南方周末:医生的接受度如何?
黄天荫:最初很多医生并不接受,觉得增加了操作步骤,甚至要重复录入数据。在试点医院,医生不仅要填写常规的HIS系统数据,还要在我们的AI智能系统里录入信息。有些患者也觉得“太新”,不愿意挂AI门诊。但使用后,一些医生发现系统确实能提示他们没有注意到的风险线索,同时能帮助他们做一些常规重复的工作,提高工作效率,这对简单病例尤其有帮助。
南方周末:AI门诊具体是什么样的?
黄天荫:AI门诊,实际上是围绕患者端、医生端和医院管理端三个系统来运行的。
对患者来说,它更像一个“智能入口”。患者可以通过AI进行初步健康咨询、预问诊和分诊,系统会收集症状信息,形成初步评估,并帮助整理既往健康资料和连续健康数据。这样,患者真正进入门诊时,医生已经对其基本情况有了较为完整的了解。
在就诊过程中,患者的问诊信息、检查结果和病历也会同步进入系统,形成持续更新的健康档案,并进行风险分析和预警。对于慢病患者,还可以提供随访和长期管理支持。
AI主要承担的是辅助和减负功能,帮助医生更快完成信息处理和临床判断,而不是替代医生作决定。这是AI的最大价值,让医生在同样时间内服务更多患者,提升基层医疗的整体能力。
南方周末:AI系统的成本最终应该由谁承担?基层机构是否有动力去使用?
黄天荫:目前我们的相关探索主要还是由高校和研究团队投入为主,包括教师团队的科研资源和技术支持。
在实际应用中,我们也比较谨慎地与技术公司合作。技术公司更多是市场导向,而基层医疗的目标是提高公共卫生服务能力。因此,从长期来看,应该由政府、医疗体系和技术机构共同参与,建立稳定的投入和应用机制。
现在市场上的很多AI+医疗产品仍处于发展阶段,还没有形成一个真正成熟、稳定、能够覆盖基层实际需求的完整系统。对于基层机构来说,如果系统不能真正融入工作流程、提高效率,就很难形成使用动力。
南方周末:试点实施中你最担心什么?
黄天荫:作为医生,我最关注的始终是医疗安全性。我们最担心系统给出错误的信息或误导性的结论,对患者造成潜在风险。
但按照中国现行的监管要求,每一个最终诊断和医疗决策都需要由医生签字背书,所以AI只能作为辅助工具,而不能独立作出结论,患者安全是有保障的。
2
AI能做什么、不能做什么?
南方周末:据你观察,AI在基层医疗中最适合处理哪些类型的问题?在哪些情况下,医生的判断仍是不可替代的?
黄天荫:目前来看,AI最适合的是标准化程度较高、病情相对简单的患者,比如常见病、慢病随访或初步筛查。
在这些场景中,诊疗路径比较明确,AI给出的判断通常与医生的结论高度一致。对于基层来说,这类应用可以帮助提高效率,让医生把更多精力放在复杂病例上。
对于复诊或情况较为复杂的患者,目前AI更多还是起辅助作用。系统可以提供参考信息,但最终判断仍然需要由医生完成。
更重要的是,医疗决策不仅是医学判断,还涉及很多个体化因素。例如患者是否愿意接受手术、是否能够承担费用、是否具备随访条件、是否需要转诊到三甲医院、是否适合进一步治疗等决策,甚至包括对治疗风险的心理接受程度。这些个体化因素,只有临床医生通过沟通才能综合评估,再作出判断。
南方周末:基层条件最薄弱的地区往往也是最需要支持的地方,但同时数据、设备和网络条件更差。AI怎样才能避免只服务资源更好的地区?
黄天荫:这个问题确实非常关键。从整体来看,中国的通信网络和信息基础设施水平已经达到较高程度,例如5G网络覆盖和数字化能力,在很多国家中都处于领先位置,这为AI医疗的应用提供了良好的基础环境。但同时,地区之间仍然存在差异。如果基础设施建设不均衡,AI可能优先进入资源条件较好的地区,反而扩大医疗服务差距。
因此,要让AI真正服务基层和欠发达地区,关键仍然是政府层面的持续投入,把数字基础设施作为公共服务的一部分,与医疗服务能力建设同步推进。
从技术角度看,一部分问题是可以通过设计来解决的。例如,一些大型模型对算力要求很高,更适合部署在大型医院或云端平台。但同时,也可以开发轻量化的应用,在本地设备上运行,服务基层机构,降低对算力和网络的依赖。
AI系统的运行需要稳定的网络、电力和信息系统支持。如果这些基础条件不足,再好的技术也很难真正落地。
南方周末:中国的AI+医疗有哪些不足或薄弱的地方?
黄天荫:首先是资源地区分布不均,人工智能技术和算力资源主要集中在北上广等发达地区。
第二是复合型人才不足,未来需要培养一种新的医生类型——我称之为“临床-AI科学家(clinician-AI scientist)”。
这类医生不仅具备医学背景,还接受过工程、数据科学、人工智能和实施科学方面的系统训练,能够把技术方案真正转化为临床应用。
第三是数据标准和安全共享机制仍不完善。中国医疗数据异质性高、编码体系不统一、记录规范差异大,AI模型往往难以在不同机构之间推广应用。因此,需要建立国家层面的数据标准和数据治理政策,并在确保安全与隐私的前提下,推动医疗数据在医院、地区之间的规范共享。
同时,医疗数据整理本身仍存在大量人工工作,例如多模态数据(影像、基因、行为、环境等)的清洗与整合成本较高。如果缺乏高质量、可用的数据基础,AI模型就难以真正服务更大规模的人群。
3
关键在于整体风险能否降低
南方周末:目前AI在临床应用中仍存在准确性的问题。
黄天荫:是的,AI确实还存在一定局限,有时判断结果并不完全准确,患者和医生对它的信任也需要时间建立。但从技术发展规律来看,算法的能力很大程度上依赖真实世界数据的积累。随着应用场景增加、数据不断丰富,系统的判断能力会持续提升。
一开始,我们开设AI门诊,患者也不愿意挂号,但慢慢地有些患者开始来尝试了。我们推动AI门诊和AI医院的一个重要目标,就是把真实患者数据与专家经验结合起来,在真实环境中不断优化模型。未来的系统一定会越来越准确,也会越来越安全。
南方周末:怎么理解现在大家对AI进入医疗实践的担忧和质疑?为什么不能等技术更加成熟,甚至接近“完美”之后再投入实际应用?
黄天荫:目前确实有一些质疑,这些担忧主要来自两个方面:一方面是对技术可靠性的担心,另一方面也涉及责任划分和使用习惯的问题。但如果完全等待技术“完美”之后再使用,就很难获得真实环境中的反馈和经验。
医疗领域的很多技术进步,本质上都是在严格监管和医生把关的前提下,通过实践不断改进的过程。AI也是一样,关键在于明确它的定位——作为辅助工具,而不是替代医生的决策。
我们要一边做一边用,很多医生不愿意用,我觉得也是错误的。应当在规范使用、持续评估的基础上,通过临床实践不断发现问题、优化系统,同时让工程团队更好理解医生的真实需求,技术才能真正成熟并服务于医疗。
南方周末:如何理解部分医生对AI的抵触情绪?更多是对技术本身的不信任,还是对制度和责任的担忧?
黄天荫:我认为这两方面的担心都有,而且是可以理解的。在我们的实践中,参与AI门诊的医生大多是自愿加入的,他们本身对新技术比较开放,也希望学习和尝试。但从整体来看,很多一线医生仍然持比较谨慎甚至观望的态度。
这种顾虑不仅来自对技术可靠性的担心,也与职业责任有关。医生需要对每一个诊疗结果负责,同时也会考虑患者是否信任AI的建议,以及这种技术是否会影响自身的职业判断和发展空间。
从经验来看,大型医院的专家通常相对乐观一些,而基层和普通医生的顾虑会更多。要让大多数医生真正接受AI,并不是一件容易的事情,关键还是要有真实场景中的示范和可验证的数据,而不是停留在概念层面。同时,也需要通过专家评估和公开讨论,逐步达成行业共识。
南方周末:什么时候会达成共识?
黄天荫:这个过程不会很快。本质上,这不仅仅是技术问题,还是整个医疗体系运行方式的变化。AI从以医生为中心的模式,逐步融入医疗生态,这不是单个机构能够完成的,而是一个系统性的变革过程。
目前我们正在开展相关实践,并计划形成阶段性评估结果。只有当医生和患者都逐步建立信心,这项技术才可能真正推广开来。
南方周末:你自己也是医生,你认为有哪些事情是AI无法替代医生的?
黄天荫:医疗工作的核心不仅是技术判断,还包括沟通、解释和情感支持。医生面对患者时,需要理解他们的心理状态、家庭情况以及对风险的接受程度,这些人文层面的支持,AI是无法替代的。
在实际工作中,医生的角色是非常综合的。很多时候,真正完成治疗的患者只是少数,更多的工作是解释病情、协调方案、帮助患者作出选择和长期管理。这些都是AI目前难以承担的责任。
目前全球都在探索医疗AI的应用边界,但一个基本原则应该明确:AI只能提供信息支持和风险提示,而最终的诊断、治疗决策和医疗责任,必须由医生承担。
同时,也需要建立相应的规范和监管框架,甚至需要一些法律,避免过度依赖或过度宣传技术。AI不应该被神化,更不能在缺乏安全评估和责任机制的情况下直接进入临床决策。技术公司无法充分了解这些问题,需要监管机构来做。
南方周末:AI接入临床系统或病历系统可能带来的最大风险是什么?是否会对医疗安全产生影响?
黄天荫:不少人担忧AI进入医疗会带来新风险,但更现实的问题是:医疗本身就存在固有风险。误诊、漏诊、过度治疗等医疗差错长期存在,每年都有大量患者因医疗失误受到伤害。
公众对AI的错误更为敏感,但真正值得比较的,是整体风险能否降低。如果AI的整体判断水平优于普通医生,即便无法做到零失误,仍有可能提升医疗安全性。这与自动驾驶逻辑相似:关键不在于是否有风险,而在于哪种方式风险更低。
从这一角度看,我对AI医疗持总体乐观态度。医生群体可能还担忧,未来AI会不会取代医生,我认为AI会重塑医生的能力结构,若医生完全拒绝理解与使用AI杠杆配资开户,反而可能在新医疗体系中处于劣势。
启富网配资提示:文章来自网络,不代表本站观点。