随着《“健康中国2030”规划纲要》的深入推进,健康传播在提升国民素养、优化医疗资源配置与促进公共卫生服务等方面发挥着不可替代的作用。如今,以DeepSeek、ChatGPT为代表的人工智能内容生成技术拥有丰富的健康知识,具有强大学习能力和语言理解能力,将彻底重塑公众获取健康信息的方式。生成式人工智能的健康传播是基于大语言模型的交互式传播模式,通过自然语言对话实现健康信息的个性化生成与精准触达。该技术能够解构复杂的健康知识,为用户提供全时性、情境化的健康咨询与决策支持,同时在医患沟通、病历分析、疾病预测等环节发挥协同作用,极大优化健康资源的配置。然而,这一智能技术在赋能健康传播的同时,也潜藏着伦理风险。如何构建科学、敏捷、安全的治理框架,引导生成式人工智能在“健康中国”战略实施中发挥建设性作用,已成为一项关键而紧迫的课题。
一、生成式人工智能在健康传播领域的应用价值
生成式人工智能在健康方面的知识储备非常丰富,它通过智能生成、智能交互、智能增效等三个维度,系统重构了健康知识生产、传播与接收的方式。其应用价值不仅在于健康传播工具的迭代和工作效率的提升,更在于建构了一个精准响应、全域覆盖的健康传播新生态。
1.智能生成:健康信息从低效生产到高效量产。生成式人工智能具有强大的信息检索和内容生成能力,能够缩短健康信息的生产时间,为患者提供更丰富、更准确的健康知识与健康建议。例如,江南大学附属医院研发的基于华佗GPT技术AI导诊系统与DeepSeek大模型深度融合后,日均访问量突破1.3万人次,导诊准确率稳定在 90% 以上,极大提高了健康咨询的效率。在健康知识的生产预测方面,DeepMind公司与欧洲生物信息研究所利用AlphaFold短短几个月预测出超过100万个物种的2.14亿个蛋白质结构,为人类节省了数十年的科研时间。这彻底改变了传统依赖少数健康专家进行信息生产的中心化模式,健康传播者角色从单一的内容生产者转变为由人工智能生成的创作者,实现了健康传播资源的极大解放。
2.智能交互:健康方案从单向灌输到精准触达。传统健康传播是一种单向度、大众化、弱反馈的健康宣传,而生成式人工智能可以根据用户画像将晦涩难懂的健康知识转化为契合个体健康状况、认知水准和教育背景的个性化内容,实时回复患者或专业人士的健康问题。比如,美国GlassHealth公司开发了一个健康诊断类的生成式AI工具,可根据患者输入的症状快速生成治疗方案和健康计划。这种“以用户为中心”的智能交互模式重构了健康知识的流动模式,促使健康方案的分发从单向灌输向精准触达范式转变。生成式人工智能的应用让患者能够更积极地参与到健康信息的获取和管理中来,不仅降低了患者健康问诊时的心理门槛,还提升了健康传播的依从性和可及性。
3.智能增效:健康服务从耗时费力到节时省力。目前,我国仍面临患病人群总体基数大、健康资源供给不足、疾病花费高等诸多问题。生成式人工智能在健康传播方面的应用既能填补健康资源供给侧的缺口,也能助力医生释放更多的工作效能,提升工作质量。撰写病历、保险申报与处方药授权等事务性工作占据医生和护士日常工作的很多时间,生成式人工智能可以将医务人员从重复性、基础性的咨询与文书工作中解脱出来,使其将更多时间与精力投入到关爱患者、健康决策与临床研究等方面。健康资源成本的降低为健康传播服务提质带来了规模化普惠的可能性,有助于缩小因资源配置不合理而导致的健康知沟问题,真正提升公共卫生服务的可及性与公平性。

生成式人工智能在医疗健康领域的应用已相当广泛,不仅深受患者群体的欢迎,也在医务人员日常工作中占据了重要位置。然而,生成式人工智能作为以通用自的开发的天语言模型,其健康领域的应用仍处于医疗器械监管的范畴之外。我国现行的医疗器械立法主要围绕下游的诊疗应用系统而构建,对上游的大模型领域仍存在监管缺位,这一规制断层将不可避免地引发体系性风险。
二、生成式人工智能赋能健康传播的伦理风险
尽管生成式人工智能在医疗健康领域引起了极大关注,但人们对其未来发展和不确定性仍是忧心忡忡。生成式人工智能在健康传播领域具有极高的敏感性,高度关联个人生命健康、隐私安全与公共信任,任何信息偏差或伦理失范都可能触发现实危害。许多专家认为,与智能驾驶相比,生成式人工智能的健康传播可能面临更为严重的伦理问题。
1.循证缺失与深度幻觉:从信息谬误到健康损害的生命攸关性。生成式人工智能改变了个人在线搜索健康信息的习惯,患者无须进行复杂筛选和判断便能够迅速获得个性化的健康建议。这种转变无疑给患者带来了极大便利,但同时也导致健康信息准确性与可靠性显著下降。在循证医学中,多元证据的综合分析对于精确评估信息偏倚及确保信息质量至关重要。比如人们在利用传统搜索引擎查询健康信息时,往往会通过搜索结果的突出位置、网页来源、网页作者、搜索网页受欢迎程度等信息来判定是否应信任该内容。这一过程虽然烦琐,但在一定程度上保障了健康信息的真实性。而如今生成式人工智能掩盖了健康信息的信源与推理逻辑,导致患者难以对健康信息生成结果进行追溯与检验。当健康损害发生,大模型开发者、数据方、医疗机构与平台运营者之间形成了一条模糊的“归责断层”,循证缺失不仅意味着健康信息生产过程中的证据断裂,更意味着伦理与法律层面上问责机制的失效。


