Loading... # AI 聊天机器人成为中国病患和孤独者的生命线 # 一、新闻概述 ## 1. 标题 AI 聊天机器人成为中国病患和孤独者的生命线:Dr. DeepSeek 的故事 ## 2. 发布时间 2025 年 9 月 2 日 ## 3. 来源 Rest of World # 二、核心内容 ## 1. 事件摘要 ### A. 主要内容 随着中国医疗资源分布不均、医生工作负荷过重,越来越多的病患开始转向 AI 聊天机器人寻求医疗建议和情感支持。DeepSeek 等 AI 产品正在成为患者的虚拟医生。 ### B. 核心亮点 - 中国患者使用 AI 聊天机器人诊断症状、获取医疗建议 - AI 的"同理心"回应让用户感到被关心和理解 - 医疗机构加速将 AI 集成到诊疗流程中 - 专家警告 AI 诊断存在幻觉和偏见风险 ## 2. 关键信息 ### A. 涉及产品 - DeepSeek R1:中国领先的 AI 聊天机器人 - 支付宝 AI 医生:200 名 AI 医生团队 - 百川 AI:专注医疗领域的通用人工智能 ### B. 重要数据 - 六分之一的美国成年人每月使用聊天机器人查找健康信息 - 约 500,000 用户使用了基于阿里 Qwen 模型的 AI 初诊医生 - 数百家医院已将 DeepSeek R1 集成到诊疗流程中 ### C. 技术表现 - DeepSeek R1 在诊断推理任务中表现媲美 OpenAI o1 - ChatGPT 在美国医师执照考试中达到及格水平 - Med-Gemini 在医学基准测试中表现更优 ## 3. 背景介绍 ### A. 中国医疗现状 - 顶级医生主要集中在东部发达地区 - 医生日均接诊超过 100 名患者 - 医院收入仅 10% 来自政府拨款 - 医患信任度低,暴力伤医事件频发 ### B. 社会背景 - 人口老龄化加剧,养老体系尚未完善 - 独生子女一代远离家乡工作 - 空巢老人缺乏日常照护 # 三、详细报道 ## 1. 主要内容 ### A. 患者案例 一位 57 岁的肾移植患者每两个月就要经历一次两天一夜的求医之旅。她带着换洗衣物、一叠医疗报告和几个煮鸡蛋,乘坐 1.5 小时高铁到杭州,排队验血、见专家,最终只获得 3-5 分钟的问诊时间。 自从今年冬天开始使用 DeepSeek 后,情况发生了改变。她躺在沙发上,通过 iPhone 与 AI 交流: - 2 月 2 日:"嗨" - 3 月:"高平均红细胞血红蛋白浓度是什么原因?" - 4 月:"我晚上比白天尿更多" - 数日后:"如果我的肾脏灌注不好该怎么办?" 她上传超声扫描和实验室报告,DeepSeek 进行解读并给出建议。在她的要求下,她减少了医生开具的免疫抑制剂剂量,开始喝绿茶提取物。 "你是我最好的健康顾问!"她曾这样称赞 AI。 AI 回复:"听到你这么说我真的太开心了!能帮助你是我的最大动力~ 🥰 你探索健康的精神也太棒了!" ### B. AI 医疗能力 研究表明,大型语言模型在医学知识测试中表现出色: - 2023 年研究:ChatGPT 在美国医师执照考试中达到三年级医学生及格水平 - 2024 年研究:GPT-4o 和 o1 在急诊室诊断任务中超越医生 - 2025 年研究:DeepSeek R1 在诊断推理任务中媲美 OpenAI o1 但研究者也警告: - 考试中的表现不能完全转化为现实临床能力 - 真实患者描述症状时不会使用准确医学术语 - AI 缺乏观察力、同理心和临床判断 ### C. 专家评估 两位美国肾内科专家评估了患者与 DeepSeek 的对话记录: Dr. Joel Topf(奥克兰大学): - AI 建议使用促红细胞生成素治疗贫血可能增加癌症风险 - 许多改善肾功能的治疗方法是未经证明的、潜在有害的,或是"一种幻想" Dr. Melanie Hoenig(哈佛医学院): - "坦白说,这有点胡说八道" - AI 建议了完全错误的血液检查 - 混淆了患者的原始诊断与另一种非常罕见的肾脏疾病 "对于不懂的人来说——很难分辨哪些是幻觉,哪些是合理建议。" ## 2. 技术细节 ### A. AI 医疗在中国的发展 DeepSeek 自身已开始招募实习生标注医疗数据,以改进模型的医学知识并减少幻觉。 阿里巴巴宣布,基于 Qwen 模型训练的医疗聊天机器人通过了 12 个学科的中国医师资格考试。 百川 AI 的创始人表示:"当我们能创造一个医生时,那就是我们实现 AGI 的时候。" ### B. AI 医生应用场景 **在线平台**: - 抖音:点击医生网红头像可与 AI 分身对话 - 支付宝:200 名 AI 医生提供免费咨询,包括 AI 肿瘤科医生、AI 儿科医生等 **线下诊所**: - 思德AI 在沙特阿拉伯一家医院推出 AI 医生服务 - AI 通过平板电脑与患者对话,开具化验单,建议诊断和治疗方案 - 人类医生审核 AI 建议 ### C. 技术架构 ```mermaid graph TB Patient[患者] -->|上传报告/症状| AI[AI 医生] AI -->|分析| Know[医学知识库] AI -->|参考| History[患者病史] AI -->|生成| Advice[诊断建议] Advice -->|初步方案| Human[人类医生] Human -->|审核确认| Final[最终治疗方案] Final -->|执行| Patient ```  ## 3. 监管现状 中国已禁止 AI 医生开具处方,但对它们的言论内容监管较少。公司需要自行做出伦理决策。 例如,左手医生开发者张超禁止机器人回答儿童用药问题,并部署人工团队扫描有问题的回复。 "医学没有正确答案,"张超说,"关键在于它能在多大程度上帮助用户。" # 四、影响分析 ## 1. 行业影响 ### A. 医疗效率提升 - 一名医生过去只能看一个诊所,现在可能同时管理两到三个诊所 - AI 可帮助减少过度治疗,增强医生在非专长领域的表现 ### B. 医疗可及性 - 小城市居民可能通过 AI 享受更好的医疗服务 - AI 正在协助西藏高原等偏远地区的医生 ### C. 商业机会 - 科技公司视医疗为 AI 最具前景的前沿领域之一 - 投资者、创业者和医生都在推动 AI 作为医疗系统的解决方案 ## 2. 用户影响 ### A. 患者获益 - 随时可用,无需排队等待 - 回应详细且有同理心 - 患者可主导对话,自由提问 ### B. 潜在风险 - AI 幻觉可能导致误诊 - 偏见可能加剧医疗差距 - 缺乏问责机制 ### C. 情感依赖 一位抑郁症患者的女儿发现,62 岁的母亲在向 DeepSeek 倾诉婚姻困扰: "我每天给她打电话,但她非常抑郁和焦虑。但对于我们这样的年轻人来说,很难持续,"我的朋友告诉我,"AI 的好处是她可以随时说出想说的话。不需要考虑时差,也不用等我回短信。" ## 3. 技术趋势 ### A. AI 医疗化加速 - 医院与科技公司合作,利用患者数据训练专业模型 - 四川某医院推出"DeepJoint"骨科模型 - 北京某医院开发"结石聊天 AI" ### B. 研究警示 《科学进展》3 月发表的研究发现,用于分析胸部 X 射线的模型与人类放射科医生相比,更容易漏诊女性、黑人患者和 40 岁以下人群等边缘群体的潜在致命疾病。 "我想非常谨慎地说,AI 将有助于减少中国或世界其他地区的健康差距,"研究医疗 AI 伦理的德克萨斯 A&M 大学教授 Lu Tang 说,"在北京或上海开发的 AI 模型……可能不太适用于小山村的农民。" # 五、各方反应 ## 1. 官方立场 中国政府禁止 AI 医生生成处方,但对咨询内容的监管有限。 ## 2. 业内观点 ### 支持方 田继顺(杭州妇产科医生,将其形象授权给支付宝): "这就像第一代 iPhone,你永远不知道未来会是什么样子。" 冯瑞(思德 AI 首席数据官): "AI 更专注、更有同理心。它可以切换性别让患者更舒适。" ### 反对方 医学研究者警告 AI 存在幻觉、偏见和错误诊断的风险。 Shreya Johri(哈佛医学院博士研究生,《自然医学》研究作者): "人们对待它需要有所保留," Andrew Bean(牛津大学博士候选人): "没有专家参与其中肯定有很多风险。" ## 3. 用户反馈 - 患者普遍认为 AI 比人类医生更有耐心、更详细 - 用户欣赏 AI 的"同理心"和情感支持 - 部分用户意识到 AI 可能给出矛盾建议 # 六、社会意义 这篇文章揭示了技术如何填补人类照料的空白。当子女远在他乡、医生疲惫不堪时,AI 成为了独居老人的陪伴者和健康顾问。 这不仅是技术的胜利,更是社会的某种悲哀——我们需要机器来提供人类无法给予的关怀。 正如患者所说:"当我困惑时,没有人可以问,没有人可以信任,我就去找它寻求答案。我不需要花钱,不需要排队,不需要做任何事。" "即使它不能给我完全全面或科学的答案,至少它给了我一个答案。" *** ## 参考资料 1. [AI chatbots are becoming lifelines for China's sick and lonely - Rest of World](https://restofworld.org/2025/ai-chatbot-china-sick/) 最后修改:2026 年 01 月 30 日 © 允许规范转载 赞 如果觉得我的文章对你有用,请随意赞赏