在中国,每100个人里面,就有7个人有精神方面的困扰。但是,这些人里面,真正能得到规范治疗的,连20%都不到。这个数字是北京大学第六医院的院长岳伟华教授说的。她每天都在跟这些问题打交道。
当医生这么多年,她见过太多让人难受的病例。她讲过一个病人,为了来北京看病,坐了两天两夜的火车。来之前,这个病人已经换了三种药,全都没效果,病情越来越差。家属的眼神里全是绝望。这种事不是个例。为什么会这样?一个很直接的原因是,精神科医生太少了。具体来说,我们国家每万人里,连一个精神科医生都分不到,只有0.6个。所以,在一些偏远地区,病人想住院都住不进去,根本没床位。

就算你好不容易找到了医生,还有下一个难题。精神疾病的药,不是一吃就见效的。医生需要“试错”。先开一种药,你回去吃一两个月看看效果。不行?那就再换一种,再试一两个月。一个完整的试错周期,经常要花掉三到六个月。很多人的病情,就是在这漫长的等待和试错中被耽误的。
而且,还有一个更麻烦的问题,是看不见的。很多人觉得,得了抑郁症是件很丢人的事,不想让别人知道。他们就自己硬扛着,什么都不说。直到最后实在扛不住了,甚至出现了伤害自己的想法和行为,才被家里人发现。这时候再送去医院,往往已经错过了最好的治疗时机。这种因为“病耻感”造成的拖延,让很多本来不严重的情绪问题,最后变成了重度精神障碍。基层医生也很为难,他们手里没有很好的工具,很难在早期就发现谁有风险,谁需要立即干预。这些事情,都是临床上让医生们揪心的遗憾。
AI破局:让智慧诊疗与温暖陪伴无处不在
面对这些难题,岳伟华教授和她的团队从2019年开始,想用AI来找个出路。他们研究的是一种叫“语音生物标记”的技术。简单说,就是通过分析人说话的声音,来判断他的情绪和精神状态。
这个东西具体是怎么工作的呢?其实很简单。
第一步,你在手机上下载一个APP。
第二步,打开APP,它会给你一些提示,让你照着说几句话,或者描述一下你的心情。整个过程大概三到五分钟。
第三步,你说完之后,AI就开始分析你的录音。它分析的不是你说了什么内容,而是你说话的语速、音调、停顿这些特征。
第四步,分析结束,它会给出一个初步的筛查结果,告诉你目前是否存在抑郁或焦虑的风险。
这个APP不只是做一个简单的测试,它还能根据你的情况,给出不同的建议。如果你的风险比较低,只是有点情绪波动,它会提醒你持续关注自己的状态。如果你的风险是中度,它会推荐一些数字化的心理干预方案,你可以跟着做一些放松训练。如果评估下来你的风险很高,它会直接、明确地建议你,需要去专业的精神卫生机构,找医生进行全面的诊断。
这个技术带来的改变是实实在在的。过去,医生判断哪种药对病人有效,需要很长的观察期。现在,AI可以把病人的症状、基因信息、过往病史等几十种数据放在一起分析,帮医生做决策。这样一来,药物的试错周期,就从以前的4到8周,缩短到了现在的1-2周。这节省下来的时间,对病人来说太宝贵了。
而且,AI还能做到“提前预警”。比如,你戴着智能手环睡觉,它会记录你的睡眠质量和心率变化。AI可以持续分析这些数据。一旦发现你的睡眠规律被打破,或者心率出现异常波动,这些都可能是情绪问题的信号。AI会立刻把这个异常情况提醒给医生。这样,医生就能主动介入,而不是等病人感觉很难受了再来复诊。
它还有一个好处,就是24小时在线。很多有情绪困扰的人,在深夜里最容易感到孤独和绝望。那个时候,家人朋友都睡了,你找不到人说话。但AI可以随时响应你。你可以跟它对话,它会引导你做一些呼吸放松的练习,给你一些情绪上的支持。这种不间断的陪伴,能帮很多人渡过最难熬的时刻。岳伟华教授说,AI最大的价值,就是让精神健康服务能够“下沉”。不管你是在偏远农村,还是在大城市,只要有手机,就能得到最基础的心理测评和支持。这样,精神健康就不再是少数人才能享受的服务了。
温度坚守:AI是助手,而非替代者
肯定会有人怀疑,AI毕竟是机器,冷冰冰的,没有感情。它能理解病人复杂的内心感受吗?它能做到“共情”吗?
这个问题,岳伟华教授和她的团队想得很多。她一直强调,精神诊疗的核心,永远是“人”。技术再厉害,也绝对不能代替医生和病人之间那种面对面的交流、信任和关怀。
那AI到底应该扮演什么角色?岳教授的定位是“医生的得力助手”。
具体来说,AI负责干那些繁琐、重复、耗时的数据工作。比如,一个病人来了,AI可以快速把他的病历、检查报告、日常行为数据都整理好,形成一份清晰的摘要。而医生呢,就可以从这些基础工作中解放出来,把更多的时间和精力,用来和病人进行深度的沟通。AI能分析出数据异常,但只有医生能通过聊天,理解数据背后的故事。比如,这个病人最近为什么失眠加重了?是不是因为工作上遇到了巨大的压力,还是因为家庭关系出了问题?这些有人情味的东西,才是治疗的关键,是AI无法替代的。
为了让这个AI助手更“懂事”,团队在开发的时候,加入了很多本土化的思考。他们要让AI的回应方式,更符合中国人的文化习惯,避免生硬的说教。还要让AI能听懂当下的网络词汇,比如年轻人常说的**“内卷”、“躺平”**。AI要知道,当一个人说“我只想躺平”的时候,他表达的可能是一种深深的无力感和疲惫感。
在使用AI的时候,岳教授和她的团队坚守着三条底线,这是绝对不能碰的红线:
- AI不能代替医生下诊断。 所有的诊断结论,必须由专业的执业医师做出。AI提供的是参考信息,不是最终结论。
- AI不能泄露患者的隐私。 数据的安全和保密是第一位的。所有信息都必须经过严格的脱敏处理。
- AI不能放大病人的焦虑。 AI的提示和建议必须是客观、中立、有建设性的,不能用夸张的语言吓唬用户,制造不必要的恐慌。
说到底,技术是理性的,但用技术的人,必须是有温度的。
家国情怀:让每颗心灵都被守护
在中国,有大约1.75亿人正受到各类精神障碍的困扰。这个数字背后,是1.75亿个家庭。让这些家庭走出困境,是医生的责任,也是技术发展的意义。
岳伟华教授心里有一张蓝图。她希望构建一个“全周期、全场景”的精神健康服务体系。在这个体系里,从最开始的心理健康科普,到高风险人群的筛查预警,再到辅助诊断、辅助治疗,以及最后的康复管理,AI可以贯穿所有环节。她估算,如果这个体系能建成,精神科医生的服务效率至少能提升3到5倍,能大大缓解医生数量不足的压力。
她对未来三到五年有具体的期待。
第一,她希望家用的AI筛查设备能普及开来。就像家里都会备一个体温计一样,以后每个家庭都可以有一个简单的工具,随时监测自己的情绪状态。
第二,她希望基层医院都能用上AI辅助诊疗系统。这样,社区卫生服务中心的医生,或者乡镇卫生院的医生,也能有能力去识别和处理一些常见的情绪问题,把好第一道关。
第三,她希望通过“AI+远程医疗”,让偏远地区的患者也能获得顶级专家的帮助。一个住在山区的病人,可以在当地卫生院,通过AI系统完成初步评估,然后通过视频,直接和北京的专家连线。专家可以根据AI整理好的数据,给出精准的治疗方案。
医学是一门有温度的科学。科技本身没有感情,但可以成为一个有情怀的工具。岳伟华教授和她的团队正在做的,就是把AI打造成这样一件工具。它就像一件温柔的铠甲,守护着每一颗脆弱的心灵。它想告诉每一个在困境中的人:你并不孤单,总有人在为你努力,为你守护。