发表时间:2020-12-15
作为双男主之一的他魅力无限,但刚出场时,这位刚刚从阿富汗战争中负伤退伍的老兵,却因为心理问题连正常行走都做不到。直到与夏洛克出生入死一段时间以后,重新找回了生活的刺激与冒险,腿才慢慢恢复正常。
但并不是所有的华生都能遇到夏洛克。更普遍的情况是,焦虑、抑郁等情绪障碍已经如同“传染病”一样在退伍军人身上发生,严重的还将产生自杀行为。
问题比较严重的是美国。美军从2008年开始每年追踪统计军人自杀情况,调查显示,目前美国的退伍军人有2300万人,其中45%的人患有精神方面的疾病,有多达20万沦为流浪汉。平均每天退伍军人有22人自杀身亡,一年就有约8000人,比平民自杀率高50%。
而同样的问题,在其他国家,比如韩国、印度和日本等也有出现。作为一个严重的社会课题,人工智能是不是能提供什么有效的助益呢?
最近加州大学伯克利分校的研究人员就试图利用深度学习,来协助应对美国退伍军人的心理问题。
第一军事大国,却沦为退伍军人自杀重灾区?
美国退伍军人事务部报告数据显示,自从美国发动伊拉克和阿富汗战争以来,平均每年有8000名士兵自杀。这个数据甚至远高于美军在战场上死亡的士兵数量。可以说,热衷于“找事”的美国也是被“军人自杀危机”困扰最为严重的国家。
之所以出现这种情况,一方面是美国作为世界第一军事大国,本身军队规模就很巨大,现役部队约140万,退伍军人有2300万人,并且很多军人还是在非本国境内执勤,发生心理问题的隐患自然也就更大了;
另一方面,退伍军人一旦走出部队,往往面临着特殊的社会环境:
首先,他们将失去原有的社会保障(退休金和医保),目前美国2300万退伍军人中,就有超过120万人没有医保,但有些又需要长期在医院接受治疗。这种情况直到现在也没有改善,就在几天前,就有三名美国退伍军人因为得不到所需的帮助,在退伍军人管理局的医疗机构内开枪自杀身亡。
另外,习惯了部队生活之后,很难再投入正常的社会生活。大部分也不容易找到工作。因为在很多公司眼里,美国退伍军人就是一个“外来物种”,他们害怕这些军人有战争后遗症,也很难理解他们的战斗本领,如何才能转化成服务平民的能力。
还有一部分退伍军人是因为任务创伤,患上严重的应激性精神障碍,也就是常说的“退伍军人病”。美国的退伍军人中就有45%的人患有精神方面的疾病,感到自己被孤立,这也是他们不愿重新开始社会生活,变成流浪汉或是选择自杀的原因。
迫于压力,2017年,美国退伍军人事务部(以下简称VA)就推出了“百万退伍军人自杀预防示范项目”,以期寻找解决之道。
但目前为止,除了修建篮球场、提供帮助热线、增加医疗援助等等,并没有更好的办法。那么,AI的介入能够让事情出现转机吗?
预防自杀,AI能够做什么?
最近,伯克利实验室启动了一个利用深度学习分析退伍军人电子健康记录(EHR)数据的研究项目,旨在把美国能源部DOE收集到的大约70万名退伍军人的医疗数据集,以及VA从2200万退伍军人中收集的HER基因数据,与高性能计算和人工智能分析相结合,来预防自杀、前列腺癌和心血管疾病。
实验的目标是从数据池中寻找规律,训练出一个个性化的模型算法,根据量身定做的动态自杀风险指数,来提高对自杀风险患者的识别能力。比如判断出在医院进行自杀尝试的人是否会在30天内再次尝试自杀,并将这些信息及时反馈给VA的护理人员。
(研究人员正在对电子健康记录(EHR)数据进行深入学习和分析)
这项工作是怎么完成的呢:
首先,研究人员根据这些多样化和复杂的信息进行了训练,让神经网络可以从医生语言中对那些具有高自杀风险的患者进行分类。
然后,从中找出哪些词对最终预测的贡献最大,并跟踪这些词是如何产生并流动的,以此更好地了解自杀患者之间频繁出现的话题,并将之联系起来。
当然,这一研究的推进并没有想象中那么顺利,目前还存在着几个不确定性:
一是模型的黑箱性。由于模型的可解释性目前还不清晰,这导致很难在临床得到医生的信任并应用,缺乏有效的应用数据,这就使得模型的准确率和防御性一直得不到提升。
二是数据的复杂性。HER的数据集非常嘈杂,除了一些结构化的数据(比如人口统计、处方药物、实验室工作等)之外,还包含了一系列非结构化数据(比如医生的手写记录,出院记录等等),而后者往往揭示了重要的风险信息,比如个人的感受、社会孤立、无家可归、缺乏睡眠等等,想要利用这些信息来推测退伍军人的心理状态,提升系统的诊疗效率,往往需要性能比较强劲的NLP技术,研究小组正在想办法攻克。
目前看来,想要依靠AI将医生的临床经验整合到算法模型中,来解决退伍军人的自杀问题,不仅在技术上还有这很长的路要走,本质上也只是“治标不治本”的应急措施。
算法可以预测,但绝不是拯救
某种程度上来看,美国引入深度学习系统来对退伍老兵进行心理健康管理,似乎是件好事。
对于新技术的应用和高效探索,引发了不少媒体和评论家的肯定,这能够让美国退伍老兵的自杀风险在萌芽早期就得到关怀和救助。
除此之外,模型的完善还会对涉及人类健康的系列医疗应用产生重大影响。
根据世界卫生组织统计,在全球,每年有80万人以这种方式结束自己的生命,在这个数字背后,是10-15倍的人自杀未遂。而在总计3.4亿抑郁症患者中,有2/3的患者曾有过自杀念头,因抑郁而自杀成为年轻人的第二大死亡原因。这种局面下,及时的介入和干预就成为减少悲剧的关键。但如何评估自杀风险至今仍是困扰心理健康临床医生的一大挑战。
此前就有不少研究人员希望借助机器学习分析相关人群的数据以发掘有用的信息,比如范德堡大学医学中心使用超过5000名有自残或自杀倾向病人的住院数据对机器学习模型进行训练,用以区分有自杀倾向和有自残行为但无自杀想法的两类人。
与之相比,伯克利的自杀识别算法有着更大规模的数据集支撑,其应用必然将进一步帮助人类减少和避免该类悲剧的发生。
但另一方面,预防自杀本身或许就不应该是一个技术命题,而是管理问题。算法性能的不断提升只能起到更好的预警和止损的作用,而真正的病灶其实是在VA等机构的不作为上。
近年来,不断有新闻曝光美国退役军人事务部雇员渎职。据美国毒品管制局数据披露,退役军人事务部所属医院的药品失窃案件猛增,由2009年的237起暴增至2015年的2844起。医务人员很有可能通过拒绝为患病老兵开药或伪造医疗记录等方式,将药品据为己有或者到黑市贩卖。
在这种情况下,深度学习再强大,也只是一种“救急不救穷”的特效药。当一切都被简单地诉诸于技术升级,反而更容易忽视背后的利益暗战,让整个社会陷入更加被动的局面,寻找出路也更加遥不可期。
希望下次我们再看到自杀相关的新闻时,能够探讨的不只有吸引眼球的技术进步,也有慈悲、责任与担当。