人工智能正暗中窥视想自杀的人 并悄悄阻止这一切(2)
时间:2018-02-05 11:10 来源:偶酷网新闻 作者:偶酷网新闻 点击:次
这项研究后来为该团队做自杀识别和干预提供了理论支持。此后,朱廷劭团队也在思考,该结果能否与网络数据的即时性结合起来,找出潜在的有自杀风险的个体,对其进行心理危机干预。他们曾尝试人工筛选判断,但是工作量太大,于是想到利用时下火热的人工智能机器学习,建预测模型。 这个方式和AlphaGo学习围棋的技术相似,前期他们人工选出上千条有自杀意念的微博,同时利用整理出的和自杀相关的词典,一起输入计算机里训练建模。从人工检验结果看,使用计算机训练建模的效果更好,识别有自杀意念者的击中率为0.58,而用关键词筛选的击中率为0.47。随着模型的优化,2016年下半年这个模型击中率超过0.8,于是,研究团队开始正式将其投入使用。 在中科院心理研究所一间普通的办公室里,电脑上显示着自杀识别的模型,它每隔24小时会自动抓取一次“走饭”微博下的所有评论。输出的界面看上去简洁朴素,像一个文本文件,分为4列,罗列用户名称代码、时间代码和具体的评论,最前面一列是数字0和1。据刘明明介绍,这是模型识别后的结果,0是无自杀意念,1是有自杀意念。一旦数字是1,模型就会自动向该用户发送事先编好的私信。 为设计私信内容,朱廷劭团队联合香港大学香港赛马会防止自杀研究中心、北京回龙观医院北京心理危机研究与干预中心人员组织访谈、设计问卷,了解有自杀意念的人希望看到什么内容。 他们曾向4222名有过自杀意念表述的群体发送参与调查邀请,最终有725名回复了,其中78%的人表示不反对收到私信,并且希望面对心理危机时能够获得心理测试结果反馈以及专业的措施;发信人越可靠,他们越会点开私信中的链接;还有一半以上的人希望在私信中看到具体应对心理危机的措施。 因此,在私信中他们选择先介绍背景,再推送问卷,并提供他们可以选择的干预方式,包括与他们的志愿者交流,或者拨打当地心理危机干预中心热线。 据朱廷劭介绍,他们发出去的私信中,正面回复的比例占20%左右,虽然不高,但也超出了他们的预期。而在微博这一端每天18点到22点都有志愿者值班在线,他们都是国家二级或者三级心理咨询师。 不同于线下的心理疏导使用的认知行为疗法,线上的自杀干预一般使用问题解决疗法。简言之,线上自杀干预时间更紧迫,对方很可能马上就要实施自杀,所以志愿者没有时间听完对方讲述某个情景再改变他们的认知,而是需要及时解决问题,让对方暂缓自杀行为,或者接受别人的帮助,尽快做出改变。 去年9月的一天,“心理地图PsyMap”志愿者收到一位网友的回复,跟对方进行沟通时,无意中发现她发微博说会在当晚0点服用安眠药自杀。此时距离0点只剩几个小时,志愿者立即跟对方确认,并询问她的具体位置。确认信息之后,一边沟通说服,一边报警,最终救下了这位姑娘。这从侧面说明,在微博上宣布要自杀的人,实际上可能是在寻求帮助或支持。 “我们要做自杀干预这个事,不是一蹴而就的。不是说一个人今天正在自杀,我们干预了,他以后就不自杀了,这不可能。我们只能说,这个人现在要自杀,我们推迟他自杀的时间,然后再让他的境况改变,一点点好起来。我们做得很有限,主要是动员对方身边的积极关系。”刘明明向《中国新闻周刊》介绍。这听起来有些无奈,但是他们更主要的是起到桥梁作用。 未来的路 利用人工智能在社交媒体上抓取有自杀意念者的,不仅仅是朱廷劭团队。2017年3月起,美国脸书(Facebook)也宣布开始利用人工智能对美国用户在该网站上的自杀帖子进行快速检测测试。2017年11月,该公司已经可以通过计算机筛选帖子或视频,标记出一个人可能会在什么时候自杀。 2014年,法国蒙彼利埃大学计算机技术领域学者阿玛亚斯·阿伯特(Amayas Abboute)等人发表论文《挖掘推特,防止自杀》,介绍他们提出的自动语言处理和学习方法,自动获取社交平台推特(Twitter)上有自杀风险的帖子,他们的研究也得到精神科医生的初步肯定。 使用人工智能追踪有自杀意念的语言不是一个新策略。2013年,涂尔干项目的研究人员通过与当地退伍军人事务部门合作开展了一个项目,跟踪美国退伍军人的脸书、领英(LinkedIn)和推特的帖子,试图预测哪些语言最有可能反应用户的自杀意念。 除了各类研究,这类技术也被用于商业。例如,国外网站Bark为父母提供保护子女安全上网的服务,该网站利用人工智能技术监测,以文本或者邮件的方式向父母发出警告,告知他们的孩子在社交媒体的帖子可能有潜在的心理健康问题。 但无论国内还是国外,在网上进行自杀预防还有很长的路要走。脸书除了利用人工智能识别,还在动员了用户的社交关系,如果发现你的好友有自杀倾向,那么你有手动标记出对方可能有自杀风险的选项。 但是在互联网上如何以不侵犯用户隐私的方式进行干预,这个问题在国外也引发了讨论。美国康奈尔自杀行为研究计划主任贾尼斯·惠特洛克提到,脸书和其他网站的机器学习系统可能会让一些用户受到惊吓,并阻止他们在未来寻求帮助。 尽管出于好意,朱廷劭团队在推送私信时也难免被对方误会。刘娅在第一次收到私信时,以为对方是个骗子。直到她接收了3条私信,才慢慢放心一些。 虽然刘明明这些志愿者救助了那个要自杀的姑娘,但在之后的聊天中,对方也透露出担忧和恐惧,认为自己的一言一行被监控了。志愿者们跟她做了个约定:除非万不得已,他们不会报警,如果她要自杀,请告诉“心理地图”的志愿者。 目前,国内除了朱廷劭团队外,还没有其他机构关注到社交媒体中的自杀主动干预,而中科院心理研究所互联网心理危机监测预警中心的自杀干预范围还局限在“走饭”的微博评论里,项目正式上线不到一年。在未来,他们也在考虑将这种人工智能救治覆盖到更多的微博,甚至论坛和贴吧。这背后不仅需要技术的提升,也需要招募更多的志愿者,以及更规范化的指导和救助培训。 (为保护受访者隐私,文中罗芙、刘娅为化名) 来源:中国新闻周刊 责任编辑:张玉 (责任编辑:admin) |