主页 > 产品展示 >

AI防自杀系统在视频直播当中也植入了AI程序

2018-06-07 产品展示
  Facebook这套AI防自杀系统没有让AI单兵作战,而是选择人机协作的方式来筛选信息,为提高系统识别自杀的准确度做了一定的保障。目前,AI侦测与回报机制的速度比人工的手动回报快三成,已经大大提高了Facebook信息筛选效率,并成功阻止了多起自杀事件。
 
  很忙的扎克伯格决定在全球范围内推广AI防自杀系统以平息用户对Facebook的不满情绪,这是怎么回事?
 
  原来,之前Facebook上曾多次出现直播自杀的事件,但由于平台方没有及时排查到此类信息,一时给社会造成了很大的负面影响。而Facebook也理所当然地遭到了平台用户的责难。所以扎克这才赶紧推出了AI防自杀系统。
 
  AI可以识别自杀这一论断看似很迷,但是在各种AI识别人类性格、性取向、精神疾病等技术层出不穷的前提下,我们可以尝试对AI防自杀系统进行简单剖析,尝鼎一脔。
 
  文字识别
 
  AI防自杀系统会对用户的发帖内容进行识别,针对含消极情绪的语句,
 
  例如,“我不想活了”,“我恨世界上所有人”,“我为什么还不死”这类代表负面情绪的语言AI会特别注意,并将发布此类言论的用户进行标记。然后,AI会将相应的数据移交给公司专员进行筛选和处理,最后由人工来做出决策。
 
  其实,要机器从一张图片来分析出一个人是否有自杀倾向是一件相当困不过,这已经不是第一次Facebook因为信息管理不利而被diss了。今年《纽约时报》和《卫报》的报道指出英国一家数据分析的政治咨询公司利用Facebook的信息管理漏洞,窃取了5000千多万Facebook用户的个人资料,帮助现任美国总统特朗普在2016年的大选当中获得有利舆论。
 
  Facebook近年来争议不断,这套AI防自杀系统是其挽回用户信心的一个小动作,但是小动作里面也可能藏有大玄机,Facebook的新技术到底能不能安抚长期以来被其伤害的用户之心呢?
 
  从图文到视频:AI识别自杀的技术之流
 
  难的事情,因为图片的表达有时候比较抽象,其中还会涉及到色彩学方面的问题,就算是人类也不一定能做到。不过AI仍然可以对此做出一些尝试,我们可以拿另外一个AI图片识别的领域来举例,那就是AI鉴黄。
 
  由于深度学习的神经网络模型在各种图像识别比赛中取得的突破性进展,目前AI鉴黄一般会采用CNN(卷积神经网络)、GoogleNet、ResNet(残差网络)三种深度网络模型结构。
 
  开发人员会需要从技术层面研发出一个“分类器”,从而让AI能够计算出该图是否属于黄图的概率。这套AI鉴黄的原理在理论上来说对于所有的图片识别基本通用,只不过相比鉴黄来说,AI要从图片中识别出自杀倾向的困难点在于难以抓取此类图片的共同点。
 
  所以在第一步建立“分类器”上,AI可能会遇到比较大的障碍。因此后续AI识别的准确率,相对文字识别来说,也会不太好保证。
 
  音视频识别
 
  当然,用户在社交平台上发布的内容不仅仅是文字和图片,还有很多
 
  的表达是以音频或者视频的形式。所以,AI防自杀系统在视频直播当中也植入了AI程序。虽然Facebook方面并没有透漏有关该AI视频识别技术的相关细节,但是我们仍然可以从机器视觉领域的进展来窥一窥究竟。
 
  之前,一公司的计算精神病学和神经成像研究小组团队利用机器学习预测大脑精神疾病抑郁症,通过对59名普通人的语言方式进行追踪和分析从而预测他们潜在的患病风险,其精确度达到83%,由此我们可以看出机器具备一定能力从语音层面来分析人类情绪。
 
  另外,南加州大学曾推出一款AI心理治疗师,能够分析受访士兵的面部表情变化,并将AI分析表情的结果作为诊断士兵是否存在PTSD(创伤后应激障碍)的依据之一。
 
  所以,AI防自杀系统要判断视频中的人是否有自杀的倾向,可能首先会从一、人物的面部表情;二、是否存在危险器械;三、是否有流血等画面的特点来进行分析。
 
  总的来说,AI防自杀系统的有关图像识别技术基本上会与以上所提到的两个机器学习技术类似。
 
  AI防自杀识别系统之殇,真的很痛
 
  虽然现在AI识别人类情绪的工程一直在持续推进,但是情绪识别对于机器来说仍然不是一件简单的事情。
 
  首先,我们需要弄清楚AI分得清“演戏”和“真实”吗?
 
  比如,在快手上存在着大量小剧场表演式的视频类型,很多男生哭天抢地,女生狠心决绝甩耳光的视频得到数百万的点赞。人们把这些视频当作娱乐消遣,而机器会怎么看待这样视频?嘴角下扬、泪眼婆娑、声嘶力竭,这一场场一幕幕会被机器的“眼睛”迅速捕捉,并将其标签为极端消极负面的情绪传播。
 
  吃瓜群众津津乐道地一场戏精飙戏在机器眼里成了有自杀倾向的人群情绪宣泄。这可能真的会让人有些哭笑不得。
 
  模仿是人类的天性之一,长期熟悉模仿式表演的用户能够很快分辨出模仿和真实情绪的流露之间的细微差别,但是就是这一点点细微的差别却是机器情绪识别最难突破的瓶颈之处。
 
  其次,当机器将识别出的一些负面关键词作为标记自杀人群的标准时,那么我们必须应该让机器知道那些说要“死”的人是不是真的想去死。
 
  Facebook这一AI防自杀系统应用于国外会有什么乌龙,我们可能还没那么清楚。但是设想一下,如果把这一系统挪用到中国来,人工筛选的信息量反可能被大大增加。
 
  举个例子,在中国的语言系统里有一个很特殊的点,就是很喜欢把“死”作为程度词来使用。在日常生活中,我们随时随地都会听到有人说“热死了”,“冷死了”,“烦死了”,“讨厌死了”,像这类句子在人类看来只是十分常见的日常用语,但是机器对此却难以判定。
 
  因为机器家族对这个世界暂时还不存在一个全面的感知系统。当中国被誉为“四大火炉”的几个城市一到夏天,每一个人都能感受到高温的袭来,也会知道在这个时候说“热死了”是多么正常的表达,而机器能怎么办呢,它可并不知道现在的现实世界到底有多热呀。