人工智能的极限?那些删不完的网络仇恨言论

作者 | 发布日期 2018 年 05 月 17 日 8:05 | 分类 Facebook , 社交网络 , 网络
facebook-1903445_1280-624x332

Facebook 非常擅长移除平台上的色情、暴力、犯罪等内容,社交巨头在 16 日公布了「年度透明度报告」(Facebook Transparency Report),详细列出各种违反社交准则内容被移除的比例,但详细观察后会发现,「仇恨言论」移除的比例相当低,难不成是世界和平,大家都口说好话不再攻击彼此了吗?不,这背后其实跟人工智能(AI)系统的能力极限有关。究竟为什么 AI 下围棋能赢人类、 AI 机器人都能获得公民权的现在,仍赶不上仇恨言论增生的速度呢?



Facebook 公布年度透明度报告,仇恨言论移除比例最低

在外界纷纷期待 Facebook 拿出魄力整顿平台仇恨内容的态势下,Facebook 大幅提高了今年(2018)内容审查团队的预算,预计在今年底前聘用 1 万名审查人员。

16 日公布的「年度透明度报告」(Facebook Transparency Report)多达 86 页报告中,Facebook 公布今年第一季共删除了 5.83 亿个假帐号、8 亿 6,580 万则贴文,Facebook 将这些内容分为六大类,从数字来看,系统主动清除暴力内容比例是 86%、色情内容 96%,垃圾内容比例更高达 100%,令人意外的是,仇恨言论比例只有 38%,是所有类别最低的。

仇恨言论方面,科技技术仍无法运作顺畅,仍需透过人工审查团队协助。第一季成功移除了 250 万则仇恨言论贴文,其中 38% 仇恨言论是由我们的科技揪出。──Facebook

歧视用语使用情境不同,仇恨言论难判断

但这其实不能完全责怪 Facebook,原因是目前人工智能(AI)对于仇恨言论定义的理解仍不够深刻。

举例来说,歧视性用语在某些情况下也会用于戏谑、自我解嘲等目的,而这些用语大多只在特定语境(包括个人主观因素、地域差异、时代差异影响)才会产生歧视性意义,所以并没有明确标准可判定某种用语是否为歧视,人类对「贬义、侵略性的内容」判定很主观,甚至因人而异,不要说机器,甚至连人类自己判断可能都没统一的标准。

Facebook 产品管理副总裁罗森(Guy Rosen)就点出其中的困难处:

像是 AI 这类的科技,要准确判断所有有害内容还有一段路要走,举例来说,AI 还没有足够的能力,辨识一个人是在散布仇恨,或只单纯描述自身被伤害的经验,这可能会衍生出一些问题。

▲ 没有明确的标准可判定某种用语是否歧视,人类对「贬义、侵略性的内容」判定很主观,甚至因人而异。(Source:pixabay

除了用词本身,使用情境也是一大关键,假设有一个用户,只是单纯发文讲述他被当众羞辱的经验,描述的文字引用包含仇恨内容的原句,那这样的贴文算不算仇恨言论内容?应不应该强制移除?身为人类的我们都能同意这样的内容不算数,但 AI 又该如何理解这两者之间的细微差别呢?

另外,从文化面来说,有些字眼也许在某些文化中是贬抑,但在另一种文化却没有这个意思,又或者是同形异义,这些又该如何让 AI 理解呢?

扎克伯格乐观看待,5 到 10 年内开发新 AI 工具

如同扎克伯格自己贴文所说:「我今年的首要任务是要让人们感到安全。」为了将伤害降到最低,即使拥有大量科技资源的 Facebook,仍倾向使用人工审查来把关内容。

今年刚落幕的开发者大会 F8,Facebook 也谈到,「要完全理解人类的语境,还是需要透过人类的双眼,我们的团队会亲自审查,确定没问题。」

▲ 扎克伯格表示,未来 5 至 10 年内,Facebook 可开发出精准理解语意细微差异的 AI 工具。(Source:Facebook

扎克伯格也在听证会表示,他相信未来 5 到 10 年内,Facebook 可开发出能精准理解语意细微差异的人工智能工具,将能更准确标记仇恨言论,他对这样的未来相当乐观。

(本文由 数码时代 授权转载;首图来源:pixabay

如需获取更多资讯,请关注微信公众账号:Technews科技新报

数码时代

创刊于 1999 年 7 月,是中国台湾地区第一个以网络和科技为报导核心的媒体。长期聚焦全球、中国等地最新的科技、网络、绿能、数码行销、品牌等议题的动态及趋势。
未经许可,任何媒体、网站或个人不得复制、转载、或以其他方式使用本网站的内容,违者必究。

直接使用新浪微博发表评论

 

发表评论