Tag Archives: Google

Google 测试精简版搜索服务 Search Lite

作者 |发布日期 2017 年 08 月 18 日 |分类 google

【Technews科技新报】Google 公司正在开发一款精简版的搜索服务应用程序,定名为 Search Lite,开发这一程序主要是推广到新兴市场,部分国家和地区的网络接入速度较慢,精简版的应用程序能够更好地满足消费者需求。 继续阅读..

Google收购计算机视觉公司AIMatter

作者 |发布日期 2017 年 08 月 17 日 |分类 App , google , VR/AR

据TC报道Google最近收购了一家计算机视觉公司AIMatter。这家公司成立于白俄罗斯,开发有基于神经网络的AI平台及SDK,可帮助在移动设备上快速处理图像,它还有一个基于其技术的图像编辑应用Fabby。 继续阅读..

微软宣布收购云端运算公司 Cycle Computing 强化 Azure 竞争力

作者 |发布日期 2017 年 08 月 16 日 |分类 google , 云计算 , 国际贸易

【Technews科技新报】根据国外媒体《Business Insider》的报导,软件大厂微软(Microsoft)在 15 日已经宣布,针对云端计算公司 Cycle Computing 进行收购。Cycle Computing 自 2005 年成立至今已有 12 年时间,公司的业务是专注于执行在不同公有云上复杂的高性能运算工作。不过,针对此次交的相关条款与内容,微软并没有进一步的并未公布。

继续阅读..

OpenAI 和 Google 是如何预防人工智能失控的?

作者 |发布日期 2017 年 08 月 15 日 |分类 google , 人工智能 , 软件、系统

在刚过去的周末,OpenAI 的人工智能花了 10 分钟就打败了人类的 Dota 世界冠军。正如许多读者所知,游戏是许多研发人员用来训练人工智能的工具。

在 OpenAI 位于旧金山的办公室里,研究人员 Dario Amodei 正在通过赛船冠军赛(Coast Runners)来训练人工智能。不过,这个人工智能好像有点失控了。

赛船冠军赛的游戏规则很简单,如果想赢,选手必须收集到最多的分数,然后跨过终点线。

但 Amodei 的人工智能玩着玩着有点过火了,它在不断地追求高分,非但毫无跨过终点线的意思,反倒为了要多转几个圈拿高分,它开始和其它赛船碰撞,或是在过程中自己撞墙爆炸了。

为了应对,Amodei 和 OpenAI 的同事 Paul Christiano 正在研发一套不仅可以自我学习,同时也愿意接受人工监控的算法。

在赛船游戏的训练中, Amodei 和同事将不时通过按键来指出人工智能的不当之处,告知人工智能,不仅要赢分数,同时也要跨过终点线。他们认为,这种包含了人工干预成分的算法可以确保系统安全性。

而在 Google 旗下 DeepMind 的研究人员也同意 Amodei 和同事的想法。两个团队,分别代表了 OpenAI 和 DeepMind,最近罕有地合作发表了部分人工智能安全方面的研究论文。

除此以外,Google 旗下的 Google Brain,以及来自伯克利大学和斯坦福大学的研究团队,都设有该方向研究课题,从不同方面考虑人工智能安全问题。

除了这种在自我学习过程中“搞错重点”的潜在危险,另一个可预想的人工智能危险在于“为了完成任务,拒绝被开发者关机”。

一般在设计人工智能时,研发人员都会给它设定“目标”,就像赛艇游戏中的“得分”一样。一旦人工智能将获得“分数”为终极目标,它可能会产生一个方法论——想要获得更加多的分数,其中一个方法就是不关闭自己,这样就能无止境地获取分数了。

伯克利大学的研究人员 Dylan Hadfield-Menell 和团队最近发布了讨论这个问题的论文。他们认为,如果在设计算法的时候,让人工智能对目标保持一定不确定性,它们才有可能愿意保留自己的“关机键”。他们采用了数字方式来尝试实现这个设置,目前还处于理论阶段。

除了人工智能自我“失控”,研究人员还在考虑黑客对人工智能的干预影响。

现代计算机视觉基于深度神经网络(deep neural networks),它通过学习分析大批量数据来形成对模式的了解。也就是说,如果要让计算机学会什么是“狗”,那就让它分析大批量狗的图片,并从中寻找规律。

但 Google 的 Ian Goodfellow 则认为,这种模式可能会为黑客提供“蒙骗”人工智能的机会。Goodfellow 和其它研究人员曾展示,只要修改图片中的几个特定像素,他们就能让神经网络相信图片中的大象是一辆汽车。

如果这个神经网络是应用在安保镜头的话,这样就问题大了。

即便你用了数百万张标志了‘人’的照片来训练一个物件识别系统,你还是可以轻易拿出系统和人工识别 100% 不同意的图片。我们需要认清这种现象。

Goodfellow 说道。虽然这些研究大多仍处于理论阶段,但这群致力于将意外扼制于摇篮的研究人员坚信,越早开始考虑这个问题越好。DeepMind 人工智能安全方面的负责人 Shane Legg 说道

虽然我们还不能确定,人工智能将以多块地速度发展。但我们的责任是尝试理解并猜测,这种技术将有可能以哪种方式被误用,并尝试找出不同的应对方式。

题图来自极客公园

(本文由 爱范儿 授权转载)

如需获取更多资讯,请关注微信公众账号:Technews科技新报