公众号对话框回复「晚安」

送你一个特别推送


  太言太语  


今天,本号「以太资本」的第一篇编译文章火热出炉啦~~


以下这篇萌点与知识点齐飞的文章是我们首次试水,不知道列位看官是否喜欢。

 

关于编译,如果你有以下的话想和小编说,就快点文后留言吧:


1/ 你喜欢今天的文章吗?


2/ 你想看哪种类型的海外文章?


3/ 有无经常看或者推荐的棒棒哒海外网站呢?


4/ 你对创投感兴趣,英语也好,那么想加入我们吗?


5/ 你对我们这个新鲜出炉的行动还有哪些期待呢?




作者|Byron Reese

来源|Gigaom


亚马逊的「Echo」和谷歌的「Home」是新智能音箱市场里两个最引人注目的家伙。


大家好,我们是亚马逊的Echo~~


谷歌Home,可以和home完美融合

 

它们有很多功能,其中一个是简单的问答引擎——你可以一时兴起「调戏」它们,问它们任何问题,它们都会尽力回答。

 

然而有件事情很吊诡:它们常常对同一个问题给出不同的答案。而且并非是一些观点性问题,而是一些事实问题,比如问一年中的秒数。

 

怎么会这样呢?经过检验,我们根据目前所知发现了几个原因,其中每一个都揭示了人工智能潜在的局限性。

01

案例1号


问:是谁设计了美国国旗?

亚马逊:美国国旗的设计者是Robert Heft。

谷歌:据民间传说,第一面美国国旗是由一个费城女裁缝Betsy Ross设计的。据说这位女裁缝同时认识乔治·华盛顿、当时大陆军队的领导人和一些其他有影响力的费城人。

 

谷歌「口中」的Betsy Ross在历史记载上是最初美国国旗的设计参与者,这是一个所有上小学的儿童都知道的事实。那亚马逊所说的Robert Heft是谁呢?原来他是现在五十颗星星结构的美国国旗的设计者。

 

我们该如何看待这个差异?是问题格式不好、模棱两可吗?

 

并不是。

 

这些例子恰恰说明了这门技术的一个巨大缺点:虽然人工智能可以把你所说的话翻译成机器语言,进而能分析这个问题,可是它们并不能像人类那样真正「理解」这个问题。好比说,一个人在问问题时会自然的给出一个限定,比如「原来的国旗还是今天的国旗?」但是,人工智能做不到严谨而成熟的看待问题:它们对世界的理解是二进制的。

 

小结:在人工智能系统中,问问题要尽可能具体。但是越具体,它们的理解成本就越高,因为你每增加一个单词,都增加了它们分析问题的复杂性。


02

案例2号

 

问:最快的动物是什么?

亚马逊:非人类生物中跑得最快的动物是猎鹰。

谷歌:根据网络上流行的说法,有狮子、猎豹、角马及其他动物。

 

很显然,谷歌给出的答案并不正确。

 

如果你直接把问题输入谷歌搜索引擎,你会得到有几个备选项的「最受欢迎答案」(用过百度的会知道,排在前几名的答案通常不是正确的==)。


所以,谷歌回答时也就只读取到前面那几个,正确的答案甚至不在它所读取的范围内,而是在列表的第十个。

 

小结:有些你认为简单的问题,对人工智能来说并没有容易到哪去。

03

案例3号

 

问:一个光子的重量是多少?

亚马逊:光子的平均重量是 0克。

谷歌:根据卫报的说法,如果它有能量,那么根据爱因斯坦著名的广义相对论方程来看,它的质量为:M=C2/C2。我们知道光会被重力所弯曲。所以如果我们认为光是粒子,是一个光子流,它就必定是有重量的,否则重力不会对它产生任何影响。

(这一段文科生看不懂就算了…….)

 

亚马逊说光子没有重量,是因为它的回答来自EVI(一款语音识别应用),而EVI的数据则来源于维基百科。维基百科说:「光子具有零静止质量,并且总是以光的速度在运动」,所以机器一翻译跟你说:没重量。

 

而这一题中,谷歌的答案则来自于一篇《卫报》文章中的文字片段。不过有个小bug:谷歌会将「m = E / C2」读为「m等于E C 2」而不是「m等于E除以C的平方。」

 

问:是什么导致了(美国)内战?

亚马逊Alexa:美国内战开始于南方各州脱离了美国邦联,并袭击了南卡罗来纳州萨姆特堡的时候。这场战争源于北方和南方之间不可调和的政治分歧,包括奴隶制度和中央集权政府的权利问题。

谷歌助手:根据内战时期纪录,许多人仍然在争论美国内战的根本原因。普利策奖获奖作家James McPherson曾写道,「内战的开始是因为自由和奴隶制度的差异性,国家政府在自己的领土上禁止奴隶制,尚未成为……

(「尚未成为」后面就断片儿了,因为回答长度超过了机器设定的上限……)

 

问:时光旅行是可能的吗?

亚马逊Alexa:这些关于特殊和广义相对的言论,允许人们对时空的几何或空间运动进行假设,甚至是时间旅行的可能性。然而,在这个时候,时间旅行是不可能的。

谷歌助手:根据physics.org所说,时光旅行被提出可能是出于广义相对论上的发现,爱因斯坦的万有引力把空间和时间总结为「时空理论」。

 

从旅行时间这个问题的事例来看,谷歌有几个缺点。

 

一个问题是答案片段缺少上下文语境。谷歌的回答仅仅是从physics.org早期网页片段中提取的一些文字,并找了一个合适的话头开始读,为了让回答听起来更顺畅。

 

另外一个问题在于,这个问题是谷歌助手5月的时候答的,现在再问,谷歌助手竟然拒绝回答(它说「对不起,我不知道该如何帮助您」==)而事实是近两个月来,没有什么重大研究让时间旅行的可能性发生变化,physics.org这个网站也没有任何修改。反而是谷歌自己基于算法和数据取消了对physics.org片段的录入,以后不知道会沿用之前的答案还是采用另一个。

 

这其实不是一个很大的问题,因为我们都希望谷歌能够随着时间的变化越来越完善。相反,它暗示了那些以谷歌助手赖以生存的流沙。不管怎样,不要期望你今天得到的答案和你明天得到的一样。

 

小结:这组问题其实很烧脑(至少文科生看不懂),但是人工智能却能归纳总结出一个简短的回答。然而你也能看出来,其实很多事情,都不能归结为简单的摘录回答。


04

案例4号

 

问:最近的恒星是什么?

亚马逊:最近的恒星是太阳。

谷歌:比邻星离地球有4.243光年。

 

这是一个有陷阱的问题,哄骗亚马逊作出「比邻星」的回答太难了。如果你真的想知道除了太阳之外最近的恒星,它可能会一遍一遍地回答「太阳」,太烦人了。

 

假如再问:「离太阳最近的恒星是什么?」亚马逊会说「水星是离太阳最近的行星,它们之间的平均距离是57.9公里。」不用说,这一句的前半段和后半段都不是正确答案,奇怪的是,如果直接问亚马逊「水星离太阳有多远?」却能得到正确答案。

 

小结:这些人工智能不懂细微的差别,只有直截了当的问题才能得到靠谱的答案,即使如此,它也面临着我们正在探索的其他挑战。

05

案例5号

 

问:Bigfoot(大脚怪)是真实的故事吗?

亚马逊:根据维基百科所说,科学家研究了Bigfoot的存在并且认为这是一个民间传说,他们认为这是一个错误的认识甚至是骗局。

谷歌助理:根据毛皮样本、DNA和一堆摇摇晃晃的录像,我想说真相还在等着被发现。

 

问:鸡蛋健康吗?

亚马逊:是的,所有的鸡蛋都是健康的。

谷歌:据权威人士介绍,鸡蛋富含优质蛋白质、维生素、矿物质、优质脂肪和各种微量营养素。

 

大脚怪的问题不好评判。

 

然而,关于鸡蛋的问题则有些奇怪。我曾经问亚马逊牛奶是否健康,然而得到的答案是:「对不起,我找不到你问题的答案。」然后我问那奶酪、素食或者跑步呢?得到的也是同样的回答。只有当问到鸡蛋的时候,它给了一个绝对的、没有严格声明的回答:「所有的鸡蛋都是健康的。」

 

重点是,亚马逊依赖的答案源维基百科原文中却找不到这样的说法,充其量只有一些模棱两可的话:「关于蛋黄是否存在健康风险的争论」,「研究表明鸡蛋消费与2型糖尿病之间可能存在关联。」之类的。

 

小结:当被问到一些没有被广泛认同或客观答案的意见问题时,人工智能可能和任何人一样,有自己的一套判断……


06

案例6号 


问:是谁发明了灯泡?

亚马逊:灯泡的发明者是Thomas Edison,Humphry Davy,Joseph Swan,Lewis Howard Latimer,Henry Woodward,和Mathew Evans。

谷歌:白炽灯泡是Thomas Edison,Joseph Swan和Hiram Maxim发明的。

 

这一切答案都归结为「发明」这个词的意思,很显然,亚马逊和谷歌使用了不同的定义。

 

除了Maxim,亚马逊提到了每一位参与这项专利的人,事实上Maxim是一位和爱迪生在灯泡上有过专利分歧的人。而谷歌提到的是Edison, Sway和Maxim,这三位则是同一时代相互接触过的竞争对手。

 

小结:人们当然可以问:「你说的‘发明’具体是什么意思?」然而人工智能暂时没这个功能,它们不会在一开始问你:「如果你的问题里‘发明’是‘申请专利’的意思,那么……」说到底它们只能按照现有机制进行词义假设。

07

总结

 

1/ 如果只关注系统漏洞,就会给人错误的认识,认为系统不是很好。但是事实并非如此。这两种装置都很好。所以,此文的目的不是去批评这些产品,而是去探索它们的缺陷和局限性,使他们可以在未来的使用中更加智能。

 

2/ 这是一个新的产品类别,只有几年的历史。我们可以并且应该原谅它们的一些粗糙的点,可以肯定的是这些产品将会随着时间的推移变得越来越好。

 

3/ 这些设备有许多与问题和答案无关的附加功能,显然这些功能的范围超出了我们文章讨论的范畴。总的说来,这些设备其他的一些特性远比问答部分要多得多。

 

4/ 我们都知道最大的挑战就是完全实现AI还很难。分析自然语言仅仅是技术领域里面的第一步,想要理解所有细微的差别是非常困难的,我们显然还有很长的路要走。


本文原载于gigaom.com

(点击「阅读原文」获取英文原版)

以太资本编译


(下载iPhone或Android应用“经理人分享”,一个只为职业精英人群提供优质知识服务的分享平台。不做单纯的资讯推送,致力于成为你的私人智库。)

作者:佚名
来源:以太资本