通用人工智能就是强人工智能(通用人工智能技术已较为成熟)
摘要:鉴于我们的未来将不可避免地与人工智能捆绑在一起,我们就必须要问:我们现在发展得如何了?人工智能的现状是怎样的?我们将走向何方?
定义人工智能不是困难,而简直是不可能,这完全不是因为我们并不理解人类智能。奇怪的是,人工智能的进步更多的将帮助我们定义人类智能不是什么,而不是定义人工智能是什么?
但不管人工智能是什么,过去几年我们确实已经在从机器视觉到玩游戏等众多领域取得了很多进展。人工智能正在从一项研究主题向早期的企业采用转变。谷歌和 Facebook 等公司已经在人工智能上投入了巨大的赌注,并且已经在它们产品中应用了这一技术。
但谷歌和 Facebook 只是开始而已:在未来十年,我们将见证人工智能蔓延进一个又一个的产品。我们将与 Bot 交流——它们不是照本宣科的机器人拨号程序(robo-dialer),我们甚至不能意识到它们不是人类。我们将依赖汽车进行路线规划,对道路危险做出反应。
可以毫不夸张地估计:在未来几十年中,我们所接触的每一种应用程序都将整合进一些人工智能功能,而如果使用应用程序,我们将无法做任何事。
鉴于我们的未来将不可避免地与人工智能捆绑在一起,我们就必须要问:我们现在发展得如何了?人工智能的现状是怎样的?我们将走向何方?
如今人工智能的能力和局限
对人工智能的描述围绕着以下几个中心:强度(有多智能)、广度(解决的是范围狭窄的问题,还是广义的问题)、训练(如何学习)、能力(能解决什么问题)和自主性(人工智能是辅助技术还是能够只靠自己行动)。这些每一个中心都有一个范围,而且这个多维空间中的每一个点都代表着理解人工智能系统的目标和能力的一种不同的方式。
在强度(strength)中心上,可以很容易看到过去 20 年的成果,并认识到我们已经造出了一些极其强大的程序。深蓝(Deep Blue)在国际象棋中击败了 Garry Kasparov;沃森(Watson)击败了 Jeopardy 的常胜冠军;AlphaGo 击败了可以说是世界上最好的围棋棋手李世石。
但所有这些成功都是有限的。深蓝、沃森和 AlphaGo 都是高度专业化的、目的单一的机器,只能在一件事上做得很好。深蓝和沃森不能下围棋,AlphaGo 不能下国际象棋或参加 Jeopardy,甚至最基本的水平都不行。它们的智能范围非常狭窄,也不能泛化。
沃森已经在医疗诊断等应用中取得了很多成果,但它基本上仍然只是一个必须为特定领域专门调制的问答机器。深蓝拥有大量关于国际象棋策略的专门知识和百科全书式的开放知识。AlphaGo 是用更通用的架构构建的,但其代码中仍然有很多人工编码的知识。我不是轻视或低估他们的成就,但认识到他们还没有做成的事也是很重要的。
我们还没能创造出可以解决多种多样不同类型问题的人工通用智能。
在一端,监督学习意味着再现一组标记,这在本质上是模式识别,而且容易发生过拟合。在另一个极端,完全无监督学习意味着学习归纳性地推理关于一个情形的情况,这还需要算法上的突破。半监督学习(使用最少的标注)或强化学习(通过连续决策)代表着这些极端之间的方法。我们将看到它们能达到哪种程度。
智能的意义
我们所说的「智能」是一个根本性的问题。在 Radar 2014 年的一篇文章中,Beau Cronin 出色地总结了许多人工智能的定义。我们对人工智能的期待严重依赖于我们希望用人工智能做什么。对人工智能的讨论几乎总是开始于图灵测试。
图灵假设人们可以通过聊天的方式与计算机交互:他假设了一种与计算机的沟通方式。这个假设限制了我们期望计算机做的事:比如,我们不能期望它能驾驶汽车或组装电路。这也是一个故意的模棱两可的测试。计算机的答案可能是闪烁其词的或完全不正确的,正确无误不是重点。人类智能也可能会是闪烁其侧或不正确的。我们不大可能将正确无误的人工智能误解为人类。
如果我们假设人工智能必须被嵌入到能够运动的硬件中,比如机器人或自动驾驶汽车,我们会得到一组不同的标准。我们会要求计算机在它自己的控制下执行一个定义不清的任务(比如开车到一家商店)。我们已经打造出了在路线规划和驾驶上比大多数人类都做得更好的人工智能系统。
谷歌的自动驾驶汽车负有责任的那次事故的原因是该算法被修改得更像人类一样驾驶,并由此带来了人工智能系统通常不会具备的风险。
自动驾驶汽车还有很多没能解决的困难问题:比如在暴风雪的山路上行进。不管人工智能系统是嵌入在汽车里,还是无人飞行器或人形机器人里,其所面临的问题本质上是类似的:在安全、舒适的环境中执行是很容易的;而在高风险、危险的情形中则艰难得多。
人类也不擅长这些任务,尽管图灵所期望的对话中人工智能是回避式的或甚至会错误地回答问题,但在高速路上驾驶时,模糊或不正确的方案却是不能接受的。
可以执行物理行为的人工智能迫使我们思考机器人的行为。应该用什么样的道德来规范自主机器人?阿西莫夫的机器人定律?如果我们认为机器人不应该杀死或伤害人类,武器化的无人机已经打破了这道界限。尽管典型的问题「如果事故不可避免,自动汽车应该撞向婴儿还是老奶奶?」是虚假的道德,但这个问题也有一些更为严肃的版本。
为了避免会杀死其内部乘客的事故,自动驾驶汽车应该冲向人群吗?抽象地回答这个问题很容易,但很难想象人类会愿意购买会牺牲他们而不伤害旁观者的汽车。我怀疑机器人将来能够回答这个问题,但它也必然会在福特、通用、丰田和特斯拉的董事会上得到讨论。
我们可以通过对话系统或自主机器人系统的复杂度分布来更为简单地定义人工智能,并说人工智能只是单纯关于构建能回答问题和解决问题的系统。能够回答问题和推理复杂逻辑的系统是我们已经开发了好些年的「专家系统」,其中大部分都嵌入在沃森中。时,你都会听到 GPS 说「重新计算路线中」,那是它正在适应新情况。
在过去几年中,我们已经看到许多各种意义上有资格作为人工智能的应用程序。几乎所有「机器学习」框架下的事物都有资格成为人工智能:事实上「机器学习」是在人工智能学科陷入声名狼藉之时,被指称回人工智能更为成功的那部分。你不必一定要构建带有人类声音的人工智能,像是亚马逊的 Alexa,当然它的推荐引擎肯定是人工智能。
类似 Stitchfix 的 web 应用也是人工智能,它增加了由时尚专家们运用推荐引擎所做出的选择。我们已经习惯了那些处理客户服务电话的聊天机器人半自主性的。几年前,Larry Page说《星际迷航》中的计算机是理想的搜索引擎:它是一台能够理解人类、已消化所有可用信息、能在被提问之前就给出答案的计算机。如果你现在正在使用谷歌,当它第一次告诉你由于交通堵塞要你早点出发赴约时,你可能会感到惊讶。
这就需要纵观多个不同的数据集:你目前所在的位置、你的约会地点(可能在你的日历或联系人列表中)、谷歌地图数据、目前的交通状况、甚至是有关预期交通模型的时间先后数据。它的目的不是回答某个问题;而是甚至在用户意识到需求之前就提供帮助。
为何人们对人工智能的兴趣大增?
为什么人工智能在遭受「人工智能的冬天」的 30 多年间的巨大进步是很乏味的。但这是此篇文章无法回避的一部分,特别是如果你已经见过 IBM 的沃森机器支架。
据报道 AlphaGo 运行于 1920 个 CPU 和 280 个 GPU ;;击败了 Lee Sedol 的机器可能更加庞大,并且它使用了谷歌用于构建神经网络所开发的定制硬件。即使人工智能算法在普通笔记本上运行很慢,但在像 AWS、GCE 和 Azure 的云平台上配置一些重要的算力是容易且相对便宜的。机器学习得以实现,部分也是因为这种存储大量数据的能力。1985 年时的千兆字节。在我们走向聊天应用时,挖掘暗数据并找出其中结构的能力将变得更加重要。在聊天应用从脚本化和目标狭隘型迈向为用户返回任意问题的答案型的道路上,暗数据的有效利用将成为这一转变的关键。
我们可能看不到这样的应用程序被用于问题「理解」,而是会成为未来辅助技术的中心。它们将依靠已被机器分解并结构化的知识库:其中包含的大量数据将超出人类的标记能力。
产生结果
不像人工智能冬天的黑暗时期,那时数据有限、计算机很慢,现在我们到处都能看到成功的人工智能系统。谷歌翻译肯定不会像人类翻译员那样好,但是它经常能够提供一个可用的翻译结果。尽管语音识别系统还没有达到随处可见的程度,也也已经是司空见惯的了,且其准确度令人惊叹;一年前谷歌声称安卓手机可以正确无误地理解 92% 的问题。如果一台计算机能够准确地将问题转化为文本,那么下一步就是把问题变成答案。
同样,图像识别和图像处理也已经变得司空见惯。尽管存在一些被广泛报道的尴尬错误,计算机视觉系统能够以在几年前还不可想象的精确度来识别人脸。
理所当然地,对此问题的适宜约束在其成功中起着巨大作用:Facebook 可以识别照片中的面孔,是因为它假定照片里的人很可能是你的朋友。计算机视觉是:碾压人类能力的自动化技术开始变得具有辅助性。
我们能否指着某件东西说,「是的,那就是人工智能?」是的,当然可以,我们现在就可以这么做了。更重要的是,我们将不可能避免地被人工智能围绕着,甚至在我们知道这些东西人工智能之前。我们将管道、电力视为理所当然之物,我们的孩子将流媒体音乐视为理所当然。我们也会视人工智能为理所当然,当它们在生活中越来越普遍时。返回搜狐,查看更多
上一篇: 骚男为什么离婚微博(骚男微博回应离婚)