您当前所在的位置:吉网传媒 > 最新资讯 >

代码的终结:未来我们会像训练小狗一样调教计

    Views:
 
在未来,我们不是给计算机编程,而是会像训练小狗那样训练计算机。
在计算机发明之前,实验心思学家以爲,大脑是一个不可知的黑盒子。你可以分析一个对象的行爲——比如铃铛一响,小狗就会分泌唾液——但是你又怎样去分析思想、记忆和心境呢?这些东西奥妙莫测,超出了科学研讨的范围。因此,行爲学家们把研讨的范围框定在抚慰和反响、反响和强化上,并没有尝试去了解心智的内部机制,这段时期持续了四十年之久。
然后,到了1950年代中期,一群心思学家、言语学家、信息实践家和早期人工智能研讨人员提出了一个不同的概念。他们以爲,人不只仅是条件反射的集合,而且还会接纳信息,处置它,然后采取相应的举动。人拥有一个系统,可以把信息写入记忆,存放在记忆中,并且从记忆中调用信息。这是经过一种有逻辑的、正式的语法来中止的。大脑并不是一个黑盒子,它更像是一台计算机。
这种“认知革命”最末尾是一点一点萌芽的,但是,随着计算机成爲全美各地心思学实验室的标配,“认知革命”获得了普遍认同。到1970年代后期,认知心思学推翻了行爲主义,它运用一套全新的言语来描画心智活动。心思学家末尾把思想比作顺序,普通人也末尾运用“记忆的银行”之类的比喻。
控制了代码,就控制了世界?
数字革命渗透到了我们生活中,也渗透到了我们的言语中,以及我们对事情的基本看法之中。科技就是这样。在启蒙时期,牛顿和笛卡尔激起人们把宇宙想成是一座精心制造的时钟。工业时代,带活塞的机器给人们带来了启迪,弗洛伊德的心思动力学就自创了蒸汽机热力学机制。而在如今这个时代,计算机从根本上塑造人们的观念,由于假设世界是一台计算机,那麼这个世界就可以被编程。
代码具有逻辑,可以被修正。这是数字时代的中心准绳。软件无所不在,正如风险资本家马克·安德森(Marc Andreessen)所说,我们置身于机器丛林之中,机器把我们的行爲、想法和心境转换成了数据——而数据是一种原材料,可以供工程师编码执行。我们把生活看成是一种有规则的东西,其规则就是一系列可以被发现、使用、优化,甚至改写的指令。科技公司运用代码来理解我们最密切的联络,就连一些励志文章也说,你可以修正你自己的源代码,对你的恋爱方式、睡眠习气,以及消费习气中止重新编程。
在这个世界上,编程才干已经不只仅是一种理想的技艺,而且也成爲了一种言语,假设你会说这种言语,你就是一个“圈内人士”,拥有了登堂入室的门径。“假设你控制了代码,你就控制了世界,”未来学家马克·古德曼(Marc Goodman)曾说。保罗·福特(Paul Ford)用词则愈加慎重一些:“控制代码的人就算没有控制世界,也控制了可以控制世界的东西。)
如今,无论是你喜欢这种状况还是讨厌它,无论你能否知晓编程,都不要执迷于它。由于我们的机器末尾说一种完全不同的言语了,即便是最好的顺序员也无法完全理解这种言语。
“机器学习”与深层神经网络
过去几年里,美国硅谷顶尖的高科技公司末尾大力展开一种计算方法,称爲“机器学习”。传统的编程方式是写出一步步的指令,让计算机遵照执行。但在机器学习中,顺序员不爲计算机编写指令,而是对计算机中止训练。假设你想教会神经网络识别小猫,你不是告诉它要找到胡子、耳朵、皮毛和眼睛。而是向它出示大批小猫的照片,最终它就能学会。假设它把狐狸错误地归类爲猫,你也不需重写代码,只需继续训练它即可。
这种做法并不新颖,几十年前就有了,但是最近出现了一日千里,这要部分归功于深层神经网络的兴起。深层神经网络是一种大规模分布式计算系统,模仿大脑神经元的多层衔接。我们有很多网上活动都是以机器学习爲后台的,比如Facebook用它来决议哪些内容出现在你的消息流里,谷歌(微博)照片效力用它来识别面孔,微软Skype的翻译功用也运用了机器学习,实时把内容转换成不同的言语。此外,无人驾驶汽车也使用机器学习来避免事故的发作。
即便是谷歌的搜索引擎也已经末尾采用深层神经网络了:该公司今年2月任命机器学习专家约翰·詹南德雷亚(John Giannandrea)担任搜索部门担任人。谷歌发起了一项重要方案,培育工程师掌握这些新技术。“经过打造学习系统,”詹南德雷亚说,“我们不必再编写规则了。”
一个时代的终了
这里的成果是:运用机器学习,工程师永远不知道计算机是如何完成义务的。神经网络的机制在很大程度上是不透明的,奥妙莫测。换言之,它就是一个黑盒子。随着这些黑盒子末尾承担更多的日常数字义务,它们不只会改动我们与技术之间的关系,而且还会改动我们看待自己、看待这个世界,以及自己在世界中位置的方式。
假设说以前,顺序员就似乎是上帝,制定了计算机系统运转的规律,那麼现如今,他们更像是家长或许驯狗师了,这是一种愈加捉摸不定的关系。
安迪·鲁宾(Andy Rubin)是一名阅历丰厚的顺序员,参与了Android操作系统的搭建。 “我进入计算机科学这一行的时分还很年轻……它是一块空白的画布,我可以从零末尾创建东西,”他说。“很多年来,这给我带来了一种庞大的掌控感。”
但是如今,他说,这个时代即将终了。鲁宾热衷于机器学习,他的新公司Playground Global就是机器学习范围的创业公司,主营智能设备的普及——但是这事也有点让他伤心,由于机器学习改动了“当一名工程师”的内涵。
“人们不再用线性的方式写顺序了,”鲁宾说。“神经网络学会如何中止语音识别之后,顺序员是无法深化其内部一窥终究的。它就像你的大脑一样。你不能砍下一集团的脑袋来看看他在想什麼。”假设工程师决意要看看深层神经网络中是什麼,他们看到会是一个数学的海洋:一个庞大的、多层结构的微积分红绩,经过不时推导数十亿数据点之间的关系,得出对世界的猜测。
就在几年前,主流的人工智能研讨人员还以爲,爲了创造智能,我们必需给机器灌输正确的逻辑。等到编写了足够多的规则,最终我们就会打造出一种足够精密的系统来了解这个世界了。他们在很大程度上无视了机器学习的一些早期支持者,这些支持者以爲,应该给机器灌入数据,让它们自己得出结论。
许多年来,计算机不时没有展开到强大得足以真正证明这两种方法优劣的程度,所以这个争论成爲了一个哲学命题。“大部分争论都立足在一些坚决的决心上:这个世界应该怎样组织起来,大脑是如何义务的,”谷歌无人驾驶汽车研发者、前斯坦福大学人工智能教授塞巴斯蒂安·史朗(Sebastian Thrun)说。“神经网络没有符号,没有规则,只需数字。这让很多人都敬而远之。”
顺序员不会失业
一种不可解析的机器言语,这不只仅是个哲学想象而已。在过去的二十年里,学习编程不时是最可靠的失业途径之一——所以一些家长让孩子在放学后去上编程辅导班。但是,以神经网络方式衔接的深层学习机器是另外一个世界,需求的是另外一种员工。分析师已经末尾担忧人工智能会对失业市场发作怎样的影响了。就像一些机器设备发明之后,之前的一些工种失掉了意义,顺序员自己可以很快也会品尝到这种滋味了。
当被问及这种转变时,提姆·奥莱理(Tim O'Reilly)说,传统的编码义务不会完全消逝,而且在很长一段时间中,我们仍然需求顺序员——但是需求的人数可以会添加,编程会成爲一项元技艺(meta skill)。按照艾伦人工智能研讨所(Allen Institute for Artificial Intelligence)的CEO奥伦·奥尼(Oren Etzioni)的说法,机器学习需求“脚手架”来运转,而搭建“脚手架”就需求会编程。不会由于有了量子力学,牛顿力学就会被丢弃。编程仍然会是一种强大的探求世界的工具,只是人们可以还需求其他更多的工具。但是,在驱动详细职能方面,主要义务是由机器学习来执行的。
当然,人们仍然要训练这些系统。这项义务既需求对数学有非常深化的领悟,也需求有一种教学上的直觉。“这几乎就像一种艺术,把这些系统中最好的一面引发出来,”谷歌DeepMind人工智能团队的主管戴密斯·哈萨比斯(Demis Hassabis)说。“世界上有只需几百人能出色地做到这一点。”但是,即便人数这麼少,也足以在短短的几年间内就给技术行业带来了转变。
对文明的影响
无论这种转变会给失业带来怎样的影响,它对文明的影响一定会更大一些。假设人类编写的软件招致了人们对工程师的敬重,让大家觉得人类体验最终可以简化爲一系列可以理解的指令,那麼,机器学习就末尾向相反的方向推进了。宇宙运转的规律,可以是无法人爲分析的。欧洲反垄断调查称谷歌对搜索的结果施加了不当影响。但是,假设就连公司自己的工程师也说不清楚搜索算法终究是如何发扬作用的,那麼这样的指控就会变成无头公案了。
不确定性已经不是什麼旧事,即使很复杂的算法,也可以发作不可预知的突发行爲——这种说法可以追溯到混沌实践和随机数生成器。过去的数年中,随着网络变得日益扑朔迷离,功用变得越发复杂,代码似乎越来越像是一种外星神力,机器的行爲变得愈加难以捉摸,难以管控:股市里出现了一系列不可预防的突然崩溃;停电现象莫名发作。
由于这些力气的崛起,技术专家丹尼·希利斯(Danny Hillis)宣布“启蒙时代”已经终了。数个世纪以来,我们对逻辑、确定性和控制自然充溢了决心,这个时代如今终了了。希利斯说,“纠缠时代”(age of Entanglement)末尾了。“我们在技术和机制上的创造的东西变得愈加复杂,我们与它们之间的关系发作了变化,”他在《设计和科学》(Design and Science)杂志上的写道。“我们不再是我们创造的东西的主人,我们学会与它们商榷,哄骗和引导它们朝着的我们的小气向行进。我们创造了我们自己的丛林,它们也有它们自己的生命。”在这条路途上,机器学习的崛起是最新的一个展开,也许会是最后一个。
前景令人担忧?
这可以会让人觉得可怕。毕竟,普通人参与了短训班之后,多少也会掌握一些编程技艺。顺序员至少还是人类。如今不只科技精英圈增加了,而且关于他们自己创造的东西,他们的控制力也减弱了。创造这些东西的公司发现它们很难管控。去年夏天,谷歌的照片识别引擎把黑人图片标志爲大猩猩。公司在负疚的同时,马上采取了一个纠正做法:让系统不要把任何东西标志爲大猩猩。
一些人觉得,这意味着机器夺走人类声威的时代将会到来。“可以想见,技术打败了金融市场,比人类研讨者更擅擅长发明创造,比人类指点者更擅擅长操纵术,还会研制出一些我们甚至无法理解的武器,”斯蒂芬·霍金写道,“虽然AI的短期影响取决于控制它的人,但它的暂时影响则取决于它终究能否能被人控制。”埃隆·马斯克和比尔·盖茨等人都赞同他的说法。
但是无需太过惧怕。我们才刚刚末尾学习与一项新技术“纠缠”的规则。目前,工程师们正在研讨如何把深度学习系统的进程中止视觉化。但是,即使我们永远不能完全理解这些新机器的思绪,这也不意味着我们会在它们面前无能爲力。在未来,我们不会太关心它们行爲的深层根源,而是学会把留意力放在它们的行爲本身上。代码的重要性将会降低,我们用来训练它的数据会变得愈减轻要。
重拾行爲主义
你可以觉得这看上去似乎有点眼熟,那是由于它和20世纪的行爲主义很相似。理想上,训练机器学习算法的进程经常被比喻爲20世纪初一个伟大行爲主义实验:巴甫洛夫用铃铛声让小狗流口水,那并非源自于对饥饿的深化理解,只是一遍又一遍地重复一个套路。他提供了数据,一遍又一遍,直到代码重写了其本身。不管你对行爲主义者有什麼看法,他们就是有控制实验对象的身手。
史朗说,从暂时来看,机器学习将带来一种民主化的影响。就好比如今你不需求学HTML就能建网站,最终来说,你不需求博士学位,就能使用深度学习的庞大力气。编程不再是掌握了一系列奥妙言语的顺序员的专属领地。只需你曾经教会过小狗打滚,你就能胜任。“对我来说,这是编程方面最酷的事情,”史朗说,“由于任何人都可以编程了。”
在计算的历史上,关于机器如何义务,很多时分我们都采取了一个由内而外的视角。首先我们写代码,然后用机器表述它。这种世界观暗示了一种可塑性,但也表现了一种基于规则的决谈论,从某种意义上说,底层指令决议了一切。机器学习则相反,它代表了一种由外而内的视角:不只是代码决议行爲,行爲也决议了代码。
如今,计算机是一种把体验转化爲技术的设备。几十年来,我们寻求的是那种可以解释我们对世界的体验,以及中止一些调整后,可以优化我们对世界的体验的代码。但是,我们的机器将无法按照这种方式展开下去。我们与技术的关系将变得愈加复杂,但最终来说也会变得更有价值。我们的角色也会发作变化,以前我们是设备的指挥官,以后我们会是设备的家长。
 
  • 上一篇:手机网站如何做SEO优化?
  •   
  • 下一篇:代码的终结:未来我们会像训练小狗一样调教计
  • 吉公网安备 22010202000656号