人工智能极简史:10 分钟看清 AI 发展线和 AI 史上八仙过海各显神通的关键角色

来自:程序员阅读指北(微信号:CodersRead),作者:英子

不骗人,真的是特别「」,谁都能看明白——毕竟,想要有难度,我的水平根本做不到啊!

好了,阅读之前有个重要的说明。

文章结构说明

极简事件(深蓝色块)+ 事件说明(小卡片)+ 关键人物(照片+ Title)

文章内容说明

本文时间线重度参考了 2016 年 Gil Press 发布在 Forbes 上的 A Very Short History Of Artificial Intelligence,但有删减和添加。近两年的事件属于我自己收集。写的事件虽然是同样的,但大部分描述与原文不同。

时间线上的事件,我这边尽量用大白话和极为简单的描述说一下,更多内容会放在小卡片里解释——简单的大白话在严谨性上会丢分儿,但这是我想要呈现的样子。不过,原则上依然是字尽量少,除非是八卦......

怎么说呢,作为一个八卦爱好者,很容易出现周边无关紧要的内容抖个不停的症状(谁说那不是把科技史当秘史看的乐趣呢)。当然不是完全无关紧要,比如学术跳槽这种,暂且就叫八卦吧!本文的不少内容和八卦参考了尼克老师的《人工智能简史》一书,但不是 Copy ,若直接 Copy 会作为引用说明。

注意,很重要的一点,限于个人水平,免不了错说漏说,敬请指正。

另外,参考资料列在文末了。

简单数据说明

  • 重要时间节点及事件近 90 项

  • 含照片 AI 大神 30 + 位,提到名字的 50+ 位

  • AI 领域具有代表性的论文近 30 篇(含图书)

  • AI 相关经典电影 6 部

  • 图片 60 +


START

1943 年,麦卡洛克和皮茨提出神经元的数学模型

麦卡洛克和皮茨在 Mathematical Biophysics 上发表了 “A Logical Calculus of Ideas Immanent in Nervous Activity”,开“神经网络”研究先河。

Warren McCulloch

(1898 – 1969)美国神经科学家和控制论学者,先后在耶鲁大学、伊利诺伊大学芝加哥分校、MIT 等待过。

Walter Pitts

(1923 – 1969)美国逻辑学家,自学成才,跟着维纳学习过一段时间,不是正式学生。

一般说起人工智能的源起,大家都会想到“达特茅斯会议”,我们后面也会提,咱们就按照时间线来把关键事件和人物一一展示出来。AI 思想上的源头可能得追溯到哲学家的某些思想了,我没关注到那一块,咱就略过了。


“神经网络”研究开启得还是挺早的。众所周知,深度神经网络目前在深度学习中是挑大梁的角儿,然而,能发展到今天也是经历了不少“挫折”。在继续阅读之前,简单说下 AI 门派,所谓“无斗争,不江湖”。


一般认为,人工智能发展史上主要有 3 个学派:符号主义、连接主义和行为主义。


  • 符号主义,也称逻辑主义,认为智能是对符号的操作,主张用公理和逻辑体系搭建人工智能系统。

  • 连接主义,也叫仿生学派,致力于用神经网络的连接机制实现人工智能。

  • 行为主义,源于控制论,在机器人控制系统中应用较多。


AI 发展史满是符号派和连接派的刀光剑影。


1949 年,赫布提出 “Hebb 规则”

赫布在 Organization of Behavior: A Neuropsychological Theory 一书中提出的 “Hebb 规则” ,是最简单的神经元学习规则,指的是“如果两个细胞总是同时激活,它们之间就有某种关联,同时激活的概率越高,关联度也越高”。如今的无监督机器学习算法或多或少借鉴了 “Hebb 规则” 的思想。

Donald Hebb

(1904 – 1985),加拿大神经心理学家。在神经心理学领域有重要贡献,致力于研究神经元在心理过程中的作用。


1950 年,香农发表第一篇讲计算机下棋的文章

香农在 Philosophical Magazine 发表的 “Programming a Computer for Playing Chess”,是第一篇讲计算机下棋的文章。

Claude Shannon

(1916 – 2001)美国数学家、电子工程师和密码学家、信息论创始人。1948 年香农发表的“通信的数学原理”,奠定了现代信息论的基础。


1950 年,图灵发表“计算机与智能”

在 Mind 杂志发表的 “Computing Machinery and Intelligence”,提出了“模仿游戏”,也就后来广为人知的“图灵测试”。这篇文章是机器智能最早的系统化科学化论述。


图灵可能是第一个对机器智能做出深度思考的人士。

Alan Turing

(1912 – 1954)英国计算机科学家、数学家、逻辑学家、密码分析学家,计算机科学与人工智能之父。


1951 年,出现第一个神经元网络模拟器 SNARC

SNARC 是 Stochastic Neural Analog Reinforcement Calculator 的简称,即随机神经网络模拟加固计算器,模拟 40 个神经元的运行,由 Marvin Minsky 和 Dean Edmunds 构建,是人工智能领域的先锋实验。


Marvin Minsky 在人工智能领域的研究起于神经网络,但不久就转向了符号派的阵营,甚至后来成为符号派的“大护法”,一度大力“镇压”神经网络的星星之火。

Marvin Minsky

(1927 – 2016) 美国计算机科学家、人工智能先驱、MIT 教授,1969 年图灵奖得主。


1952 年,出现第一个计算机下棋程序

塞缪尔开发了第一个计算机下棋程序,不过他 1955 年写的第二个跳棋程序才具有自学习能力,被认为是最早的机器学习程序之一,真正公开算是在 1956 年。

Arthur Samuel 

(1901 – 1990)美国计算机游戏和人工智能领域先驱,先后在贝尔实验室、伊利诺伊大学、IBM、斯坦福大学待过,大部分成就是在 IBM 做出的。


1955 年 8 月 31 日,首次出现 artificial intelligence 一词

artificial intelligence 一词首次出现在 “2 month, 10 man study of artificial intelligence” 提案中,作者是麦卡锡、明斯基、罗切斯特和香农。提案是为准备 1956 年召开的“达特茅斯人工智能研讨会”而拟定的。


1955 年 12 月,第一个人工智能程序 Logic Theorist 诞生

纽厄尔和司马贺开发的 Logic Theorist,在达特茅斯夏季研讨会之后才算大范围公开,该程序可以证明怀特海和罗素《数学原理》一书第二章 52 个定理中的 38 个。会议后,纽厄尔和司马贺发表 Logic Theory Machine ”,是 AI 历史上重要的文章之一。


AI 早期发展阶段是符号主义的天下,纽厄尔和司马贺是符号派的重要人物。不过符号派内部也有斗争,比如司马贺和明斯基的研究就不一样,彼此也憋着劲儿呢,这里就不细说了。

Herbert A. Simon

(1916 – 2001)美国著名计算机科学家、心理学家、卡耐基梅隆大学教授。1975 年图灵奖和 1978 年诺贝尔经济学奖得主。


1956 年 8 月 31 日,“人工智能夏季研讨会”在达特茅斯学院召开

这一年被称为“人工智能元年”。当时出席大会的 10 位专家是:麦卡锡、明斯基、罗切斯特、香农、塞缪尔、纽厄尔、司马贺、塞弗里奇、所罗门诺夫和摩尔,都是人工智能领域的先驱。


英文名备注:

John McCarthy 、Marvin Minsky、Nathaniel Rochester、Claude Shannon、Arthur Samuel 、Herbert A. Simon、Allen Newell、Oliver Selfridge、Ray Solomonoff、Trenchard More

 2006 年,50 年后再聚,依然在世的几位

左起:摩尔、麦卡锡、明斯基、赛弗里奇、所罗门诺夫


1957 年,罗森布拉特发明“感知机”

Perceptron 是一种神经网络模型,AI 领域的一大突破。Perceptron 具有两层网络,可完成一些简单的视觉处理任务。《纽约时报》称它为 “remarkable machine…”。


Perceptron 在当时引起了重大关注,这段时间神经网络的研究非常热门。

Frank Rosenblatt

(1928 – 1971)康奈尔大学实验心理学家、人工智能领域先驱,43 岁生日当天去世。


1957 年,纽厄尔、肖和西蒙提出 General Problem Solver

GPS(一般问题解决器)基于西蒙和纽厄尔关于逻辑机的研究。原理上,任何形式化的符号问题都可以被此程序解决。

Allen Newell

(1927 – 1992)美国计算机科学和认知心理学领域专家、卡耐基梅隆大学教授,1975 年图灵奖得主。


1957 年,司马贺预言十年内计算机下棋击败人类

实际上等了 39 年,直到 1997 年“深蓝”打败卡斯帕罗夫。1965 年,司马贺又预言 20 年内人会做的机器都可以搞定。AI 领域乐观预言屡见不鲜。明斯基 1968 年在《2001 太空漫游》新闻发布会上说 30 年内机器智能可以和人有一拼。


1958 年,麦卡锡设计了 Lisp

Lisp 的发明在 FORTRAN 之后,Clojure、Common Lisp 和 Scheme 都是 Lisp 的方言,Lisp 是当时人工智能领域最受欢迎的编程语言,目前仍然广泛使用,对后世编程语言具有深刻影响。

John McCarthy

(1927 – 2011)美国计算机科学家、人工智能先驱、斯坦福大学教授,1971 年图灵奖得主。


1959 年,塞缪尔首创 machine learning 一词

1959 年,Samuel 首创 Machine Learning,他给 ML 下的非正式定义为:Field of study that gives computers the ability to learn without being explicitly programmed.

「没有明确编程指令的情况下,能让计算机学习的研究领域就是机器学习。」


这个定义比较概括,1998 年,Tom Mitchell 给出了一个更为精确的定义:

Well posed Learning Problem: A computer program is said to learn from experience E with respect to some task T and some performance measure P, if its performance on T, as measured by P, improves with experience E.


1959 年,塞弗里奇提出一种让计算机识别新模式的计算模型

塞弗里奇是在 “Pandemonium: A paradigm for learning”一文中提出的,这是人工智能领域早期经典论文。

Oliver Selfridge

(1926 – 2008)人工智能先驱,机器感知之父。


1959 年,麦卡锡和明斯基牵头成立 MIT 人工智能实验室

麻省理工学院人工智能实验室的前身是 MIT  MAC 项目中的 AI 实验室,余下的部分变成了计算机科学实验室。后来又合并成了如今的 MIT CSAIL(麻省理工学院计算机科学与人工智能实验室)。


咱们这篇文章中提到了在人工智能领域比较强的三所美国高校:麻省理工学院、斯坦福大学、卡内基梅隆大学。参加达特茅斯研讨会的 AI 先驱中,明斯基在 MIT、麦卡锡在斯坦福大学,司马贺和纽厄尔在卡内基梅隆大学,并且他们都参与了不少学科初创工作。


AI 研究早期,流派斗争严重,顶尖高校是重要的根据地,近十年 AI 领域被深度学习主导,早先的门户之争已逐渐消失。

Project MAC's IBM 7094


CSAIL

(来自维基百科)



1959 年,麦卡锡提出第一个完整的 AI 系统

麦卡锡发表“Programs with Common Sense” ,其中提出一个能跟人一样学习的假想程序 “Advice Taker”,被认为是第一个完整的人工智能系统。


1961 年,诞生工业界第一款机器人 Unimate

工程师恩格尔伯格受阿西莫夫小说 I, Robot 影响,与发明家 George C. Devol 成立 Unimation。1961 年,公司的第一台机器人 Unimate 开始在通用电气新泽西工厂试用。

Joseph Engelberger

(1925 – 2015)美国物理学家、工程师、机器人之父。

在酒店为顾客倒咖啡


两张照片来自 ilstu.edu




1961 年,出现第一个自动符号积分程序 SAINT

James Slagle 开发了SAINT,据说可以解决大一水平的微积分问题。

James Slagle

(1934 –  )美国计算机科学家、明尼苏达大学教授,做过明斯基的学术顾问。


1962 年,斯坦福大学人工智能实验室(SAIL)成立

麦卡锡参与了此事。他本来跟明斯基在 MIT,刚创建人工智能实验室不久,因为跟课题负责人有学术意见分歧返回斯坦福大学,协助创建了人工智能实验室。随后斯坦福疯狂挖人,在 AI 领域聚集了大批知名学者。


麦卡锡待的学校真不少,普林斯顿大学数学专业博士毕业后先后在校任教,转斯坦福,转达特茅斯学院、转 MIT,大约都待了 2 年,最终又回了斯坦福大学。


1964 年,出现自然语言理解程序 STUDENT

MIT 学生 Daniel Bobrow 发表博士论文  “Natural Language Input for a Computer Problem Solving System” ,同时开发 STUDENT,是计算机对自然语言理解最早的尝试之一。


1965 年,德雷弗斯发表著名的 “Alchemy and AI”

“炼金术与人工智能”和后来的文章集结为《计算机不能干什么》一书,是批判 AI 最知名的作品之一。

Hubert Dreyfus

(1929 – 2017) 加州大学伯克利分校欧陆派哲学代表人物,知名的人工智能批判家。

1972 年首版


1992 年升级版



1965 年,古德提出超人智能

在 “Speculations Concerning the First Ultraintelligent Machine” 一文中, I. J. Good 指出了人工智能对人类的威胁,认为机器的超人智能(智能爆炸)终将不受人类控制。


1965 年,魏森鲍姆开发聊天机器人 ELIZA

ELIZA 是第一个自然语言对话程序,通过简单的模式匹配和对话规则与人聊天。Kenneth Colby 在 1972 年开发了聊天机器人 PARRY。当年的国际计算机通讯年会(ICCC)上,ELIZA(作为医生)和 PARRY(作为病人) 通过 ARPANET 对聊了一回。


Vint Cerf 记录的资料请见:

https://tools.ietf.org/html/rfc439

 PARRY and ELIZA(1972,文字截图)

Joseph Weizenbaum

(1923 – 2008),美国计算机科学家、MIT 教授、SLIP 语言发明人。


1965 年,第一个专家系统 DENDRAL 启动

专家系统 DENDRAL 的主要参与人是:Edward Feigenbaum、Bruce G. Buchanan、Joshua Lederberg 和 Carl Djerassi。在 DENDRAL 中输入质谱仪的数据,输出给定物质的化学结构。

Edward Feigenbaum

(1936 – )美国计算机科学家、专家系统之父、斯坦福大学教授,1994 年图灵奖得主。


1966 年,第一台具有移动能力的机器人 Shakey 诞生

Shakey,来自 Wikimedia


1968 年,库布里克执导的《2001 太空漫游》上映

 电影中的智能电脑 Hal 9000(来自豆瓣)


1968 年,维诺格拉德开发自然语言处理程序 SHRDLU

SHRDLU 要远比 ELIZA 复杂,学术意义也更加深刻。SHRDLU 把当时很多 AI 技术整合到一起,除了自然语言理解外,还有规划和知识表示。这甚至是最早的计算机图形学的应用。SHRDLU 的潜在应用范围也要远广于 ELIZA,我们可以轻易地联想到怎么把 SHRDLU 推广到不同的领域,例如计算可行的旅游路线。

——尼克,《人工智能简史》

Terry Winograd

(1946 – ),计算机科学家、斯坦福大学教授,佩珀特的学生,谷歌创始人布林和佩奇的导师。


1969 年,明斯基和佩珀特出版《感知机:计算几何学》

明斯基和佩珀特在 Perceptrons: An Introduction to Computational Geometry 一书中证明了罗森布拉特感知机的缺陷(甚至无法执行“异或”问题这样简单的功能),间接导致此后神经网络研究进入大萧条,两人因此也被神经网络派称为“魔鬼搭档”。

Seymour Papert

(1928 – 2016)美国计算机科学家、数学家、MIT 教授、Logo 发明人。


1970 年,早稻田大学研发第一个拟人机器人  WABOT-1

来自:amsteambeast.com


1972 年,Prolog 正式诞生

Prolog 是当时人工智能研究领域的编程语言之一,日本五代机的研发就用 Prolog 作为主要的编程语言。Prolog 发明人为 Alain Colmerauer、Phillipe Roussel 等。


1972 年, 布坎南团队开发医疗专家系统 MYCIN

MYCIN 是一个针对细菌感染的诊断系统。MYCIN 的处方准确率是 69%,当时专科医生的准确率是 80%。虽然 MYCIN 并没有应用于临床,其开发原理成为专家系统 EMYCIN 的基础。

Bruce G. Buchanan

(1940 – )美国计算机科学家,先后在斯坦福大学和匹兹堡大学任教,以在专家系统方面的研究著称。


1974 年,关于神经网络的一篇重要论文出现

哈佛大学 Paul Werbos 的博士论文 “Beyond regression : new tools for prediction and analysis in the behavioral sciences”  证明在神经网络多加一层,并且利用“反向传播”算法,可以解决 XOR 问题。由于当时正是神经网络研究的低谷,文章发表后并没有引起重视。

Paul Werbos

(1947 – )计算机科学家,循环神经网络先驱。出版图书 The Roots of Backpropagation



1976 年,瑞迪发文总结自然语言处理早期工作

这里提的文章是:“Speech Recognition by Machine: A Review”。

Raj Reddy 

(1937 – )卡内基梅隆大学教授,带团队做出了语音识别系统 Hearsay。因语音方面的贡献,跟费根鲍姆一起拿了 1994 年的图灵奖。


1978 年,诞生了同期最成功的专家系统  XCON

XCON 是真正投入商用的。DEC 销售 VAX 电脑时,XCON 基于规则根据顾客需求自动配置零部件,源于卡内基梅隆大学的 R1 系统。


1979 年,早期自动驾驶开启探索

斯坦福大学的 Stanford Cart 在无人干预的情况下,耗时 5 小时成功“驶”过放置多障碍物的房间。


其实走得特别慢,近乎试探,所以“驶”字加了个引号,Twitter 有个视频:https://www.youtube.com/watch?v=ypE64ZLwC5w。

来自:http://cyberneticzoo.com


1979 年,卡内基梅隆大学成立机器人学院(CMRA)


1981 年,日本巨资启动“五代机项目”

第五代计算机是日本从制造大国到经济强国转型计划的一部分,拟建立日本在全球信息产业的领导地位,以失败告终。




五代机的终极目标是知识信息处理,在当时的语境下特指专家系统和自然语言理解。


60 年代到 80 年代,符号主义学派对专家系统投入了莫大的热情和资金,五代机的失败标志着专家系统的狂潮退去。


1981 年,普特南出版《理性、真理与历史》,书中提出了著名的“缸中脑”假想实验

图片来自:Wikimedia

Hilary W. Putnam

(1926 – 2016)美国哲学家、数学家与计算机科学家,提出著名的孪生地球和缸中脑假想实验。


1982 年,霍普菲尔德提出一种新的神经网络

John Hopfield 提出的神经网络模型后来被称为霍普菲尔德网络,可以解决一大类模式识别问题,还可以给出一类组合优化问题的近似解。1984 年,霍普菲尔德用模拟集成电路实现了自己提出的模型。


霍普菲尔德的研究点燃了 20 世纪 80 年代神经网络的复兴。随后,一批早期神经网络研究人士开启了连接主义运动,其中最为知名的代表人物是:David Rumelhart、 James McLelland 和 Geoffrey Hinton。Hinton 就是目前深度学习领域的代表人物了。

John Hopfield

(1933 – )美国物理学家、分子生物学家、神经学家,普林斯顿大学教授。

David Rumelhart

(1942 – 2011)美国心理学家,Parallel and Distributed Processing 作者。

James McLelland

(1948 – )美国心理学家,Parallel and Distributed Processing作者


1984 年, 预警 AI Winter 即将到来

AAAI 年会上,Roger Schank 和 Marvin Minsky  预警 AI Winter 即将到来,3 年后 AI 投资和研究基金确实锐减。这次 AI Winter 的时间段大约在 1987 – 1993。


1984 年,詹姆斯·卡梅隆执导的《终结者》上映

电影中的机器人 T800(来自豆瓣)


1986 年,首辆无人驾驶汽车完成首秀

无人车是一台配备摄像头和传感器的奔驰面包车,在无人街道上行驶速度高达 55 mph。由计算机视觉领域大神 Ernst Dickmanns 带的慕尼黑德国联邦大学研究团队开发。

来自:Driving.ca


1986 年 10 月, 阐述反向传播算法的经典论文发表

David Rumelhart、Geoffrey Hinton、Ronald Williams 的 “Learning representations by back-propagating errors” ,是神经网络领域引用次数最高的论文,阐述了在深度学习领域大放异彩的反向传播算法。


有的参考资料说这三位发现了反向传播算法,不过,还有一个说法是早在 1969 年,Arthur Bryson 和 Yu-Chi Ho 就提出了反向传播算法。反向传播算法是机器学习领域中最重要的算法之一,用于深度神经网络。

Geoffrey Hinton

(1947 – ),多伦多大学教授,深度学习领域三巨头之一,被誉为“深度学习之父”。2018 年图灵奖得主。辛顿创办的公司 DNNresearch 被谷歌收购。


1987 年,连接主义学派重要作品 PDP 出版

Parallel Distributed Processing


1988 年,珀尔出版 Probabilistic Reasoning in Intelligent Systems

1988 年出版,内容经典

Judea Pearl

(1936 – ) ,美国计算机科学家,贝叶斯网络之父,因概率和因果推理方面的研究获 2011 年图灵奖。


1988 年,第一个能模拟人声的机器人 Jabberwacky 诞生


1988 年,机器翻译研究方法转变

IBM 沃森研究中心发表了 “A statistical approach to language translation”,预示着机器翻译从基于规则的翻译向概率方法转变。


1989 年,利用反向传播算法优化手写 ZIP 识别

贝尔实验室的 Yann LeCun 和同事将反向传播算法成功应用到多层神经网络上,用于优化手写邮政编码识别,论文为:Backpropagation Applied to Handwritten Zip Code Recognition

Yann LeCun

(1960 –)深度学习领域三巨头之一,Facebook 首席人工智能科学家,对 CNN 在深度学习领域的应用做出了贡献。2018 年图灵奖得主。


1990 年,Rodney Brooks 发表“大象不下棋

“Elephants Don’t Play Chess” 跟大象没啥关系,提出了在与环境交互的基础上打造人工智能系统的想法。

Rodney A. Brooks

Rodney Allen Brooks,作家,iRobot 创始人、Rethink Robotics CTO。


1993 年, Vernor Vinge 发文“即将到来的技术奇点”

Vernor Vinge 在 “The Coming Technological Singularity” 中指出,30 年内人类就可以创造出超级智能。奇点就是人工智能超过人类智力极限的时间点。


1997 年,长短时记忆网络 LSTM 提出

LSTM 由 Sepp Hochreiter 和 Jürgen Schmidhuber 开发,解决了原循环神经网络的问题,是当前最流行的一种 RNN,广泛应用在语音识别、图片描述、自然语言处理等领域。

Jürgen Schmidhuber

(1963 – )瑞士计算机科学家,在深度学习和人工神经网络领域做出了很大贡献。


1997 年,IBM 下棋程序“深蓝”击败世界冠军卡斯帕罗夫

图片来自:spiritegg.com


1998 年,第一个宠物机器人 Furby 诞生

图片来自:Amazon


1998 年,Yann 等发表手写识别及反向传播相关论文

Yann LeCun、Yoshua Bengio 等的论文 “Gradient-based learning applied to document recognition” 是深度学习领域经典论文。其中 Yann LeCun 设计的 LeNet-5 ,是世界上第一个正式的卷积神经网络。


AI 寒冬到 90 年代这段时间,学术方面的经典研究都大多是神经网络领域的。

Yoshua Bengio

(1964 – ),深度学习三巨头之一,加拿大计算机科学家,与 Ian Goodfellow、Aaron Courville 合著图书《深度学习》。2018 年图灵奖得主。


1999 年,沃卓斯基兄弟执导的《黑客帝国》上映

《黑客帝国》海报(来自豆瓣)


2000 年,MIT 开发机器人 Kismet,可识别和模拟人类情绪

图片来自:MIT Museum


2000 年,本田开发类人机器人 ASIMO

图片来自:Wikimedia


2001 年,斯皮尔伯格执导的《人工智能》上映

《人工智能》海报(来自豆瓣)


2004 年,首届无人车顶级赛事 DARPA Grand Challenge 举办

DARPA 组织了第一届无人车挑战赛 Grand Challenge,全程 150 英里。参赛队伍包括斯坦福、卡内基梅隆大学等顶尖高校,遗憾的是,没有一个完成比赛。读了一篇 Medium 文章说最给力的也只行驶了 7 英里。然而,第二年就有参赛队伍完赛了。


DARPA 是美国国防高等研究计划署的英文缩写(Defense Advanced Research Projects Agency),在美国科技发展中发挥了重要作用。早期 AI 的起起落落也跟 DARPA 研究经费收紧与否密切相关。

卡内基梅隆大学的 Red Team(wiki)


2005 年,加斯·詹宁斯执导的《银河系漫游指南》上映

《银河系漫游指南》海报(来自豆瓣)


2006 年,Oren Etzioni 等首创 machine reading 一词


2006 年,辛顿发表 “Learning Multiple Layers of Representation”


2007 年,李飞飞和普林斯顿大学同事启动 ImageNet 项目

ImageNet 是图像处理领域最有名的数据集之一。基于 ImageNet 数据集进行的 ILSVRC(ImageNet 大规模视觉识别挑战赛)相当于计算机视觉领域权威评测,始于 2010 年,终于 2017 年。

 李飞飞 

(Fei-Fei Li)斯坦福大学人工智能实验室主任,曾任 Google Cloud 首席科学家。


2009 年,Rajat Raina 等发文阐述 GPU 对深度学习的重要性

Rajat Raina、Anand Madhavan 和 Andrew Ng 发表 “Large-scale Deep Unsupervised Learning using Graphics Processors”,指出 GPU 对深度学习的重要性。

 吴恩达 

(Andrew Ng)Coursera、Google Brain 联合创始人,曾任斯坦福大学人工智能实验室主任、百度首席科学家。


2009 年,西北大学开发 Stats Monkey 程序,自动写体育新闻稿


2009 年,谷歌开始秘密研发无人车;2014 年,谷歌无人车首度通过内华达州无人驾驶测试


2010 年,ImageNet 大规模视觉识别挑战赛开始举办


2010 年,DeepMind 成立,2014 年被谷歌收购

DeepMind 是英国人工智能公司。让 DeepMind 名声大噪的是,其开发的人工智能围棋程序 AlphaGo 2016 年击败韩国国手李世乭,核心算法是强化学习。

Demis Hassabis

16 岁考入剑桥大学计算机系,22 岁创办电脑游戏公司,29 岁回伦敦大学读认知神经学博士,34 岁创办 DeepMind。


2011 年,卷积神经网络在德国交通标志识别竞赛中击败人类


2011 年,沃森在知名智力问答节目中击败人类选手

Watson 在美国智力问答节目 Jeopardy! 中击败前两届冠军。Watson 是 IBM 制造的计算机问答系统,涉及高级自然语言处理、消息检索、知识表示、自动推理、机器学习等技术。

图片来自:Inverse


2011 年,卷积神经网络进一步降低手写识别误差率

瑞士人工智能研究所 IDSIA 工程师报告了他们的研究。IDSIA 是欧洲知名人工智能研究所,由 Angelo Dalle Molle 于 1988 年创立, Jürgen Schmidhuber 是现任科学主任。


2012 年 6 月,深度网络经过自主学习识别出猫

Jeff Dean、吴恩达等设计的大规模分布式深度网络 DistBelief 通过学习1000 万张图像,成功在 YouTube 视频中识别出了“猫”,系统事先并没有任何关于猫的概念 。

 Jeff Dean 

(1968 – )美国知名计算机科学家、软件工程师。Google AI 负责人,Google Brain 联合创始人。


2012 年 10 月, ILSVCR 诞生具有里程碑意义的 AlexNet

AlexNet 是一种卷积神经网络,由辛顿的学生 Alex Krizhevsky 设计。AlexNet 在 ILSVCR 中的错误率大幅降低(16%),而去年是 25%。相关论文:“ImageNet Classification with Deep Convolutional Neural Networks”。


AlexNet 的重要意义还在于,它跟之前的一些研究,包括 Ciresan 等人用 CUDA 实现深度卷积网络等,共同引爆了接下来深度学习的研究。


2014 年,亚历克斯·嘉兰执导的《机械姬》上映

《机械姬》海报(来自豆瓣)


2015 年,三巨头经典论文 “Deep learning” 发表

Yann LeCun、Yoshua Bengio、Geoffrey Hinton 在 Nature 上发表的 “Deep learning” 是机器学习领域最为经典的论文之一。


2015 年 11 月,谷歌推出机器学习系统 TensorFlow


2016 年 3 月,AlphaGo 击败韩国围棋国手李世乭

比赛截图(来自 wiki)


2017 年 1 月, Libratus 击败四位顶级德州扑克选手

Libratus 是卡纳基梅隆大学开发的德州扑克人工智能程序,同 AlphaGo 一样,Libratus 的核心算法也是强化学习。


2017 年 10 月,谷歌发布人工智能耳机 Pixel Buds

在道格拉斯经典科幻小说《银河系漫游指南》改编的电影中,将巴别鱼塞到耳朵里就可以实时地听到外星人的翻译。Pixel Buds 的卖点也是实时翻译,支持 40 种语言。


2017 年 10 月,辛顿团队发文提出新神经网络 CapsNets

“Dynamic Routing Between Capsules” 一文中提出的 CapsNets 是更符合大脑信息处理逻辑的新型神经网络,在理念上具有重大突破。


2018 年 2 月,刷脸支付入选 MIT 2017 年度 “十大突破技术”

MIT 2017 年度 “十大突破技术”包括:强化学习、自动驾驶货车、太阳能光伏电池、刷脸支付、360 度自拍、基因疗法 2.0、细胞图谱、实用型量子计算机、治愈瘫痪、僵尸物联网。中国上榜公司为 Face++、百度和阿里巴巴。


2018 年 8 月,谷歌推出强化学习新框架 Dopamine(多巴胺)

Dopamine 基于 TensorFlow,主打灵活性、稳定性、复现性,能够提供快速基准测试。


强化学习的鼻祖人物是强化学习的发明人 Andy Barto 和他的学生 Richard Sutton,两位出版了强化学习权威图书:

Reinforcement Learning: An Introduction。


2018 年 9 月,杭州城市大脑 2.0 正式发布

2016 年 10 月的杭州云栖大会上,阿里云启动“城市大脑”项目,这是人工智能用于中国城市发展规划的实践。


2018 年 9 月,大规模 GAN 训练取得进展

赫瑞-瓦特大学的 Andrew Brock 和 DeepMind 团队的 Jeff Donahue、Karen Simonyan 在论文 “Large Scale GAN Training for High Fidelity Natural Image Synthesis” 中展示了大规模 GAN 训练方面的进展。生成对抗网络(GAN)可以生成看起来非常逼真的图像。


2018 年 10 月,谷歌 DeepMind 开源 GraphDL 工具包 Graph Nets

图网络是将图作为输入和输出的神经网络,该概念在 “Relational inductive biases, deep learning, and graph networks” 一文中提出。业内人士认为,图网络或许可以解决深度学习因果推理问题。


2018 年 10 月,机器人 Atlas 跨越障碍完成三级跳

Atlas 是 DARPA 跟波士顿动力合作研发的人形机器人,专为各种搜索及拯救任务而设计,初次亮相是 2013 年。波士顿动力先后被谷歌和软银收购。

图片来自:Wikimedia


2018 年 11 月,谷歌开源 NLP 预训练模型 BERT

BERT 的全称是 Bidirectional Encoder Representation from Transformers(基于 Transformer 的双向编码器表征),被认为是当前最强的 NLP 预训练模型。在机器阅读理解顶级测试 SQuAD1.1 中表现惊人。


2019 年 3 月,辛顿、本吉奥、杨立昆获 2018 年图灵奖

三位一直被媒体称为“深度学习三巨头”,因深度学习方面的贡献获图灵奖。其中辛顿对反向传播算法、杨立昆对卷积神经网络,本吉奥对循环神经网络的贡献尤为突出。

参考文献


1.《人工智能简史》(尼克,人民邮电出版社)

2. https://www.forbes.com/sites/gilpress/2016/12/30/a-very-short-history-of-artificial-intelligence-ai

3. https://en.wikipedia.org/wiki/History_of_artificial_intelligence

https://aitopics.org/misc/brief-history

4. http://frc-west.github.io/courses/ELT1130/1-Robots/4-Usage/

5. https://www.technologyreview.com/lists/technologies/2018/

6. 维基百科

7. Wikimedia

8. 豆瓣

9. 更多网络图片已经标注来源网站

10. 最后推荐一下尼克老师的这本《人工智能简史》,不光写了 AI 发展史,对关键人物的家底着墨很多,并不是所有人都喜欢这种写法,我个人觉得挺有趣。



推荐↓↓↓
人工智能与大数据
上一篇:Python创建微信机器人 下一篇:重磅 | 完备的 AI 学习路线,最详细的资源整理!