浅谈人工智能系列1:什么是人工智能

1个月前发布 SanS三石
8 0 0

今年春节前后,应华尔街见闻邀请,假期在家写了一个AI系列科普。这个系列技术层面的东西较浅,主要针对非AI专业特别是投资人读者群,简要介绍一下AI相关的基本概念和发展趋势,以及一些具体产业结合和落地的案例。浅薄之处,还望不吝赐教!

浅谈人工智能系列1:什么是人工智能 夏威Wei Xia:浅谈人工智能系列1:什么是人工智能

浅谈人工智能系列2:人工智能的产业格局 夏威Wei Xia:浅谈人工智能系列2:人工智能的产业格局

浅谈人工智能系列3:AI+ 趋势和落地分析 夏威Wei Xia:浅谈人工智能系列3:AI+ 趋势和落地分析

浅谈人工智能系列4:Orbeus-Amazon那些年踩过的坑 夏威Wei Xia:浅谈人工智能系列4:Orbeus-Amazon那些年踩过的坑

浅谈人工智能系列5:AI发展趋势和跨境机会 夏威Wei Xia:浅谈人工智能系列5:AI发展趋势和跨境机会

%%%%%%%%%%%%%%%%%%%%%%正文开始%%%%%%%%%%%%

1.主讲人介绍:

夏威,特辑主讲人。

他在博士毕业后前往湾区创业,公司叫Orbeus,作为创始成员之一,夏威当时担任Chief Scientist,负责领导智能识别算法的研发。

2015年9月Orbeus被Amazon收购,其旗下产品分别集成到Amazon 的云端智能相册Prime Photos和AWS Rekognition 人工智能云服务。

现在担任亚马逊Principal Scientist,负责领导Rekognition下面的的人脸和物体识别算法的研发工作。

2.特辑简介:

最近几年,“人工智能AI”这个词,在沉寂了三十年之后可谓“咸鱼翻身”,成为科技风口。上至科技巨头,下至普罗百姓,都对人工智能燃起了强烈的兴趣。特别是16年AlphaGo战胜人类围棋世界冠军之后,各种新闻应接不暇,像支付宝宣布刷脸支付,亚马逊发布无人商店,Google,Uber无人车路测。各种创业公司更是如雨后春笋。巨头们也按捺不住纷纷布局,一时间群雄逐鹿,大家都唯恐在这场“智能革命”中失掉先机。

那么作为这场学术界、产业界,乃至资本和媒体疯狂追捧的主角,

  • 到底什么是人工智能呢?
  • 现在AI的研究处于什么阶段?
  • 今后有何发展趋势?
  • 中美之间在这场AI较量中各自的战略如何,中国能否实现弯道超车?
  • 又或者,从投资人或者从业者的角度来说,人工智能如何和传统互联网结合,在不同领域实现产业落地?
  • 目前的市场格局和应用前景又是如何呢?

由于人工智能涵盖的学科和技术面非常广,要在短时间内全面认识、理解人工智能,别说是非专业人士,就算是本行业的专业研究人员,也是有着困难之处。接下来,我将结合本人近年来从学术圈到创业圈再到大公司的一些经历和思考,和大家一起探讨一二。希望大家在学习完这个系列的特辑之后,能对美国人工智能发展和中美跨境机会有一个清晰的了解。

3.AlphaGo采用的人工智能技术:

首先,我们从媒体口中人工智能的代表之一AlphaGo出发,看看他到底采用了什么样的技术?

一般来说,围棋的复杂度比其他棋类游戏要复杂的多,电脑要在围棋比赛中取胜,难度也要大得多,因为围棋的落子选择多,每个选择之后的分支数目很大,可能的状态空间数目甚至比全宇宙的原子数都要高上几个数量级,这让传统的那些人工智能方法包括暴力搜索,启发式搜索等在围棋中很难凑效。那么Alphago怎么解决这个问题的呢?

AlphaGo使用了两种神经网络算法:

①估值网络(value network)

②策略网络(policy network)

简单来说,

估值网络是用来评估目前的棋盘态势,

策略网络则通过结合一种叫做蒙特卡洛树搜索的算法来选择最大概率获胜的步法。

AlphaGo早期通过归纳学习学习大量的人类棋局,了解围棋的规则和常用的下法,之后利用演绎学习,“左右互搏”,在经过几十万局数量级的反复对弈之后迅速提高自己的棋力,比如,从业余棋手到世界第一,AlphaGo仅用了两年时间。 于是,AlphaGo和韩国棋手李世石的世纪之战于是就成了媒体的引爆点,一时间各种惊世骇俗的新闻标题纷纷出现,但很多议论其实都缺乏科学依据,变成了“娱乐AI”。

4.目前的AI研究与通用人工智能:

最近有一个新闻:Facebook有个程序员突然发现,两台电脑在通信过程中发明了一种全新的语言,这两台电脑之间快速交流,人完全看不懂。而且这种交流复杂度还在迅速提高,搞不好就要突破智能临界点,成为“超级智能”了,从此凌驾于人类之上了,于是程序员惊恐万分,被迫使出绝招:“拔电源”,一个潜在的“终结者”就这样被扼杀在摇篮之中。这个在业内人士看来就很搞笑,但故事流传甚广,以致Facebook AI研究院的主任Yann Le Cunn都亲自出来辟谣。但这些仍然架不住各种言论还是纷纷出现,比如人工智能将很快取代大部分的人类工作,机器人在不久的将来将统治人类等等。

这些其实都是媒体宣传的一些常见误区。其实,目前的AI研究离通用人工智能还很遥远,为什么?

其中的一个问题是功耗巨大,比如以现在的技术,要让几个机器人长时间像人一样处理问题,可能要自带两个微型的核电站,一个发电驱动计算,另一个呢?用来发电冷却因为计算产生的大量热量。比如前面提到的AlphaGo背后就是一个包含上千块GPU的小型数据中心支持,其功耗差不多是一个小型城镇的用电量,而与之对战的李世石大脑的功耗不到25W。

除了功耗问题,现在的人工智能还有一大主要缺陷是对于数据的极大依赖,缺乏具体的物理常识和社会常识,而常识是我们在这个世界上生存的最基本知识。比如要想让电脑识别猫这个概念,我们首先要给电脑看上万种各种标注的猫照片,黑猫,白猫,然后告诉电脑,“看,这些都是猫”,而人类的婴儿只要几张即可举一反三。

那么,问题来了,既然媒体对于AI的报道有诸多的不准确,那么当我们在谈人工智能时,到底在谈什么呢?

5.人工智能的定义与历史:

首先我们来给人工智能下一个科学的定义:

人工智能(Artificial Intelligence),英文缩写为AI。它是研究用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的技术科学。这里说的智能机器,可以是一个虚拟的或者物理的机器人。与人类几千年来创造出来的各种工具和机器不同的是,智能机器有自主的感知、 认知、决策、学习、执行和社会协作能力。

人工智能诞生于1956年的达特茅斯会议,之后大致经历了几个大起大落的历史时期。

最早的一次兴起是1956-1974年,以命题逻辑,知识表达,启发式搜索等为代表,当时就开始研究下棋了,但由于缺乏具体突破,很快进入了第一个冬天,科研经费锐减。

到了1980年代初,又兴起了第二次热潮,主要以专家系统为代表,专家算法,顾名思义,大部分只能解决某个非常狭窄领域的问题,加上当时的计算能力不足,这次热潮也很快进入第二次低谷。

在80年代末期,又兴起了一个短暂的神经网络研究热潮,也就是现在大热的深度学习的前身,以Geofery Hinton教授为代表。神经网络从人脑的原理得到了一些启发,但其原理还是有本质不同的。这些神经网络呢也引起了一阵轰动,但由于当时缺乏大量的标注数据以及足够的计算资源,很难进行深层次的神经网络的训练,大部分网络离解决具体的实际问题十分遥远,于是人工智能再一次进入低谷,Hinton教授也开始了他接近三十年的冷板凳生涯,直到最近几年才以深度学习开山鼻祖的身份王者归来。

进入九十年代,以概率统计建模、学习和计算为主的算法潮流开始占据主流。

6.人工智能分化出的主要学科:

于此同时,人工智能的研究也开始逐渐分化为几个主要的学科:

1. 计算机视觉: 让计算机看懂世界

2. 自然语言理解和交流(包括语音识别,合成,包括对话):让计算机听懂世界并和世界交流

3. 机器学习 (各种统计的建模,分析工具和计算的方法),像时下流行的深度学习和AlphaGo涉及的增强学习(Re-enforcement Learning)就都是这个方向的分支

4. 认知和推理 (包含各种物理和社会常识),让计算机学会思考

5. 机器人学,包括机械,控制,设计,运动规划,任务规划等等

6. 博弈与伦理 (主要研究多代理人的交互,对抗与合作,机器人与社会融合等议题)

这里计算机视觉,自然语言处理,机器学习和机器人学是目前应用比较广泛的几个分支,也是大家在媒体中比较经常听到的方向。

  • 人脸识别刷脸支付就属于计算机视觉的范畴;
  • 智能语音助手Siri Alexa就属于自然语言处理这块;
  • 而各种网站上的广告和商品推荐算法就属于机器学习的范畴了。

计算机视觉和自然语言处理作为两个重要的垂直应用学科和机器学习之间的有着非常密切的交叉关系,严格意义上,这些领域的算法都可以算作机器学习在这些应用领域的特例化。而机器人学这是一个包含了很多分支学科的综合方向,理所当然,计算机视觉和自然语言处理都是很多智能机器人不可或缺的成分。

由于学科比较分散,从事相关研究的大部分从业人员,往往也只涉及以上某个学科,甚至长期专注于某个学科中的具体问题,比如人脸识别是计算机视觉这个学科中的一个很小的问题,深度学习是机器学习中的一个当红流派。很多人现在把深度学习等同于人工智能,这是很大的误区。需要知道的是,人工智能是很大的概念,而深度学习不等于人工智能。

7.深度学习:

那么为何深度学习能成为这次AI革命的转折点呢?我们下面来简要介绍一下深度学习的发展历程:

2012年,Geofery Hinton的一个学生Alex Krizvesky第一次利用英伟达的显卡GPU(记住这个公司哈,后面会反复出现的)成功了训练了几个当时最大的神经网络,并在李飞飞教授举办的ImageNet物体识别竞赛中以远远高出第二名的超高准确度夺得冠军,一举震惊世界,几十年来无人问津的神经网络算法一下又站到了历史的风口浪尖,大家纷纷跟进,在短短的几年内在AI的诸多领域都取得了极大的突破。坐了三十年冷板凳的HInton教授瞬间身价倍增,他和Alex以及另一个学生Illya创立的公司被Google以几千万美金的高价收购,其实就是人才收购,就此拉开了接下来几年AI人才争夺战的序幕。

那么为什么神经网络在前三十年无人问津,突然这几年换了个深度学习的马甲就突然神挡杀神,佛挡杀佛了呢?

正如前文所说,主要的原因是目前的人工智能算法,大部分对于数据和算力的需求极高,在80年代,数字化的数据极少,算力就更别提了,现在我们的iPhone 算力比当年送宇航员去月球的超级电脑的算力都高出一个数量级,可我们只是在用我们的iPhone,发微信,刷微博,玩愤怒的小鸟。进入新世纪,随着互联网和各种数码设备尤其是智能相机的兴起,人类首次拥有了海量的数字化数据,另外GPU也就是图形显卡的出现为这些算法提供了强大的计算力支持,于是当年的那些神经网络的理论终于有了实现的前提,当然像Alex,Hinton这帮人也都是天才的研究员,于是一场革命就此爆发了。

8.人工智能模型的核心要素与框架:

在我们深入这场智能革命之前,先来看看人工智能模型的核心要素和框架,智能系统的根源基本可以回溯到两个基本前提:

1. 物理环境的现实和因果链条。不同的环境决定了不同的智能形式,任何智能的机器必须理解这个世界的所有边界条件和因果链条,以适应这个世界,这个就是外因,很好理解。那对应的则肯定还有一个内因。即智能系统本身的内在任务和价值链条。

2. 智能系统本身的内在任务和价值链条,比如生存和繁衍是地球上大部分智能生命体的第一要务,这种内在的价值体系就给智能系统定义了一个可能的模型空间。这里的模型空间是一个数学的概念,人脑和其他智能模型可以抽象为世界观,人生观,价值观的一个数学表达。而学习的过程则是让这些模型在具体任务的推动下,在外界的数据条件限制下,更新自己在模型空间中的位置。比如,在观看了大量的人脸照片后,机器学会了人脸的数学表达,并更新自己的模型,这样新的模型就可以进行人脸识别功能了。

通常来说,一个人工智能算法需要解决某个具体任务,数据,计算力和模型是其中几个不可或缺的因素。

如果把一个成功的人工智能算法比作一只善战的部队的话,数据就是粮草,计算力就是兵力,而模型则是战略和战术指挥的策略;战略和战术的重要性自不必说,但没有了粮草和兵力,再好的战略也只是空中楼阁。计算力可以理解为兵力,有了强大的兵力,才有了实现战略的机动性和可能性。

用一个公式表达的话,即:任务 + 数据 + 计算力 + 模型 = 人工智能算法。

© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...