
AI 人工智能
更新: 2025/2/24 字数: 0 字 时长: 0 分钟
前言
在现代生活中,我们经常能听到一些高大上的专业名称和术语,例如“人工智能”、“机器学习”、“深度学习”等等。那么它们的应用又是什么?之间的关系是怎样的呢?接下来一一作答:
人工智能(Artificial Intelligence,简称 AI)是一个以计算机科学为基础,融合心理学、哲学等多学科,用于研究、模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
机器学习(Machine Learning,简称 ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科,专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能核心,是使计算机具有智能的根本途径。
深度学习(Deep Learning,简称 DL)是机器学习领域中一个新的研究方向,本质是学习样本数据的内在规律和表示层次,在学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助,它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。
简单来讲,人工智能(AI)> 机器学习(ML)> 深度学习(DL)【包含机器视觉(CV)、自然语言处理(NLP)】。
建议
当下最火且在今后很长一段时间内都具有巨大发展潜力的一门学科“人工智能”。
发展历史
人工智能并不是一个新生的科学概念,在上古时代,东西方文明中都出现了人造人的神话,到了二十世纪 30 ~ 50 年代,由于神经生物学、计算机科学、数学等学科的发展,人工智能第一次进入了科学家的视野。
图灵测试
在 1950 年的时候,英国著名的计算机科学家图灵提出了一个问题:机器能够像人类一样思考吗?
针对这个问题,图灵提出了一种测试方法:让人通过文字和两个无法见面的物体进行提问交流,其中一个物体是人,而另一个物体是机器,看能不能通过一系列的提问和回答,让提问的人判断出回答的物体是机器还是人,这个就是”图灵测试“。如果说有超过 30% 的人无法区分回答的物体是机器还是人,就说明这个机器通过了图灵测试。
图灵测试每一年都会举行,在 2014 年的时候,终于有一台机器它骗过了 33% 的人,让别人相信它是一个 13 岁的小男孩,就算是通过了图灵测试。
提醒
计算机领域的最高奖项叫《图灵奖》,就是以“图灵”命名的。它被称之为计算机领域的诺贝尔奖。
AI的诞生
在 1956 年的时候,有两位计算机科学家,一个叫马文·明斯基,另一个叫约翰·麦卡锡,加上信息论的奠基者叫克劳德·香农,开了一场著名的达特茅斯会议。在这次会议上人们发明了一个词,人工智能(Artificial Intelligence,简称 AI)。
提醒
马文.明斯基、约翰.麦卡锡因为在人工智能领域的贡献获得了《图灵奖》,而香农不需要,因为香农的名字已经被用来命名通信领域的诺贝尔奖《香农奖》。
三涨两落
达特茅斯会议之后的几十年中,由于算法和算力的限制,人工智能经历了三涨两落:
现在我们是处于第三次大发展的时代,这个事件的起源是在 1997 年的时候,IBM 公司造了一个名叫“深蓝”的人工智能程序,战胜了 12 年的国际象棋冠军卡斯帕罗夫,因此再次掀起了人工智能浪潮。
和前两次浪潮不同的是,这次得益于最近几十年计算机科学以及各种算法的改进,尤其是在人工智能算法领域,涌现出许多的灵魂人物,比如:
- 杨立坤,美国纽约大学计算机科学家,他著名的贡献就是卷积神经网络(CNN)。
- 杰弗里·欣顿,加拿大多伦多大学计算机科学家,他著名的贡献就是将反向传播算法(BP)引入到人工智能当中。
- 约书亚·本吉奥,加拿大蒙特利尔大学计算机科学家。
提醒
由于杨立坤、杰弗里·欣顿、约书亚·本吉奥在人工智能领域都有突出贡献,他们三位共同获得了 2018 年的图灵奖。
三大要素
AI 人工智能的实现需要具备三大要素:数据、算法、算力。
数据
数据(Data),简单讲就是计算机训练的样本数据。俗话说“巧妇难为无米之炊”,如果我们不能给计算机大量的数据训练的话,计算机什么都识别不了。其实我们在生活当中都或多或少给人工智能提供过训练的样本数据,例如填写验证码,有的验证码是让你填写字母、数字,有的验证码是让你从一堆图片中选择符合描述的图片,这里网站就有可能利用你的数据进行人工智能训练。
算法
算法(Algorithm),简单讲就是解决问题的方法。对于同一个问题,使用不同的算法,最终得到的结果也许一样,但在过程中消耗的资源和时间却会有很大的区别。
算力
算力(computility),简单讲就是计算处理信息的能力。在人工智能训练的过程中会产生大量的运算,其实每一个运算并不复杂,就是运算的数据量特别的大,比如一张 800 600 的 RGB 彩色图就有 800 600 3(RGB 三通道)= 1440000 个像素点,如果我们使用 3 3 3 大小的卷积核去提取图中的信息,大概需要进行 1300 万次的乘法和 1200 万次的加法,虽然只是简单的加法和乘法,但它的运算次数特别多,而且这还仅仅是一个卷积核对一个简单图片进行处理。在实际的训练过程中,会有成千上万张图片进行成千上万次处理,所以这个运算量特别的大。这么大的运算量,用人脑来算显然不现实,那用什么来计算呢?答案就是“芯片”。
CPU(Central Processing Unit,中央处理器)主要架构包括控制单元 Control,运算单元 ALU 和缓冲存储器 Cache 以及各个单元之间进行通信的总线。CPU 的特点是通用性强,各种不同的数据类型都能处理,但并行能力差,只能在计算完第一题后,才能计算第二题,在计算完第二题后,才能计算第三题,依次类推,不能同时计算多道题目。
GPU(Graphics Processing Unit,图形处理器)主要架构包括大量的运算单元,控制单元和存储单元,主要用于图像数据的并行计算,把计算机中的图像投影到屏幕上,这个过程也叫“渲染”。GPU 的特点是专用性强,也就是只能进行简单的计算,并行能力强,可以同时进行大量计算,是一个面对类型高度统一的、相互无依赖的大规模数据计算环境。
NPU(Neural Network Processing Unit,神经网络处理器),专用性和并行计算能力都比 GPU 要强,其众多的计算单元不仅可以并行计算,而且每一个计算单元还可以同时进行多个计算,是一种用于优化深度学习 AI 工作的特殊芯片。
应用场景
经过几十年的发展,人工智能已经有了长足的进步,现在的人工智能也早已融入我们生活的方方面面。在一些特定领域,人工智能甚至已经超过了人类。比如下面的应用:
现在很多公司都加装了人脸识别系统,它能够区分你是不是这个公司的员工。
在进行新冠肺炎筛查的时候,肺部影像 CT 是一个很重要的指标,人工智能就可以帮助医生快速判断这个人的肺部是不是感染了。
有人在路上开车被电子眼抓拍的时候,人工智能可以帮助我们识别车牌。
我们手机中的美颜软件,人工智能利用各种算法提高我们的颜值。
自动驾驶、智慧工业、短视频平台的推荐系统、邮件系统中的反垃圾系统、各种的语音助手、智能音箱都用到了人工智能的原理。