您现在所在位置: PG电子 > 新闻中心 > 行业动态

公司资讯

Company information

行业动态

Industry dynamics

常见问题

Common Problem

pg电子官网入门必读写给初学者的人工智能简史

发布日期:2024-08-01 07:50 浏览次数:

  pg电子官网入门必读写给初学者的人工智能简史人们在关注 AI,企业在拥抱 AI,资本在追逐 AI。凡是和 AI 有关的概念,都会吸引大量的目光。

  在古希腊神话中,火与工匠之神赫菲斯托斯,曾经制作了一组金制的女机器人,“有心能解意,有嘴能说话,有手能使力,精通手工制造”。

  《列子汤问篇》中,偃师向周穆王进献了一个机械人,会唱歌、会跳舞,还会挑逗周穆王的嫔妃。周穆王醋意爆发,认为机械人是真人假扮,要杀掉偃师。偃师赶紧将机械人拆散,周穆公才罢休。

  上面的这些文字记载,显然都不靠谱。在遥远且漫长的古代,以人类当时的技术水平,肯定是造不出智能体的。能造出一些简单的机械(例如诸葛亮的木牛流马),都已经很了不起了。

  人们对智能体的寄望,很多都依托于鬼神等宗教信仰 将人的灵魂附身于机械,才能够实现“人工智能”。

  到了近现代,随着工业的爆发,人类开始逐渐进入机械计算、电气计算时代。计算能力的不断增长,使得通过“算力”来驱动“智能”,成为一种可行选项。

  17 世纪,莱布尼茨、托马斯霍布斯和笛卡儿等率先提出:是否可以将人类理性的思考系统,转化为代数学或几何学体系?

  在查尔斯巴贝奇(Charles Babbage)的分析机、赫尔曼何乐礼(Herman Hollerith)的制表机、阿兰图灵(Alan Turing)的图灵机,以及 Z3、珍妮机、Mark I、ENIAC 等一系列发明的接力推动下,人类终于进入了数字电子计算机时代,也开启了波澜壮阔的信息技术。(不清楚的,看这里:算力简史)

  图灵在论文中仔细讨论了创造“智能机器”的可能性。由于“智能”一词很难定义,他提出了著名的图灵测试(以下为大致意思):

  “一个人在不接触对方的情况下,通过一种特殊的方式和对方进行一系列的问答。如果在相当长时间内,他无法根据这些问题判断对方是人还是计算机,那么,就可以认为这个计算机是智能的。”

  图灵的论文,在学术界引起了广泛的反响。越来越多的学者被这个话题所吸引,参与到对“机器智能”的研究之中。其中,就包括达特茅斯学院的年轻数学助教约翰麦卡锡(J. McCarthy),以及哈佛大学的年轻数学和神经学家马文明斯基(M. L. Minsky)。

  1956 年 6 月,在刚才那 4 个人的召集下,在洛克菲勒基金会的资助下,十余位来自不同领域的专家,聚集在美国新罕布什尔州汉诺威镇的达特茅斯学院,召开了一场为期将近两月的学术研讨会,专门讨论机器智能。

  达特茅斯会议并没有得出什么重要的结论或宣言,但是认可了“人工智能(Artificial Intelligence)”的命名,也大致明确了后续的研究方向。

  达特茅斯会议之后,人工智能进入了一个快速发展阶段。参与研究的人变得更多了,而且,也逐渐形成了几大学术派系。

  在这里,我们要提到人工智能最著名的三大学派 符号主义、联结主义(也叫联接主义、连结主义)、行为主义。

  他们认为,世界中的实体、概念以及它们之间的关系,都可以用符号来表示。人类思维的基本单元,也是符号。如果计算机能像人脑一样,接收符号输入,对符号进行操作处理,然后产生符号输出,就可以表现出智能。

  这个思路,关键在于把知识进行编码,形成一个知识库,然后通过推理引擎和规则系统,进行推断,以此解决复杂的问题。

  “逻辑理论家”被认为是人类历史上第一个人工智能程序,并且在达特茅斯会议上进行了演示。它将每个问题都表示成一个树形模型,然后选择最可能得到正确结论的那条线;西蒙等人在“逻辑理论家”的基础上,又推出了通用问题解决器(General Problem Solver,GPS),也是符号主义的早期代表。

  进入 1960 年代,符号主义也进入了一个鼎盛时期。在自然语言理解、微世界推理、专家系统(注意这个词,后面会再次提到它)等领域,人工智能取得了突破性的进展,也逐渐成为公众关注的对象。

  ELIZA 的名字源于萧伯纳戏剧作品《卖花女》中的主角名。它只有 200 行程序代码和一个有限的对话库,可以针对提问中的关键词,进行答复。

  ELIZA 其实没有任何智能性可言。它基于规则运作,既不理解对方的内容,也不知道自己在说什么。但即便如此,它还是在当时引起了轰动。ELIZA 可以说是现在 Siri、小爱同学等问答交互工具的鼻祖。

  神经网络的概念其实诞生得很早。1943 年,美国神经生理学家沃伦麦卡洛克(Warren McCulloch)和数学家沃尔特皮茨(Walter Pitts),基于人类大脑的神经网络,创建了一个形式神经元的计算机模型,并将其取名为 MCP(McCulloch&Pitts)模型。

  1957 年,美国康奈尔大学的心理学家和计算机科学家弗兰克罗森布拉特(Frank Rosenblatt),在一台 IBM-704 计算机上,模拟实现了一种他发明的叫“感知机(Perceptron)”的神经网络模型。

  这个“感知器”包括三层结构,一端是 400 个光探测器,模拟视网膜。光探测器多次连接一组 512 个电子触发器。当它通过一个特定的可调节的兴奋阀值时,就会像神经元一样激发。这些触发器连接到最后一层,当一个物体与感知器受训见过的对象相互匹配时,它就会发出信号。

  “感知机”是联结主义的一项重要成果,在人工智能发展史上具有里程碑式的意义。但是,后来的一盆冰水,彻底浇灭了联结主义的热情。

  1969 年,马文明斯基和西蒙派珀特(Seymour Papert)写了一本书《感知机: 计算几何学导论》的书,对罗森布莱特的感知器提出了质疑。马文明斯基认为:

  来自大神的否定,等于直接宣判了神经网络(联结主义)路线的死刑。于是,这个非常有价值的研究方向,被中止了。

  罗森布莱特后来死于意外(也有人说是),马文明斯基也因为这个错误的判断,被一些学者抨击。(需要注意,马文明斯基虽然有误判,但他对人工智能事业的功远大于过,甚至也被誉为“人工智能之父”。)

  行为主义,也称为进化主义或控制论学派。他们认为,通过与环境的互动来学习和适应,从而改进自身行为,就是行为主义认为的智能。智能取决于感知和行动,不需要知识、表示和推理,只需要将智能行为表现出来就好。

  简单来说,行为主义 AI 系统基于“感知-动作”的闭环控制,强调即时反馈和适应性学习pg电子最新网站入口。智能体通过感知环境信息,基于这些信息执行动作,并根据动作结果调整后续行为。

  好了,以上是 AI 三大重要学派的介绍,作为学习 AI 的知识铺垫,也有助于阅读后面的文章。

  请大家注意,AI 的学派和思想路线并不止这三个,还有一些小学派,例如进化计算、模糊逻辑、贝叶斯网络等。它们虽不构成独立的大学派,但在 AI 的某些子领域内有着重要的应用和影响。而且,AI 学派之间,边界也比较模糊,有时候会互相融合。

  1959 年,IBM 科学家亚瑟塞缪尔在自家首台商用计算机 IBM701 上,成功编写了一套西洋跳棋程序。这个程序具有“学习能力”,可以通过对大量棋局的分析,逐渐辨识出“好棋”和“坏棋”,从而提高自己的下棋水平。

  因为首次提出了“机器学习(Machine Learning)”的概念,亚瑟塞缪尔被后人誉为“机器学习之父”。

  Unimate 重达两吨,安装运行于通用汽车生产线。它可以控制一台多自由度的机械臂,搬运和堆叠热压铸金属件。

  Shakey 全面应用了人工智能技术,装备了电子摄像机、三角测距仪、碰撞传感器以及驱动电机,能简单解决感知、运动规划和控制问题。它是第一个通用移动机器人,也被称为“第一个电子人”。

  刚才说了,1960 年代是符号主义的鼎盛时期。其实,在符号主义的带动下,当时整个人工智能研究都进入了一个高速发展的阶段,也被称为 AI 的黄金时代(Golden Time,1960-1973 年)。那时,除了定理证明、人机互动、游戏博弈和机器人之外,人工智能很多领域都产出了不错的成果。加上冷战时期,美国政府愿意掏钱资助,使得 AI 研究变得异常火爆。

  随着时间的推移,学者们逐渐发现,基于推理规则的“智能”,实际上能力非常有限。加上当时计算机的算力和存力尚处于早期阶段,系统根本达不到预期的效果。

  以机器翻译为例。当时美国政府投入了 2000 多万美元作为机器翻译的经费,结果相关团队研发多年,发现完全低估了这个项目的难度。

  接二连三的失败,慢慢耗尽了政府金主的耐心。加上不久后美国经济出现了一些问题(1974-1975 年出现历史上罕见的连续两年 GDP 负增长),政府开始决定“断粮”。

  1973 年,数学家莱特希尔(Lighthill)向英国政府提交了一份关于人工智能的研究报告(著名的《莱特希尔报告》)。报告对当时的机器人技术、语言处理技术和图像识别技术进行了严厉且猛烈的批评,指出人工智能那些看上去宏伟的目标根本无法实现,研究已经彻底失败。

  很快,英国政府、美国国防部高级研究计划局(DARPA)和美国国家科学委员会等,开始大幅削减甚至终止了对人工智能的投资。

  AI 之冬的持续时间其实并不是很久。六年后,1980 年,第二次 AI 发展开始了。第二次浪潮,其实还是符号主义掀起的。这次的主角,是符号主义的一个新阶段 专家系统(Expert System)。

  它找来很多人,对大量的专家知识和经验进行整理,分析并编写出海量的规则,导入系统。然后,系统根据这些基于知识整理出来的规则,进行逻辑推理,来模拟和延伸人类专家的决策能力,解决复杂的问题。

  大家能看出来,专家系统走的仍然是符号主义的“规则”路线。所以,专家系统,也叫做规则基础系统。

  DENDRAL 面向的是化学行业。它可以帮助化学家判断物质的分子结构。系统推出之后,因为能够减少人力成本并且提升工作效率,受到了化学行业的欢迎和认可。

  这两套都是数学领域的专家系统(用于求解数学问题),都采用了约翰麦卡锡的 LISP 语言进行开发。

  MYCIN 也是基于 LISP 语言编写,拥有 500 多条规则,能够识别 51 种病菌,正确地处理 23 种抗菌素。

  它能够协助医生诊断、治疗细菌感染性血液病,为患者提供最佳处方。当时,它成功地处理了数百个病例,并通过了严格的测试,显示出了较高的医疗水平。

  1977 年,爱德华费根鲍姆在第五届国际人工智能联合会议上,提出了“知识工程(Knowledge Engineering)”的概念,进一步推动了专家系统的普及。

  进入 1980 年代,随着技术的演进,计算机的计算和存储能力增加,专家系统开始在各个行业爆发。

  1980 年,梅隆大学研发的专家系统 XCON(eXpertCONfigurer)正式商用,为当时的计算机巨头公司 DEC 每年省下数千万美金。

  1983 年,通用电气公司搞出了柴油电力机车维修专家系统(DELTA)。这个系统封装了众多 GE 资深现场服务工程师的知识和经验,能够指导员工进行故障检修和维护。

  总而言之,那时候的专家系统,是大公司趋之若鹜的神器。它能够带来实实在在的经济效益,所以,行业用户愿意为之投资。这是第二次 AI 浪潮的根本原因。

  我们也可以这么说,第一次 AI 浪潮,是政府投资带动的。第二次 AI 浪潮,是企业投资带动。AI,开始进入产业化的阶段。

  那一年,日本经济产业省拨款 8.5 亿美元,支持第五代计算机项目。这个项目的最终目的,是造出一台人工智能计算机,能够与人对话、翻译语言、解释图像、完成推理。

  同年,英国投资 3.5 亿英镑,启动了 Alvey(阿尔维)计划,全面推进软件工程、人机接口、智能系统和超大规模集成电路等领域的研发。

  Cyc 项目由美国微电子与计算机技术公司发起,是一个“超级百科全书”项目。它试图将人类拥有的所有一般性知识都输入计算机,建立一个巨型数据库。

  首先,专家系统(符号主义)基于规则和已有知识的“检索 + 推理”,面对复杂的现实世界,显然还是有能力瓶颈。

  它的应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏分布式功能、难以与现有数据库兼容等 所有这些问题,都给它的进一步发展造成了困扰。

  当时专家系统基本上都是用 LISP 语言编写的。系统采用的硬件,是 Symbolics 等厂商生产的人工智能专用计算机(也叫 LISP 机)。

  1987 年,苹果和 IBM 公司生产的台式机,在性能上已经超过了 Symbolics 的 AI 计算机,导致 AI 硬件市场需求土崩瓦解。

  到了 80 年代晚期,战略计算促进会大幅削减对 AI 的资助。DARPA 的新任领导也认为 AI 并非“下一个浪潮”,削减了对其的投资。

  在进入 1990 年代之前,小枣君还是要再讲讲 1980 年代。1980 年代,专家系统掀起了第二次 AI 浪潮,也推动了 AI 技术的发展。但从上帝视角来看,真正对后来的 AI 发展产生深远影响的pg电子最新网站入口,其实不是专家系统,而是另外一个被遗忘了二十多年的赛道。

  前文我们提到,神经网络是联结主义的一个代表性研究方向。但是,因为马文明斯基的否定,这个方向在 1969 年被打入冷宫。

  1980 年,越来越多的科学家意识到专家系统存在不足。符号主义这条路,很可能走不通。人们认为,人工智能想要实现真正的智能,就必须拥有自己的感知系统,能够自主学习。

  于是,倡导让机器“自动地从数据中学习,并通过训练得到更加精准的预测和决策能力”的研究思想,开始逐渐活跃起来。这就是前面提到过的机器学习。

  1982 年,约翰霍普菲尔德(John Hopfield)在自己的论文中重点介绍了 Hopfield 网络模型(模型原型早期由其他科学家提出)。这是一种具有记忆和优化功能的循环(递归)神经网络。

  在论文中,他们提出了一种适用于多层感知器(MLP)的算法,叫做反向传播算法(Backpropagation,简称 BP 算法)。

  该算法通过在输入层和输出层之间设定一个中间层(隐藏层),以反向传播的方式实现机器的自我学习。

  算法咱们以后再研究。大家只需要记住,BP 算法不仅为多层神经网络的发展奠定了基础,也打破了马文明斯基当年提出的“神经网络具有局限性”魔咒,意义非常重大。

  1980 年代是人工智能研究方向发生重大转折的时期。机器学习和神经网络(联结主义)加速崛起,逐渐取代专家系统(符号主义),成为人工智能的主要研究方向。

  1988 年,贝尔实验室的 Yann LeCun(他是法国人,网上翻译的中文名有很多:杨立昆、杨乐春、燕乐存、扬勒丘恩)等人,提出了卷积神经网络。大家应该比较熟悉,这是一种专门用于处理图像数据的神经网络模型。

  1990 年,美国认知科学家、心理语言学家杰弗里艾尔曼(Jeffrey Elman)提出了首个递归神经网络 艾尔曼网络模型。递归神经网络能够在训练时维持数据本身的先后顺序性质,非常适合于自然语言处理领域的应用。

  1998 年,Yann LeCun 等人提出了 LeNet,一个用于手写数字识别的卷积神经网络,初步展示了神经网络在图像识别领域的潜力。

  总而言之,20 世纪 90 年代,神经网络在开始商用于文字图像识别、语音识别、数据挖掘以及金融预测。在模式识别、信号处理、控制工程等领域,也有尝试应用,尽管当时受到计算资源限制,应用范围和规模有限。

  想要推动人工智能技术的进一步爆发,既需要算法模型的持续演进,也需要算力的深入增强。此外,还有一个短板,也需要补充,那就是数据。

  1997 年 5 月 3 日至 11 日,“深蓝”再次挑战卡斯帕罗夫。在经过六盘大战后,最终“深蓝”以 2 胜 1 负 3 平的成绩,险胜卡斯帕罗夫,震惊了世界。

  作为 80 后的小枣君,对这件事情也印象深刻。当时“深蓝”所引起的热潮,丝毫不亚于后来的 ChatGPT。几乎所有的人都在想 人工智能时代是否真的到来了?人工智能,到底会不会取代人类?

  进入 21 世纪,得益于计算机算力的进一步飞跃,以及云计算、大数据的爆发,人工智能开始进入一个更加波澜壮阔的发展阶段。

  2006 年被后人称为深度学习元年,杰弗里辛顿也因此被称为“深度学习之父”。

  深度学习是机器学习的一个重要分支。更准确来说,机器学习底下有一条“神经网络”路线,而深度学习,是加强版的“神经网络”学习。

  经典机器学习算法使用的神经网络,具有输入层、一个或两个“隐藏”层和一个输出层。数据需要由人类专家进行结构化或标记(监督学习),以便算法能够从数据中提取特征。

  深度学习算法使用“隐藏”层更多(数百个)的深度神经网络。它的能力更强,可以自动从海量的数据集中提取特征,不需要人工干预(无监督学习)。

  2006 年,在斯坦福任教的华裔科学家李飞飞,意识到了业界在研究 AI 算法的过程中,没有一个强大的图片数据样本库提供支撑。于是,2007 年,她发起创建了 ImageNet 项目,号召民众上传图像并标注图像内容。

  2009 年,大型图像数据集 ImageNet,正式发布。这个数据库包括了 1400 万张图片数据,超过 2 万个类别,为全球 AI 研究(神经网络训练)提供了强大支持。

  从 2010 年开始,ImageNet 每年举行大规模视觉识别挑战赛,邀请全球开发者和研究机构参加,进行人工智能图像识别算法评比。

  他们设计的深度神经网络模型 AlexNet 在这次竞赛中大获全胜,以压倒性优势获得第一名(将 Top-5 错误率降到了 15.3%,比第二名低 10.8%),引起了业界轰动,甚至一度被怀疑是作弊。

  值得一提的是,他们三人用于训练模型的,只是 2 张英伟达 GTX 580 显卡。GPU 在深度神经网络训练上表现出的惊人能力,不仅让他们自己吓了一跳,也让黄仁勋和英伟达公司吓了一跳。

  作为对比,2012 年的早些时候,谷歌“Google Brain”项目的研究人员吴恩达(华裔美国人,1976 年生于伦敦)、杰夫迪恩(Jeff Dean)等人,也捣鼓了一个神经网络(10 亿参数),用来训练对猫的识别。

  他们的训练数据是来自 youtube 的 1000 万个猫脸图片,用了 1.6 万个 CPU,整整训练了 3 天。

  2013 年,辛顿师徒三人共同成立了一家名为 DNNresearch 的公司。后来,这个只有三个人且没有任何产品和计划的公司,被谷歌以几千万美元的价格竞购(百度也跑去买,和谷歌争到最后,没成功)。

  2014 年,谷歌公司收购了专注于深度学习和强化学习技术的人工智能公司 DeepMind 公司。

  2016 年 3 月,DeepMind 开发的人工智能围棋程序 AlphaGo(阿尔法狗),对战世界围棋冠军、职业九段选手李世石,并以 4:1 的总比分获胜,震惊了全世界。

  AlphaGo 具有很强的自我学习能力,能够搜集大量围棋对弈数据和名人棋谱,学习并模仿人类下棋。

  一年后,AlphaGo 的版本 AlphaGoZero 问世。在无任何数据输入的情况下,仅用了 3 天时间自学围棋,就以 100:0 的巨大优势,横扫了第二代版本 AlphaGo。学习 40 天后,AlphaGoZero 又战胜了第三代版本 AlphaGo。

  当时,全世界都在热议 AlphaGoZero 的强悍自学能力,甚至一度引起了人类的恐慌情绪。

  谷歌在 AI 圈出尽风头,但他们估计也没有想到,一家在 2015 年悄然成立的公司(确切说,当时是非营利性组织),会很快取代他们的主角地位。这家公司(组织),就是如今大红大紫的 OpenAIpg电子最新网站入口

  深度学习崛起之后,大家应该注意到,都是用于一些判别类的场景,判断猫、狗之类的。那么,深度学习,是否可以创造(生成)一些什么呢?

  生成对抗网络用两个神经网络即生成器(Generator)和判别器(Discriminator)进行对抗。在两个神经网络的对抗和自我迭代中,GAN 会逐渐演化出强大的能力。

  生成对抗网络的出现,对无监督学习、图片生成等领域的研究,起到极大的促进作用,后来也拓展到计算机视觉的各个领域。

  2017 年 12 月,Google 机器翻译团队在行业会议 NIPS 上,丢下了一颗重磅炸弹。他们发表了一篇里程碑式的论文,名字叫做《Attention is all you need(你所需要的,就是注意力)》。

  论文提出只使用“自我注意力(Self Attention)”机制来训练自然语言模型,并给这种架构起了个霸气的名字 Transformer(转换器、变压器,和“变形金刚”是一个词)。

  所谓 自我注意力 机制,就是只关心输入信息之间的关系,而不再关注输入和对应输出的关系,无需再进行昂贵的人工标注。这是一个性的变化。

  Transformer 的出现,彻底改变了深度学习的发展方向。它不仅对序列到序列任务、机器翻译和自然语言处理任务产生了深远的影响,也为后来 AIGC 的崛起打下了坚实的基础。

  Generative(生成式),表示该模型能够生成连续的、有逻辑的文本内容,比如完成对话、创作故事、编写代码或者写诗写歌等。

  Pre.trained(预训练),表示该模型会先在一个大规模未标注文本语料库上进行训练,学习语言的统计规律和潜在结构。

  GPT-1 和 BERT 都使用了深度学习和注意力机制,具备较强的自然语言理解能力。两者的区别是,BERT 使用文本的上下文来训练模型。而专注于“文本生成”的 GPT-1,使用的是上文。基于“双向编码”的能力,BERT 的性能在当时明显优异于 GPT-1。

  ChatGPT 结合了人类生成的对话数据进行训练,展现出丰富的世界知识、复杂问题求解能力、多轮对话上下文追踪与建模能力,以及与人类价值观对齐的能力。

  人工智能起步于 1950 年代,早期主要是符号主义占主流,并引发了第一次(政府投资)和第二次 AI 浪潮(企业投资)。

  1994-现在,虽然叫做第三次 AI 浪潮,但也分两个阶段。1994-2006(其实是 1980-2006),是机器学习、神经网络的早期积累阶段,打基础。

  从 2018 年开始,人工智能逐渐进入了 Transformer 和大模型时代,能力有了巨大的提升,也掀起了 AI 巨浪。

  随着深度学习、神经网络、生成式 AI 等技术的不断突破,人工智能已经在工业、教育、医疗、金融、交通、娱乐等几乎所有领域实现了落地。人工智能在计算机视觉、自然语言处理、机器人等方面所具备的能力,已经被应用到大量的垂直场景,并产生了可观的经济效益。

  在人工智能热潮的带动下,软件、半导体、通信等 ICT 产业,都获得了不错的商业机会。围绕人工智能的几家大公司,包括英伟达、微软、苹果、Alphabet(谷歌母公司)、亚马逊、Meta、特斯拉,目前在股票市场被誉为“七巨头”,市值屡破纪录。

  当然了,这股热潮究竟会走向何方,我们还不得而知。也许,它会继续增长一段时间,甚至长期持续下去,将人类彻底带入智能时代。也许,我们会进入第三次 AI 低谷,泡沫破碎,一地鸡毛,又进入一个新的周期。

  扩展阅读无相关信息即时据“常州发布”消息,6 月 9 日,常泰长江大桥以“毫米级”精度顺利合龙,实现全线贯通,这座世界最大跨度斜拉桥预计明年 4 月底前具备通车条件。

020-88888888