2024-07-27 www.dnxtw.com
近期这几年,伴随着 AIGC 大模型的兴起,全社会掀起了一股强劲 AI 的浪潮。
大家关注着 AI,公司在相拥 AI,资产在追逐 AI。但凡和 AI 相关这个概念,都是会吸引大量的眼光。
那样,AI 是怎样一步一步走到今天的呢?它经历过什么发展过程,又有过什么动人的故事?
本篇文章,让我们来细心回顾一下,人们 AI 的发展史。
█ 萌芽期人们对于人工合成智能体的不懈追求想象,最早可以追溯到古希腊时代。
在古希腊神话中,火与匠人之王赫菲斯托斯,以前制做了一组金制的女机器人,“用心能解意,有嘴能说话,有手能用劲,熟练手工制做”。
在中国古时候历史文献中,也出现过“人工智能”的身影。
《列子・汤问篇》中,偃师向周穆王敬献了一个机器人,会唱会跳、会跳舞,还会继续撩拨周穆王的妃子。周穆王醋劲暴发,觉得机器人是真人版扮成,要杀死偃师。偃师赶紧将机器人拆开,周穆公才罢休。
上边的这种文字记载,显而易见都是骗人的。在漫长且漫长的古时候,以人类那时候技术水平,一定是造出不来智能体的。能造出来一些简单机械(比如诸葛亮的木牛流马),都已很不简单了。
人们对于智能体的期许,大部分都依托神灵等民族宗教 —— 把人的灵魂附体于机械设备,才能够实现“人工智能”。
到近代,伴随着科技革命全面爆发,人们逐渐逐步进入机械设备测算、电气设备测算时期。计算水平的不断增长,促使根据“算率”来推动“智能化”,成为一种行得通选择项。
17 新世纪,莱布尼茨、托马・霍布斯和笛卡儿等首次提出:是不是能将人们理性思考系统,转化成组合数学或代数学管理体系?
莱布尼茨觉得:“人类观念,能够简化成某类计算。”
霍布斯也提出:“逻辑推理便是测算。”
这种伟大的思想,为后来的计算机与人工智能发展趋势提供了方向。
再后面的事情,大家都比较明白了 ——
在克利夫・巴贝奇(Charles Babbage)的分析机、赫尔姆・何乐礼(Herman Hollerith)的制表机、穆伊・图灵(Alan Turing)的图灵机,及其 Z3、乔伊机、Mark I、ENIAC 等一系列创造出来的结力驱动下,人们总算进入数据计算机时期,也开始了跌宕起伏的信息化革命。(不明白的,看看吧:算率简史)
█ 第一次高潮迭起环节(1950 年-1973 年)图灵测试
数据计算机正式诞生以后,很快就有专家开始尝试,是否可以通过电子计算机来达到“智能化”。
1950 年,穆伊・图灵在《心灵(Mind)》杂志上发表了一篇至关重要的毕业论文,名字叫做《计算机器与智能(Computing Machinery and Intelligence)》。
穆伊・图灵(1912-1954)在论文开头,他便提出了一个灵魂之问:
“I propose to consider the question, ‘Can machines think?’"
“我提议思索这样一个问题:‘设备能够考虑吗?’”
图灵在文章中细心探讨了造就“智能机器”的概率。因为“智能化”一词难以界定,他提出了有名的图灵测试(以下是大概意思):
“一个人在不碰另一方的情形下,通过一种特殊的方式跟对方进行一系列的互动问答。若是在非常长时间内,他不能依据各种问题分辨另一方是人类还是计算机,那样,就能觉得这个电脑是智能化的。”
图灵测试图灵论文,在学术界导致了广泛反应。越来越多专家学者被这一话题深深吸引,加入到对“机器智能”的探索当中。在其中,也包括达特茅斯学校的青年数学课助课罗伯特・科马克(J. McCarthy),及其哈佛大学的年青数学神经学家马文・明斯基(M. L. Minsky)。
达特茅斯大会
1955 年 9 月,罗伯特・科马克、马文・明斯基、赛巴斯・香侬(C. E. Shannon)、纳撒尼尔・圣约翰(N. Rochester)四人,一同提出了一个有关机器智能的研究项目。在项目中,首次引入了“Artificial Intelligence”这词,其实就是人工智能。
1956 年 6 月,在刚才那 4 个人集结下,在洛克菲勒基金会的资助下,十余位来自各式各样领域专家,汇聚在国外新罕布什尔州汉诺威镇的达特茅斯学校,举办了一场历时接近两月的学术会议,专业探讨机器智能。
此次讨论会,就是著名的达特茅斯大会(Dartmouth workshop)。
出席会议的那一部分巨头达特茅斯大会并没得到什么重要的观点或宣言口号,可是认可“人工智能(Artificial Intelligence)”的命名,也大致确定了后面研究方向。
这次会议,意味着人工智能作为一个研究方向正式诞生,也被后人视作当代人工智能的开端。
AI 三高校派
达特茅斯大会以后,人工智能进入了一个快速发展阶段。参加科学研究得人越来越越来越多,并且,也逐步形成了几个学术研究流派。
在这儿,我们应该提及人工智能最有名的三高校派 —— 标记主义、联接主义(又叫连接主义、相互连接主义)、个人行为主义。
标记主义是当年最主流的一个流派。
在他们看来,世界里的实体线、定义及其两者之间的关联,都能用标记来描述。人类思维的基本单元,都是标记。假如电子计算机能够像人的大脑一样,接受标记键入,对标记来操作解决,随后造成标记导出,就能表现出了智能化。
这个逻辑,重点在于把知识点进行编码,形成一个知识库系统,再通过推理引擎和规则系统,开展推论,为此处理复杂问题。
标记主义初期的代表性成效,是 1955 年赫伯特・西蒙(Herbert A. Simon,也译成诸葛贺)和莱纳・纽维尔(Allen Newell)研发的一个名为“逻辑性评论家(Logic Theorist)”程序。
“逻辑性评论家”被视为是人类历史上第一个人工智能程序流程,而且在达特茅斯大会上做了演试。它把每个难题均表示成一个树型实体模型,然后点击最有可能获得恰当结果的那条,来求得难题。
1957 年,赫伯特・西蒙等人在“逻辑性评论家”的前提下,就推出了通用性问题改进器(General Problem Solver,GPS),都是标记主义的初期意味着。
进到 1960 时代,标记主义也进入了一个全盛时期。在自然语言处理、微世界逻辑推理、权威专家系统(注意这个词,后边会重新提及它)等行业,人工智能获得了突破性的进展,也逐渐成为群众关注的对象。
1958 年,罗伯特・科马克正式发布了自己开发的人工智能计算机语言 ——LISP(LIST PROCESSING,指的是 "表处理")。后来很多知名 AI 程序流程,都是围绕 LISP 研发的。
罗伯特・科马克(1927-2011)1966 年,美国普林斯顿大学的魏泽鲍姆(Joseph Weizenbaum),发布世界上第一个对话机器人 ——ELIZA。
ELIZA 的名称来源于萧伯纳戏剧特点《卖花女》中的主角名。它只有 200 行编程代码和一个有限的资源会话库,可以结合提出问题中的关键词,开展回应。
ELIZA 其实并没有一切方便性可谈。它基于标准运行,即不了解对方内容,不知道自己说的啥。即便如此,它也是在那个年代引起了轰动。ELIZA 算得上是如今 Siri、小爱等互动问答互动专用工具的鼻祖。
魏泽鲍姆(坐者)正在和 ELIZA 会话再来说说联接主义。
联接主义,注重效仿人的大脑工作原理,创建神经细胞间的联接实体模型,以此实现人力神经系统计算。
大家可能会有点激动。没有错,这就是非常热门的神经网络。
神经网络的定义实际上问世得很早。1943 年,美国的神经系统生物学家沃伦・麦卡洛克(Warren McCulloch)和一位数学家沃尔特・皮茨(Walter Pitts),根据人类的大脑的神经元网络,创建了一个方式神经细胞计算机模型,并把它起名叫 MCP(McCulloch Pitts)实体模型。
沃尔特・皮茨(左)和沃伦・麦卡洛克(右)MCP 实体模型1951 年,马文・明斯基(便是上面提到的那一个)和他的同学邓恩・埃德蒙(Dunn Edmund),建造了第一台神经元网络机 SNARC。
1957 年,美国康奈尔大学的心理学家和计算机科学家唐纳德・罗森布拉特(Frank Rosenblatt),在一台 IBM-704 电脑中,仿真模拟完成了一种他创造发明叫“感知机(Perceptron)”的神经网络。
唐纳德・罗森布拉特与他的感知机这一“感知器”包含三层结构,一端是 400 个光探测器,仿真模拟眼底黄斑。光探测器数次联接一组 512 个电子触发器。当它们根据一个特定的可调节的激动阈值时,就犹如神经细胞一样激起。这种触发器原理传送到最后一层,当一个物体与感知器参训见到的目标相互匹配时,它也会发信号。
感知机工作原理“感知机”是联结主义的一项重要成效,在人工智能发展史上具有里程碑式的实际意义。可是,后来一盆凉水,完全浇灭了联结主义的激情。
1969 年,马文・明斯基和西蒙・派珀特(Seymour Papert)写了一本书《感知机: 计算几何学导论》的书籍,对罗森布莱特的感知器提出了质疑。马文・明斯基觉得:
“神经元网络具有一定的局限(单面感知机难以解决线性不可分难题),没有直接学术价值。”
马文・明斯基(1927-2016)来源于大神的否认,相当于立即判决了神经元网络(联结主义)路线死罪。因此,这一非常有价值的研究内容,被中止了。
罗森布莱特之后死于意外(也有人说是自尽),马文・明斯基也因为这个错误的判断,被一些专家学者批判。(应注意,马文・明斯基虽然也有错判,但他对人工智能事业发展的功远远大于过,乃至也被称为“人工智能鼻祖”。)
直到神经元网络(联结主义)重新崛起,已是十多年后的事儿了。大家待会儿再详细说。
最终,讲讲行为主义理论。
行为主义理论,又称为演变现实主义或现象学流派。在他们看来,根据与环境的互动交流去学习和适应,进而改善自身行为,便是行为主义理论觉得智能。智能化在于认知和行为,不用专业知识、表明和逻辑推理,只需将智能化行为出去就行。
简单的说,行为主义理论 AI 系统根据“认知-姿势”的闭环控制系统,注重即时反馈和适应能力学习培训。智能体根据认知环境数据,基于这些信息内容实行姿势,并依据姿势结论调节后面个人行为。
行为主义理论在之后的机器人系统、机械自动化、手机游戏 AI、无人驾驶汽车等领域拥有关键运用。
好啦,以上就是 AI 三大关键学派的详细介绍,作为学习 AI 的基础知识埋下伏笔,也有利于阅读文章后边的帖子。
大家一定要注意,AI 的流派和党的思想路线并不止这三个,还有一些小流派,比如进化计算、模糊逻辑、贝叶斯网络等。他们虽不属于单独的学校派,但 AI 的某个子领域里具有重要的运用和危害。并且,AI 流派中间,界限也比较模糊,有的时候会互相融合。
其他重要成果
再简单介绍一下那时候此外几类关键科研成果。
首先需要是亚瑟・塞缪尔(Arthur Samuel)的跳棋程序流程。
1959 年,IBM 专家亚瑟・塞缪尔在自己家第一台商业电子计算机 IBM701 上,取得成功撰写了一套西洋跳棋程序流程。这个程序具备“自学能力”,可以通过对很多残局的解读,慢慢识别出“好棋”和“坏棋”,进而提升自己的下象棋水准。
这个程序迅速便下获胜萨缪尔自身,之后,它也打败了那时的西洋跳棋高手约翰逊尼赖。
由于首次提出了“机器学习算法(Machine Learning)”这个概念,亚瑟・塞缪尔被后人称为“机器学习算法鼻祖”。
亚瑟・塞缪尔(1901-1990)1959 年,国外科学家乔冶・德沃尔(George Devol)与弗兰茨・圣彼德赫伯特(Joseph Engelberger)创造了人们第一台工业机械手 ——Unimate。
Unimate 重约二吨,组装运行于通用汽车公司生产流水线。它能控制一台多自由度的机械手臂,搬运和层叠热压铸金属产品。
左新华社记者 Unimate
右图是弗兰茨・圣彼德赫伯特(左)、乔冶・德沃尔(右)
1966 年,查里・罗森(Charlie Rosen)领导者的美国斯坦福研究室(SRI),研发成功了第一台人工智能智能机器人 ——Shakey。
Shakey 全面应用了人工智能技术性,配备了电子器件监控摄像头、三角激光测距仪、碰撞传感器及其永磁电机,能简易处理认知、运动规划与控制难题。这是第一个通用性搬运机器人,又被称为“第一个电子人”。
科研人员已经调测 Shakey█ 第一次低谷期环节(1974 年-1979 年)刚刚讲了,1960 时代是符号主义的全盛时期。实际上,在符号主义的推动下,当时整个人工智能科学研究都进入了一个飞速发展的环节,又被称为 AI 的黄金时代(Golden Time,1960-1973 年)。
那时候,除开定理证明、人机交互、手机游戏博奕与机器人以外,人工智能很多领域都产出了很不错的成效。再加上美苏冷战,美政府想要出钱支助,促使 AI 科学研究越来越异常火爆。
在这一背景下,学界对 AI 的期望,渐渐变得麻痹大意。有一些研究者认为:
“二十年内,设备将可以完成人能做的一切工作。”
1970 年,马文・明斯基乃至放话:
“不久的将来 3-8 年之内,会问世和人类的智慧非常的人工智能,很有可能人类将会成为 AI 宠物。”
一味的开朗,肯定不会有哪些好的结果。
随着时间推移,研究者逐渐发现,根据推理规则的“智能化”,事实上水平十分有限。加上当时计算机算力和存力仍然处于初始阶段,系统根本达不到想要的效果。
以前推荐的这些 AI 流程和专用工具,陆续进入发生短板,乃至闹笑话。
以翻译机器为例子。那时候美政府倾注了 2000 多万美元做为计算机翻译的经费预算,结论有关精英团队产品研发很多年,发觉彻底小看了该项目的难度系数。
英文翻译软件经常会出现一些低级的错误。比如,将“Out of sight,out of mind(眼不见为净,眼不见)”译成“又瞎又疯”,把“The spirit is willing but the flesh is weak(力不从心)”译成“白酒是好一点的,但肉变质了”,把“Time flies like an arrow(光阴荏苒)”译成“蚊虫喜爱箭”。
接二连三的不成功,渐渐地消耗了政府部门总裁的耐心。再加上没多久美国的经济出现了一些问题(1974-1975 年发生在历史上少见的连续两次 GDP 持续下滑),政府开始确定“停食”。
1973 年,一位数学家莱特维尔(Lighthill)向欧洲政府提交了一份有关人工智能的研究报告(有名的《莱特希尔报告》)。汇报对当时的自动化技术、语言处理技术以及图像识别算法展开了严格且猛烈地指责,强调人工智能这些看起来壮观的总体目标根本没办法完成,科学研究早已彻底失败。
迅速,欧洲政府、美国防部高级研究计划局(DARPA)和美国医学科学委员会等,逐渐大幅削减乃至停止了对人工智能的投入。
人工智能进入第一个发展趋势低谷期,又被称为“AI Winter(AI 之冬)”。
█ 第二次高潮迭起环节(1980 年-1987 年)AI 之冬日的延续时间其实不是好长时间。六年后,1980 年,第二次 AI 发展趋势高潮迭起正式开始。
第二次的浪潮,其实是符号主义掀起。此次的主人公,是符号主义的一个新环节 —— 权威专家系统(Expert System)。
权威专家系统
权威专家系统,就是一个面对相关领域的非常“知识库系统 逻辑推理库”。
它叫来好多人,对大量权威专家知识和技能进行梳理,剖析并编写出大量的标准,导进系统。随后,系统根据这个根据专业知识整理出来的标准,开展逻辑判断,模拟和延伸人们专家管理能力,处理复杂问题。
大伙儿可以看得出,权威专家系统走依旧是符号主义的“标准”路经。因此,权威专家系统,又叫做标准基本系统。
1968 年,美国科学家爱得华・费根鲍姆(Edward Feigenbaum)给出了第一个权威专家系统 ——DENDRAL,并且对知识库系统提出了大体的界定。标志着权威专家系统的出现。
爱得华・费根鲍姆(坐的这位)DENDRAL 面向的是有机化学领域。可以帮助科学家分辨物质的分子构造。系统推出之后,由于可以减少人工成本而且提高工作效率,得到了有机化学行业热烈欢迎和信任。
和 DENDRAL 类似时长发生的专业人士系统,也有斯伯里・乔治(William A. Martin)研发的 Macsyma,及其霍华德・赫恩(Anthony C. Hearn)研发的“Reduce”。
这两套都数学领域专家系统(用以求得数学题目),都采用了罗伯特・科马克的 LISP 语言表达进行设计。
1972 年,美国医院兼专家爱得华・H・肖特利夫(Edward H. Shortliffe)创立了能够帮助开展医学诊断的专业人士系统 ——MYCIN。
爱得华・H・肖特利夫MYCIN 主要是基于 LISP 语言表达撰写,有着 500 好几条标准,能够识别 51 种病原菌,准确地解决 23 种抗菌药。
它可以协助医院诊断、医治病菌传染性血液疾病,为消费者提供最好药方。那时候,它很好地办理了数以百计病案,并获得了严格检测,展现出了相对较高的医疗条件。
1977 年,爱得华・费根鲍姆在第五届国际性人工智能联合会议上,给出了“知识工程(Knowledge Engineering)”这个概念,进一步推动了权威专家系统的兴起。
进到 1980 时代,随着技术的演变,计算机的运算存储能力提升,权威专家系统先是在各行各业暴发。
1980 年,卡耐基梅隆大学研制的权威专家系统 XCON(eXpertCONfigurer)宣布商业,为那时的计算机行业巨头 DEC 每一年节省千余万美元。
1983 年,美国通用电气公司搞出了柴油机内燃机车检修权威专家系统(DELTA)。这一系统封装形式了一大批 GE 杰出当场服务工程师的知识和技能,可以指导员工开展故障检修与维护。
那时候,美国运通公司也搞了一个银行信用卡验证辅助决策权威专家系统,听说每一年可以节约 2700 万美元。
总得来说,那个时候的权威专家系统,是大公司爱不释手神器。它可以带来实打实的经济收益,因此,行业用户想要为此项目投资。这是第二次 AI 的浪潮的主要原因。
大家也可以这样说,第一次 AI 的浪潮,是公共基础设施推动的。第二次 AI 的浪潮,是企业融资推动。AI,正式进入产业发展的环节。
企业融资的效果,反过来又让国家政府对 AI 恢复一些自信心。
1981 年,经济发展快速增长的日本,首先对 AI 开展资金投入。
那一年,日本经济产业省拨付 8.5 亿美金,适用第五代计算机新项目。这样的项目的最终目的,是造出来一台人工智能计算机,可以和人会话、翻译语言、表述图象、进行逻辑推理。
美国与欧洲政府,也比较快实施了行为。
1983 年,美国防部高级研究计划局(DARPA)根据“发展战略测算研究会(Strategic Computing Initiative)”,重新启动对人工智能探索的支助。
同一年,英国投资 3.5 万欧,开启了 Alvey(阿尔维)方案,深入推进软件工程项目、人机交互界面、智能化系统和超大规模集成电路等领域的研发。
有关权威专家系统,还有一个雄心勃勃的新项目值得一提。那便是 1984 年启动的 Cyc 新项目。
Cyc 项目由国外微电子技术与计算机科技公司进行,是一个“非常百科辞典”新项目。它尝试将人们所拥有的全部一般性知识都键入计算机,建立一个超大数据库系统。
这样的项目,听说到现在还在开展当中。
█ 第二次低谷期环节(1987 年-1993 年)好景不常,到 1980 时代的后半段,人工智能又开始走下坡路了。
原因是多方面的。
最先,权威专家系统(符号主义)根据制度和已经有知识“查找 逻辑推理”,面对复杂的真实世界,显而易见确实是有水平短板。
它的应用范围狭小、欠缺常识问题专业知识、获得知识艰难、逻辑推理方法单一、欠缺分布式系统作用、无法与当前数据库系统适配等…… 全部各种问题,都给它的进一步发展导致了困惑。
次之,80 时代 PC(本人电脑)科技革命全面爆发,也帮权威专家系统导致了冲击性。
那时候权威专家系统基本都是用 LISP 语言表达整理的。系统选用硬件,是 Symbolics 等厂商制造的人工智能专用型计算机(又叫 LISP 机)。
LISP 系列产品服务器1987 年,苹果和 IBM 公司生产台式电脑,在性能上已经超过 Symbolics 的 AI 计算机,造成 AI 硬件配置市场的需求分崩离析。
权威专家系统日常维护和更新也存在很多问题。不但操作复杂,价格也非常昂贵。
融合之上各种原因,销售市场与用户逐渐对权威专家系统提不起兴趣。
到 80 时代末期,发展战略测算研究会大幅削减对 AI 的支助。DARPA 的新任领导也觉得 AI 并不是“下一个的浪潮”,削减了对其的项目投资。
AI,进入第二次低谷期环节。
█ 第三次高潮迭起环节(1994 年-如今)进入到 1990 时代以前,小枣君还是得再讲下 1980 时代。
1980 时代,权威专家系统揭开了第二次 AI 的浪潮,也促进了 AI 技术发展。可是却第三视角来说,真正对后来 AI 发展趋势产生深远影响的,其实并不是权威专家系统,反而是另外一个被遗忘了二十多年的赛道。
没有错,这个赛道,就是当年被马文・明斯基一句话给干废的“神经网络”跑道。
机器学习和神经网络
上文我们提到,神经网络是联结主义的一个象征性研究内容。可是,由于马文・明斯基的否认,正确的方向在 1969 年被打入冷宫。
1980 年,越来越多专家意识到了权威专家系统存在的问题。符号主义这条道路,很有可能行不通。人们普遍认为,人工智能需要做到真正的智能化,就必须要拥有自己认知系统,可以主动学习。
因此,提倡让机器“自动的从数据中学习培训,并通过训练获得更加精准的预测分析管理能力”的探索观念,开始慢慢充满活力。这便是前边提及的机器学习算法。
机器学习算法包括多种方式和方法论流派。来源于联结主义学派的神经网络,就在这一时期逐渐“复生”。
1982 年,罗伯特・霍普菲尔德(John Hopfield)在自己文章中详细介绍了 Hopfield 神经网络模型(实体模型原形初期由其他专家明确提出)。这是一种具有记忆力和改进作用能量循环(递归算法)神经网络。
1986 年,杰弗里・鲁梅尔哈特(David Rumelhart)、杰弗里・辛顿(Geoffrey Hinton,记牢这名字!)和罗纳德・琼斯(Ronald Williams)等一同发表了一篇名叫《Learning representations by back-propagation errors(根据反向传播算法课程的学习表现)》论文。
在文章中,她们提出了一种适用多层感知器(MLP)的算法,称为反向传播算法(Backpropagation,通称 BP 算法)。
该算法以在输入层和输出层中间设定一个内层(隐层),以反向传播的方式进行设备的自主学习。
算法我们之后再科学研究。大家只需要记牢,BP 算法既为双层神经网络的高速发展打下基础,也打破了马文・明斯基当初所提出的“神经网络具备局限”咒语,意义重大重要。
1980 时代是人工智能研究内容存在重大转折点的阶段。机器学习和神经网络(联结主义)加快兴起,逐渐取代权威专家系统(符号主义),变成人工智能的主要研究内容。
大家可以理解为,人工智能本来由知识驱动的形式,逐渐变成了由数字驱动。
这张图片,先剧透一下人工智能的象征性算法包含决策树算法、svm算法、决策树等。
1995 年,克里娜・柯尔特斯(Corinna Cortes)和弗雷德里希・万普尼克(Vladimir Vapnik)研发了svm算法(Support Vector Machine,SVM)。svm算法是一种投射和识别相近数据库的系统,可以看作在感知机的基础上的改善。
神经网络层面,至关重要的 CNN(Convolutional Neural Network,卷积和神经网络)和 RNN(Recursive Neural Networks,递归算法神经网络),也在哪一时期爆发了。
1988 年,美国贝尔实验室的 Yann LeCun(这个人是法国,网上翻译中文名字有许多:杨立昆、杨乐春、燕乐存、扬・勒丘恩)等,给出了卷积和神经网络。我想大家比较了解,这是一种专门用来解决图像信息的神经网络实体模型。
Yann LeCun1990 年,国外认知能力专家、心理状态教育学家杰弗里・艾尔曼(Jeffrey Elman)给出了第一个递归算法神经网络 —— 艾尔曼神经网络模型。递归算法神经网络可以在训练的时候保持数据信息自身的顺序特性,非常适合于自然语言理解应用领域。
1997 年,法国计算机专家瑟普・霍克屈米(Sepp Hochreiter)以及老师于尔根・施密德胡伯(Jürgen Schmidhuber)研发了用以递归算法神经网络的 LSTM(长短期记忆互联网)。
1998 年,Yann LeCun 等给出了 LeNet,一个用于手写数字识别的卷积和神经网络,基本展现了神经网络在图像识别技术行业的发展潜力。
总得来说,20 新世纪 90 时代,神经网络在进行商用以文本图像识别技术、语音识别技术、大数据挖掘以及金融预测分析。在系统识别、信号分析、控制技术等行业,也是有试着运用,尽管当时遭受云计算服务器限定,应用领域和规模比较有限。
需要促进人工智能技术性的进一步暴发,不仅需要算法模型不断演变,也要算力的深层次提高。除此之外,还有一个薄弱点,也需要补,那便是数据信息。
我想大家看穿了,AI 的三要素,便是算法、算力和数据信息。
深蓝色
1990 时代最主要的 AI 事情,自然就是 1997 年 IBM 非常电脑“深蓝色(DEEP BLUE)”与国际象棋大师卡斯帕洛夫(KASPAROV)的终极一战。
之前的 1996 年 2 月,深蓝色已向卡斯帕洛夫进行过一次考验,结果以 2-4 落败。
1997 年 5 月 3 日至 11 日,“深蓝色”再度考验卡斯帕罗夫。在通过六盘大战后,最后“深蓝色”以 2 胜 1 负 3 平方米考试成绩,小胜卡斯帕罗夫,惊呆了全球。
这也是 AI 发展史上,人工智能初次击败人们。
做为 80 之后的小枣君,对这件事情也记忆深刻。那时候“深蓝色”而引起的风潮,甚至超过了后来 ChatGPT。基本上所有人都在思考 —— 人工智能时期是不是真的来临了?人工智能,究竟会会取代人类?
深度学习
进到 21 新世纪,归功于计算机算力的进一步飞越,及其云计算技术、人工智能的暴发,人工智能正式进入一个更加汹涌澎湃发展阶段。
2006 年,多伦多大学的杰弗里・辛顿(便是 1986 年发表文章那个高手)在 science 期刊上,发布了关键论文《Reducing the dimensionality of data with neural networks(用神经网络降低数据维数)》,明确提出深层信仰互联网(Deep Belief Networks,DBNs)。
杰弗里・辛顿深度学习(Deeping Learning),正式诞生了。
2006 年被后人称之为深度学习年间,杰弗里・辛顿也被人们称为“深度学习鼻祖”。
深度学习是人工智能的一个重要支系。更准确的说,机器学习算法下边有一条“神经元网络”路经,而深度学习,是加强版的“神经元网络”学习培训。
传统人工智能算法所使用的神经元网络,具备输入层、一个或多个“掩藏”层及一个输出层。数据信息必须由人们专家结构型或标识(无监督学习),便于优化算法可以从数据中特征抽取。
深度学习优化算法应用“掩藏”层大量(数以百计)的神经网络算法。它能力比较强,会自动从海量的数据集中化特征抽取,不需要人工干涉(无监督学习)。
2006 年,在斯坦福大学任教的华裔科学家李飞飞,意识到业内在分析 AI 优化算法的过程当中,没有一个强大的图片数据信息样本库提供助力。因此,2007 年,她进行创立了 ImageNet 新项目,呼吁群众提交图象并标注图像具体内容。
2009 年,大中型图像数据集 ——ImageNet,正式公布。这一数据库系统涵盖了 1400 万多张图片数据,超出 2 万只类型,为世界 AI 科学研究(神经元网络训练)提供了强大适用。
李飞飞和 ImageNet从 2010 年起,ImageNet 每一年举办规模性视觉识别系统争霸赛,邀约全世界开发人员和研究机构参与,开展人工智能图像识别技术评定。
2012 年,杰弗里・辛顿和他的学生伊利亚・苏茨克沃(Ilya Sutskever)和亚历克斯・克里切夫斯基(Alex Krizhevsky)参与了这个比赛。
师徒三人她们定制的神经网络算法实体模型 AlexNet 在此次比赛中节节胜利,以压倒性优势获得第一名(将 Top-5 差错率降到 15.3%,比第二名低 10.8%),导致了业内震惊,甚至一度被认为是舞弊。
值得一提的是,他们三人用以训练模型,仅仅 2 张英伟达 GTX 580 独立显卡。GPU 在神经网络算法训练上展现出的令人震惊能力,不但让他们自己吓了一跳,也使黄仁勋和英伟达公司吓了一跳。
作为对比,2012 年稍早,谷歌搜索“Google Brain”新项目研究人员吴恩达(华裔美国人,1976 年生于英国伦敦)、杰弗里・迪恩(Jeff Dean)等,也倒腾了一个神经元网络(10 亿主要参数),用于训练对猫辨识。
他的训练信息是来源于 youtube 的 1000 万只猫脸照片,使用了 1.6 万只 CPU,整整的训练了 3 天。
吴恩达“神经网络算法 GPU”的优点,展露无遗。好多人跟很多公司的命运,从此改变了。
2013 年,辛顿师徒三人一同成立了一家名叫 DNNresearch 的企业。之后,这一只有三个人并且没有所有的产品及计划的企业,被谷歌以上千万美元的价格竞投(百度搜索也赶去买,和谷歌争到后来,没有成功)。
AlphaGo
2013 年-2018 年,谷歌搜索是人工智能行业最活跃的企业。
2014 年,谷歌公司投资了致力于深度学习和增强学习科技的人工智能企业 ——DeepMind 企业。
2016 年 3 月,DeepMind 研发的人工智能中国围棋程序流程 AlphaGo(阿尔法go),对决世界围棋冠军、职业九段参赛选手李世石,并且以 4:1 的大比分胜出,惊呆了全球。
AlphaGo 具有极强的自主学习能力,可以收集很多围棋对弈数据与知名人士象棋视频,学习与效仿人们下象棋。
一年后,AlphaGo 的第四代版本号 AlphaGoZero 面世。在没有任何数据传送的情形下,只用了 3 天的时间通过自学中国围棋,便以 100:0 的显著优势,横扫了第二代版本号 AlphaGo。学习培训 40 天之后,AlphaGoZero 又打败了第三代版本号 AlphaGo。
那时候,全世界人都强烈反响 AlphaGoZero 的强大通过自学能力,甚至一度导致了人类恐慌情绪。
谷歌搜索在 AI 圈大出风头,但是他们可能也想不到,一家在 2015 年悄悄地成立的公司(准确说,当时也是非营利组织),也会很快替代她们的主人公影响力。这个公司(机构),便是现如今一炮而红的 OpenAI。
OpenAI 创始人,除开埃隆・埃隆马斯克(Elon Musk)以外,也有罗伯・奥尔特曼(Sam Altman)、约翰・依特(Peter Thiel)、里・费舍(Reid Hoffman)。辛顿那个弟子,伊利亚・苏茨克沃,也赶去当上研发主管。
AIGC
深度学习兴起以后,大伙儿应当注意到,都是用于一些辨别类情景,分辨猫、狗什么的。那样,深度学习,能否造就(形成)一些什么?
2014 年,蒙特利尔大学博士研究生尹恩・古德费洛(Ian Goodfellow),从悖论里的“二人零和博弈”受到启发,给出了生成对抗网络(GANs,Generative Adversarial Networks)。
生成对抗网络用两个神经元网络即制作器(Generator)和判别器(Discriminator)进行对抗。在这两个神经网络的抵抗和自我迭代中,GAN 会慢慢演化成强悍的能力。
生成对抗网络的诞生,对无监督学习、图片生成等研究领域,具有巨大的推动作用,后来还扩展到机器视觉的各行各业。
2017 年 12 月,Google 计算机翻译团队在领域顶级会议 NIPS 上,丢下了一颗大杀器。她们发表了一篇里程碑式毕业论文,名字叫《Attention is all you need(你所需要的,就是注意力)》。
毕业论文明确提出只用“自身专注力(Self Attention)”体制来训练自然语言理解实体模型,并为这类架构设计取了个帅气的名字 ——Transformer(转化器、变电器,和“变形精钢”是一个词)。
所说 "自身专注力" 体制,便是只关注输入信息相互之间的关系,而不再关注输入和相匹配输出关联,不需要再开展昂贵人工标注。这是一个革命性的变化。
Transformer 的诞生,颠覆了深度学习发展的趋势。它不但对序列到序列每日任务、计算机翻译和其他自然语言理解每日任务产生了深远的影响,同时也为之后 AIGC 的兴起奠定了良好的基础。
总算,AIGC 的年代,要来临了。
2018 年 6 月,年轻 OpenAI,发布第一版的 GPT 系列产品实体模型 ——GPT-1。与此同时,他还发布了毕业论文《Improving Language Understanding by Generative Pre-training(根据生成式预训练改善语言逻辑)》。
GPT,便是 Generative Pre.trained Transfommer 的简称,生成式预训练逆变电路。
Generative(生成式),表明该方法可以形成连续不断的、有逻辑文本信息,例如进行会话、创作故事、编写程序或是作诗作曲写歌等。
Pre.trained(预训练),表明该方法会先往一个规模性未标注文字词库中进行训练,学习外语的统计规律和潜在构造。
Transfommer,刚刚已经说了,就是这个挺厉害的转化器实体模型。
谷歌搜索略逊一筹。2018 年 10 月,她们公布了快 3 亿参数 BERT(Bidirectional Encoder Representation from Transformers)实体模型,指的是“来源于 Transformers 双向编码表示”实体模型。
GPT-1 和 BERT 都采用了深度学习和注意机制,具有很强的自然语言处理能力。之间的区别是,BERT 应用文本的前后文来训练实体模型。而致力于“文本生成”的 GPT-1,采用的是前文。根据“双重编号”的能力,BERT 的性可在那时候显著出色于 GPT-1。
谷歌的领跑只是暂时的。2019 年与 2020 年,OpenAI 连续发布 GPT-2 和 GPT-3。2022 年 11 月,OpenAI 发布根据 GPT 模型人工智能会话业务系统 ——ChatGPT(可以理解为 GPT-3.5),完全点燃了全球。
ChatGPT 融合了人们形成的对谈数据信息进行练习,展示出丰富多样的世界知识、繁杂问题求解能力、多轮对话前后文跟踪与模型能力,及其和人类价值观念两端对齐的能力。
他在人机对换等方面的优秀表现,引起了社会发展的高度重视,在国际范围内掀起了一股 AI 惊涛骇浪。
后面的事情,大家都比较明白了。
继 ChatGPT 后,OpenAI 又发布了 GPT-4、GPT-4V、GPT-4 Turbo、GPT-4o,构成了现如今难以撼动的领导者影响力。谷歌搜索尽管也发布称为最牛 AI 大模型的 Gemini,但依然无法在风头顶盖住 OpenAI。
除开文本生成,生成式 AI 也不断向跨模态发展趋势,能够处理图象、声频、视频和多种多样媒介形态。
比如 DALL-E、Stable Diffusion、Midjourney 等图象生成模型,Suno、Jukebox 歌曲生成模型,及其 SoRa 短视频生成模型。
全世界面对每个垂直领域的“大模型对决”,依然在战火纷飞地开展当中。。。
█ 结束语说到这里,这篇文章飘飘洒洒一万多字的文章,终于是结束。
我总结一下:
人工智能起步于 1950 时代,初期通常是符号主义占主流,并引发了第一次(公共基础设施)和第二次 AI 的浪潮(企业融资)。
到 1980 时代,符号主义慢慢走低,机器学习和神经网络开始崛起,趋于成熟。
1994-如今,尽管称为第三次 AI 的浪潮,却也分两个阶段。1994-2006(其实就是 1980-2006),是机器学习算法、神经网络的初期积淀环节,夯实基础。
2006 年,神经网络进到深度学习环节,就完全正式开始 AI 全面爆发。
从 2018 年起,人工智能慢慢进入 Transformer 和大模型时期,能力拥有巨大的提升,也揭开了 AI 惊涛骇浪。
现在的人工智能,已是全球关注的重点,仍然处于一个史无前例的白金发展过程。
伴随着深度学习、神经网络、生成式 AI 等技术的不断进取,人工智能早就在工业生产、文化教育、诊疗、金融业、交通出行、娱乐等绝大多数领域实现了落地式。人工智能在机器视觉、自然语言理解、机器人等层面所具有的能力,早已被应用到大量竖直情景,并产生了可观的经济效益。
在人工智能风潮的推动下,软件、半导体材料、通信等 ICT 产业链,都获得了不错的商机。紧紧围绕人工智能的几家大企业,包含英伟达显卡、微软公司、苹果公司、Alphabet(谷歌母公司)、亚马逊平台、Meta、特斯拉汽车,如今在股市被称作“七大佬”,总市值屡打破记录。
当然,那股风潮究竟会何去何从,大家还不得而知。或许,他会继续增长一段时间,乃至长期持续下来,将人类完全带到大数据时代。或许,大家将进入第三次 AI 低谷期,泡沫塑料粉碎,一地鸡毛,又进入一个新的周期时间。
未来会怎么样,就要时间告诫我们答案。
论文参考文献:
1、《人工智能简史》,尼克斯;
2、《人工智能发展趋势简史》孙凌云、孟辰烨、李泽健;
3、《人工智能 60 年技术性简史》,李理;
4、《深度学习简史》,Keith D. Foote;
5、《AI 是什么将带我们去哪儿?》,李开复;
6、《人工智能的五个界定:哪一个最不可行?》,李开复;
7、《一文读懂人工智能发展历程:从诞生,到实现产业化》,李弯弯的;
8、《你一定爱看的人工智能简史》,渡边一成;
9、《AlphaGo 身后:深度学习胜利》,曹玲;
10、《三张图讲述一部 AI 进化史》,商品二姐(知乎问答);
11、《GPT 背后,从人生坎坷到颠覆世界,人力神经网络的跌宕起伏 80 年》,孙睿晨;
12、百科、wiki百科等。
广告宣传申明:文章正文所含的对外开放跳转页面(包括不限于网页链接、二维码、动态口令等方式),用以传递更多信息,节约优选时长,结论仅作参考,电脑系统网全部文章内容均包括本声明。
07-04407
09-09395