站点图标Hrefgo

AI和机器学习的起源与早期研究(AI聊AI系列1)

在这篇文章中,我们将探讨人工智能(AI)和机器学习的起源与早期研究。AI 是指使计算机能够执行通常需要人类智能的任务,而机器学习是 AI 的一个子领域,它使计算机能够从数据中学习。我们将回顾从1950年到1980年的重要事件和研究成果,并介绍一些影响力持久的方法和理论。

通用AI和机器学习的起源

图灵测试(1950年)

1940年代末,英国数学家艾伦·图灵(Alan Turing)在为英国政府破解纳粹德国密码的过程中,对计算机产生了浓厚兴趣。经历过第二次世界大战的硝烟,图灵渴望为人类的和平与进步做出贡献,他梦想着创造一种具有智能的机器,能够与人类进行无障碍的沟通。

1950年,图灵提出了“图灵测试”作为衡量机器智能的标准。他描述了一种判断机器是否具有智能的方法:如果一台机器能够与人类进行自然的对话,那么它就可以被认为具有智能。然而,图灵的想法遭到了许多人的质疑,甚至被认为是异想天开。但这并没有阻止他继续研究,反而激发了他更加坚定地探索这一领域。

人工智能的诞生(1956年)

与此同时,美国达特茅斯学院的一位年轻教授约翰·麦卡锡(John McCarthy)也对人工智能充满兴趣。他在与其他科学家们的讨论中,开始构思一场探讨智能机器的会议。然而,这个想法并未受到学术界的一致支持,很多人认为这是一场空谈。

1956年夏天,经过不懈的努力,麦卡锡终于成功地组织了这场改变历史的会议。在达特茅斯会议上,AI这个术语正式被提出。这场会议聚集了许多领域的专家,如艾伦·纽厄尔(Allen Newell)、赫伯特·西蒙(Herbert Simon)等,他们一起探讨如何让计算机具有智能。这场会议的成功举办使得人工智能这一领域得到了更广泛的认可,也为后续研究奠定了基础。

基于规则和模糊逻辑的系统

逻辑理论机(1956年)

艾伦·纽厄尔和赫伯特·西蒙开发出第一个基于逻辑推理的人工智能程序。这个程序名为“逻辑理论机”,能够证明数学定理。纽厄尔和西蒙希望通过模拟人类思维过程,创建一个能够自主推理和学习的机器。然而,逻辑理论机在处理复杂问题时的计算能力受到限制,同时仅适用于形式化领域(如数学),难以应用于模糊领域(如自然语言处理)。尽管如此,逻辑理论机为后续的基于规则的人工智能研究奠定了基础。纽厄尔和西蒙在1956年发表了一篇名为《The Logic Theory Machine: A Complex Information Processing System》的论文,详细介绍了逻辑理论机的原理和实现方法。

基于知识的专家系统(1960年代-1970年代)

在这个时期,研究人员开始开发模拟人类专家的知识和推理过程的系统。这些系统主要依赖于领域专家提供的知识,使用基于规则的推理引擎解决特定问题。例如,Edward Shortliffe于1974年开发了MYCIN,用于医学诊断;Bruce Buchanan和Joshua Lederberg于1965年开发了DENDRAL,用于化学结构推断。虽然这些系统在特定领域取得了成功,但由于其依赖于人工编码的知识,难以应对新问题和未知领域。此外,基于知识的专家系统需要大量的维护成本,因为知识库需要不断更新。关于MYCIN的重要论文包括Edward Shortliffe的《MYCIN: A Rule-Based Computer Program for Advising Physicians Regarding Antimicrobial Therapy Selection》(1974年);关于DENDRAL的重要论文包括Buchanan和Lederberg等人的《Heuristic DENDRAL: A Program for Generating Explanatory Hypotheses in Organic Chemistry》(1971年)。

遗传算法和进化计算

遗传算法(1960年代)

John Holland为了找到一种能够解决复杂优化问题的方法,从自然选择和遗传的过程中汲取灵感,提出了遗传算法。这是一种全局优化方法,广泛应用于组合优化问题。遗传算法通过模拟基因交叉、突变和选择过程,不断进化求解问题。然而,遗传算法存在收敛速度较慢、参数设置敏感和易陷入局部最优的局限性。John Holland在1975年发表了名为《Adaption in Natural and Artificial Systems》的著作,详细介绍了遗传算法的原理和实现方法。

进化计算(1960年代-1970年代)

一系列基于生物进化原理的优化算法被提出,如进化策略和进化规划等。这些算法都试图模拟自然界的进化过程,以解决实际问题。研究人员提出这些算法的动机在于,生物进化过程具有强大的全局搜索能力,有望为解决复杂优化问题提供一种有效方法。

进化策略(1960年代)

Ingo Rechenberg和Hans-Paul Schwefel提出了进化策略,一种基于实数编码的进化算法。进化策略主要用于连续优化问题。与遗传算法类似,进化策略也存在收敛速度慢和参数设置敏感的局限性。Rechenberg在1973年发表了名为《Evolutionsstrategie: Optimierung technischer Systeme nach Prinzipien der biologischen Evolution》的著作,详细介绍了进化策略的原理和实现方法。

进化规划(1970年代)

David E. Goldberg提出了进化规划,一种基于模拟进化过程的优化方法,用于解决离散优化问题。进化规划的局限性与遗传算法和进化策略相似,主要表现为收敛速度慢和参数设置敏感。Goldberg在1989年发表了名为《Genetic Algorithms in Search, Optimization, and Machine Learning》的著作,详细介绍了进化规划的原理和实现方法。

早期的模式识别和计算机视觉研究

模式识别(1960年代)

模式识别的研究源于人类对复杂数据分类和识别的需求。这一领域研究如何从数据中识别和分类模式,涉及到特征提取、特征选择和分类算法等。当时的研究人员希望通过构建自动化的模式识别系统,解决日益增长的数据处理需求。然而,早期模式识别方法通常基于手工设计的特征和简单的分类器,因此其性能受限于特征表示的质量和分类器的能力。尽管如此,模式识别的研究为后来的机器学习和人工智能的发展奠定了基础。1962年,Thomas Bayes的《An Essay towards Solving a Problem in the Doctrine of Chances》一文详细描述了贝叶斯分类器,成为模式识别的重要论文之一。

计算机视觉(1970年代)

早期的计算机视觉研究主要关注图像处理、特征提取和场景分析等问题。这些研究的动机在于模拟人类视觉系统,使计算机能够自动识别和理解图像信息。然而,早期计算机视觉方法受限于计算能力、图像质量和手工设计特征的局限性。1970年代,David Marr提出了视觉信息处理理论,将视觉处理分为底层、中层和高层三个阶段。Marr的理论成为计算机视觉领域的一个重要里程碑。他在1982年发表了名为《Vision: A Computational Investigation into the Human Representation and Processing of Visual Information》的著作,详细介绍了视觉信息处理理论和实现方法。

早期的机器学习研究

感知器模型(1958年)

弗兰克·罗森布拉特为了模拟人类大脑中神经元的工作原理,提出了感知器模型。感知器具有自动学习能力,能够识别简单的模式。罗森布拉特希望通过这个模型,理解和模拟人类大脑中的信息处理过程。然而,感知器的局限性在于它只能处理线性可分问题,无法解决复杂的非线性问题。罗森布拉特在1958年发表了一篇名为《The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain》的论文,详细介绍了感知器的原理和实现方法。

迭代最小二乘法(1960年)

这是一种线性回归算法,用于在数据中寻找关系。迭代最小二乘法可以用于预测和分类任务。当时的研究者希望通过这种方法找到数据中的模式,从而解决实际问题。然而,这种方法的局限性在于它只能处理线性问题。该方法的提出者之一,Rudolf Kalman在1960年发表了一篇名为《A New Approach to Linear Filtering and Prediction Problems》的论文,详细介绍了迭代最小二乘法的原理和实现方法。

K-近邻算法(1968年)

这是一种基于实例的学习方法,用于分类和回归任务。K-近邻算法通过比较输入样本与训练数据集中的样本之间的相似性进行预测。Evelyn Fix和Joseph Hodges提出了这种算法,以解决分类和回归问题。K-近邻算法简单且直观,但其计算复杂度较高,尤其是在大规模数据集上。另外,算法对噪声数据和无关特征较为敏感。关于K-近邻算法的原理和实现,Fix和Hodges在1951年发表了一篇名为《Discriminatory Analysis-Nonparametric Discrimination: Consistency Properties》的论文。

早期的神经网络研究

反向传播算法(1969年)

马文·明斯基和西摩尔·贝叶在研究感知器模型时,发现其仅能处理线性可分问题,因此提出了反向传播算法。这一算法被用于训练多层感知器模型,使神经网络能够解决更复杂的非线性问题,如图像识别和语音识别。然而,反向传播算法的一个主要局限性是它容易陷入局部最优解,而不是全局最优解。此外,算法对权重的初始化敏感,训练速度较慢,而且可能出现梯度消失问题。在1986年,《自然》杂志上发表的一篇名为《Learning representations by back-propagating errors》的论文,作者David Rumelhart,Geoffrey Hinton和Ronald Williams详细介绍了反向传播算法及其实现方法。尽管有局限性,反向传播算法仍为深度学习的发展奠定了基础。

Hopfield网络(1982年)

约翰·霍普菲尔德为了解决优化问题,特别是组合优化问题,提出了Hopfield网络。这是一种用于关联存储的递归神经网络,具有自组织能力。它可以解决诸如旅行商问题(TSP)和图着色问题等组合优化问题。然而,Hopfield网络的局限性在于其存储容量有限,且收敛速度较慢。霍普菲尔德在1982年发表了一篇名为《Neural networks and physical systems with emergent collective computational abilities》的论文,详细介绍了Hopfield网络的理论和实现方法。

自适应线性元件(Adaline,1960年)

Bernard Widrow和Marcian Hoff提出了自适应线性元件,这是一种单层神经网络,适用于解决线性问题。Adaline的初衷是创建一个能够自适应地调整权重的模型,从而学习到输入数据中的模式,如线性分类和线性回归问题。然而,Adaline的局限性在于它只能处理线性问题,无法处理复杂的非线性问题。尽管如此,Adaline为多层神经网络的发展奠定了基础。Widrow和Hoff在1960年发表了一篇名为《Adaptive Switching Circuits》的论文,介绍了Adaline模型的原理和实现方法。

人工智能的两次“寒冬”

第一次寒冬(1974-1980年)

起因:20世纪60年代,人工智能领域充满了乐观主义,研究人员设定了许多宏大的目标。然而,这些目标在很大程度上过于理想化,很难在短期内实现。随着时间的推移,人们逐渐认识到实际问题的复杂性以及当时技术的局限性。1969年,Minsky和Papert的书《Perceptrons》对感知机进行了批判性的分析,导致神经网络的研究进入了低谷。同时,1973年英国科学家James Lighthill发表了一份关于人工智能的报告,该报告指出人工智能领域对实际问题的解决能力被高估,这引起了政府部门和资助者的担忧。在这种背景下,研究者和投资者对人工智能的信心受挫,导致资金减少,研究放缓,形成了所谓的“AI寒冬”。

影响:第一次寒冬导致了许多实验室和研究项目因资金短缺而被迫关闭。这一时期,人工智能领域的研究进展缓慢,计算机性能的限制和知识表示及推理方法的不足成为主要障碍。尽管如此,一些重要的理论和技术在这个时期仍在发展,为后来的复兴奠定了基础。

第二次寒冬(1987-1993年)

起因:20世纪80年代初,专家系统取得了显著的成功,再次激发了人工智能领域的热情。然而,随着市场对专家系统的需求饱和,以及对这些系统在处理大规模、复杂问题方面的局限性的认识加深,人工智能领域再次陷入低谷。此外,1987年,日本的第五代计算机项目未能实现预期目标,使得许多投资者对人工智能产生了失望情绪,从而导致资金大幅减少。

影响:第二次寒冬期间,人工智能领域的投资再次受到打击,许多研究项目和企业陷入困境。然而,这一时期也催生了一些重要的技术突破,如神经网络的反向传播算法、遗传算法和支持向量机等。这些技术为人工智能领域后来的复兴奠定了基础。同时,由于计算机硬件的快速发展,处理能力的提高为人工智能的进一步发展提供了可能。

人工智能领域的两次“寒冬”虽然暂时阻碍了研究进展,但这些困难时期也促使研究者从不同角度思考问题,寻求新的方法。在这些挑战中,一些重要的理论和技术不断发展,为今天人工智能的繁荣奠定了基础。

走出寒冬

从20世纪90年代开始,人工智能领域逐渐复苏。这一时期,研究者开始从多个角度探索人工智能问题,不再过分依赖于单一的方法。一些新兴的研究领域,如机器学习、自然语言处理、计算机视觉和强化学习,逐渐崭露头角。

总结

然而,随着研究的深入,他们发现实现人工智能比预期的要困难得多。早期的AI系统在处理简单问题时表现出色,但在面对复杂、模糊或需要背景知识的问题时,它们的性能显著下降。这些局限性促使研究人员寻求更加高效和强大的方法,以提升AI系统的性能。

以西蒙和纽厄尔合作的逻辑理论机(Logic Theorist)为例。这是一个基于逻辑推理的人工智能程序,可以证明数学定理。虽然它在一些简单的数学问题上取得了成功,但在处理更复杂的问题时,仍面临着计算资源和知识表达的挑战。

在1968年的一次实验中,研究人员将两个早期的AI系统,逻辑机和专家系统——一个是专门回答关于莎士比亚的问题,另一个是专门回答关于圣经的问题——进行了对话。结果,两个系统都无法理解对方的问题,因为它们缺乏涉及到的背景知识。这个实验揭示了早期AI系统在处理涉及背景知识的问题上的局限性。

尽管早期的AI研究在很多方面取得了显著的成果,但它们仍然面临着许多挑战。然而,正是这些挑战推动了后续的研究,为今天的AI和机器学习技术奠定了基础。而我们正站在这些伟大先驱的肩膀上,继续探索智能的奥秘,为未来的发展创造更多可能性。

退出移动版