AI智能总结
核心术语箱:主要包括人工智能方面的名词解释,共100个; 常见知识问答篇:主要包括人工智能方面的基础内容,共70条。 扬州市数据局 二〇二五年九月 核心术语篇(共100个) 一、基础概念与核心框架 l.人工智能(ArtificialIntelligence,Al) 人工智能是研究、开发用于模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门交叉学科,涉及计算机科学、数学、心理学、神经科学、语言学等多个领域。其核心目标是便机器具备类似人类的感知、学习、推理、决策等智能行为,目前已形成弱人工智能、强人工智能、超人工智能三个理论发展阶段,其中骗人工智能(专用AI)已在各行业广泛落地。 2.弱人工智能(NarrowAI) 弱人工智能又称窄人工智能或专用人工智能,指仅能在特定领域或任务中展现智能行为的系统,其能力被严格限定在预设范围内,不具备自主意识和跨领域迁移能力。例如语音识别系统仅能处理语音转文本任务,无法自主切换到图像识别领域。目前市场上的AI产品(如Siri,推荐算法)均属此类,是当前技术落地的主要形态。 3.强人工智能(GeneralAI) 强人工智能文称通用人工智能,指具备与人类相当的道用智 能,能理解、学习任何人类可完成的智为任务,拥有自主意识、情感和跨领域推理能力的系统。其核心特征是“通而不专”,可像人类一样灵活应对复杂环境与未知任务。自前强人工智能仍处于理论研究阶段,尚未有实际产品问世,是AI领域的长期目标。 4.超人工智能(Super AI) 超人工智能指在所有领域远超人类智能水平的系统,不仅能理解人类知识,还能在创新、创造等方面实现指数级超越,甚至可能引发技术奇点。这一概念自前仅存在于科幻作品和理论探讨中,其实现可能性与潜在风险(如伦理危机、生存威胁)是学术界争议的焦点。 5.符号主义(Symbolism) 符号主义是人工智能早期的主流流派,又称逻辑主义或规则主义,核心思想是通过符号表示知识,通过逻辑规则实现推理。其典型应用是专家系统,将领域知识转化为“if-then”规则,通过匹配规则进行决策。但符号主义难以处理模糊信息和大规模知识,在深度学习兴起后影响力减弱,但其思想仍在知识图谱等领域发挥作用。 6.连接主义(Connectionism) 连接主义又称神经网络学派,通过模拟人脑神经元的连接方式构建人工神经网络,实现对数据的分布式表示和并行处理。其 该心是“从数据中学习”,无需人工设计特征,在图像识别、自然语言处理等领域取得突破性进展。深度学习是连接主义的现代形态,已成为当前AI技术的核心框架。 7.行为主义(Behaviorism) 行为主义又称进化主义,强调智能来源于环境交互与试错学习,道过“感知-动作”循环优化行为策路。其典型模型是强化学习,智能体通过与环境的互动获取奖励信号,不断调整行为以最大化累积奖励。行为主义在机器人控制、自动驾驶等领域应用产泛,与连接主义结合形成的深度强化学习是当前研究热点。 8.机器学习(MachineLearning,ML) 机器学习是人工智能的核心子领域,研究如何便计算机从数据中自动学习规律并用于预测和决策。其核心是构建可从数据中送代改进的算法模型,无需人工编写具体规则。根据学习方式的不同,可分为监督学习、无监督学习、半监督学习、强化学习四大类,是实现弱人工智能的主要技术手段。 9.深度学习(DeepLearning,DL) 深度学习是机器学习的子集,基于深层神经网络(通常含3层以上隐藏层)实现特征的自动提取与表示。与传统机器学习相比,其优势在于处理高维数据(如图像、文本)时无需人工设计特征,通过多层非线性变换自动学习数据的抽象特征。卷积神经 网络、循环神经网络、Transformer等模型推动了计算机视觉,自然语言处理等领域的技术革命。 io.神经网络(Neural Network,NN) 神经网络是模拟人脑神经元连接结构的计算模型,由输入层、隐藏层、输出层组成,每层包含多个神经元(节点),节点间通过权重连接传递信息。其工作原理是:输入数据经隐藏层的线性变换与非线性激活后,由输出层产生预测结果。通过反向传播算法调整权重,使模型输出逼近真实标签,是深度学习的基础架构。 二、机器学习核心方法 ll.监督学习(Supervised Learning) 监督学习是指利用含标签的训练数据(输入与对应输出)训练模型,使模型学习输入到输出的映射关系,从而对新数据进行预测。其典型任务包括分类(输出离散标签)和回归(输出连续数值),常用算法有线性回归、逻辑回归、决策树、支持向量机、神经网络等。监督学习在图像识别、垃圾邮件过滤、房价预测等场景应用广泛。 i2.无监督学习(UnsupervisedLearning) 无监督学习是指利用无标签的训练数据,通过挖掘数据内在结构或规律实现聚类,降维等任务。其核心是发现数据中隐藏的模式,无需人工标注目标。典型算法包括K-均值聚类、层次聚 类、主成分分析(PCA)、自编码器等,在客户分释、异常检测、特征学习等领域发挥重要作用。 13.半监督学习(Semi-SupervisedLearning) 半监督学习结合少量有标签数据和大量无标签数据进行训练,适用于标签获取成本高的场景(如医疗影像标注)。其核心思想是利用无标签数据的分布信息辅助模型学习,常见方法包括自训练(用模型预测无标签数据并作为伪标签)、协同训练(多模型交互学习)等,在文本分类、语音识别等领域可有效提升模型性能。 i4.强化学习(ReinforcementLearning,RL) 强化学习是研究智能体(Agent)如何通过与环境交互获取奖励,从而学习最优行为策略的方法。其核心要素包括状态(环境信息)、动作(智能体行为)、奖励(环境反馈)、策略(状态到动作的映射)。智能体通过“试错”不断调整策略,以最大化长期累积奖励,在游戏AI、机器人控制、自动驾驶等领域取得突破性成果(如AlphaGo)。 15.分类((Classification) 分类是监学习的核心任务,目标是将输入数据划分到预定义的类别中。根据类别数量可分为二分类(如垃圾邮件识别)和多分类(如手写数字识别),常用算法包括逻辑回归、支持向量 机、决策树、随机森林、神经网络等。分类性能通常通过准确率、精确率、召回率、F1分数等指标评估。 16.回归(Regression) 回归是监学习的另一核心任务,目标是预测连续数值输出(如房价、温度、销售额)。其核心是拟合输入与输出之间的函数关系,常用算法包括线性回归、多项式回归、岭回归、Lasso回归、神经网络等。回归模型的性能通常通过均方误差(MSE)、平均绝对误差(MAE)等指标衡量。 17.聚类(Clustering) 聚类是无监督学习的核心任务,自标是将相似数据样本归为同一族,不同簇的数据样本差异较大。其核心是定义数据间的相似度度量(如欧氏距离、余弦相似度),常用算法包括K-均值聚类(K-Means)、层次聚类(HierarchicalClustering)、密度聚类(DBSCAN)等,在客户分群、异常检测、图像分割等领域应用广泛。 18.降维(Dimensionality Reduction) 降维是指将高维数据映射到低维空间,在保留关键信息的同时减少数据维度,以降低计算复杂度、缓解“维度灾难”。常用方法包括主成分分析(PCA,线性降维)、t-分布邻域嵌入(t-SNE,非线性降维)、自编码器(深度学习降维)等,在数据可视化、 特征预处理、模式识别等场景发挥重要作用。 19.过拟合(Overfitting) 过拟合指模型在训练数据上表现优异,但在新数据(测试数据)上性能显著下降的现象,因模型过度学习训练数据中的噪声而非普遭规律所致。解决方法包括增加训练数据、简化模型(减少参数)、正则化(L1/L2正则)、Dropout、早停等,是机器学习模型泛化能力优化的核心问题。 20.欠拟合(Underfitting) 欠拟合指模型无法捕提训练数据中的基本规律,在训练数据和测试数据上表现均较差的现象,通常因模型过于简单或训练不足所致。解决方法包括增加模型复杂度(如加深神经网络层数)、增加特征维度、延长训练时间等,与过拟合共同构成模型优化的两大挑战。 三、深度学习核心模型与算法 2i.卷积神经网络(ConvolutionalNeuralNetwork,CNN)) 卷积神经网络是专为处理网格结构数据(如图像、视频)设计的深度学习模型,核心是通过卷积层、池化层实现局部特征提取与降维。卷积层利用滑动窗口(卷积核)对输入进行局部感知,通过权值共享减少参数数量:池化层通过最大值或平均值运算降低特征图尺寸,增强模型平移不变性。CNN在图像分类(如 ResNet)、目标检测(如YOLO)、语义分割(如U-Net)等领域主导技术发展。 22.循环神经网络(RecurrentNeuralNetwork,RNN) 循环神经网络是专为处理序列数据(如文本、语音、时间序列)设计的模型,通过神经元间的反馈连接实现对历史信息的记忆。其核心是隐藏层状态在时间步上的传递,使模型能捕提序列中的时序依赖关系。但传统RNN存在梯度消失/爆炸问题,难以处理长序列,衍生出LSTM、GRU等改进模型,在机器翻译、语音识别、情感分析等领域应用广泛。 23.长短期记忆网络(LongShort-TermMemory,LSTM) LSTM是RNN的改进模型,通过引入输入门、遗忘门、输出门三种“门控机制”解决长序列依赖问题。遗忘门控制历史信息的保留与丢弃,输入门筛选新信息的纳入,输出门决定当前状态的输出,从而有效缓解梯度消失,能学习长达数百甚至数干时间步的序列依赖。LSTM在机器翻译、文本生成、时间序列预测等领域性能显著优于传统RNN。 24.变换器模型(Transformer) Transformer是2017年提出的基于自注意力机制Self-Attention)的神经网络模型,彻底摆脱RNN的时序依赖,采用并行计算处理序列数据。其核心是自注意力机制,通过计算 字列中每个元系与其他元系的关联权重,实现全局依赖建模,配合多头注意力、位置编码等机制,在长序列处理上效率远超RNN。Transformer是BERT、GPT等预训练语言模型的基础,推动了自然语言处理领域的技术革命,并逐步向计算机视觉(如V)渗透。 25.自注意力机制(Self-AttentionMechanism) 自注意力机制是Transformer的核心组件,用于计算序列中每个元素与其他元素的关联程度(注意力权重),使模型能聚焦关键信息。其计算过程包括:将输入映射为查询(Query)、键(Key)、值(Value)矩阵,通过Query与Key的相似度计算权重,再通过权重对Value加权求和得到输出。自注意力机制解决了RNN无法并行计算和捕捉长距离依赖的问题,是现代自然语言处理模型的标配。 26.生成对抗网络(GenerativeAdversarialNetworks,GAN) 生成对抗网络由生成器(Generator)和判别器(Discriminator)两个网络组成,通过对抗训练实现数据生成。生成器的目标是生成逼真的假数据(如图像、文本),判别器的自标是区分真假数据:两者通过minimax游戏动态优化,最终生成器可输出与真实数据难以区分的样本。GAN在图像生成(如 StyleGAN)、图像修复、风格迁移、超分辩率重建等领域应用广泛,衍生出DCGAN、CycleGAN等变体模型。 27.自编码器(Autoencoder,AE) 自编码器是一种无监督学习模型,由编码器(Encoder)和解码器(Decoder)组成,用于数据压缩与特征学习。编码器将输入数据映射为低维潜在表示(编码),解码器将潜在表示重构为与输入相似的输出,通过最小化重构误差训练模型。自编码器可用于降维、去噪(如DenoisingAE)、生成数据(如变分自编码器VAE),是无监督