分类 | 术语 | 基础概述 | 关键技术 | 发展历程 | 应用场景 |
---|---|---|---|---|---|
基础概念 | AI(Artificial Intelligence)人工智能 | 模拟人类智能的计算机系统,执行学习、推理、决策等任务,用于模拟、扩展和增强人类智能的技术工具和方法 | 符号主义(规则系统)、连接主义(神经网络)、行为主义(环境交互), 生成式AI、自然语言处理(NLP)、Transformer模型、BERT、PEFT微调方法及大语言模型(LLM)等 | 1956年达特茅斯会议提出; 2012年深度学习爆发; 2022年生成式AI革命 | 自动驾驶、医疗诊断、智能客服、内容创作辅助、人机协作 |
ML(Machine Learning)机器学习 | 利用数据进行学习的技术,从数据中学习规律,使计算机能够通过算法模型从数据中获取特征并不断优化模型以做出决策和预测,无需显式编程即可改进其性能 | 监督学习(分类/回归)、无监督学习(聚类)、强化学习(奖励机制) 机器学习的核心技术包括算法原理,涉及模型训练、特征工程、模型部署等流程,同时涵盖损失函数、正则化项等策略,以实现有效的模型评估与选择。 | 1958年感知机诞生; 1986年BP算法; 2012年ImageNet竞赛突破 | 金融风控、推荐系统、图像识别 | |
DL(Deep Learning)深度学习 | 基于多层神经网络的复杂模式学习,利用多层神经网络处理复杂数据模式的机器学习技术,通过模拟人脑神经网络进行学习和识别的机器学习方法 | CNN(图像处理)、RNN/LSTM(时序数据)、Transformer(自注意力机制) | 2012年AlexNet夺冠; 2014年GAN; 2015年ResNet | AlphaGo、语音识别、图像处理、自然语言理解 | |
RL(Reinforcement Learning)强化学习 | 通过环境反馈(奖励/惩罚)优化决策策略,是一种优化整个决策过程以最大化累积收益的算法领域,重点关注决策之间的相互影响 | Q-learning和Sarsa、策略梯度、深度强化学习(DQN) 强化学习的核心要素包括智能体、环境、状态、观测、动作、奖励和策略,它们共同决定了智能体如何通过与环境的交互来最大化累积奖励。 | 1997年IBM深蓝; 2016年AlphaGo; 2025年工业机器人自主决策 | 游戏AI、机器人控制、游戏对抗、资源调度 | |
模型技术 | LLM(Large Language Model)大语言模型 | 超大规模神经网络,通过海量文本训练掌握语言规律,具备模拟人类语言理解和生成的能力 | 变压器架构(Transformer)、注意力机制、位置编码、预训练与微调 | 2018年BERT; 2020年GPT-3; 2023年GPT-4多模态融合 | ChatGPT、文心一言、代码生成 |
推理模型 | 结合逻辑规则与数据驱动的决策系统,专注于多步推理任务的模型,旨在增强人工智能的问题解决能力 | 神经符号融合、知识图谱集成、动态计算分配 | 2024年通义千问3推出"混合推理"(快思考+慢思考) | 法律咨询、医疗诊断、金融预测 | |
多模态模型 | 融合文本、图像、音频等多种输入/输出形式的AI模型和技术 | 跨模态对齐、联合表示学习、多模态生成、协同学习 | 2023年GPT-4V; 2024年谷歌Gemini; 2025年Sora视频生成 | 视频内容创作、跨媒体搜索、智能硬件交互、图像建模 | |
训练优化 | 预训练 | 通过在大规模未标注数据上进行训练,使模型能够学习到通用的语言模式和特征表示 | 掩码语言建模(MLM)、自监督学习、万亿级token处理 | 2018年BERT开启预训练时代; 2023年千亿参数成为常态 | 模型初始能力构建、迁移学习基础、推荐系统 |
模型微调 | 在预训练模型上使用领域数据适配特定任务,通常涉及数据集准备、模型训练和效果评估等步骤,相比提示词调优,它更为复杂且资源需求大 | 指令微调(Instruction Tuning)、LoRA(低秩适配)、P-tuning v2参数高效微调技术 | 2020年后成为LLM落地标准流程; 2024年高效微调技术普及 | 行业知识问答、专业文档分析、图像生成与编辑 | |
模型剪枝 | 用于减少神经网络的大小和计算复杂度,通过删除不重要的权重或神经元来简化模型结构 | 结构化剪枝(通道/层移除)、非结构化剪枝(权重归零)、知识蒸馏结合剪枝 | 2015年首次应用于CNN; 2024年移动端模型压缩关键技 | 大规模语言模型压缩、手机端部署(如荣耀Magic V5搭载通义千问3) | |
蒸馏 | 通过将大型模型的知识和技能传递给小型模型,以提高小型模型的性能和效率,用小模型模仿大模型行为以降低推理成本 | 知识迁移、软标签学习、输出分布匹配 白盒蒸馏、多教师蒸馏、自蒸馏 | 2015年Hinton提出知识蒸馏概念; 2024年开源小模型(DeepSeek-V3)的核心技术 | 大模型蒸馏、边缘计算、实时推理场景 | |
数据标注 | 为训练数据添加标签以指导模型学习,是人工智能开发中的关键环节,涉及对原始数据进行标记和处理,以便机器学习算法能够理解和分析。这一过程通过添加标签、框选、涂色、转写等多种操作,确保数据集的质量和准确性 | 主动学习、手工标、半自动标注、自动化标注、众包质量控制 | 1992年LDC建立首个标注库; 2025年AI辅助标注效率提升10倍 | 自动驾驶数据集(图像标框)、医疗影像标注 | |
应用组件 | RAG(Retrieval-Augmented Generation)检索增强生成 | 通过结合检索和生成模型,利用向量数据库存储和检索文档段落,增强大模型的回答能力,使其能够基于最新数据和文档内容准确回复用户问题,减少幻觉 | 向量检索、上下文融合、多轮迭代查询、外部知识库、生成框架 | 2020年Naive RAG; 2024年Modular RAG(模块化解耦) | 专业问答(医疗/法律)、客服知识库更新、智能问答系统 |
Prompt(提示词) | 用于定义任务指令、提供输入内容并设定输出要求的关键元素,通过角色扮演、分隔符使用等技巧优化输出,引导AI模型生成特定的回答或执行特定任务。Prompt可以让AI更准确地理解你的需求,从而给出更有用的回答 | 角色设定、Few-shot Prompting、Chain-of-Thought Prompting及Prompt Chaining | 从GPT-1线性指令→2023年混合提示策略(角色+约束+示例) | 高效生成报告、创作诗歌、优化代码 | |
NLP(Natural Language Processing)自然语言处理 | 使计算机能够理解、解释和生成人类语言的技术 | 词嵌入、依存句法分析、语义词法分析、情感计算、语言模型 | 1950s规则驱动→2013年神经NLP→2025年神经符号融合 | 聊天机器人、虚拟助手、机器翻译、情感分析、智能写作 | |
AIGC(AI Generated Content)生成式人工智能 | 人工智能自动生成高质量的文本、图像、音视频等内容 | GAN、扩散模型、自回归生成,embedding、one-hot编码、词袋模型、词嵌入模型、CLIP模型和DDPM,生成式AI、分析型AI、认知型AI,内容质量评估 | 2014年GAN诞生; 2022年Stable Diffusion; 2025年多模态AIGC爆发 | 虚拟偶像(初音未来)、新闻自动撰稿、影视特效、AI绘图、智能UI | |
AI Agent(智能体) | 具有自主感知规划、决策和执行任务的AI系统,通过学习与进化,能够完成复杂的任务 | 大规模预训练模型支持、记忆与认知机制、工具调用(Tool Use)、多智能体协作 | 2023年AutoGPT; 2025年钉钉AI表格(单元格即智能入口) | 智能客服、业务流程自动化、个人办公助手、日常任务助手 | |
工作流编排 | 将多个AI任务组合为自动化流程,通过将一系列任务或步骤有序连接,确保业务高效流畅地执行 | DAG调度、异常处理、人机协同介入 | 2024年LangChain流行; 2025年钉钉AI工作流引擎 | 电商达人管理、跨部门审批流程、IT系统集成、制造业生产调度 | |
应用系统 | DeepSeek | 中国领先的AI公司,专注于大型语言模型(LLM)和多模态模型的研发 | MoE架构、小模型优化、长上下文支持 | 2024年发布R1; 2025年V3推理成本降1000倍 | 企业私有化部署、学术研究、金融健康、医疗健康、电商推荐 |
通义千问 | 阿里云开发的大规模预训练语言模型,旨在提供先进的自然语言处理和多模态处理能力 | 混合推理(快/慢思考)、多语言支持(119种) | 2023年开源; 2025年千问3性能超越Llama 3 | 智能客服、内容生成、编程辅助、高德地图智能导航 | |
ChatGPT | OpenAI开发的对话式生成预训练Transformer模型,其核心目标是通过自然语言交互完成复杂任务。让"ChatGPT=智能"成为全球用户心智共识。 | Transformer架构、RLHF(人类反馈强化学习)、指令微调(Instruction Tuning)、多模态扩展 | 2018:GPT-1诞生,1.17亿参数,验证Transformer有效性; 2020:GPT-3(1750亿参数)支持零样本学习,API开放引爆开发者生态; 2025.2:GPT-5上线,强化复杂推理与工具调用 | 反欺诈系统、编程辅助、办公自动化、超级助手 |
参考:
阿里云. (2025). 阿里云大模型工程师ACA认证免费课程. 阿里云大学. Retrieved February 28, 2025, from https://edu.aliyun.com/course/3126500/lesson/342500628
吴恩达 (Andrew Ng). (2023). Generative AI for Everyone [在线课程]. Coursera. https://www.coursera.org/learn/generative-ai-for-everyone
Karpathy, A. (2025年2月6日). Deep Dive into LLMs like ChatGPT [视频]. YouTube. 取自 https://www.youtube.com/watch?v=7xTGNNLPyMI
McKinsey Global Institute. (2023年6月). The economic potential of generative AI: The next productivity frontier [研究报告]. Retrieved from https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-ai-the-next-productivity-frontier
国信证券. (2023年3月). 人工智能专题报告:生成式人工智能产业全梳理 [行业研究报告]. 东方财富网. Retrieved from http://pdf.dfcfw.com/pdf/H3_AP202303291584635312_1.pdf
https://platform.openai.com/docs/guides/reasoning-best-practices