AI 专业术语

AI人工智能大模型和应用产品

 

  • ChatGPT全称聊天生成预训练转换器英语:Chat Generative Pre-trained Transformer): 是OpenAI开发的人工智能聊天机器人程序,于2022年11月推出。该程序使用基于GPT-3.5架构的大型语言模型并以强化学习训练。ChatGPT目前仍以文字方式交互,而除了可以用人类自然对话方式来交互,还可以用于甚为复杂的语言工作,包括自动生成文本、自动问答、自动摘要等多种任务。如:在自动文本生成方面,ChatGPT可以根据输入的文本自动生成类似的文本(剧本、歌曲、企划等),在自动问答方面,ChatGPT可以根据输入的问题自动生成答案。还有编写和调试计算机程序的能力。在推广期间,所有人可以免费注册,并在登录后免费使用ChatGPT与AI机器人对话。ChatGPT可写出相似真人的文章,并在许多知识领域给出详细和清晰的回答而迅速获得关注,证明了从前认为AI不会取代的知识型工作它也足以胜任,对金融与白领人力市场的冲击相当大,但也认为事实准确度参差不齐是其重大缺陷,并认为基于意识形态的模型训练结果须小心校正。
  • Gemini(前称:Bard)是由Google开发的生成式人工智能聊天机器人,2024年2月8日更名为Gemini, 最初基于LaMDA系列大型语言模型(LLM),后来基于PaLM2(LLM),现基于Gemini系列大型语言模型。Gemini 是第一个在 MMLU(大规模多任务语言理解)上超越人类专家的模型,MMLU是测试知识最流行的方法之一。Gemini包含 Ultra、Pro 和 Nano : Ultra(超大)适用于高度复杂的任务, 超过了“大型语言模型(LLM)研究和开发中使用的32个广泛使用的学术基准中的30个的最新结果”;Pro 可扩展到各种任务,在 Google 的数据中心上运行,旨在为谷歌最新版本的AI 聊天机器人Bard提供支持,它能够提供快速响应时间并理解复杂的查询; Nano(纳米)设备任务上最有效的模型,设计用于在智能手机上运行,特别是 Google Pixel 8,它旨在执行需要高效 AI 处理的设备端任务,而无需连接到外部服务器,例如在聊天应用程序中建议回复或总结文本。
  • Meta AI (LLaMA 语言模型): Meta AI 是 Meta Platforms Inc.(前身为 Facebook, Inc.)旗下的一个人工智能实验室。Meta AI 集成了 Google 和 Bing 以获取实时知识,以及 AI 如何帮助人们与创作者和企业互动,在辅助功能和 VR 中的应用。LLaMA 是“大型语言模型 Meta AI” (Large Language Model Meta AI)的缩写,2024年4月18日,Meta推出旗下第三代大语言模型(LLM)Llama 3,称它为“迄今为止能力最强的开源LLM”,并且基于Llama 3,升级了人工智能(AI)助手Meta AI,称它“现在是你可以免费使用的最智能AI助手”。Llama3 三个版本 —— 80 亿参数、700 亿参数和 4050 亿参数,Llama 3大版本的token超过15 万亿。为了未来适用于多语言用例,超过5%的 Llama 3 预训练数据集属于涵盖30 多种语言的高质量非英语数据。但Meta预计,对非英语语种的性能不会和英语的一致。
  • Grok: 是一个人工智能助理,马斯克旗下xAI团队发布其首个AI大模型产品。2024年1月24日,马斯克xAI团队发布首个AI大模型Grok 1.5; 8月,xAI发布了一款新的聊天机器人Grok-2 ;Grok可供X(原Twitter)用户使用,并由xAI最先进的大语言模型(LLM)提供支持。Grok利用下一个标记预测模型权重(预测最有可能跟随给定文本序列的单词或符号的模型)来了解如何执行某些任务。Grok是由xAI根据来自公开来源的各种数据进行预训练的,数据集由人工智能导师进行审查和管理。2025年2月20日,xAI宣布最新大模型Grok 3免费向所有公众开放。 Grok-1的参数量达到了3140亿,这意味着Grok-1的水平肯定要在GPT-3.5之上。xAI公司(英语:)是埃隆·马斯克于2023年7月12日创办的人工智能初创企业,由OpenAI、Google DeepMind、Google研究院、微软研究院、特斯拉、Twitter及多伦多大学前雇员组成。
  • Deepseek (中文:深度求索):是由创新型科技公司(杭州深度求索人工智能基础技术研究有限公司)所开发的大型语言模型(LLM),成立于2023年7月17日,使用数据蒸馏技术,得到更为精炼、有用的数据。由知名私募巨头幻方量化孕育而生,专注于开发先进的大语言模型(LLM)和相关技术。2024年12月26日,正式上线DeepSeek-V3首个版本并同步开源。2025年1月31日,英伟达宣布DeepSeek-R1模型登陆NVIDIANIM。同一时段内,亚马逊和微软也接入DeepSeek-R1模型。 2月5日,DeepSeek-R1、V3、Coder等系列模型,已陆续上线国家超算互联网平台。2月26日,DeepSeek宣布开源DeepGEMM。DeepSeek开源其生成式人工智能算法、模型和训练细节,允许其代码可被免费地使用、修改、浏览和构建使用文档。深度求索在论文中公布,其DeepSeek-V3模型的训练成本为557.6万美元。DeepSeek能够在有限的资源下优化模型,该模型的成功导致了股市震荡,并造成全球主要的科技公司股票在2025年1月27日极速下跌。2025年1月29日,根据新闻可信度评级机构NewsGuard发布的报告,在对包括DeepSeek, ChatGPT和Gemini在内的11家聊天机器人的审核中,DeepSeek在新闻和信息传递方面仅达到了17%的准确率,排名第10位。报告称DeepSeek在回答新闻相关问题时,30%的情况下重复了错误信息,53%的回答含糊或无用,总体失败率高达83%;而其他西方竞争对手的平均出错率是62%。
  •  
  • DeepSearch深度搜索):它是人工智能应用场景 - 构建高效、灵活的输出模型技术 - DeepSearch 和 DeepResearch。是指在信息检索或数据分析中,通过深入挖掘数据源,利用更多的维度和信息来获取更准确、更全面的结果。DeepSearch 和 DeepResearch 通过深度学习和大型语言模型,实现了从关键词匹配到语义理解、从静态索引到动态推理的转型,为用户提供了更智能、更个性化的搜索体验。2025 年 2月 2 日,Google 和 OpenAI 联合发布了专有技术 DeepResearch,进一步推动了搜索领域的智能化升级。DeepResearch 整合了 Google 的搜索索引能力和 OpenAI 的生成式 AI 技术(如 GPT 系列的最新迭代),实现了从简单查询到复杂推理的跨越。DeepResearch 特别优化了多模态搜索(如文本、图像、视频的综合检索)和实时知识更新能力,适用于企业级应用、高端科研和精准商业决策。虽然其专有性质限制了源码公开,但 Google 和 OpenAI 通过云服务和 AP I接口使其广泛可用,迅速在金融、医疗和法律等领域获得采用。 (文章阅读:《一文读懂:DeepSearch 前生今世》)

AI人工智能领域的一些最常见的术语

 

  • AI (Artificial intelligence) 人工智能亦称智械、机器智能,通常人工智能是指通过普通计算机程序来呈现人类智能的技术。指由人制造出来的机器能够做出决策并执行模拟人类智能和行为的任务。人工智能的四个主要组成部分是: 1) 专家系统:作为专家处理正在审查的情况,并产生预期或预期的绩效。 2) 启发式问题解决:包括评估小范围的解决方案,并可能涉及一些猜测,以找到接近最佳的解决方案。 3) 自然语言处理:在自然语言中实现人机之间的交流。 4) 计算机视觉:自动生成识别形状和功能的能力
  • ML (Machine learning) 机器学习: 是人工智能的一个分支。人工智能的研究历史有着一条从以“推理”为重点,到以“知识”为重点,再到以“学习”为重点的自然、清晰的脉络。显然,机器学习是实现人工智能的一个途径之一,即以机器学习为手段,解决人工智能中的部分问题。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。机器学习已广泛应用于数据挖掘、计算机视觉、自然语言处理、生物特征识别、搜索引擎、医学诊断、检测信用卡欺诈、证券市场分析、DNA序列测序、语音和手写识别、游戏和机器人等领域。
  • AIGC(AI generated content)人工智能生成内容: 指利用人工智能技术来生成内容, 其中包括文字、语音、代码、图像、视频、机器人动作等等, 被认为是继PGC(专业生产内容Professionally-generated Content)、UGC (用户生产内容User-generated Content)之后的新型内容创作方式,目前,AIGC已在绘画、视频、文学等多个领域进行商业化落地的探索。
  • Generative AI 生成式AI:  是一种基于深度学习技术的人工智能模型,能够模拟人类的创造性思维,生成具有一定逻辑性和连贯性的语言文本、图像、音频等内容。这意味着机器正在生成新的东西,而不是分析已经存在的东西。 生成式AI主要基于深度神经网络,通过训练大规模的数据集,学习抽象出数据的本质规律和概率分布,并利用生成模型生成新的数据。生成式AI在自然语言处理、计算机视觉、音频生成等领域都有广泛的应用。 1) 自然语言处理: 生成式AI在自然语言处理领域中,可以用于文本摘要、机器翻译、对话系统等任务。其中最具代表性的是基于变换器的Transformer模型,其在机器翻译任务中取得了很好的效果。 2) 计算机视觉: 生成式AI在计算机视觉领域中,可以用于图像生成、图像修复等任务。其中最具代表性的是基于生成式对抗网络的DCGAN模型,其可以生成逼真的图像。 3) 音频生成: 生成式AI在音频领域中,可以用于语音合成、音乐生成等任务。其中最具代表性的是基于Wavenet模型,其可以生成高质量的语音和音乐。
  • ChatBot 聊天机器人: 是由对话或文字进行交谈的计算机程序,能够模拟人类对话并通过图灵测试,也可具备实用性,如客户服务或资讯获取。在通过文本聊天,语音命令或两者进行通信来模拟与人类用户的对话。它们是包含AI功能的计算机程序的常用接口。有些聊天机器人会搭载自然语言处理系统,但大多简单的系统只会撷取输入的关键字,再从语料库中找寻最合适的应答句。目前,聊天机器人是虚拟助理的一部分,可以与许多组织的应用程序、网站和通讯平台连接。非助理应用程序包括娱乐目的的聊天室,研究和特定产品促销,社交机器人等。
  • Databases 数据库:简而言之可视为电子化的文件柜——存储电子文件的处所,用户可以对文件中的资料执行新增、截取、更新、删除等操作。
  • Big data 大数据: 或称巨量资料,指的是传统数据处理应用软件不足以处理的大或复杂的数据集的术语。通常可以被定义为大小超出常规软件工具抓取,管理和处理能力的数据集。大数据是一个不断变化的目标;大数据具有Vloume(量大)、Velocity(速度快)、Variety(多样性)、Value(价值)四个显著特点;大数据不是指一个体量很大的单一数据,其关键在于多源数据融合,这是大数据的战略制高点,不是单单在“数据”前加个“大”字那么简单。
  • Data mining 数据挖掘:检查数据集以发现和挖掘可以进一步使用的数据模式。是一个跨学科的计算机科学分支 。它是用人工智能、机器学习、统计学和数据库的交叉方法在相对较大型的数据集中发现模式的计算过程。
  • Cloud Computing 云计算:也被意译为网络计算,是一种基于互联网的计算方式,通过这种方式,共享的软硬件资源和信息可以按需求提供给计算机各种终端和其他设备,使用服务商提供的电脑基建作计算和资源。云计算平台一般是由第三方IT公司建立的涵盖基础设施、计算资源和平台操作系统的集成体。云平台解决了传统公司各自搭建机器集群所产生的建设周期长、升级换代慢、维护成本高的痛点,让这些公司可以从搭建计算平台的繁重任务中解脱出来而专注于自己的业务。
  • AI Model 模型:AI 模型(机器学习和深度学习)有助于自动化商业智能中的逻辑推理和决策。这种方法可以使分析更加智能、更快速,并且具备随着数据量不断增加而扩展的能力。一个AI模型是一个程序或算法,它利用一组数据使其能够识别某些模式。这使得它在提供足够信息(通常是大量的数据)时能够得出结论或进行预测。Model被设计用来解决特定的任务或问题。模型通常由输入、输出和学习参数组成,其中输入是模型需要处理的数据,输出是模型产生的结果,学习参数是模型根据数据进行学习和优化的参数。在OpenAI的API中,提供了多种不同的模型,可以用来解决不同的任务。主要有以下几种:达芬奇(Davinci),巴贝奇(Babage),埃达(Ada),居里(Curie)。每种模型都有自己的特点,可以根据具体的任务和应用场景来选择合适的模型。
  • AI Modeling, AI 建模: AI建模是创建、训练和部署机器学习算法的过程,这些算法基于可用数据模拟逻辑决策。AI模型为支持高级智能方法(如实时分析、预测分析和增强分析)提供了基础。
  • PE (Prompt engineering) 提示工程:  简称 prompt (命令提示、魔导咒术),是人工智能中的一个概念,特别是自然语言处理(NLP)。 在提示工程中,任务的描述会被嵌入到输入中。例如,不是隐含地给予模型一定的参数,而是以问题的形式直接输入。 提示工程的典型工作方式是将一个或多个任务转换为基于提示的数据集,并通过所谓的“基于提示的学习(prompt-based learning)”来训练语言模型。提示工程可以从一个大型的“冻结”预训练语言模型开始工作,其中只学习了提示的表示方法,即所谓的“前缀调整(prefix-tuning)”或“提示调整(prompt tuning)”。
  • Prompt(提示): Prompt是一种指令,它告诉人工智能模型要执行什么任务或生成什么样的输出。在机器学习和自然语言处理中,Prompt通常是一些文本或语言,被输入到训练好的模型中,用于指示模型生成一个相应的输出。Prompt可以是一个问题、一个句子或一段话,其作用是引导人工智能模型生成我们想要的文本类型和内容。
  • Token(标记):  在自然语言处理中,Token是指一个具有独立语义的最小文本单位,可以是单词、短语、标点符号或其他任何单独的符号。在自然语言处理任务中,将文本分解成Token是非常重要的预处理步骤,这有助于将原始文本转换成模型可以处理的形式。每个Token都代表一个独立的单元,具有一定的语义含义,并且可以被模型处理。在很多自然语言处理任务中,包括文本分类、命名实体识别、机器翻译等等,Token都是非常重要的组成部分。在OpenAI的API使用中,对于Token是有限制的,更具模型的不同,Token的长度也不同。因此,在使用OpenAI的API时,需要注意Token的长度限制。可以通过这个Token工具来查看一段文本的Token长度。OpenAI官方给出了一个初略估算的方式:对于英文,一个Token差不多为3/4的一个单词。也就是说,100个Token大约等于75个单词。
  • AI Agent (人工智能代理) 或译为智能主体: 是以大语言模型为大脑驱动的系统,具备自主理解、感知、规划、记忆和使用工具的能力,能够自动化执行完成复杂任务的系统。AI Agent 指的是有能力主动思考和行动的智能体,能够以类似人类的方式工作,通过大模型来“理解”用户需求,主动“规划”以达成目标,使用各种“工具”来完成任务,并最终“行动”执行这些任务。 AI Agent 不同于传统的人工智能,它具备通过独立思考、调用工具去逐步完成给定目标的能力。 AI Agent 本质是一个控制LLM来解决问题的代理系统。大模型如果投入应用,其中很重要的配套技术叫 AI Agents,就是智能体。AI Agent 是一种能够感知环境、进行决策和执行动作的智能实体。智能体像人一样,它有记忆、有逻辑分析能力、有任务的拆解能力、问题的拆解能力和最后综合回来统一解决问题的能力。AI Agent 也可以称为“智能体”,也可理解为“智能业务助理”,旨在大模型技术驱动下,让人们以自然语言为交互方式高自动化地执行和处理专业或繁复的工作任务,从而极大程度释放人员精力。 现在,Agent 基本就等于 "大模型 + 插件 + 执行流程 / 思维链",分别会对应控制端 (Brain / 大脑)、感知端 (Preception)、执行端 (Action) 环节。
  •  
  • 知识蒸馏 (英语knowledge distillation) ,亦称 模型蒸馏(英语:model distillation): 是人工智能领域的一项模型训练技术。该技术透过类似于教师—学生的方式,令规模较小、结构较为简单的人工智能模型从已经经过充足训练的大型、复杂模型身上学习其掌握的知识。该技术可以让小型简单模型快速有效学习到大型复杂模型透过漫长训练才能得到的结果,从而改善模型的效率、减少运算开销,因此亦被称为模型蒸馏(model distillation)。LLM蒸馏是一种技术,旨在在减少模型大小和计算需求的同时,复制大型语言模型的性能。 LLM蒸馏的核心思想是:将一个更大、更复杂的教师模型(Teacher Model)中的知识,传递给一个更小、更高效的学生模型(Student Model)。其实简单概括是,模型蒸馏(Model Distillation)是一种模型压缩技术,旨在将一个复杂的、大型的模型(通常称为教师模型)的知识转移到另一个更小、更简单的模型(通常称为学生模型)中。

AI人工智能领域的一些专业的术语

 

  • 机器语言(Machine language):是一种指令集的体系。这种指令集称为机器代码(machine code),是计算机的CPU或GPU可直接解读的资料。机器代码有时也被称为原生码(Native Code),这个名词比较强调某种编程语言或库与执行平台相关的部分。机器语言是用二进制代码表示的、计算机能直接识别和执行的一种机器指令的集合。它是计算机的设计者通过计算机的硬件结构赋予计算机的操作功能。
  • 汇编语言(英语:Assembly language):是任何一种用于电子计算机、微处理器、微控制器,或其他可编程器件的低级语言。在不同的设备中,汇编语言对应着不同的机器语言指令集。一种汇编语言专用于某种计算机系统结构,而不像许多高级语言,可以在不同系统平台之间移植。 使用汇编语言编写的源代码,然后通过相应的汇编程序将它们转换成可执行的机器代码。这一过程被称为汇编过程。 汇编语言使用助记符(Mnemonics)来代替和表示特定低级机器语言的操作。特定的汇编目标指令集可能会包括特定的操作数。许多汇编程序可以识别代表地址和常量的标签(Label)和符号(Symbols),这样就可以用字符来代表操作数而无需采取写死的方式。普遍地说,每一种特定的汇编语言和其特定的机器语言指令集是一一对应的。
  • 高级语言High-level programming language):是高度封装了的编程语言,与低级语言相对。它是以人类的日常语言为基础的一种编程语言,使用一般人易于接受的文字来表示,有较高的可读性,以方便对电脑认知较浅的人亦可以大概明白其内容。由于早期电脑业的发展主要在美国,因此一般的高级语言都是以英语为蓝本。在1980年代,当东亚地区开始使用电脑时,在日本、台湾及中国大陆都曾尝试开发用各自地方语言编写的高级语言,当中主要都是改编BASIC或专用于数据库资料访问的语言,但是随着编程者的外语能力提升,现时的有关开发很少。
  • NLP (Natural Language Processing) 自然语言处理: 是人工智能和语言学领域的分支学科。 此领域探讨如何处理及运用自然语言;自然语言处理包括多方面和步骤,基本有认知、理解、生成等部分。自然语言认知和理解是让电脑把输入的语言变成有意思的符号和关系,然后根据目的再处理。自然语言生成系统则是把计算机数据转化为自然语言。NPL简单说就是让计算机理解自然语言;圈内有这样一个说法:让计算机理解自然语言是人工智能皇冠上的明珠。长期以来,自然语言处理都被视为人工智能中最具挑战也是最具魅力的问题之一 。
  • “自然”语言编程(NLC: Natural Language Coding): 这个单词的英文缩写还没有正式考证, 但原理已被行业广泛接受,它从英文翻译而来。自然语言程序设计是根据自然语言句子,进行程序设计的本体论辅助方式。例如,英语,具有用于解释句子的内容,章节和小节的结构化文档,形成了NLP文档,它实际上是一个计算机程序。请勿将自然语言编程与先编写程序,然后使用添加的界面,通过自然语言进行通信的自然语言接口、或语音控制混淆。在NLP中,仅针对句子含义的定义来组织程序的功能。
  • 生成式模型: 生成式模型是一种统计模型,它能够学习给定观测变量 X 和目标变量 Y 的联合概率分布 P(X,Y)。与此相反,判别式模型则是学习给定观测变量 X 时,目标变量 Y 的条件概率分布 P(Y|X)。生成式模型可用于"生成"随机观测实例 X,而判别式模型则用于根据给定的观测 X 来判别目标变量 Y 的值。生成式模型不仅能生成新的观测实例,还能生成新的目标实例,它通过深度学习和自然语言处理等技术,可以生成逼真的文本、图像和音频等内容,被广泛应用于机器翻译、智能对话、创意设计等领域。生成式AI 模型的类型有:1) 生成对抗网络(GANs);2) 变分自编码器(VAEs);3) 循环神经网络(RNNs)和长短期记忆网络(LSTMs);4) Transformer模型;5) 扩散模型(Diffusion Models)。
  •  
  • Transformer模型 (直译为“变换器”): 是一种采用自注意力机制的深度学习模型,这一机制可以按输入数据各部分重要性的不同而分配不同的权重。该模型主要用于自然语言处理(NLP)与计算机视觉(CV)领域。 与循环神经网络(RNN)一样,Transformer模型旨在处理自然语言等顺序输入数据,可应用于翻译、文本摘要等任务。而与RNN不同的是,Transformer模型能够一次性处理所有输入数据。注意力机制可以为输入序列中的任意位置提供上下文。如果输入数据是自然语言,则Transformer不必像RNN一样一次只处理一个单词,这种架构允许更多的并行计算,并以此减少训练时间。它的特点是能够同时考虑输入序列中所有位置的信息,并且具有非常好的并行化性能。它使用了自注意力机制进行序列建模的神经网络架构,也采用了残差连接和层归一化等技术,以加快模型收敛速度和提高模型的泛化能力。
  • GPT (Generative pre-trained transformers)基于转换器的生成式预训练模型: 是OpenAI开发的一系列延伸自转换器架构(Transformer)的自然语言生成模型。它可以进行微调以完成各种自然语言处理任务,例如文本生成、代码生成、视频生成、文本问答、图像生成、论文写作、影视创作、科学实验设计等。基于大量语料数据上训练,以生成类似于人类自然语言的文本。其名称中的“预训练”指的是在大型文本语料库上进行的初始训练过程,在GPT中,每个单词的表示都是通过自回归模型计算得到的,这个模型会考虑前面所有的单词,以及它们对应的位置,来预测下一个单词,这为模型在具有限量的任务特定数据的下游任务中表现良好提供了坚实的基础。它采用了无监督的预训练方法,不需要人工标注的数据,可以更好地利用现有的大规模文本语料库。它的独特之处在于它具有非常大的参数量和深度,能够学习到更多的语言知识,并生成更加自然的文本。
  • BERT 基于变换器的双向编码器表示技术英语:Bidirectional Encoder Representations from Transformers): 是用于自然语言处理(NLP)的预训练技术,由Google提出。是一种基于Transformer架构的预训练语言模型它使用大量未标记的文本进行预训练,然后使用标记的数据进行微调。Google正在利用BERT来更好地理解用户搜索语句的语义。 最初的英语BERT发布时提供两种类型的预训练模型:(1)BERT BASE模型;(2)BERT LARGE模型。两者的训练语料都是BooksCorpus以及英语维基百科语料,单词量分别是8亿以及25亿。BERT的特点在于它可以双向地处理输入序列,从而更好地捕捉上下文中的语义信息。BERT模型的输入是两个序列,一个序列作为模型的输入,另一个序列作为模型的输出,模型需要判断这两个序列是否相互关联。这个过程被称为下一句预测任务。此外,BERT还使用了掩码语言模型,其中模型在输入序列中随机地掩盖一些单词,并要求模型预测这些被掩盖的单词。这个训练任务有助于模型更好地理解语言中的上下文信息。
  • LaMDA 对话编程语言模型(英语:Language Model for Dialogue Applications): 是Google所开发的一系列对话神经语言模型。第一代模型于2021年的Google I/O年会发表,第二代模型则同样发表于次年的I/O年会。2022年6月,Google工程师布雷克·雷蒙恩(Blake Lemoine)宣称LaMDA已存在感知能力和自我意识,导致该模块获得广泛关注,科学界在很大程度上否定雷蒙恩的说法,并同时引发对图灵测试(测试机器能否表现出与人类相当的智慧水准)效力的讨论。2023年2月,Google发表基于LaMDA架构的对话式人工智能聊天机器人Bard。
  • Deep learning 深度学习: 是机器学习的分支,是一种以人工神经网络为架构,对资料进行表征学习的算法。深度学习中的形容词“深度”是指在网络中使用多层。机器通过由级联信息层组成的人工神经网络自主模仿人类思维模式的能力。深度学习是机器学习中一种基于对数据进行表征学习的算法。观测值(例如一幅图像)可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更容易从实例中学习任务(例如,人脸识别或面部表情识别)。“深度学习”已成为时髦术语,或者说是人工神经网络的品牌重塑。
  • RL (Reinforcement Learning) 强化学习:是机器学习中的一个领域,强调如何基于环境而行动,以取得最大化的预期利益。强化学习是除了监督学习和非监督学习之外的第三种基本的机器学习方法。与监督学习不同的是,强化学习不需要带标签的输入输出对,同时也无需对非最优解的精确地纠正。其关注点在于寻找探索(对未知领域的)和利用(对已有知识的)的平衡,强化学习中的“探索-利用”的交换。
  • Supervised learning 监督学习: 又叫有监督学习,监督式学习,是机器学习的一种方法,可以由训练资料中学到或创建一个模式(函数 / learning model),并依此模式推测新的实例。训练资料是由输入对象(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。
  • AC (Autonomic Computing ) 自主计算:系统的自适应自我管理能力,用于高级计算功能,无需用户输入。是指分散式运算系统中的自我管理特性,可以适应不可预期的变化,而且可以封装其本质上的复杂,不需让使用者以及操作人员了解。
  • Algorithms 算法:给AI、神经网络或其他机器提供的一套规则或指令,以帮助它自己学习; 分类,聚类,推荐和回归是四种最流行的类型。在数学(算学)和计算机科学之中,指一个被定义好的、计算机可施行其指示的有限步骤或次序,常用于计算、数据处理和自动推理。算法是有效方法,包含一系列定义清晰的指令,并可于有限的时间及空间内清楚的表述出来。法中的指令描述的是一个计算,它执行时从一个初始状态和初始输入(可能为空)开始,经过一系列有限而清晰定义的状态最终产生输出并停止于一个终态。一个状态到另一个状态的转移不一定是确定的。包括随机化算法在内的一些算法,都包含了一些随机输入。
  • Genetic Algorithm(遗传算法):遗传算法是一种模拟自然选择和遗传机制的优化算法。通过从一个种群中选择和进化最适应的解决方案,遗传算法可以帮助人工智能系统找到最优解决方案。 
  • SVM(Support Vector Machine)支持向量机:支持向量机是一种常见的监督学习算法,通过将数据映射到高维空间中,将数据分成多个类别。支持向量机算法可以处理多维数据,具有较强的分类能力。
  • Bayesian Network(贝叶斯网络):贝叶斯网络是一种用于表示变量之间条件依赖关系的概率图模型。贝叶斯网络可以用于预测、决策和诊断等领域,是一种广泛应用的人工智能算法。 
  • ANN (Artificial Neural Network) 人工神经网络: 简称神经网络(Neural Network,NN)或类神经网络,在机器学习和认知科学领域,是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。神经网络由大量的人工神经元联结进行计算。大多数情况下人工神经网络能在外界信息的基础上改变内部结构,是一种自适应系统,通俗地讲就是具备学习功能, 一种学习模型,可以像人脑一样工作,解决传统计算机系统难以解决的任务。
  • CNN(Convolutional Neural Network)卷积神经网络:是一种识别和理解图像的神经网络。一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。卷积神经网络的灵感来自于动物视觉皮层组织的神经连接方式。单个神经元只对有限区域内的刺激作出反应,不同神经元的感知区域相互重叠从而覆盖整个视野。
  • RNN (Recurrent Neural Network) 循环神经网络: 是神经网络的一种。一种神经网络,它能够理解顺序信息并识别模式,并根据这些计算创建输出。单纯的RNN因为无法处理随着递归,权重指数级爆炸或梯度消失问题,难以捕捉长期时间关联;而结合不同的LSTM可以很好解决这个问题。时间循环神经网络可以描述动态时间行为,因为和前馈神经网络(feedforward neural network)接受较特定结构的输入不同,RNN将状态在自身网络中循环传递,因此可以接受更广泛的时间序列结构输入。手写识别是最早成功利用RNN的研究结果。
  • DBMS (Database Management System) 数据库管理系统:是为管理数据库而设计的电脑软件系统,一般具有存储、截取、安全保障、备份等基础功能。数据库管理系统可以依据它所支持的数据库模型来作分类,例如关系式、XML;或依据所支持的电脑类型来作分类,例如服务器聚类、移动电话;或依据所用查询语言来作分类,例如SQL、XQuery;或依据性能冲量重点来作分类,例如最大规模、最高执行速度;亦或其他的分类方式。不论使用哪种分类方式,一些DBMS能够跨类别,例如,同时支持多种查询语言。
  • Data science 数据科学:又称资料科学, 一个跨学科领域,结合了统计学,信息科学和计算机科学的科学方法,系统和过程,通过结构化或非结构化数据提供对现象的洞察。是一门利用数据(资料)学习知识的学科,其目标是通过从数据中提取出有价值的部分来生产数据产品,学科范围涵盖了:数据获取、数据处理、数据分析等过程,举凡与数据有关的科学均属数据科学。
  • CV (Computer vision) 计算机视觉 : 是指用摄影机和计算机代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图像处理,用计算机处理成为更适合人眼观察或传送给仪器检测的图像。计算机视觉研究相关的理论和技术,试图创建能够从图像或者多维数据中获取“信息”的人工智能系统。计算机视觉寻求基于相关理论与模型来创建计算机视觉系统。这类系统的组成部分包括: 1.过程控制(例如工业机器人和无人驾驶汽车) 2.事件监测(例如图像监测) 3.信息组织(例如图像数据库和图像序列的索引创建) 4.物体与环境建模(例如工业检查,医学图像分析和拓扑建模) 5.交感互动(例如人机互动的输入设备) 计算机视觉同样可以被看作是生物视觉的一个补充。
  • Speech recognition  语音识别 技术, 也被称为自动语音识别(英语:Automatic Speech Recognition, ASR)、电脑语音识别(英语:Computer Speech Recognition, CSR)或是语音转文本识别(英语:Speech To Text, STT),其目标是以电脑自动将人类的语音内容转换为相应的文字。与说话人识别及说话人确认不同,后者尝试识别或确认发出语音的说话人而非其中所包含的词汇内容。语音识别技术的应用包括语音拨号、语音导航、室内设备控制、语音文档检索、简单的听写数据录入等。语音识别技术与其他自然语言处理技术如机器翻译及语音合成技术相结合,可以构建出更加复杂的应用,例如语音到语音的翻译。语音识别技术所涉及的领域包括:信号处理、模式识别、概率论和信息论、发声机理和听觉机理、人工智能等等。