AI:人工智能(Artificial Intelligence),最早于1956年提出,是指赋予机器类人的感知、学习、思考、决策和行动等能力的学科。
AGI:通用人工智能(Artificial General Intelligence),是AI的一个目标,是指能够学习任何任务或主题的软件,目前还不存在。
AIGC:生成式AI(AI generated content),意为人工智能生成内容。
ML:机器学习(Machine Learning),是AI的一个分支,是指让机器通过数据和算法自动学习和改进的过程。
DL:深度学习(Deep Learning),是ML的一个分支,是指使用多层神经网络来模拟人脑的学习方式。
NLP:自然语言处理(Natural Language Processing),是AI的一个分支,是指让机器理解和生成自然语言(如中文、英文等)的技术。
NLU:自然语言理解(Natural Language Understanding),是NLP的一个分支,是指让机器理解自然语言的含义和意图的技术。
NLG:自然语言生成(Natural Language Generation),是NLP的一个分支,是指让机器根据数据或逻辑生成自然语言的技术。
CV:计算机视觉(Computer Vision),是AI的一个分支,是指让机器理解和处理图像和视频的技术。
ASR:自动语音识别(Automatic Speech Recognition),是NLP的一个分支,是指让机器将语音转换为文本的技术
TTS:文本转语音(Text-to-Speech),是NLP的一个分支,是指让机器将文本转换为语音的技术。
NMT:神经机器翻译(Neural Machine Translation),是NLP的一个分支,是指使用深度神经网络来实现自动翻译的技术。
OCR:光学字符识别(Optical Character Recognition),是CV的一个分支,是指让机器将图像中的文字转换为可编辑的文本的技术。
GAN:生成对抗网络(Generative Adversarial Network),是DL的一个分支,是指使用两个相互竞争的神经网络来生成新的数据(如图像、音频等)的技术。
ANI:窄人工智能(Artificial Narrow Intelligence),也称弱人工智能(Artificial Weak Intelligence),是指只能完成特定任务或领域的软件,目前大多数AI都属于这一类。
ASI:超人工智能(Artificial Super Intelligence),也称强人工智能(Artificial Strong Intelligence),是指超越人类智能水平的软件,目前还不存在。
GPT:通用预训练模型(Generative Pre-trained Transformer),是OpenAI开发的一系列基于深度神经网络和自然语言生成技术的大型语言模型。
BERT:双向编码器表示模型(Bidirectional Encoder Representations from Transformers),是谷歌开发的一种基于深度神经网络和自然语言理解技术的大型语言模型,被广泛应用于各种NLP任务中。
ERNIE:增强型表示模型(Enhanced Representation through kNowledge IntEgration),是百度开发的一种基于深度神经网络和知识图谱技术的大型语言模型,被广泛应用于各种NLP任务中。
ALBERT:轻量级BERT模型(A Lite BERT for Self-supervised Learning of Language Representations),是一种基于自注意力机制的深度神经网络模型,可以从大量文本数据中预训练语言模型,并在不同的自然语言处理任务上进行微调。ALBERT通过减少参数数量和共享参数来提高BERT的效率和性能。ALBERT还引入了两种新的技术,分别是句子顺序预测(Sentence Order Prediction)和因子化嵌入参数化(Factorized Embedding Parameterization),来增强模型的泛化能力和表示能力。
NLU:自然语言理解(Natural Language Understanding),是NLP的一个分支,是指让机器理解自然语言的含义和意图的技术。
DL:深度学习 (Deep Learning),指基于人工神经网络的机器学习技术,可以从大量数据中自动学习特征。
RL:强化学习(Reinforcement Learning),是ML的一个分支,是指让机器通过与环境交互,不断尝试和反馈,学习最优策略的技术。
SL:监督学习(Supervised Learning),是ML的一个分支,是指让机器通过有标签的数据集,学习输入和输出之间的映射关系的技术。
UL:无监督学习(Unsupervised Learning),是ML的一个分支,是指让机器通过无标签的数据集,学习数据本身的特征和结构的技术。
SSL:半监督学习(Semi-supervised Learning),是ML的一个分支,是指让机器通过有标签和无标签数据集结合,提高学习效果和泛化能力的技术。
ZSL:零样本学习(Zero-shot Learning),是ML的一个分支,是指让机器通过已知类别的数据集,学习未知类别的数据特征和分类能力的技。
NLG:自然语言生成(Natural Language Generation),是NLP的一个分支,是指让机器根据数据或逻辑生成自然语言的技术。
CNN:卷积神经网络(Convolutional Neural Network),是DL的一个分支,是指使用卷积层、池化层、全连接层等构成的神经网络结构,常用于图像处理领域。
RNN:循环神经网络(Recurrent Neural Network),是DL的一个分支,是指使用循环单元、门控单元等构成的神经网络结构,常用于序列处理领域。
DNN:深度神经网络(Deep Neural Network),是DL的一个分支,是指使用多个隐藏层构成的神经网络结构,常用于复杂任务领域。
ANN:人工神经网络 (Artificial Neural Network),指一种模仿人脑神经元工作方式的计算模型。
LSTM:长短时记忆网络 (Long Short-TermMemory),指一种能够解决梯度消失问题的循环神经网络。
AIaaS:人工智能即服务 (Artificial Intelligence as a Service),指提供人工智能功能的云服务,用户可以通过API或界面调用这些功能,而无需自己开发和部署AI模型。
MLaaS:机器学习即服务 (Machine Learning as a Service),指提供机器学习功能的云服务,用户可以通过API或界面调用这些功能,而无需自己开发和部署机器学习模型。
Transformer:变换器模型(Transformer Model),是深度学习和自然语言处理领域中一种创新性的模型结构,使用自注意力机制和编码器-解码器架构来处理序列数据,不需要使用循环或卷积神经网络。Transformer可以有效地捕捉序列中的长距离依赖关系,并实现并行化训练。Transformer是许多大型语言模型,如BERT、GPT等的基础。
AutoML:自动机器学习 (Automated Machine Learning),指使用自动化技术来简化和加速机器学习任务的过程。
GAN:Generative Adversarial Network,生成对抗网络,是一种深度学习模型,用于生成逼真的图像、视频、音频等。
MLOps:机器学习运维 (Machine Learning Operations),指将机器学习模型部署到生产环境中,实现自动化、可伸缩性和可靠性。
Computer Audition:计算机听觉,是指让计算机理解和分析声音和音频的技术。
Data Labeling:数据标注,指将数据集中的数据进行标记和注释,以便于机器学习算法对其进行分析和预测。
Federated Learning:联邦学习,是一种机器学习技术,通过在本地设备上训练模型并将更新发送到中央服务器来保护用户隐私。
AI Ethics:人工智能伦理,指研究人工智能的道德和社会影响的学科。
Hyperparameter Optimization:超参数优化,指使用优化算法自动调整机器学习模型的超参数以提高模型的性能。
Transfer Learning:迁移学习,是一种机器学习技术,通过在不同的任务之间共享模型参数来提高模型的性能。
AI Chip:人工智能芯片,是专门为加速人工智能计算而设计的硬件。
ANI: 狭义人工智能(Artificial Narrow Intelligence),指在特定任务或领域中表现出高水平表现的人工智能。
AIoT:人工智能物联网(Artificial Intelligence of Things),是指将人工智能(AI)技术与物联网(IoT)基础设施相结合,以实现更高效的IoT运行,改善人机交互,以及增强数据管理和分析。AIoT的目标是从IoT产生的数据中创造更多的价值。AI使得IoT设备能够利用收集的大数据进行更好的分析、学习和决策,而不需要人类的干预。
LDA:潜在狄利克雷分配( Latent Dirichlet Allocation),是一种用于主题建模的无监督学习算法。
VAE: 变分自编码器(Variational Autoencode),是一种无监督学习算法,用于学习高维数据的低维表示。