Круг обмена ИИ

Я не могу описать, насколько я красив!
生成对抗网络(Generative Adversarial Network)是什么,一文看懂

Что такое генеративная адверсарная сеть (GAN) в одной статье?

Генеративная адверсарная сеть (GAN) - это модель глубокого обучения, предложенная Яном Гудфеллоу и др. в 2014 году. Фреймворк реализует генеративную модель путем обучения двух нейронных сетей друг против друга...
6 месяцев назад
031.4K
自注意力(Self-Attention)是什么,一文看懂

Самонаблюдение (Self-Attention) - что это такое, статья для чтения и понимания

Самостоятельное внимание - ключевой механизм глубокого обучения, изначально предложенный и широко используемый в архитектуре Transformer. Основная идея заключается в том, чтобы позволить модели одновременно посещать все позиции во входной последовательности и вычислять каждую позицию путем взвешенного агрегирования...
6 месяцев назад
041.6K
多任务学习(Multi-Task Learning)是什么,一文看懂

Что такое многозадачное обучение (MTL) в одной статье?

Многозадачное обучение (MTL) - это не отдельный алгоритм, а интеллектуальная парадигма машинного обучения.
6 месяцев назад
033.2K
扩散模型(Diffusion Model)是什么,一文看懂

Диффузионная модель (Модель диффузии) что это такое, статья для чтения и понимания

Модель диффузии - это генеративная модель, специально разработанная для создания новых образцов данных, таких как изображения, аудио или текст. В основе модели лежит процесс диффузии в физике, который имитирует естественную диффузию частиц из области с высокой концентрацией в область с низкой концентрацией. В машине...
6 месяцев назад
042.8K
模型微调(Fine-tuning)是什么,一文看懂

Что такое тонкая настройка в одной статье?

Тонкая настройка модели (Fine-tuning) - это специфическая реализация трансферного обучения в машинном обучении. Основной процесс основан на предварительном обучении моделей, которые используют большие наборы данных для изучения общих закономерностей и развития широких возможностей извлечения признаков. Затем на этапе тонкой настройки вводятся наборы данных по конкретным задачам, чтобы ...
6 месяцев назад
034.8K
注意力机制(Attention Mechanism)是什么,一文看懂

Механизм внимания (Механизм внимания) - что это, статья для чтения и понимания

Механизм внимания (Attention Mechanism) - это вычислительная техника, имитирующая человеческие когнитивные процессы, которая изначально применялась в области машинного перевода, а затем стала важной частью глубокого обучения.
7 месяцев назад
041K
Transformer 架构(Transformer Architecture)是什么,一文看懂

Что такое архитектура трансформера в одной статье?

Архитектура Transformer - это модель глубокого обучения, предназначенная для обработки задач, связанных с переходом от последовательности к последовательности, таких как машинный перевод или резюмирование текста. Основная инновация заключается в том, что модель полагается исключительно на механизм самовнимания, отказываясь от традиционных циклов или конволюционных структур. Позволяя модели обрабатывать все элементы последовательности параллельно, большие...
7 месяцев назад
039.5K
预训练模型(Pre-trained Model)是什么,一文看懂

Предварительно обученная модель (Pre-trained Model) что это такое, статья для чтения и понимания

Предварительно обученные модели (PTM) - это фундаментальная и мощная техника в искусственном интеллекте, представляющая собой модели машинного обучения, предварительно обученные на больших массивах данных. Модели формируют широкую базу знаний, обрабатывая огромные объемы информации и изучая общие закономерности и особенности данных...
7 месяцев назад
038.6K
大语言模型(Large Language Model)是什么,一文看懂

Что такое Большая языковая модель (LLM) в одной статье?

Large Language Model (LLM) - это система глубокого обучения, обученная на массивных текстовых данных, в основе которой лежит архитектура Transformer. Механизм самовнимания этой архитектуры позволяет эффективно улавливать дальние зависимости в языке. Модель "большой ...
7 месяцев назад
038.1K
长短期记忆网络(Long Short-Term Memory)是什么,一文看懂

Что такое сеть долговременной памяти (LSTM), статья для чтения и понимания

Long Short-Term Memory (LSTM) - это вариант рекуррентной нейронной сети, специально разработанный для обработки данных о последовательности. В области искусственного интеллекта данные последовательности широко используются в таких задачах, как прогнозирование временных рядов, обработка естественного языка и распознавание речи.
7 месяцев назад
032.8K