Круг обмена ИИ

Я не могу описать, насколько я красив!
生成对抗网络(Generative Adversarial Network)是什么,一文看懂

Что такое генеративная адверсарная сеть (GAN) в одной статье?

Генеративная адверсарная сеть (GAN) - это модель глубокого обучения, предложенная Яном Гудфеллоу и др. в 2014 году. Фреймворк реализует генеративную модель путем обучения двух нейронных сетей друг против друга...
4 месяца назад
024.8K
自注意力(Self-Attention)是什么,一文看懂

Самонаблюдение (Self-Attention) - что это такое, статья для чтения и понимания

Самостоятельное внимание - ключевой механизм глубокого обучения, изначально предложенный и широко используемый в архитектуре Transformer. Основная идея заключается в том, чтобы позволить модели одновременно посещать все позиции во входной последовательности и вычислять каждую позицию путем взвешенного агрегирования...
4 месяца назад
032.7K
多任务学习(Multi-Task Learning)是什么,一文看懂

Что такое многозадачное обучение (MTL) в одной статье?

Многозадачное обучение (MTL) - это не отдельный алгоритм, а интеллектуальная парадигма машинного обучения.
4 месяца назад
025K
扩散模型(Diffusion Model)是什么,一文看懂

Диффузионная модель (Модель диффузии) что это такое, статья для чтения и понимания

Модель диффузии - это генеративная модель, специально разработанная для создания новых образцов данных, таких как изображения, аудио или текст. В основе модели лежит процесс диффузии в физике, который имитирует естественную диффузию частиц из области с высокой концентрацией в область с низкой концентрацией. В машине...
4 месяца назад
032.5K
模型微调(Fine-tuning)是什么,一文看懂

Что такое тонкая настройка в одной статье?

Тонкая настройка модели (Fine-tuning) - это специфическая реализация трансферного обучения в машинном обучении. Основной процесс основан на предварительном обучении моделей, которые используют большие наборы данных для изучения общих закономерностей и развития широких возможностей извлечения признаков. Затем на этапе тонкой настройки вводятся наборы данных по конкретным задачам, чтобы ...
4 месяца назад
026.1K
注意力机制(Attention Mechanism)是什么,一文看懂

Механизм внимания (Механизм внимания) - что это, статья для чтения и понимания

Механизм внимания (Attention Mechanism) - это вычислительная техника, имитирующая человеческие когнитивные процессы, которая изначально применялась в области машинного перевода, а затем стала важной частью глубокого обучения.
5 месяцев назад
032.8K
Transformer 架构(Transformer Architecture)是什么,一文看懂

Что такое архитектура трансформера в одной статье?

Архитектура Transformer - это модель глубокого обучения, предназначенная для обработки задач, связанных с переходом от последовательности к последовательности, таких как машинный перевод или резюмирование текста. Основная инновация заключается в том, что модель полагается исключительно на механизм самовнимания, отказываясь от традиционных циклов или конволюционных структур. Позволяя модели обрабатывать все элементы последовательности параллельно, большие...
5 месяцев назад
032.2K
预训练模型(Pre-trained Model)是什么,一文看懂

Предварительно обученная модель (Pre-trained Model) что это такое, статья для чтения и понимания

Предварительно обученные модели (PTM) - это фундаментальная и мощная техника в искусственном интеллекте, представляющая собой модели машинного обучения, предварительно обученные на больших массивах данных. Модели формируют широкую базу знаний, обрабатывая огромные объемы информации и изучая общие закономерности и особенности данных...
5 месяцев назад
029K
大语言模型(Large Language Model)是什么,一文看懂

Что такое Большая языковая модель (LLM) в одной статье?

Large Language Model (LLM) - это система глубокого обучения, обученная на массивных текстовых данных, в основе которой лежит архитектура Transformer. Механизм самовнимания этой архитектуры позволяет эффективно улавливать дальние зависимости в языке. Модель "большой ...
5 месяцев назад
029.8K
长短期记忆网络(Long Short-Term Memory)是什么,一文看懂

Что такое сеть долговременной памяти (LSTM), статья для чтения и понимания

Long Short-Term Memory (LSTM) - это вариант рекуррентной нейронной сети, специально разработанный для обработки данных о последовательности. В области искусственного интеллекта данные последовательности широко используются в таких задачах, как прогнозирование временных рядов, обработка естественного языка и распознавание речи.
5 месяцев назад
025.4K