Curso gratuito sobre como funcionam os Transformer LLMs, ministrado por Enda Wu

堆友AI

Como funcionam os LLMs de transformadores?

Transformador How LLMs Work é um curso da DeepLearning.AI em colaboração com Jay Alammar e Maarten Grootendorst, autores de Hands-On Large Language Models. O curso oferece uma visão aprofundada da arquitetura do Transformer que oferece suporte a modelos de linguagem grande (LLMs). O curso começa com a evolução da representação numérica das linguagens e aborda tópicos como desambiguação, o mecanismo de atenção e a camada de alimentação dos blocos do Transformer e como melhorar o desempenho armazenando em cache os cálculos. Depois de concluir o curso, os usuários terão uma compreensão aprofundada de como os LLMs processam as linguagens, poderão ler e entender documentos relevantes e melhorar sua capacidade de criar aplicativos LLM.

吴恩达的Transformer LLMs工作原理免费课程

Objetivos do curso Como funcionam os LLMs de transformadores

  • Entendendo a evolução da representação numérica da linguagemEntenda como a linguagem é representada digitalmente, desde modelos simples de saco de palavras até arquiteturas complexas de transformadores.
  • Dominar o processamento de particípiosAprendizagem: aprender a decompor o texto de entrada em "tokens" e entender como os tokens são inseridos no modelo de linguagem.
  • Mergulhando na arquitetura do transformadorAs três fases principais da arquitetura do Transformer são exploradas em detalhes: desambiguação e incorporação, empilhamento de blocos do Transformer e cabeçalhos do modelo de linguagem.
  • Compreensão dos detalhes do bloco TransformerMecanismos de atenção e camadas de alimentação: inclui mecanismos de atenção e camadas de alimentação e como elas trabalham juntas para processar e gerar texto.
  • Otimização do desempenho do aprendizadoSaiba como melhorar o desempenho do Transformer por meio de técnicas como a computação em cache.
  • Exploração de aplicativos práticosHugging Face Transformer: explorando implementações recentes de modelos para aplicações práticas aprimoradas por meio da biblioteca Hugging Face Transformer.

Esboço do curso sobre como funcionam os LLMs de transformadores

  • Visão geral dos LLMs de transformadoresIntrodução aos objetivos do curso, à estrutura e à importância da arquitetura do Transformer no contexto dos LLMs (Large Language Models) modernos.
  • Evolução da representação linguísticaAnálise da evolução da modelagem de linguagem, do Bag-of-Words ao Word2Vec e à arquitetura Transformer.
  • particípio e incorporaçãoAprenda como o texto de entrada é decomposto em tokens e como converter tokens em vetores de incorporação, incluindo a aplicação de codificação posicional.
  • Bloco do transformadorEstrutura do bloco Transformer: Entenda a estrutura do bloco Transformer, incluindo o mecanismo de autoatenção e a função das redes de feed-forward.
  • Atenção prolongadaDescrição: Explore como os mecanismos de atenção com várias cabeças podem melhorar o desempenho do modelo, capturando diferentes aspectos da entrada por meio de várias "cabeças".
  • Empilhamento de blocos de transformadoresAprenda a criar modelos profundos empilhando vários blocos do Transformer e a função da vinculação residual e da normalização de camadas.
  • Cabeçalho do modelo de idiomaEntenda como o Transformer implementa a geração de texto gerando a distribuição de probabilidade do próximo token a partir do cabeçalho do modelo de linguagem.
  • mecanismo de cacheAprenda a melhorar a velocidade de inferência dos modelos do Transformer por meio de mecanismos de armazenamento em cache e aplicações práticas de armazenamento em cache.
  • Últimas inovações arquitetônicasIntrodução: Apresenta as mais recentes inovações em Mixture-of-Experts (MoE) e outras arquiteturas de Transformer.
  • Implementação do transformador com Hugging FaceAprenda a carregar e ajustar modelos de transformadores pré-treinados com a biblioteca Hugging Face Transformers.
  • Codificação prática do TransformerAprenda a implementar os principais componentes do Transformer e a criar modelos simples do Transformer por meio de exercícios práticos de codificação.
  • Trabalho de pesquisa sobre leitura e compreensãoAprenda a ler e entender artigos de pesquisa relacionados a transformadores, analisando artigos recentes e suas contribuições para a área.
  • Criação de aplicativos LLMExplore como desenvolver aplicativos baseados em LLM e discuta as direções futuras e os possíveis aplicativos da arquitetura Transformer.

Endereço do curso para saber como funcionam os LLMs de transformadores

Para quem trabalham os Transformer LLMs

  • pesquisador de processamento de linguagem natural (NLP)Estudo aprofundado da arquitetura do Transformer, explorando aplicativos de ponta nas áreas de compreensão, geração e tradução de idiomas e promovendo o desenvolvimento da tecnologia de processamento de linguagem natural.
  • Engenheiro de aprendizado de máquinaAprenda o funcionamento do Transformer para poder otimizar o desempenho do modelo, melhorar a precisão e a eficiência do modelo e desenvolver aplicativos de modelos de linguagem mais avançados.
  • cientista de dadosProcessamento e análise de dados de texto em grande escala com a arquitetura Transformer, extraindo padrões e informações dos dados para apoiar a tomada de decisões.
  • desenvolvedor de softwareIntegração de Transformer LLMs em vários aplicativos de software, como chatbots, sistemas de recomendação de conteúdo, etc., para aprimorar a inteligência do produto.
  • Entusiastas da Inteligência ArtificialInteressado na arquitetura do Transformer e quer aprender como ela funciona, obter uma compreensão mais profunda da tecnologia de IA e expandir seus horizontes técnicos.
© declaração de direitos autorais

Artigos relacionados

Sem comentários

Você precisa estar conectado para participar dos comentários!
Faça login agora
nenhum
Nenhum comentário...