¿Qué es el Modelo de Lenguaje Amplio (LLM) en un artículo?

堆友AI

Definición de un gran modelo lingüístico

Large Language Model (LLM) es un sistema de aprendizaje profundo entrenado en datos de texto masivos, con la arquitectura Transformer como núcleo. El mecanismo de autoatención de la arquitectura puede capturar eficazmente las dependencias a larga distancia en el lenguaje. El modelo es "grande" en el sentido de que tiene entre cientos de millones y cientos de miles de millones de parámetros, que se ajustan continuamente durante el proceso de entrenamiento para aprender las leyes estadísticas y los patrones semánticos del lenguaje.

El entrenamiento se divide en dos fases: el preentrenamiento permite al modelo adquirir conocimientos gramaticales y fácticos y habilidades iniciales de razonamiento mediante la predicción de la palabra oscurecida o de la palabra siguiente; el ajuste fino optimiza el comportamiento del modelo para hacerlo más seguro y útil utilizando instrucciones específicas o datos de retroalimentación humana. Los Big Language Models son modelos probabilísticos que calculan la secuencia más probable de resultados basándose en las entradas, no en una verdadera comprensión de la lengua. Modelos representativos como la familia GPT y PaLM se han convertido en herramientas clave para el avance de las aplicaciones de IA.

大语言模型(Large Language Model)是什么,一文看懂

Los orígenes históricos del gran modelo lingüístico

  • Las primeras investigaciones sobre procesamiento del lenguaje natural se remontan a los años 50 con las pruebas de Turing y los sistemas basados en reglas, como el chatbot ELIZA, que se basaban en la coincidencia de patrones fijos y eran poco flexibles.
  • En las décadas de 1980 y 1990 surgieron los modelos estadísticos del lenguaje, como el modelo de n-gramas, que utiliza la frecuencia de palabras para predecir el texto, pero está limitado por el problema de la escasez de datos.
  • A principios del siglo XXI surgieron modelos lingüísticos de redes neuronales, como Word2Vec y LSTM, que representan la semántica mediante vectores de palabras y sientan las bases del aprendizaje profundo.
  • La propuesta de la arquitectura Transformer en 2017 fue el punto de inflexión, con su mecanismo de autoatención para resolver retos de procesamiento de secuencias largas, dando lugar a modelos preentrenados como BERT y GPT.
  • Después de 2020, los recursos informáticos y el tamaño de los datos se disparan y los parámetros de los modelos superan los cientos de miles de millones, como el GPT-3, lo que desencadena cambios en la industria e impulsa el desarrollo de modelos multimodales.
  • El linaje histórico muestra que la evolución de los modelos de grandes lenguajes se basa en innovaciones algorítmicas, avances de hardware y acumulación de datos, y que cada etapa supera las deficiencias de la generación anterior de modelos.

Principios básicos del modelo Big Language

  • El mecanismo de autoatención de la arquitectura Transformer permite al modelo procesar el vocabulario en paralelo, calculando los pesos de asociación de cada palabra con otras palabras del contexto, lo que sustituye a las redes neuronales recurrentes tradicionales.
  • Las tareas de preentrenamiento utilizan sobre todo modelos lingüísticos enmascarados o predicción autorregresiva, en los que los primeros enmascaran aleatoriamente parte de la palabra de entrada para que el modelo la recupere, y los segundos predicen secuencialmente la palabra siguiente para desarrollar la generación del lenguaje.
  • La ampliación de la escala de parámetros aporta capacidades emergentes, en las que tareas complejas que no pueden ser realizadas por modelos pequeños, como el razonamiento matemático o la escritura de código, surgen espontáneamente en modelos de parámetros grandes.
  • El proceso de inferencia se basa en el muestreo probabilístico, en el que el modelo genera una distribución de probabilidad para cada palabra candidata, y la aleatoriedad se controla mediante un parámetro de temperatura, con temperaturas altas que aumentan la diversidad y temperaturas bajas que mejoran la certidumbre.
  • Las técnicas de ajuste fino, como el ajuste de instrucciones y el entrenamiento de alineación, utilizan el Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF) para optimizar los resultados del modelo de modo que coincidan con los valores humanos.
  • El principio básico revela que los grandes modelos lingüísticos son esencialmente emparejamientos de patrones basados en datos más que motores lógicos, y su rendimiento se ve directamente afectado por la calidad y diversidad de los datos de entrenamiento.

Métodos de entrenamiento para grandes modelos lingüísticos

  • La recopilación de datos incluyó la limpieza y desduplicación de textos a gran escala procedentes de fuentes como Wikipedia, sitios de noticias y artículos académicos, lo que garantizó la cobertura de fenómenos lingüísticos multidominio.
  • La fase de preentrenamiento consume enormes cantidades de aritmética, utilizando clusters de GPU durante semanas o meses de entrenamiento a un coste de millones de dólares, lo que refleja unas características de uso intensivo de recursos.
  • Los métodos de ajuste fino incluyen el ajuste fino supervisado, que ajusta los parámetros del modelo con datos etiquetados, y el aprendizaje por refuerzo basado en la retroalimentación humana, que reduce los resultados perjudiciales.
  • Los marcos de formación distribuida, como Megatron-LM o DeepSpeed, abordan los cuellos de botella de memoria dividiendo los parámetros del modelo entre varios dispositivos.
  • El proceso de formación se centra en la seguridad de los datos y elimina la información privada o los contenidos sesgados, pero sigue habiendo problemas para eliminar por completo la discriminación.
  • El algoritmo de optimización utiliza un método de tasa de aprendizaje adaptativo, como AdamW, para equilibrar la velocidad y la estabilidad del entrenamiento y evitar el sobreajuste.

Escenarios de aplicación de la modelización de grandes lenguas

  • El ámbito educativo ayuda al aprendizaje personalizado generando problemas de práctica o explicando conceptos, pero requiere la supervisión del profesor para evitar la propagación de errores.
  • La industria sanitaria lo utiliza para la abstracción bibliográfica o el apoyo al diagnóstico con el fin de mejorar la eficiencia, aunque la toma de decisiones clínicas sigue dependiendo de expertos humanos.
  • Las industrias creativas, como la redacción de textos publicitarios o la narración de cuentos, son fuente de inspiración, pero suscitan controversias sobre los derechos de autor y la originalidad.
  • El servicio de atención al cliente utiliza chatbots para responder a las consultas más comunes, reduciendo los costes de mano de obra, pero redirigiendo las preguntas complejas a un humano.
  • Las herramientas de programación integran la finalización y depuración de código para acelerar el proceso de desarrollo, como GitHub Copilot.
  • Los servicios de traducción rompen las barreras lingüísticas, conversión multilingüe en tiempo real y calidad cercana al nivel de los traductores profesionales.

Ventajas de rendimiento de los grandes modelos lingüísticos

  • El texto generado es fluido e imita el estilo de escritura humana para escenarios de generación de contenidos.
  • Fuerte capacidad de generalización multitarea, un único modelo puede manejar diferentes tareas como pregunta y respuesta, resumen, clasificación, etc., reduciendo el desarrollo de modelos dedicados.
  • La naturalidad de la interacción mejora la experiencia del usuario, admite múltiples rondas de diálogo y mantiene la coherencia contextual.
  • La velocidad de procesamiento se acelera con la optimización del hardware, con tiempos de respuesta de milisegundos para satisfacer los requisitos de las aplicaciones en tiempo real.
  • La escalabilidad permite el aprendizaje continuo de nuevos conocimientos y la adaptación al cambio mediante actualizaciones incrementales.
  • La rentabilidad se refleja en la automatización del trabajo duplicado y la reducción de los insumos de mano de obra.

Riesgos potenciales de la modelización de grandes lenguas

  • El problema de las alucinaciones conduce a la emisión de información falsa, como acontecimientos históricos inventados o hechos científicos que inducen a error a los usuarios.
  • El sesgo de los datos amplifica la desigualdad social, el género, la discriminación racial en los datos de entrenamiento es aprendida y reproducida por los modelos.
  • Las vulnerabilidades de seguridad pueden explotarse maliciosamente para generar correos electrónicos de phishing o noticias falsas, amenazando la seguridad de la red.
  • El riesgo de fuga de privacidad existe, y la información sensible de los datos de entrenamiento de la memoria del modelo puede extraerse mediante palabras clave.
  • El choque del empleo afecta a profesiones como la redacción y la atención al cliente, desencadenando una reestructuración del mercado laboral.
  • El consumo de energía es enorme, y formar un solo modelo con emisiones de carbono equivalentes a las emisiones anuales de decenas de coches es una pesada carga medioambiental.

Consideraciones éticas en la modelización de grandes lenguajes

  • Falta de transparencia, procesos de toma de decisiones basados en modelos de caja negra y dificultad para rastrear el origen de los errores.
  • Faltan mecanismos de rendición de cuentas y, cuando los modelos causan daños, la atribución de responsabilidades es difusa entre desarrolladores, usuarios o plataformas.
  • La equidad exige que estén representadas varias muestras para evitar que se pase por alto a los grupos marginados, y se requiere una auditoría continua de los resultados de los modelos.
  • La protección de los derechos humanos implica equilibrar la libertad de expresión con la censura de contenidos e impedir el uso abusivo de la vigilancia o la censura.
  • La sostenibilidad exige una IA ecológica y algoritmos optimizados para reducir la huella de carbono.
  • Los marcos éticos requieren una colaboración interdisciplinar para elaborar normas industriales que regulen el desarrollo y la implantación.

El futuro de Big Language Modelling

  • La fusión multimodal se está convirtiendo en una tendencia que combina texto, imágenes y audio para enriquecer la interacción persona-ordenador.
  • Los avances tecnológicos en materia de aligeramiento de modelos, destilación o métodos de cuantificación permiten ejecutar grandes modelos en dispositivos de borde.
  • Se potencia la personalización para adaptarse a los hábitos y necesidades lingüísticas de los distintos usuarios y mejorar la especificidad.
  • La normativa y las políticas están mejorando gradualmente, y los países están introduciendo proyectos de ley sobre gobernanza de la IA para orientar la innovación responsable.
  • La comunidad del código abierto promueve la democratización, reduce la barrera tecnológica y facilita la adopción por parte de las PYME.
  • La investigación básica se centra en superar las limitaciones de Transformer y explorar nuevas arquitecturas para mejorar la eficacia y la interpretabilidad.

Grandes modelos lingüísticos frente a inteligencia humana

  • El procesamiento del lenguaje se basa en modelos estadísticos, mientras que los humanos incorporan emoción, contexto y sentido común, y los modelos carecen de verdadera comprensión.
  • El enfoque del aprendizaje se basa en los datos, los humanos tienen la capacidad de aprender y migrar a partir de muestras pequeñas, y los modelos requieren cantidades ingentes de datos.
  • La creatividad se manifiesta en la innovación combinatoria, en la que los seres humanos pueden originar ideas y modelos disruptivos sólo reestructurando el conocimiento existente.
  • En el tratamiento de errores, el modelo no es autorreflexivo y los humanos pueden corregir las percepciones mediante pruebas lógicas.
  • En términos de interacciones sociales, el modelo carece de resonancia emocional, y la comunicación humana implica señales no verbales y empatía.
  • El ritmo de evolución es tal que las actualizaciones de los modelos dependen de ajustes manuales, y la inteligencia humana se transmite de generación en generación a través de la cultura y la educación.
© declaración de copyright

Artículos relacionados

Sin comentarios

Debe iniciar sesión para participar en los comentarios.
Acceder ahora
ninguno
Sin comentarios...