Curso práctico sobre la evaluación del Modelo de Lenguaje Grande (LLM) para Jefes de Producto

Diseñado para equipos de productos de IA y líderes de IA, presenta cómo evaluar productos basados en LLM. Ofrece un comienzo fácil del aprendizaje sin necesidad de conocimientos de programación. El curso estará disponible en 9 de diciembre de 2024 Comienza.

 

Lo que aprenderá

Los fundamentos de la evaluación LLM: desde métodos de evaluación y puntos de referencia hasta salvaguardas contra LLM, y cómo crear herramientas de evaluación LLM personalizadas. Este curso está diseñado para gestores de productos de IA y líderes de IA que deseen dominar los conceptos básicos de calidad y observabilidad de la IA.

Evaluación de las distintas fases del ciclo de vida de la aplicación LLM: desde la fase experimental hasta la fase de supervisión de la producción.

Cómo diseñar conjuntos de datos de evaluación y generar diversos casos de prueba utilizando datos sintéticos.

Posibles problemas con las aplicaciones LLM: alucinaciones, inyecciones puntuales, chasquidos descontrolados, etc.

Cómo construir la observabilidad del LLM en entornos de producción: trazabilidad, evaluación, salvaguardas.

Métodos de evaluación del LLM: herramientas de evaluación del LLM, expresiones regulares, indicadores predictivos.

Ejemplos prácticos: cómo evaluar los RAG (Retrieval Augmentation Generation Systems), los sistemas de control de calidad y los agentes inteligentes.

 

Esperando el lanzamiento...

© declaración de copyright

Artículos relacionados

Sin comentarios

Debe iniciar sesión para participar en los comentarios.
Acceder ahora
ninguno
Sin comentarios...