Curso práctico sobre la evaluación del Modelo de Lenguaje Grande (LLM) para Jefes de Producto
Base de conocimientos de IAActualizado hace 10 meses Círculo de intercambio de inteligencia artificial 12.4K 00
Diseñado para equipos de productos de IA y líderes de IA, presenta cómo evaluar productos basados en LLM. Ofrece un comienzo fácil del aprendizaje sin necesidad de conocimientos de programación. El curso estará disponible en 9 de diciembre de 2024 Comienza.
Lo que aprenderá
Los fundamentos de la evaluación LLM: desde métodos de evaluación y puntos de referencia hasta salvaguardas contra LLM, y cómo crear herramientas de evaluación LLM personalizadas. Este curso está diseñado para gestores de productos de IA y líderes de IA que deseen dominar los conceptos básicos de calidad y observabilidad de la IA.
Evaluación de las distintas fases del ciclo de vida de la aplicación LLM: desde la fase experimental hasta la fase de supervisión de la producción.
Cómo diseñar conjuntos de datos de evaluación y generar diversos casos de prueba utilizando datos sintéticos.
Posibles problemas con las aplicaciones LLM: alucinaciones, inyecciones puntuales, chasquidos descontrolados, etc.
Cómo construir la observabilidad del LLM en entornos de producción: trazabilidad, evaluación, salvaguardas.
Métodos de evaluación del LLM: herramientas de evaluación del LLM, expresiones regulares, indicadores predictivos.
Ejemplos prácticos: cómo evaluar los RAG (Retrieval Augmentation Generation Systems), los sistemas de control de calidad y los agentes inteligentes.
Esperando el lanzamiento...
© declaración de copyright
Derechos de autor del artículo Círculo de intercambio de inteligencia artificial Todos, por favor no reproducir sin permiso.
Artículos relacionados
Sin comentarios...