Curso práctico sobre la evaluación del Modelo de Lenguaje Grande (LLM) para Jefes de Producto
Base de conocimientos de IAActualizado hace 9 meses Círculo de intercambio de inteligencia artificial 7.4K 00
Diseñado para equipos de productos de IA y líderes de IA, presenta cómo evaluar productos basados en LLM. Ofrece un comienzo fácil del aprendizaje sin necesidad de conocimientos de programación. El curso estará disponible en 9 de diciembre de 2024 Comienza.
Lo que aprenderá
Los fundamentos de la evaluación LLM: desde métodos de evaluación y puntos de referencia hasta salvaguardas contra LLM, y cómo crear herramientas de evaluación LLM personalizadas. Este curso está diseñado para gestores de productos de IA y líderes de IA que deseen dominar los conceptos básicos de calidad y observabilidad de la IA.
Evaluación de las distintas fases del ciclo de vida de la aplicación LLM: desde la fase experimental hasta la fase de supervisión de la producción.
Cómo diseñar conjuntos de datos de evaluación y generar diversos casos de prueba utilizando datos sintéticos.
Posibles problemas con las aplicaciones LLM: alucinaciones, inyecciones puntuales, chasquidos descontrolados, etc.
Cómo construir la observabilidad del LLM en entornos de producción: trazabilidad, evaluación, salvaguardas.
Métodos de evaluación del LLM: herramientas de evaluación del LLM, expresiones regulares, indicadores predictivos.
Ejemplos prácticos: cómo evaluar los RAG (Retrieval Augmentation Generation Systems), los sistemas de control de calidad y los agentes inteligentes.
Esperando el lanzamiento...
© declaración de copyright
Derechos de autor del artículo Círculo de intercambio de inteligencia artificial Todos, por favor no reproducir sin permiso.
Artículos relacionados
Sin comentarios...