Ruta de aprendizaje de 6 semanas para convertirse en un experto en ingeniería de tacos (Transcripción)
Base de conocimientos de IAActualizado hace 11 meses Círculo de intercambio de inteligencia artificial 8.4K 00
presentar (a algn. para un trabajo, etc.)
A medida que el campo de la Inteligencia Artificial (IA) sigue creciendo, la ingeniería de cue se ha convertido en una carrera prometedora. Hoy en día, muchas personas se esfuerzan por adquirir las habilidades necesarias para interactuar eficazmente con los grandes modelos lingüísticos (LLM). ¿Comparte usted el mismo deseo? ¿Está pensando por dónde empezar y cómo proceder? Le ofrecemos este itinerario de aprendizaje para ayudarle a convertirse en un experto en ingeniería de prontitud. Esta completa guía está diseñada para ayudarle a dominar la ingeniería de prompt paso a paso, desde los conceptos básicos hasta las técnicas avanzadas. Tanto si es principiante como si tiene experiencia, este itinerario de aprendizaje estructurado le proporcionará los conocimientos y las habilidades prácticas que necesita para dominar la LLM.

esbozado
- Entender qué es un proyecto de taco.
- Aprenda a dominar la ingeniería rápida en 6 semanas.
- Averigua qué necesitas aprender cada semana y cómo practicar.
directorio (en el disco duro del ordenador)
- Semana 1: Introducción a la ingeniería de tacos
- Semana 2: Preparación de los LLM para los prompts
- Semana 3: Redactar prompts eficaces
- Semana 4: Comprender los patrones de incitación
- Semana 5: Consejos avanzados
- Semana 6: Estrategias avanzadas de incitación
- problemas comunes
Semana 1: Introducción a la ingeniería de tacos
Durante la primera semana del Viaje a la Ingeniería Prompt, concéntrese en los siguientes temas

¿Qué es el Proyecto Tip?
- Comprender el concepto de ingeniería de indicios en PNL y su importancia.
- Comprender cómo redactar instrucciones eficaces y su repercusión en los resultados de la modelización lingüística.
- Conozca los antecedentes históricos y la evolución de la ingeniería del taco y cómo ha evolucionado con el tiempo.
¿Cómo funciona el LLM?
- Explore los fundamentos de LLM y comprenda cómo funciona en un lenguaje sencillo y no técnico.
- Aprenda cómo se forma y funciona el LLM, entendiéndolo con analogías y ejemplos sencillos.
- Conozca diferentes LLM como GPT-4o, Llama y Mistral y sus características únicas y escenarios de aplicación.
El papel de la ingeniería
- Comprenda las descripciones de los puestos y las habilidades específicas que se requieren para puestos como Ingeniero de Propuestas, Científico de Datos y otros.
- Conozca la aplicación práctica de la ingeniería del taco a través de proyectos reales y tareas de muestra.
Aplicaciones prácticas de la ingeniería del taco
- La investigación muestra casos prácticos de aplicaciones con éxito de la ingeniería del taco en diversas industrias.
Por ejemplo:Los LLM en el lugar de trabajo: un estudio de caso sobre el uso de la ingeniería de indicios para la categorización de puestos de trabajo. - Discutir el impacto de la ingeniería de pistas en el rendimiento de los modelos de IA y comprender cómo puede mejorar la eficacia de estos modelos.
poner en práctica
- Explorar los gráficos del LLMAprende sobre varios benchmarks como MMLU-Pro, HuamnEval, Chatbot Arena y más. Explora diferentes gráficos LLM y conoce los modelos líderes actuales en diferentes benchmarks.
Por ejemplo:Abrazando el espacio facial para open-llm-leaderboardyRanking LLM | Análisis Artificial - Identificar las competencias clave y analizar consejos Casos prácticos de ingenieríaEl objetivo del curso es: Identificar las aptitudes y cualificaciones más comunes que se exigen a los ingenieros de señalización mediante descripciones de puestos de trabajo y perfiles profesionales. Investigar y resumir las aplicaciones prácticas de la ingeniería de señales en diversos sectores, centrándose en cómo se diseñan las señales y los resultados que consiguen.
Por ejemplo:Caso práctico - Proyecto TipyEl impacto de las aplicaciones de IA generativa impulsadas por IA en 13 casos de uso en el mundo real.
Semana 2: Creación de un gran modelo lingüístico para las prompts
Esta semana, aprenderemos a configurar el Modelo de Lenguaje Grande (LLM) para preguntar de diferentes maneras. Los usuarios pueden utilizar cualquiera de los métodos mencionados.

Acceso directo en el sitio web del LLM
- Aprenda a utilizar estos modelos directamente a través de la plataforma web de LLM.
- Aprenda a crear una cuenta y a navegar por la interfaz de la popular plataforma Big Language Modelling.
Ejecución local de LLM de código abierto
- Explorar el proceso de configuración de un LLM de código abierto (por ejemplo, Llama3, Mistral, Phi3, etc.) para ejecutarlo en una máquina local, utilizando Hugging Face o Ollama y msty.app o Open WebUI.
- Comprender los requisitos de hardware y software de los diferentes LLM de código abierto.
Acceso programático mediante API
- Aprenda a registrarse para obtener acceso a la API. Por ejemplo, proporcionar acceso API a LLM a través de la plataforma, como GPT-4o, Claude, Gemini, etc., así como utilizar la API de inferencia de caras abrazadas para acceder a modelos como Llama, Phi, Gemma y otros.
- Aprenda a configurar claves API e integrarlas en diversas aplicaciones para la generación de avisos.
Configurar la clave API en AI Content Labs
poner en práctica
- Acceso al LLM a través de la web: Cree una cuenta e intente generar avisos directamente en el sitio web de LLM.
- Configuración local del LLM de código abiertoSiga la guía para descargar, instalar y configurar un LLM local de código abierto y pruébelo utilizando varias instrucciones.
- Registrar clave API: Completa el proceso de obtención de una clave API de un proveedor como OpenAI y escribe un script simple para generar un prompt usando esa clave.
Semana 3: Redactar prompts eficaces
Esta semana aprenderemos a crear una variedad de tipos de pistas para arrancar eficazmente modelos lingüísticos, centrándonos en comandos claros, ejemplos, iteraciones, delimitadores, formatos estructurados y parámetros de temperatura.

Redactar instrucciones claras y específicas
- Aprenda a escribir instrucciones claras y específicas para guiar al modelo en la generación del resultado deseado.
- Comprender la importancia de la claridad y la especificidad para evitar la ambigüedad y mejorar la precisión de las respuestas.
Ejemplos concretos de utilización
- Aprenda técnicas para utilizar ejemplos específicos en las indicaciones para proporcionar contexto y mejorar la relevancia de los resultados del modelo.
- Aprenda a demostrar el formato o tipo de respuesta esperado con ejemplos.
Transformar el taco e iterar
- Explore las ventajas de transformar las pistas e iterar para mejorar la calidad de los resultados.
- Descubra cómo pequeños cambios en las instrucciones pueden dar lugar a mejoras significativas en los resultados.
Uso de delimitadores
- Aprenda a utilizar eficazmente los separadores en los avisos para separar diferentes secciones o tipos de entrada.
- Aprenda a mejorar la estructura y legibilidad de las indicaciones con ejemplos de uso de separadores.
Especificar un formato de salida estructurado
- Comprender la importancia de especificar un formato de salida estructurado en la solicitud para garantizar la coherencia y la organización de las respuestas.
- Aprenda técnicas para definir claramente el formato de salida esperado.
Parámetros de temperatura de funcionamiento
- Aprenda el concepto de parámetro de temperatura en la modelización lingüística y cómo afecta a la creatividad y aleatoriedad del resultado.
- Aprenda a ajustar los parámetros de temperatura para encontrar un equilibrio entre variedad y coherencia y controlar la respuesta del modelo.
poner en práctica
- Redactar instrucciones claras y específicasCrear avisos con instrucciones claras y específicas y observar cómo afecta la claridad a los resultados del modelo.
- Ejemplos concretos de utilizaciónIncluya un ejemplo concreto en la pregunta para comparar la diferencia de relevancia del resultado con y sin el ejemplo.
- Transformar el taco e iterarPrueba a variar las indicaciones y a repetirlas para ver cómo los pequeños cambios mejoran los resultados.
- Uso de delimitadoresUtilice delimitadores para separar las distintas secciones de la pregunta y analice el impacto en la estructura y legibilidad de la respuesta.
Semana 4: Comprender los patrones de incitación
En esta semana, aprenderemos sobre los patrones de sugerencia, una técnica de alto nivel que proporciona un enfoque reutilizable y estructurado para resolver problemas comunes en la salida de modelos de grandes lenguajes (LLM).

Visión general del modo Cue
- Comprender el concepto de patrones de señalización y su función a la hora de redactar señales eficaces para los LLM (por ejemplo).
- Conozca las similitudes entre los patrones de sugerencias y los patrones de diseño en ingeniería de software, donde los patrones de sugerencias proporcionan soluciones reutilizables a problemas específicos y recurrentes.
- El objetivo de explorar el modelo de prompting es facilitar la ingeniería de prompting proporcionando un marco para escribir prompts que pueda reutilizarse y adaptarse a diferentes escenarios.
semántica de entrada
- Conozca las categorías semánticas de entrada y cómo LLM entiende y procesa la entrada proporcionada.
- Aprenda sobre el patrón de creación de meta-lenguaje, que implica la definición de un lenguaje personalizado o notación que interactúa con el LLM.
Personalización de la salida
- Comprender la categoría de personalización de resultados, que se centra en la adaptación de los resultados de LLM a necesidades o formatos específicos.
- Explore el modo de consulta "Plantilla" para asegurarse de que la salida LLM sigue la plantilla o el formato exactos.
- Conozca el modelo de cueing de "rol", en el que el LLM adopta un rol o perspectiva específicos al generar la salida.
identificación errónea
- Aprendizaje de categorías de reconocimiento de errores con especial atención a la detección y resolución de errores potenciales en la salida del LLM.
- Conozca el modo de consulta "Lista de comprobación de hechos" que genera una lista de hechos en la salida para su validación.
- Explorar el modelo de estímulo "reflexivo", que incita al LLM a reflexionar sobre sus resultados e identificar posibles errores o áreas de mejora.
Optimización del taco
- Obtenga información sobre la categoría Optimización de avisos, centrada en la optimización de los avisos enviados a los LLM para garantizar la calidad de los mismos.
- Conozca el modelo de "optimización de preguntas" que guía a los LLM para optimizar las preguntas de los usuarios y obtener respuestas más precisas.
- Explore el modelo de sugerencias de Enfoques Alternativos para asegurarse de que el LLM ofrece múltiples formas de completar una tarea o resolver un problema.
Interacción y control del contexto
- Comprender las categorías de interacción mejora la dinámica de la interacción entre el usuario y el LLM, haciendo que el diálogo sea más atractivo y eficaz.
- Aprenda el modelo de incitación "Interacción inversa", en el que el LLM dirige el diálogo formulando preguntas.
- Conozca la categoría Control del contexto, centrada en el mantenimiento y la gestión de la información contextual en el diálogo.
- Explorar el modelo de incitación "Context Manager" para garantizar la coherencia y la pertinencia del diálogo en curso.
ejercicio
- Explorar diferentes patrones de señalesEl objetivo: examinar diversos patrones de señalización para comprender cómo abordan problemas específicos y recurrentes en la producción de LLM.
- Ejemplo de análisis de patrones de señalesExaminar ejemplos del uso real de los patrones de referencia para comprender cómo pueden lograr objetivos y resultados específicos.
- Identificar y clasificar los patrones de señalizaciónPractica el reconocimiento de diferentes patrones de pistas en un ejemplo dado y clasifícalos en la categoría adecuada.
- Combinar varios modos de señalizaciónExplore cómo pueden combinarse varios modos de señalización para abordar problemas de señalización más complejos y mejorar el rendimiento global.
Semana 5: Técnicas avanzadas de incitación
Esta semana nos adentraremos en técnicas avanzadas para mejorar la eficacia y la sofisticación de las instrucciones. He aquí algunos ejemplos.

Punta N-shot
- Aprenda el consejo N-shot, que consiste en proporcionar cero, uno o más ejemplos (N-shots) para guiar la respuesta del modelo.
- Descubra cómo los consejos de N-shot pueden mejorar la precisión y relevancia de los resultados de los modelos proporcionando contexto y ejemplos.
cadena de pensamiento
- Explorar las técnicas de la Cadena de Pensamiento (COT) para razonar paso a paso sobre un problema a través de un modelo guiado.
- Descubra cómo el método puede ayudar a generar resultados más coherentes y lógicamente consistentes.
autoconsistencia
- La comprensión de los métodos autoconsistentes implica incitar al modelo a generar múltiples soluciones y, a continuación, seleccionar la más consistente.
- Descubra cómo esta técnica mejora la fiabilidad y precisión de las respuestas generadas.
árbol del pensamiento
- Conozca la técnica del Árbol del Pensamiento, que anima a los modelos a considerar múltiples caminos y resultados potenciales para un problema dado.
- Aprenda a construir pistas para facilitar este proceso de pensamiento ramificado y mejorar la capacidad de toma de decisiones.
mapa mental
- Explore el enfoque de mapas mentales en el que los modelos construyen redes de ideas y conceptos interconectados.
- Aprenda a utilizar esta tecnología para generar una respuesta más completa y polifacética.
ejercicio
- Aplicación de la punta N: Proporcione algunos ejemplos (N-shots) para el modelo y observe cómo mejora la pertinencia y la precisión de la respuesta.
- Prueba la cadena de pensamientoCrear indicaciones que guíen el razonamiento paso a paso del modelo sobre el problema y analizar la coherencia del resultado.
- Aplicar la autoconsistenciaEl modelo genera múltiples soluciones al problema y selecciona la más coherente para mejorar la fiabilidad.
- Utilizar un árbol de pensamientoDesarrollar estímulos para animar a los modelos a considerar múltiples vías y resultados y evaluar sus procesos de toma de decisiones.
Semana 6: Estrategias avanzadas de diseño de tacos
Esta semana exploraremos estrategias avanzadas de diseño de pistas para mejorar aún más la potencia y la precisión de la interacción con modelos lingüísticos.

Reaccione
- do Reaccione técnicas para aprender nuevas tareas y tomar decisiones o razonar permitiendo al modelo "actuar" y "razonar".
- Aprenda a utilizar este enfoque para generar resultados más interactivos y atractivos.
Reformulación y preguntas de respuesta
- La técnica de "reformular y responder" consiste en pedir al modelo que reformule una entrada dada y luego responda.
- Descubra cómo este enfoque mejora la claridad y proporciona múltiples puntos de vista de la misma entrada.
Autooptimización
- Explorar métodos de "autooptimización" que inciten a los modelos a revisar y mejorar sus propias respuestas para aumentar la precisión y la coherencia.
- Examine cómo esta técnica puede mejorar la calidad de los resultados fomentando la autoevaluación.
Consejos de iteración
- Aprenda el enfoque de "señalización iterativa" para optimizar continuamente el resultado del modelo mediante la señalización iterativa y la retroalimentación.
- Aprenda a mejorar la calidad y la pertinencia de las respuestas a lo largo del tiempo mediante esta técnica.
tecnología de cadena
- cadena de verificación: El uso de preguntas de validación y sus respuestas para reducir el fenómeno de las alucinaciones.
- cadena del conocimiento: Cree preguntas que se basen en conocimientos dinámicos para generar respuestas exhaustivas.
- cadena emocionalAñadir estímulos emocionales al final de la pregunta para intentar mejorar el rendimiento del modelo.
- cadena de densidad: Genera múltiples resúmenes que son progresivamente más detallados, pero no aumentan en longitud.
- cadena simbólica: representan entornos complejos utilizando representaciones espaciales simbólicas condensadas en pasos intermedios de inferencia encadenados.
poner en práctica
- Implantación de la tecnología React: Cree instrucciones que pidan al modelo que reaccione o responda a estímulos específicos y evalúe la interactividad de la salida.
- Uso de reafirmaciones y preguntas de respuestaPrueba a pedirle al modelo que repita la entrada y luego responda, y analiza la salida para ver si es clara y variada.
- Autooptimización de aplicacionesDesarrollar consejos para animar a los modelos a revisar y mejorar sus respuestas para mejorar la precisión y la coherencia.
- Explore la tecnología de cadenas: Crea una serie de pistas utilizando diversas técnicas de encadenamiento (por ejemplo, cadenas de razonamiento en lenguaje natural, cadenas de conocimiento) y evalúa la coherencia y profundidad de las respuestas.
llegar a un veredicto
Siguiendo este itinerario de aprendizaje, cualquiera puede convertirse en un experto en ingeniería de pistas. De este modo, comprenderá en profundidad cómo diseñar pistas eficaces y utilizar técnicas avanzadas para optimizar el rendimiento de grandes modelos lingüísticos. Estos conocimientos le permitirán abordar tareas complejas, mejorar el rendimiento de los modelos y contribuir al creciente campo de la IA y el aprendizaje automático. La práctica continua y la exploración de nuevos enfoques le permitirán estar a la vanguardia de este campo dinámico y apasionante.
La ingeniería de pistas es una parte esencial de la creación y el entrenamiento de modelos de IA generativa. Domine la ingeniería de cue y todos los demás aspectos de la IA generativa con nuestro completo programa Generative AI Capstone. Este curso abarca desde los fundamentos de la IA hasta técnicas avanzadas que le ayudarán a perfeccionar sus modelos de IA generativa para una gran variedad de necesidades. Vea el curso ahora
problemas comunes
P1. ¿Qué es la ingeniería rápida? ¿Por qué es importante?
A. La ingeniería de pistas se refiere al diseño de entradas para guiar al modelo de macrolenguaje en la generación de la salida deseada. Esto es esencial para mejorar la precisión y pertinencia de las respuestas generadas por la IA.
P2. ¿Cuáles son las herramientas y plataformas habituales para utilizar el Big Language Model?
A. Entre las herramientas y plataformas más utilizadas se encuentran los modelos GPT de OpenAI, Hugging Face, Ollama y Llama y Mistral y otros modelos de código abierto de grandes lenguajes.
P3. ¿Cómo empiezan los principiantes a aprender ingeniería de tacos?
R. Los principiantes pueden empezar por comprender los fundamentos del Procesamiento del Lenguaje Natural (PLN) y el Modelado de Grandes Lenguajes, experimentando con mensajes sencillos y explorando gradualmente las técnicas más avanzadas mencionadas en esta ruta de aprendizaje.
P4: ¿Cuáles son las principales competencias necesarias para trabajar en ingeniería de urgencia?
R. Entre las competencias clave se incluyen el dominio de la PNL, la comprensión de grandes modelos lingüísticos, la capacidad para diseñar mensajes eficaces y la familiaridad con la programación y la integración de API.
P5. ¿Cómo afecta la ingeniería del taco a las aplicaciones en el mundo real?
R. Una ingeniería de pistas eficaz puede mejorar significativamente el rendimiento de los modelos de IA en múltiples sectores, desde la atención al cliente y la generación de contenidos hasta el análisis de datos y el apoyo a la toma de decisiones.
© declaración de copyright
Derechos de autor del artículo Círculo de intercambio de inteligencia artificial Todos, por favor no reproducir sin permiso.
Artículos relacionados
Sin comentarios...