La IA en el lugar de trabajo no va a ninguna parte … así que abraza y sé experto en ello
Chat GPT y todos los demás modelos de chat de IA están aquí para quedarse y ser parte de nuestra cultura laboral, por lo que en lugar de luchar contra él, Bell the Cat y haz que baile a tu melodía.
Para los no iniciados, la ingeniería rápida se refiere al arte de elaborar indicaciones efectivas para obtener las respuestas deseadas del modelo de chat. Esta es una habilidad crucial porque los modelos de lenguaje grande están entrenados en una variedad de conjuntos de datos, tanto reales como ahora sintéticos y necesitan indicaciones claras y lógicas para brindarle la información deseada.
Esta es una habilidad que se puede aprender, requiere poco o ningún conocimiento previo, y su habilidad mejorará cuanto más practique. El uso de ingeniería rápida también lo ayudará a extraer al máximo chatgpt, independientemente de si planea usarla para el trabajo de la escuela u oficina. Pero antes de saber cómo jugar el sistema, tenemos que saber un poco sobre cómo funciona todo.
¿Qué es LLM y cómo funciona?
Un modelo de lenguaje grande (LLM) es un tipo de IA diseñado para comprender y generar texto humano basado en los patrones que ha aprendido de las cantidades masivas de datos del lenguaje. Funciona descomponiendo texto en tokens (pequeñas unidades de lenguaje como palabras o subvenciones) y analizando las relaciones entre ellos. Cuando da una entrada, el modelo predice las próximas palabras o oraciones más probables mediante el uso de patrones y relaciones estadísticas que aprendió durante el entrenamiento. Esencialmente, «completa» su aporte mientras imita el lenguaje natural, lo que le permite responder a las preguntas, escribir texto, traducir idiomas, etc. Esta es también la razón por la que no debe confiar ciegamente en nada que salga de un LLM.
Es simplemente, en términos simplistas, predecir la siguiente palabra probable, como lo hace automáticamente. Entonces, ¿cómo obtenemos la información correcta del LLM? Con un buen aviso, por supuesto.
¿Qué hace un buen aviso?
Cuatro CS que hacen un buen aviso: contenido, claridad, contexto y limitaciones.
Contenido: vaya directamente a la información que necesita. Use el lenguaje directo e incluya detalles clave. Si está buscando un formato particular para la respuesta, incluya eso. Por ejemplo, «Crear una tabla con la salida» o puede proporcionar algunas muestras y pedirle al LLM que imite el estilo de la respuesta a ese estilo. Puede invocar a Personas para mejorar su producción, pero más sobre eso más adelante.
Claridad: es muy importante saber lo que está buscando y poder explicar claramente a la LLM lo que desea. Incluso un poco de conocimiento de dominio es importante para este paso. Por ejemplo, si está utilizando CHATGPT para escribir un código Python (un lenguaje de programación) para usted, necesitará saber al menos las funciones básicas o tener una comprensión básica de cómo funciona Python. Tener este conocimiento le dará la capacidad de escribir un aviso mucho más detallado y obtener resultados más rápido.
Contexto: los LLM han sido entrenados en una gran cantidad de datos que usan para predecir el texto. Algunos de estos datos pueden ser irrelevantes. Entonces, siempre dé el contexto de LLM.
Por ejemplo, escribir un ensayo sobre AI no tendría ningún contexto; Generará cosas que podrían no estar en el alcance de su ensayo. En cambio, si le das contexto diciendo: ‘Escribe un ensayo sobre el uso de IA en el marketing de alimentos’ en 500 palabras usando la jerga americana. Embelle sus indicaciones tanto como sea posible con todos los detalles que pueda. Agregar documentos y tablas puede mejorar la salida más cerca de la salida deseada.
Restricción: hay varias formas de restringir la salida de ChatGPT. Una fácil es el recuento de palabras, como en el caso del ejemplo del ensayo. Un recuento de palabras se asegurará de que el LLM genere la cantidad correcta de texto necesaria para la asignación. También puede dar las limitaciones emocionales de LLM, como mencionar que el ensayo es una parte importante de su calificación y que necesita que sea el mejor ensayo sobre la IA en el mundo. Además, consulte el punto de claridad aquí porque necesita tener algún conocimiento de dominio para saber que la LLM no está alucinando los hechos en el ensayo.
Hacer personajes útiles
Las indicaciones también se benefician de la creación de personajes. Por ejemplo, necesita el mismo ensayo sobre AI. Dígale a ChatGPT que finja que es el principal experto en IA y que todo lo que dice está respaldado por documentos científicos. Esta persona tiene un beneficio doble: el primero es que fingirá ser ese experto, y el segundo es que ahora hará referencia a todo lo que dice contra artículos y artículos científicos. También puede pedirle que cite fuentes para un estilo adicional. Sin embargo, esto no protege al LLM de la alucinación, y necesitará algún conocimiento de dominio para verificar. También puede usar esta persona para verificar su trabajo.
Practica y juega
Ingeniería rápida también se trata de hacer huéspedes, pinchar y superar los límites de la LLM. Entonces, si no obtiene su resultado deseado en el primer intento, siga probando diferentes enfoques. Eventualmente, descubrirá la mejor manera de trabajar para su caso de uso.
