Fundamentos de la IA: Lo que necesitas saber para empezar con esta tecnología
Quieres empezar a usar la IA porque tus compañeros de trabajo, podcasts o noticias te han contado que puede aumentar tu productividad y hacerte la vida más fácil. Al mismo tiempo, has oído hablar de muchas alternativas posibles – ChatGPT, Claude3, Gemini, etc. – pero no sabes cómo iniciar este proceso. Si te identificas con esta descripción, este artículo te ayudará a dar los primeros pasos para trabajar en ello.
Discutiremos los siguientes temas: Diferencia entre IA e IA Generativa, discutiendo brevemente por qué difieren los dos términos. ¿Qué cosas no puede hacer la IA Generativa por sí sola? ¿Cómo podemos construir un buen prompt? ¿Qué es un ciclo de construcción de prompts? ¿Cuán seguros estamos al usar la IA Generativa?
Diferencias entre IA e IA Generativa
Como hemos discutido sobre el amplio campo de la IA, es crucial distinguir entre la Inteligencia Artificial tradicional (IA) y el campo emergente de la IA Generativa (Gen AI). A pesar de raíces compartidas, sus funciones principales difieren significativamente. Para aclarar estas distinciones, examinaremos su Enfoque, Capacidades y Salida en la siguiente tabla comparativa. Este análisis nos ayudará a comprender cómo cada una contribuye de manera única a la resolución de problemas y la creación de contenido.
Característica | IA | IA Generativa |
Enfoque | Analizar datos para resolver problemas. | Crear nuevo contenido basado en datos. |
Capacidades | Reconocimiento de patrones, análisis predictivo, análisis de datos. | Síntesis de imágenes, generación de texto, composición musical. |
Salidas | Limitada a salidas y acciones predefinidas. | Salidas nuevas y diversas más allá de los datos de entrenamiento. |
Limitaciones de la IA Generativa

Andrew Ng (imagen tomada de Wikipedia)
Según las conferencias de Andrew Ng, cofundador de DeepLearning.AI, existen varias limitaciones actuales con respecto al uso de la IA Generativa. Estas limitaciones son particularmente notables cuando se interactúa directamente con GPT-3.5, la última versión de OpenAI, sin la ayuda de interfaces adicionales, mecanismos de recuperación o modelos ajustados.
Ten en cuenta que estas limitaciones se aplican solo cuando interactúas directamente con el modelo, sin una interfaz.
- Retención de Memoria: GPT-3.5 no puede retener la memoria de tareas o interacciones previas entre diferentes sesiones. Cada prompt se procesa de forma independiente, lo que significa que no puede recordar intercambios pasados a menos que se proporcionen explícitamente en la entrada.
- Conocimiento Congelado: El conocimiento en GPT-3.5 es estático y limitado a los datos disponibles en el momento de su último entrenamiento. No se actualiza con nuevos eventos, descubrimientos o tendencias emergentes a menos que se vuelva a entrenar con nuevos datos.
- Alucinaciones: En situaciones donde la información directa no está disponible, el modelo utiliza una técnica llamada «razonamiento de cero disparos» – intenta generar respuestas plausibles basadas en sus datos de entrenamiento y patrones de razonamiento existentes. Esto a veces puede resultar en información fabricada o engañosa.
- Límites de Longitud de Entrada / Salida: GPT-3.5 procesa texto utilizando un sistema basado en tokens, donde tanto los tokens de entrada como los de salida contribuyen a un límite total. Esta restricción afecta la cantidad de contexto que se puede proporcionar en un solo prompt y puede truncar las respuestas cuando se excede el límite de tokens.
- Sesgos y Toxicidad: El modelo puede heredar sesgos de sus datos de entrenamiento. Además, cuando se le pregunta repetidamente sobre temas específicos, particularmente controvertidos, las alucinaciones pueden agravarse, lo que resulta en respuestas que se desvían de la precisión factual o contienen sesgos no intencionados.
Primero, empecemos por definir qué es un buen prompt: Un buen prompt es una instrucción clara, específica y bien estructurada que guía a un modelo de lenguaje grande (LLM) para producir la salida deseada. Es la clave para comunicarse eficazmente con la IA y obtener resultados útiles. Aquí hay un desglose de lo que hace que un prompt sea ‘bueno’:
- Claridad
- Especificidad
- Contexto
- Estructura
- Formato
- Tono
- Ejemplos (Esto puede ser opcional)
- Iteración
Recomendamos comenzar con un prompt básico y seguir estos pasos:
- Sé detallado y específico: Proporciona suficiente contexto para que el LLM complete la tarea y describe la tarea deseada en detalle.
- Guía al modelo para que piense en su respuesta: Divide las instrucciones en varios pasos para ayudar al modelo a construir su razonamiento de un paso al siguiente.
- Experimenta e itera: Es posible que no logres el resultado deseado con el primer prompt, pero obtendrás información sobre lo que podría faltar.
- Para tu primer prompt, intenta algo simple. No intentes cubrir todos los escenarios en la primera ejecución.
- Evita que el modelo realice múltiples tareas en un solo prompt, ya que esto puede generar confusión. Lo mismo se aplica a las declaraciones condicionales; si deseas utilizarlas, te recomendamos crear un solo prompt.
Supongamos que recibimos un texto que discute una decisión organizacional (confirma que no contiene información sensible que pueda afectar a nuestra empresa) y los pasos que debemos seguir para determinar si implementar la nueva política. Sin embargo, el texto es difícil de leer, por lo que queremos utilizar herramientas de IA Generativa para aclararlo.
Lo primero que se nos ocurre es que podemos lograr esto con un prompt simple: «Oye, IA Generativa, te enviaré texto plano y quiero que proporciones una estructura más legible», o incluso más simple, «Haz que este texto plano sea legible».
¿Qué sucede en este caso? La IA Generativa utilizará su propia definición de una estructura legible, o podría tener alguna estructura genérica basada en la falta de suficiente contexto.
Utilicemos nuestros pasos para modificar el prompt: «Oye IA Generativa, te estoy enviando texto plano que contiene información sobre los pasos que debemos considerar para nuestra empresa. Queremos que sigas estos pasos:»
- Lee el texto plano.
- Basándote en tu lectura, me gustaría que los separaras en párrafos.
- Devuelve toda la información que se te proporcionó sin hacer ningún resumen o modificación.
Si comparamos ambos prompts, podemos ver una mejora en las preguntas que queremos hacer. También estamos dando más contexto sobre cómo pensamos en una estructura legible.
Ciclo de construcción de prompts
Si podemos resumir el proceso de construcción, se puede dividir en 4 pasos:
- Construir: Inicio claro y específico. Formula tu prompt inicial con instrucciones detalladas y precisas con respecto al formato, tono, longitud y restricciones para guiar al modelo de manera efectiva desde el principio.
- Interactuar y evaluar: Entendiendo el desajuste. Analiza la salida del modelo para identificar por qué no cumplió con tus expectativas. Identifica malentendidos en palabras clave, desviaciones de formato o tono incorrecto para informar el siguiente refinamiento del prompt.
- Aplicar nuevos cambios: Refinamiento específico. Ajusta tu prompt original basándote en la evaluación. Reformula las instrucciones, agrega restricciones, proporciona ejemplos o especifica qué no hacer para una guía más clara.
- Repetir: Mejora continua. Participa en múltiples ciclos de interacción y ajuste. Refina iterativamente la salida del modelo hasta lograr el resultado deseado a través de la experimentación persistente.
Las regulaciones para proteger nuestra privacidad e información en la IA Generativa aún se encuentran en un estado inicial. Por lo tanto, debemos tener cuidado al trabajar con estas herramientas. Nuestras recomendaciones son las siguientes:
- Lee sus términos de privacidad. Busca la sección de información recopilada.
- Utiliza soluciones locales. Puedes probar Ollama con Continue. Esto requerirá algunos conocimientos técnicos.
- Lee si el proveedor ofrece una función de privacidad. La función de privacidad implica crear una instancia que solo tú consumes y que no se comparte con otros.
- No agregues información sensible en tu prompt.
- No envíes ningún documento sensible a la IA.
- No confíes plenamente en la salida de la IA Generativa. Siempre verifica la información.
Herramientas / Recomendaciones de Lectura
Lecturas:
- Guia de Prompting de OpenAI:
https://platform.openai.com/docs/guides/prompt-engineering - DataCamp:
https://www.datacamp.com/blog/what-is-prompt-engineering-the-future-of-ai-communication - Curso de Deep learning:
https://www.deeplearning.ai/courses/generative-ai-for-everyone/ - Como crear un Prompt:
https://www.linkedin.com/pulse/why-do-we-need-learn-how-create-prompts-alexandra-serrano-spwof/?trackingId=cDtquqIoR8Cx4cFJ8DyOZg%3D%3D
Herramientas:
- Buscador de IA:
https://theresanaiforthat.com - Plantillas de Prompts:
https://ignacio-velasquez.notion.site/2-500-ChatGPT-Prompt-Templates-d9541e901b2b4e8f800e819bdc0256da
General:
- ChatGPT
- Claude
- Gemini
Análisis de Datos:
Newsletter:
- Superhuman AI:
https://www.superhuman.ai/
Constructor de Tutoriales:
- Guidde:
https://www.guidde.com/
Reuniones:
- Fathom:
https://fathom.video/ - ReadAI:
https://www.read.ai/
Estudios:
Desarrolladores:
- Cursor:
https://www.cursor.com/ - Ayudante de Componentes:
https://tools.webcrumbs.org/frontend-ai