Las computadoras que usan IA ahora pueden resolver problemas y realizar tareas mediante el empleo de patrones que han aprendido de los datos históricos para dar sentido a la información.
Por Revista Summa
Desde que la IA generativa se catapultó como tema principal a finales de 2022, la mayoría de nosotros hemos adquirido una comprensión básica de la tecnología y de cómo utiliza el lenguaje natural para ayudarnos a interactuar con más facilidad con las computadoras.
Algunos de nosotros incluso podemos lanzar palabras de moda como «prompts» y «aprendizaje automático» mientras tomamos un café con amigos. (Si aún no han llegado a ese punto, pueden empezar con este artículo introductorio: 10 términos de IA que todos deberían conocer). Pero a medida que la IA continua con su evolución, también lo hace su léxico. ¿Conocen la diferencia entre modelos de lenguaje grandes y pequeños? ¿O qué significa «GPT» en ChatGPT? ¿O qué tiene que ver un RAG con la limpieza de las fabricaciones? Estamos aquí para ayudarles con un desglose del siguiente nivel de los términos de IA para que se pongan al día.
Razonamiento/planificación
Las computadoras que usan IA ahora pueden resolver problemas y realizar tareas mediante el empleo de patrones que han aprendido de los datos históricos para dar sentido a la información, algo similar al razonamiento. Los sistemas más avanzados han comenzado a demostrar la capacidad de ir un paso más allá, abordan problemas cada vez más complejos mediante la creación de planes, e idean una secuencia de acciones para alcanzar un objetivo. Imaginen pedirle ayuda a un programa de IA para organizar un viaje a un parque temático. El sistema puede tomar ese objetivo, una visita en la que visitan seis atracciones diferentes, incluida la hora de asegurarse de que la aventura acuática sea durante la parte más calurosa del día, y pueden dividirla en pasos para un horario mientras usan el razonamiento para asegurarse de que no se duplica en ningún lugar y que estarán en la montaña rusa entre el mediodía y las 3 p.m.
Entrenamiento/inferencia
Para crear y utilizar un sistema de IA, hay dos pasos: entrenamiento e inferencia. El entrenamiento es algo así como la educación de un sistema de IA, cuando se alimenta de un conjunto de datos y aprende a realizar tareas o hacer predicciones basadas en esos datos. Por ejemplo, se le puede dar una lista de precios de casas vendidas de manera reciente en un vecindario, junto con el número de dormitorios y baños en cada uno y una multitud de otras variables. Durante el entrenamiento, el sistema ajusta sus parámetros internos, que son valores que determinan cuánto peso dar a cada uno de esos factores para influir en los precios. La inferencia es cuando utilizan esos patrones y parámetros aprendidos para llegar a una predicción de precios para una nueva casa que está a punto de salir al mercado.
SLM/modelo de lenguaje pequeño
Los modelos de lenguaje pequeños, o SLM, son versiones de bolsillo de los modelos de lenguaje grandes, o LLM. Ambos utilizan técnicas de aprendizaje automático para ayudarles a reconocer patrones y relaciones para que puedan producir respuestas realistas en lenguaje natural. Pero mientras que los LLM son enormes y necesitan una gran dosis de potencia computacional y memoria, los SLM como Phi-3 se entrenan en conjuntos de datos más pequeños y seleccionados y tienen menos parámetros, por lo que son más compactos e incluso se pueden usar sin conexión a Internet. Eso los hace ideales para aplicaciones en dispositivos como una computadora portátil o un teléfono, donde es posible que deseen hacer preguntas básicas sobre el cuidado de las mascotas, pero no necesitan sumergirse en el razonamiento detallado y de varios pasos de cómo entrenar a los perros guía.
Conexión a tierra
Los sistemas de IA generativa pueden componer historias, poemas y chistes, así como responder preguntas de investigación. Pero a veces se enfrentan a desafíos para separar la realidad de la ficción, o sus datos de entrenamiento están desactualizados, y entonces pueden dar respuestas inexactas denominadas alucinaciones. Los desarrolladores trabajan para ayudar a la IA a interactuar con el mundo real con precisión a través del proceso de conexión a tierra (Grounding), que es cuando conectan y anclan su modelo con datos y ejemplos tangibles para mejorar la precisión y producir resultados relevantes y personalizados de manera más contextual.
Generación aumentada de recuperación (RAG)
Cuando los desarrolladores dan acceso a un sistema de IA a una fuente de conexión a tierra para ayudar a que sea más preciso y actual, utilizan un método llamado Generación Aumentada de Recuperación, o RAG (Retrieval Augmented Generation). El patrón RAG ahorra tiempo y recursos al agregar conocimientos adicionales sin tener que volver a entrenar el programa de IA. Es como si fueran Sherlock Holmes y hubieran leído todos los libros de la biblioteca pero aún no hubieran resuelto el caso, así que suben al ático, desenrollan algunos pergaminos antiguos y, voilà, encuentran la pieza que falta en el rompecabezas. Del mismo modo, si tienen una empresa de ropa y quieren crear un chatbot que pueda responder a preguntas específicas de su mercancía, pueden utilizar el patrón RAG en su catálogo de productos para ayudar a los clientes a encontrar el jersey verde perfecto en su tienda.
Orquestación
Los programas de IA tienen mucho que hacer a la hora de procesar las solicitudes de las personas. La capa de orquestación es lo que los guía a través de todas sus tareas en el orden correcto para obtener la mejor respuesta. Si le preguntan a Microsoft Copilot quién es Ada Lovelace, por ejemplo, y luego le preguntan cuándo nació, el orquestador de la IA es lo que almacena el historial de chat para ver que la «ella» en su consulta de seguimiento se refiere a Lovelace. La capa de orquestación también puede seguir un patrón RAG que busca en Internet información nueva para agregar al contexto y ayudar al modelo a encontrar una mejor respuesta. Es como si un maestro diera indicaciones a los violines y luego a las flautas y oboes, ya que todos siguen la partitura para producir el sonido que el compositor tenía en mente.
Memoria
A nivel técnico, los modelos de IA actuales no tienen memoria. Pero los programas de IA pueden tener instrucciones orquestadas que les ayuden a «recordar» información al seguir pasos específicos con cada transacción, como almacenar de manera temporal preguntas y respuestas anteriores en un chat y luego incluir ese contexto en la solicitud actual del modelo, o usar datos de conexión a tierra del patrón RAG para asegurarse de que la respuesta tenga la información más actualizada. Los desarrolladores han comenzado a experimentar con la capa de orquestación para ayudar a los sistemas de IA a saber si necesitan recordar de manera temporal un desglose de pasos, por ejemplo, la memoria a corto plazo, como anotar un recordatorio en una nota adhesiva, o si sería útil recordar algo durante un período de tiempo más largo almacenándolo en una ubicación más permanente.
Modelos de transformadores y modelos de difusión
La gente ha enseñado a los sistemas de IA a comprender y generar lenguaje durante décadas, pero uno de los avances que aceleró el progreso reciente fue el modelo de transformador. Entre los modelos de IA generativa, los transformadores son los que mejor y más rápido entienden el contexto y matizan los matices. Son narradores elocuentes, prestan atención a los patrones de los datos y sopesan la importancia de las diferentes entradas para ayudarles a predecir con rapidez lo que viene después, lo que les permite generar texto. El reclamo a la fama de un transformador es que es la T de ChatGPT: Transformador generativo preentrenado. Los modelos de difusión, por lo general utilizados para la creación de imágenes, agregan un giro al realizar un recorrido más gradual y metódico, al difundir píxeles desde posiciones aleatorias hasta que se distribuyen de una manera que forma una imagen solicitada en un mensaje. Los modelos de difusión hacen pequeños cambios hasta que crean algo que funciona.
Modelos de frontera
Los modelos de frontera son sistemas a gran escala que amplían los límites de la IA y pueden realizar una amplia variedad de tareas con capacidades nuevas y más amplias. Pueden ser tan avanzados que a veces nos sorprenden con lo que son capaces de lograr. Las empresas tecnológicas, incluida Microsoft, formaron el Frontier Model Forum para compartir conocimientos, establecer estándares de seguridad y ayudar a todos a comprender estos poderosos programas de IA para garantizar un desarrollo seguro y responsable.
GPU
Una GPU, que significa Unidad de Procesamiento de Gráficos, es una calculadora turboalimentada. Las GPU se diseñaron en un inicio para suavizar los gráficos sofisticados en los videojuegos, y ahora son los autos con potencia de la informática. Los chips tienen muchos núcleos diminutos, o redes de circuitos y transistores, que abordan problemas matemáticos juntos, lo que se conoce como procesamiento paralelo. Dado que eso es, de manera básica, lo que es la IA (resolver toneladas de cálculos a gran escala para poder comunicarse en lenguaje humano y reconocer imágenes o sonidos), las GPU son indispensables para las herramientas de IA tanto para el entrenamiento como para la inferencia. De hecho, los modelos más avanzados de hoy en día se entrenan a través de la utilización de enormes clústeres de GPU interconectadas, que a veces suman decenas de miles repartidas en centros de datos gigantes, como los que Microsoft tiene en Azure, que se encuentran entre las computadoras más poderosas jamás construidas.