Tecnología & Cultura Digital

Diez términos de inteligencia artificial que todos deberían conocer

Descubra algunos de los términos más importantes para comprender el creciente mundo de la inteligencia artificial generativa.

2024-08-11

Por revistaeyn.com

Desde que la inteligencia artificial (IA) generativa se catapultó como tema principal a finales de 2022, la mayoría ha adquirido una comprensión básica de la tecnología y de cómo utiliza el lenguaje natural para ayudarnos a interactuar con más facilidad con las computadoras.

Algunos incluso pueden lanzar palabras de moda como "prompts" y "aprendizaje automático". Si aún no han llegado a ese punto, pueden empezar con este artículo introductorio.

Razonamiento/planificación

Las computadoras que usan IA ahora pueden resolver problemas y realizar tareas mediante el empleo de patrones que han aprendido de los datos históricos para dar sentido a la información, algo similar al razonamiento. Los sistemas más avanzados han comenzado a demostrar la capacidad de ir un paso más allá, abordan problemas cada vez más complejos mediante la creación de planes, e idean una secuencia de acciones para alcanzar un objetivo.

Cuidado con el malware disfrazado de herramientas de inteligencia artificial

Entrenamiento/inferencia

Para crear y utilizar un sistema de IA, hay dos pasos: entrenamiento e inferencia. El Entrenamiento es algo así como la educación de un sistema de IA, cuando se alimenta de un conjunto de datos y aprende a realizar tareas o hacer predicciones basadas en esos datos. La inferencia es cuando utilizan esos patrones y parámetros aprendidos para llegar a una predicción.

SLM/modelo de lenguaje pequeño

Los modelos de lenguaje pequeños, o SLM, son versiones de bolsillo de los modelos de lenguaje grandes, o LLM. Ambos utilizan técnicas de aprendizaje automático para ayudarles a reconocer patrones y relaciones para que puedan producir respuestas realistas en lenguaje natural. Pero mientras que los LLM son enormes y necesitan una gran dosis de potencia computacional y memoria, los SLM como Phi-3 se entrenan en conjuntos de datos más pequeños y seleccionados y tienen menos parámetros, por lo que son más compactos e incluso se pueden usar sin conexión a Internet.

Conexión a tierra

Los sistemas de IA generativa pueden componer historias, poemas y chistes, así como responder preguntas de investigación. Pero a veces se enfrentan a desafíos para separar la realidad de la ficción, o sus datos de entrenamiento están desactualizados, y entonces pueden dar respuestas inexactas denominadas alucinaciones. Los desarrolladores trabajan para ayudar a la IA a interactuar con el mundo real con precisión a través del proceso de conexión a tierra (Grounding), que es cuando conectan y anclan su modelo con datos y ejemplos tangibles para mejorar la precisión y producir resultados relevantes y personalizados de manera más contextual.

La inteligencia artificial y los límites de la privacidad

Generación aumentada de recuperación (RAG)

Cuando los desarrolladores dan acceso a un sistema de IA a una fuente de conexión a tierra para ayudar a que sea más preciso y actual, utilizan un método llamado Generación Aumentada de Recuperación, o RAG (Retrieval Augmented Generation). El patrón RAG ahorratiempo y recursos al agregar conocimientos adicionales sin tener que volver a entrenar el programa de IA.

Orquestación

Los programas de IA tienen mucho que hacer a la hora de procesar las solicitudes de las personas. La capa de orquestación es lo que los guía a través de todas sus tareas en el orden correcto para obtener la mejor respuesta.

Memoria

A nivel técnico, los modelos de IA actuales no tienen memoria. Pero los programas de IA pueden tener instrucciones orquestadas que les ayuden a «recordar» información al seguir pasos específicos con cada transacción, como almacenar de manera temporal preguntas y respuestas anteriores en un chat y luego incluir ese contexto en la solicitud actual del modelo, o usar datos de conexión a tierra del patrón RAG para asegurarse de que la respuesta tenga la información más actualizada. Los desarrolladores han comenzado a experimentar con la capa de orquestación para ayudar a los sistemas de IA a saber si necesitan recordar de manera temporal un desglose de pasos, por ejemplo, la memoria a corto plazo, como anotar un recordatorio en una nota adhesiva, o si sería útil recordar algo durante un período de tiempo más largo almacenando en una ubicación más permanente.

Modelos de transformadores y modelos de difusión

La gente ha enseñado a los sistemas de IA a comprender y generar lenguaje durante décadas, pero uno de los avances que aceleró el progreso reciente fue el modelo de transformador. Entre Los modelos de IA generativa, los transformadores son los que mejor y más rápido entienden el contexto y matizan los matices. Son narradores elocuentes, prestan atención a los patrones de los datos y sopesan la importancia de las diferentes entradas para ayudarles a predecir con rapidez lo que viene después, lo que les permite generar texto. El reclamo a la fama del transformador es que es la T de ChatGPT: Transformador generativo preentrenado. Los Modelos de difusión, por lo general utilizados para la creación de imágenes, agregan un giro al realizar un recorrido más gradual y metódico, al difundir píxeles desde posiciones aleatorias hasta que se distribuyen de una manera que forma una imagen solicitada en un mensaje. Los Modelos de difusión hacen pequeños cambios hasta que crean algo que funciona.

Modelos de frontera

Los modelos de frontera son sistemas a gran escala que amplían los límites de la IA y pueden realizar una amplia variedad de tareas con capacidades nuevas y más amplias. Pueden ser tan avanzados que a veces nos sorprenden con lo que son capaces de lograr. Las empresas tecnológicas, incluida Microsoft, formaron el Frontier Model Forum para compartir conocimientos, establecer estándares de seguridad y ayudar a todos a comprender estos poderosos programas de IA para garantizar un desarrollo seguro y responsable.

GPU

La GPU, que significa Unidad de Procesamiento de Gráficos, es una calculadora turboalimentada. Las GPU se diseñaron en un inicio para suavizar los gráficos sofisticados en los videojuegos, y ahora son los autos con potencia de la informática. Los chips tienen muchos núcleos diminutos, o redes de circuitos y transistores, que abordan problemas matemáticos juntos, lo que se conoce como procesamiento paralelo. Dado que eso es, de manera básica, lo que es la IA (resolver toneladas de cálculos a gran escala para poder comunicarse en lenguaje humano y reconocer imágenes o sonidos), las GPU son indispensables para las herramientas de IA tanto para el entrenamiento como para la inferencia. De hecho, los modelos más avanzados de hoy en día se entrenan a través de la utilización de enormes clústeres de GPU interconectadas, que a veces suman decenas de miles repartidas en centros de datos gigantes, como los que Microsoft tiene en Azure, que se encuentran entre las computadoras más poderosas jamás construidas.

12 ejemplares al año por $75

SUSCRIBIRSE