IA: palabras y términos que debes conocer

IA: palabras y términos que debes conocer

El auge de la inteligencia artificial (IA) ha traído consigo una enorme cantidad de jerga (desde términos como «IA generativa» hasta «datos sintéticos») que puede ser difícil de analizar. Y aunque sea difícil entender realmente qué es la IA tener un conocimiento práctico de los términos de la IA puede ayudar a darle sentido a esta tecnología.

Nosotros traemos, siguiendo el post de Jasmine Cui y Jason Abbruzzese en NBC news, un breve glosario de términos que esperamos le ayuden a navegar en este campo en rápido desarrollo.

  • Inteligencia artificial: tecnología que tiene como objetivo replicar el pensamiento humano dentro de las máquinas. Algunos ejemplos de habilidades que entran en esta categoría incluyen identificar personas en fotografías , trabajar en fábricas e incluso hacer impuestos .
  • IA generativa: la IA generativa es una IA que puede crear cosas como texto, imágenes, sonido y video. Las aplicaciones tradicionales de IA clasifican en gran medida el contenido, mientras que los modelos de IA generativa lo crean. Por ejemplo, un modelo de reconocimiento de voz puede identificar su voz, mientras que un modelo de voz generativa puede usar su voz para crear audiolibros . Casi todos los modelos que han captado recientemente la atención del público han sido generativos, incluidos chatbots como ChatGPT de OpenAI, creadores de imágenes como Stable Diffusion y MidJourney , y programas de clonación de voz como Resemble .
  • Datos de entrenamiento: una colección de información (texto, imagen, sonido) seleccionada para ayudar a los modelos de IA a realizar tareas. En los modelos de lenguaje, los conjuntos de datos de entrenamiento se centran en materiales basados en texto, como libros, comentarios de redes sociales e incluso códigos. Debido a que los modelos de IA aprenden de los datos de entrenamiento, se han planteado cuestiones éticas en torno a su abastecimiento y curación. Los datos de capacitación de baja calidad pueden introducir sesgos y dar lugar a modelos injustos que toman decisiones racistas o sexistas.
  • Sesgo algorítmico: un error resultante de datos de entrenamiento incorrectos y una programación deficiente que hace que los modelos tomen decisiones prejuiciosas. Estos modelos pueden basarse en suposiciones inapropiadas basadas en el género, la capacidad o la raza. En la práctica, estos errores pueden causar daños graves al afectar la toma de decisiones, desde solicitudes de hipotecas hasta aprobaciones de trasplantes de órganos. Muchos críticos del rápido despliegue de la IA han invocado el potencial de sesgo algorítmico.
  • Inteligencia general artificial (AGI): descripción de programas que son tan capaces (o incluso más) que un ser humano. Si bien la inteligencia general completa aún no está en el futuro, los modelos están ganando en sofisticación. Algunos han demostrado habilidades en múltiples dominios que van desde la química hasta la psicología, y el desempeño de las tareas es paralelo a los puntos de referencia humanos.
  • Agentes Autónomos: Un modelo de IA que tiene un objetivo y herramientas suficientes para lograrlo. Por ejemplo, los vehículos autónomos son agentes autónomos que utilizan información sensorial, datos de GPS y algoritmos de conducción para tomar decisiones independientes sobre cómo navegar y llegar a destinos. Un grupo de agentes autónomos puede incluso desarrollar culturas, tradiciones y lenguas compartidas, como han demostrado investigadores de Stanford .
  • Encadenamiento de indicaciones: el proceso de utilizar interacciones previas con un modelo de IA para crear respuestas nuevas y más afinadas, específicamente en el modelado de lenguaje basado en indicaciones. Por ejemplo, cuando le pides a ChatGPT que le envíe un mensaje de texto a tu amigo, esperas que recuerde cosas como el tono que usas para hablar con el, chistes internos y otro contenido de conversaciones anteriores. Estas técnicas ayudan a incorporar este contexto.
  • Grandes modelos de lenguaje (LLM): una aplicación de IA, generalmente generativa, que tiene como objetivo comprender, interactuar y comunicarse con el lenguaje de una manera similar a la humana. Estos modelos se distinguen por su gran tamaño: la versión más grande de GPT-3, un predecesor directo de ChatGPT, contenía 175 mil millones de variables diferentes llamadas parámetros que fueron entrenados en 570 gigabytes de datos. El modelo PaLm de Google es aún más grande y tiene 540 mil millones de parámetros . A medida que el hardware y el software sigan avanzando, se espera que esta escala aumente.
  • Alucinaciones: Las alucinaciones son respuestas inesperadas e incorrectas de los programas de IA que pueden surgir por razones que aún no se conocen del todo. Un modelo de lenguaje podría sacar a relucir de repente recetas de ensaladas de frutas cuando le preguntas sobre la plantación de árboles frutales. También podría inventar citas académicas, mentir sobre datos que usted le pide que analice o inventar hechos sobre eventos que no están en sus datos de entrenamiento. No se comprende completamente por qué sucede esto, pero puede deberse a datos escasos, lagunas de información y clasificación errónea.
  • Comportamiento emergente: Habilidades para las que la IA podría demostrar y para las cuales no fue creada explícitamente. Algunos ejemplos incluyen la interpretación de emojis, el sarcasmo y el uso de un lenguaje que incluya el género. Un equipo de investigación de Google Brain identificó más de 100 de estos comportamientos y señaló que es probable que surjan más a medida que los modelos sigan escalando.
  • Alineación: Esfuerzos para garantizar que los sistemas de IA compartan los mismos valores y objetivos que sus operadores humanos. Para lograr que los motivos coincidan, la investigación de alineación busca entrenar y calibrar modelos, a menudo utilizando funciones para recompensar o penalizar a los modelos. Si el modelo hace un buen trabajo, le das una retroalimentación positiva. Si no, le das una valoración negativa.
  • IA multimodal: una forma de IA que puede comprender y trabajar con múltiples tipos de información, incluidos texto, imágenes, voz y más. Esto es poderoso porque permite que la IA comprenda y se exprese en múltiples dimensiones, brindando una comprensión más amplia y matizada de las tareas. Una aplicación de IA multimodal es un traductor, que puede convertir cómics japoneses al inglés.
  • Ingeniería inmediata: este es el acto de darle a la IA una instrucción para que tenga el contexto que necesita para lograr su objetivo. La ingeniería rápida se asocia mejor con ChatGPT de OpenAI, que describe las tareas que los usuarios introducen en el algoritmo (por ejemplo, «Dame cinco nombres de bebés populares»).
  • Capacitación: la capacitación es el proceso de refinar la IA utilizando datos para que se adapte mejor a una tarea. Se puede entrenar una IA introduciendo datos basados en lo que se desea que aprenda, como alimentar con sonetos de Shakespeare a un robot de poesía. Puede hacer esto varias veces en iteraciones llamadas «épocas», hasta que el rendimiento de su modelo sea consistente y confiable.
  • Redes neuronales: las redes neuronales son sistemas informáticos construidos para aproximarse a la estructura del pensamiento humano, específicamente a través de la estructura del cerebro. Están construidos así porque permiten que un modelo se desarrolle desde lo abstracto hasta lo concreto. En un modelo de imagen, se pueden formar capas iniciales, conceptos como color o posición, hasta llegar a formas más firmes y familiares, como frutas o animales.
  • IA estrecha: algunos algoritmos de IA tienen una mente unidireccional. Literalmente. Están diseñados para hacer una cosa y nada más. Si un algoritmo de IA limitado puede jugar a las damas, no puede jugar al ajedrez. Los ejemplos incluyen algoritmos que solo detectan imágenes NSFW y motores de recomendación diseñados para indicarle qué producto de Amazon o Etsy comprar a continuación.
Share this post: