Descripción de la imagen: Las IA generativas (GPT-3, Copilot, Gemini, Gopher, Chinchilla, PaLM, Human, etc.) se entrenan en grandes conjuntos de datos (textos, imágenes, audios o vídeos) producidos por humanos. Sin embargo, estas IA se vuelven "locas" cuando generan sus propios datos de aprendizaje. Fuente de la imagen astronoo AI.
El concepto de "Self-Consuming Generative Models Go Mad" (Modelos generativos auto-consumidores que se vuelven locos) se refiere, en el campo de la inteligencia artificial, a la producción de datos de aprendizaje por la propia IA.
Los modelos generativos son algoritmos que aprenden a generar nuevos datos "imitando" un conjunto de datos de entrenamiento producidos por humanos. La producción de datos de aprendizaje es costosa y lleva mucho tiempo. Requiere recopilar los datos, limpiarlos, anotarlos y formatearlos para que puedan ser utilizados correctamente por la IA.
Los científicos no pudieron resistir la tentación de utilizar los datos sintéticos generados por los propios modelos generativos para formar nuevos modelos más rápidamente.
La idea central es crear un modelo generativo capaz de producir sus propios datos de aprendizaje. Este proceso se itera, con el modelo afinándose y volviéndose cada vez más capaz de generar datos complejos, numerosos e inéditos.
Las ventajas imaginadas son numerosas. En primer lugar, el modelo no está limitado por la cantidad de datos de aprendizaje iniciales. Puede explorar dominios desconocidos y descubrir accidentalmente nuevos conceptos. Además, el modelo, a través de su propio aprendizaje auto-supervisado, podría afinarse e mejorar su rendimiento de manera iterativa. Por ejemplo, el modelo podría generar nuevas estructuras moleculares candidatas para nuevos medicamentos.
Sin embargo, existe un enorme desafío asociado con este enfoque.
El Self-Consuming Generative Models Go Mad es un fenómeno que ocurre cuando los modelos de inteligencia artificial generativos se entrenan con datos sintéticos producidos por otros modelos de IA generativos, creando así bucles auto-consumidores. Cuando una IA intenta aprender el contenido generado por una IA, se vuelve loca.
La repetición de este proceso, mal entendido, crea un bucle auto-consumidor cuyos datos de aprendizaje se vuelven caóticos. Además, es tentador utilizar datos sintéticos para aumentar o reemplazar los datos reales debido a la falta de datos disponibles. En otras palabras, cuando el modelo no tiene suficientes datos reales frescos en cada generación de un bucle auto-consumidor, los futuros modelos generativos están destinados al fracaso.
Este proceso de auto-consumición conduce a una disminución progresiva de la calidad y a una dilución de la diversidad de los contenidos generados. Esto se caracteriza por una degeneración del proceso, donde el modelo comienza a producir salidas cada vez más incoherentes y redundantes.
Si el modelo no está expuesto a una variedad suficiente de ejemplos, tiene dificultades para aprender patrones significativos y, por lo tanto, recurre a producciones repetitivas. Del mismo modo, si el modelo se ve alentado a concentrarse únicamente en la optimización de su propia producción, puede alejarse de la realidad y generar salidas cada vez más aberrantes. Finalmente, el modelo tenderá a ajustar demasiado sus respuestas a los datos de aprendizaje (overfitting). Comienza a memorizar detalles insignificantes y pierde su capacidad de generalizar a nuevos ejemplos. Además, puede reproducir sus propios sesgos y deficiencias indefinidamente.
En algunos escenarios teóricos, los modelos generativos podrían volverse "locos" o disfuncionales de una manera impredecible, potencialmente auto-destructiva. Por ejemplo, un modelo generativo podría priorizar la "novedad" y esta búsqueda incesante podría empujarlo a explorar territorios cada vez más desconocidos.
La falta de regulación expone al modelo a un descontrol donde los contenidos podrían volverse cada vez más extremos, ofensivos, perturbadores o impactantes, rozando lo inaceptable. Podríamos dejar de comprender o interpretar los resultados generados por el modelo.
Esta noción especulativa subraya las preocupaciones potenciales asociadas con el uso de modelos de inteligencia artificial autónomos o insuficientemente controlados. Aunque puede parecer una idea de ciencia ficción, es una consideración importante en la comunidad de IA sobre cómo diseñar y regular estas tecnologías de manera responsable.
En resumen, cuando los modelos de IA se entrenan con sus propios datos, se aíslan cada vez más del mundo real y sus valores, ¡y se vuelven locos!