2023: Como evolucionará la Inteligencia Artificial, y su regulación en la Unión Europea

Melissa Heikkilä


Este año vamos a ver modelos de IA con más trucos bajo la manga metafórica. Mi colega Will Douglas Heaven y yo hemos intentado predecir exactamente lo que es probable que llegue al campo de la IA en 2023 .


Una de mis predicciones es que veremos cómo el panorama regulatorio de la IA pasa de pautas éticas vagas y de alto nivel a líneas rojas regulatorias concretas a medida que los reguladores de la UE finalicen las reglas para la tecnología y las agencias gubernamentales de EE. UU., como la Comisión Federal de Comercio, reflexionen sobre las reglas . de los suyos

Los legisladores en Europa están trabajando en reglas para los modelos de IA generativos de producción de imágenes y texto que han creado tanta emoción recientemente, como Stable Diffusion, LaMDA y ChatGPT. Podrían significar el final de la era de las empresas que lanzan sus modelos de IA a la naturaleza con pocas o ninguna protección o responsabilidad. 

Estos modelos forman cada vez más la columna vertebral de muchas aplicaciones de IA, sin embargo, las empresas que los fabrican guardan un secreto feroz sobre cómo se construyen y entrenan. No sabemos mucho sobre cómo funcionan, y eso dificulta entender cómo los modelos generan contenido dañino o resultados sesgados, o cómo mitigar esos problemas.

La Unión Europea planea actualizar su próxima regulación de IA, llamada Ley de IA , con reglas que obliguen a estas empresas a arrojar algo de luz sobre el funcionamiento interno de sus modelos de IA. Es probable que se apruebe en la segunda mitad del año y, después de eso, las empresas tendrán que cumplir si quieren vender o usar productos de IA en la UE o enfrentar multas de hasta el 6% de su facturación anual total en todo el mundo.

La UE llama a estos modelos generativos sistemas de "IA de propósito general", porque se pueden usar para muchas cosas diferentes (no confundir con la inteligencia artificial general , la tan publicitada idea de superinteligencia de IA). Por ejemplo, los modelos de lenguaje grande como GPT-3 se pueden usar en chatbots de servicio al cliente o para crear desinformación a escala, y Stable Diffusion se puede usar para crear imágenes para tarjetas de felicitación o pornografía profunda no consensuada.

Si bien la forma exacta en que se regularán estos modelos en la Ley de IA aún es objeto de un acalorado debate, es probable que los creadores de modelos de IA de uso general, como OpenAI, Google y DeepMind, deban ser más abiertos acerca de cómo son sus modelos. construido y entrenado, dice Dragoș Tudorache, un miembro liberal del Parlamento Europeo que forma parte del equipo que negocia la Ley de IA.

Regular estas tecnologías es complicado, porque hay dos conjuntos diferentes de problemas asociados con los modelos generativos, y esos tienen soluciones políticas muy diferentes, dice Alex Engler, investigador de gobernanza de IA en la Institución Brookings. Uno es la difusión de contenido dañino generado por IA, como discursos de odio y pornografía no consentida, y el otro es la perspectiva de resultados sesgados cuando las empresas integran estos modelos de IA en los procesos de contratación o los utilizan para revisar documentos legales.

Compartir más información sobre modelos podría ayudar a terceros que están construyendo productos sobre ellos. Pero cuando se trata de la difusión de contenido dañino generado por IA, se requieren reglas más estrictas. Engler sugiere que a los creadores de modelos generativos se les debe exigir que construyan restricciones sobre lo que producirán los modelos, monitorear sus resultados y prohibir a los usuarios que abusan de la tecnología. Pero incluso eso no impedirá necesariamente que una persona decidida propague cosas tóxicas.

Si bien las empresas de tecnología tradicionalmente han sido reacias a revelar su salsa secreta, el impulso actual de los reguladores por una mayor transparencia y responsabilidad corporativa podría marcar el comienzo de una nueva era en la que el desarrollo de la IA es menos explotador y se realiza de una manera que respeta derechos como la privacidad. Eso me da esperanza para este año.

Aprendizaje más profundo 

La IA generativa lo está cambiando todo. Pero, ¿qué queda cuando el bombo se ha ido?

Cada año, los reporteros y editores de MIT Technology Review seleccionan 10 tecnologías innovadoras que probablemente darán forma al futuro. La IA generativa, lo más candente en IA en este momento, es una de las elecciones de este año. (Pero puede, y debe, leer sobre las otras nueve tecnologías ).

Qué está pasando: Los modelos de IA de texto a imagen, como DALL-E de OpenAI, conquistaron el mundo. Su popularidad sorprendió incluso a sus propios creadores. Y aunque tendremos que esperar para ver exactamente qué impacto duradero tendrán estas herramientas en las industrias creativas y en todo el campo de la IA, está claro que esto es solo el comienzo.

Lo que viene: Es probable que el próximo año nos presente modelos de IA que pueden hacer muchas cosas diferentes, desde generar imágenes a partir de texto en varios idiomas hasta controlar robots. La IA generativa podría eventualmente usarse para producir diseños para todo, desde nuevos edificios hasta nuevos medicamentos. “Creo que ese es el legado”, dijo Sam Altman, el fundador de OpenAI, a Will Douglas Heaven. “Imágenes, video, audio, eventualmente, todo se generará. Creo que se va a filtrar por todas partes”.


El artículo original se puede leer en inglés en The Algorithm / MIT Technology Review

Artículo traducido por L. Domenech

Comentarios

Entradas populares de este blog

Lilly inaugura un nuevo centro de investigación y desarrollo de última generación en el puerto marítimo de Boston

5G: más conexiones, más rápidas y con mayor cobertura

La hoja de ruta del hidrógeno en España: ¿podemos cumplir los objetivos?