2023: Como evolucionará la Inteligencia Artificial, y su regulación en la Unión Europea
Melissa Heikkilä
Este año vamos a ver modelos de IA con más trucos bajo la manga metafórica. Mi colega Will Douglas Heaven y yo hemos intentado predecir exactamente lo que es probable que llegue al campo de la IA en 2023 .
Una de mis predicciones es que veremos cómo el panorama regulatorio de la IA pasa de pautas éticas vagas y de alto nivel a líneas rojas regulatorias concretas a medida que los reguladores de la UE finalicen las reglas para la tecnología y las agencias gubernamentales de EE. UU., como la Comisión Federal de Comercio, reflexionen sobre las reglas . de los suyos
Los legisladores en Europa están trabajando en reglas para los modelos de IA generativos de producción de imágenes y texto que han creado tanta emoción recientemente, como Stable Diffusion, LaMDA y ChatGPT. Podrían significar el final de la era de las empresas que lanzan sus modelos de IA a la naturaleza con pocas o ninguna protección o responsabilidad.
La Unión Europea planea actualizar su próxima regulación de IA, llamada Ley de IA , con reglas que obliguen a estas empresas a arrojar algo de luz sobre el funcionamiento interno de sus modelos de IA. Es probable que se apruebe en la segunda mitad del año y, después de eso, las empresas tendrán que cumplir si quieren vender o usar productos de IA en la UE o enfrentar multas de hasta el 6% de su facturación anual total en todo el mundo.
La UE llama a estos modelos generativos sistemas de "IA de propósito general", porque se pueden usar para muchas cosas diferentes (no confundir con la inteligencia artificial general , la tan publicitada idea de superinteligencia de IA). Por ejemplo, los modelos de lenguaje grande como GPT-3 se pueden usar en chatbots de servicio al cliente o para crear desinformación a escala, y Stable Diffusion se puede usar para crear imágenes para tarjetas de felicitación o pornografía profunda no consensuada.
Si bien la forma exacta en que se regularán estos modelos en la Ley de IA aún es objeto de un acalorado debate, es probable que los creadores de modelos de IA de uso general, como OpenAI, Google y DeepMind, deban ser más abiertos acerca de cómo son sus modelos. construido y entrenado, dice Dragoș Tudorache, un miembro liberal del Parlamento Europeo que forma parte del equipo que negocia la Ley de IA.
Regular estas tecnologías es complicado, porque hay dos conjuntos diferentes de problemas asociados con los modelos generativos, y esos tienen soluciones políticas muy diferentes, dice Alex Engler, investigador de gobernanza de IA en la Institución Brookings. Uno es la difusión de contenido dañino generado por IA, como discursos de odio y pornografía no consentida, y el otro es la perspectiva de resultados sesgados cuando las empresas integran estos modelos de IA en los procesos de contratación o los utilizan para revisar documentos legales.
Compartir más información sobre modelos podría ayudar a terceros que están construyendo productos sobre ellos. Pero cuando se trata de la difusión de contenido dañino generado por IA, se requieren reglas más estrictas. Engler sugiere que a los creadores de modelos generativos se les debe exigir que construyan restricciones sobre lo que producirán los modelos, monitorear sus resultados y prohibir a los usuarios que abusan de la tecnología. Pero incluso eso no impedirá necesariamente que una persona decidida propague cosas tóxicas.
Si bien las empresas de tecnología tradicionalmente han sido reacias a revelar su salsa secreta, el impulso actual de los reguladores por una mayor transparencia y responsabilidad corporativa podría marcar el comienzo de una nueva era en la que el desarrollo de la IA es menos explotador y se realiza de una manera que respeta derechos como la privacidad. Eso me da esperanza para este año.
|
|
Comentarios
Publicar un comentario