LA INTELIGENCIA ARTIFICIAL PUEDE LLEVAR A LA EXTINCIÓN DE LA HUMANIDAD

Luisondome

Imagen: Geralt de Pixabay

Los líderes de la industria, los expertos en IA, los periodistas, los legisladores y el público, en una declaración publicada en The Center for AI Safety, advierten que estamos al borde de un desafío sin precedentes. La inteligencia artificial, a pesar de su gran potencial de impacto positivo, también conlleva un riesgo de extinción de la humanidad alarmante, que los expertos dicen que debemos enfrentar rápidamente.


Los firmantes, pertenecientes algunos de ellos a organizaciones como OpenAI y Google DeepMind expresaron serias preocupaciones sobre el riesgo de extinción que puede traer la IA. Los líderes de la industria advierten que a medida que avanzan los sistemas de IA, pronto podrían volverse más inteligentes y poderosos que nosotros, lo que representa una amenaza para la humanidad.


Entre los firmantes están expertos como Sam Altman, CEO de OpenAI, y Geoffrey Hinton, un investigador pionero de IA a menudo considerado como el "padrino" de la IA, el director ejecutivo de Demis Hassabis DeepMind, o Elon Musk, CEO de Neuralink, se encontraban entre los cientos de figuras destacadas que respaldaron la carta. “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, enfatizaron.


Alineada intrínsecamente con las advertencias emitidas por los líderes de la industria, la misión de CAIS se hace eco de los riesgos de IA, al igual que los de la guerra nuclear y los de las pandemias, pues todos ellos deben verse como una amenaza existencial para la humanidad que debe gestionarse con la máxima prioridad.


El miedo como herramienta en la política y la amenaza de la desinformación

Si bien es importante prestar atención a las advertencias de estos destacados expertos, no debemos pasar por alto otro de los riesgos que nos acechan: la desinformación. La declaración “El miedo es lo más vendido” nos recuerda que el miedo puede influir poderosamente en el sentimiento público y la toma de decisiones. Es fundamental abordar los riesgos de la IA con una comprensión informada y basada en evidencia en lugar de reacciones impulsadas por el miedo.


La inteligencia artificial podría causar la extinción, advierten los líderes de la industria

Si bien los avances de IA como ChatGPT, desarrollado por el laboratorio de investigación de IA OpenAI, demuestran el potencial positivo de la IA, también debemos participar activamente en las conversaciones que los científicos nucleares y los líderes de IA están teniendo sobre los riesgos urgentes y las medidas de seguridad necesarias. Esto incluye considerar cómo la tecnología de IA podría usarse indebidamente para difundir información errónea, un aspecto que contribuye a los riesgos a escala social.


¿Es justo reducir un tema tan complejo a un solo enunciado?

Como curador de arte de IA, aprecio las sutilezas y complejidades que surgen en el campo de la inteligencia artificial. Al leer la nueva declaración de los líderes de OpenAI, Google y otras figuras líderes de la industria que firmaron la carta, no pude evitar reflexionar sobre la magnitud del problema al que nos enfrentamos.


Sin embargo, es crucial tener en cuenta que un problema tan complejo no se soluciona tan fácilmente. Aunque se subraya la urgencia, parecería un error que se simplificara demasiado el problema. Este enigma merece más que alarma; exige medidas diligentes y reflexivas para mitigar el riesgo de extinción. Equilibrar la increíble promesa de la IA con sus riesgos inherentes es una tarea compleja que el Centro para la Seguridad de la IA (CAIS), una entidad sin fines de lucro, se dedica a emprender. Al final, se trata de navegar por la dualidad de la IA: aprovechar su poder para siempre y mantenerse atento a las preocupaciones que plantea.


De la complejidad del tema baste señalar las diferencias de opinión existentes en el ámbito académico. Desde XATACA nos cuentan como el uso de ChatGPT en el ámbito académico ha suscitado diferentes opiniones. Mientras que la Conferencia Internacional sobre Aprendizaje Automático (ICML, por su siglas en inglés) ha prohibido los papers con texto generado a partir de modelos de inteligencia artificial (IA), Springer Nature acaba de tomar el camino opuesto.

La prestigiosa editorial, que entre su publicaciones se encuentra la revista científica Nature, actualizó esta semana su guía de principios, y en el documento se señala que los autores podrán utilizar herramientas de IA para generar ideas o ayudar a escribir sus textos, siempre y cuando acredieten adecuadamente este tipo de colaboración en el trabajo publicado.


En conclusión, los riesgos que plantea la IA son reales e inminentes. Los líderes de la industria advierten que la IA podría representar un riesgo existencial, un riesgo de extinción que no podemos ignorar. Sin embargo, con las medidas adecuadas y las redes de seguridad que se puedan establecer, se podrá garantizar que la IA sirva a la humanidad de manera beneficiosa.

Lo importante es que debemos educarnos sobre la IA, sobre sus daños potenciales ysobre las medidas que podemos tomar para mitigar estos riesgos. La industria tecnológica, los científicos nucleares y los expertos en inteligencia artificial están de acuerdo en la necesidad de una gestión de riesgos estricta.


Fuente: CAIS

Comentarios

Entradas populares de este blog

Lilly inaugura un nuevo centro de investigación y desarrollo de última generación en el puerto marítimo de Boston

Qué es blockchain. Una explicación sobre la tecnología que está más de moda

5G: más conexiones, más rápidas y con mayor cobertura