¿Riesgo de extinción?, líderes firman carta para aclarar el futuro con la inteligencia artificial

Avatar of perla vallejo
¿riesgo de extinción? , líderes firman carta para aclarar el futuro con la inteligencia artificial_nsur
Directivos de OpenAI, Google DeepMind, Anthropic y otros laboratorios de inteligencia artificial advierten que los sistemas del futuro podrían ser mortíferos

La “amenaza para la humanidad” lo vuelve a hacer, el debate sigue y seguirá según parece con respecto a la extinción. Desde el año pasado, la inteligencia artificial genera debate entre sus múltiples usos y evitar un “Terminator” real. 

En marzo, personajes como Elon Musk, Steve Wozniak y Emad Mostaque, firmaron una carta que pedía pausar la inteligencia artificial, o se usará una con mayor regulación, pues dicha tecnología sobrepasa el control para la humanidad.

Esta vez, docenas de expertos en inteligencia artificial, incluidos los directores ejecutivos de OpenAI, Google DeepMind y Anthropic, firmaron recientemente una declaración abierta publicada por el Centro para la Seguridad de la IA (CAIS).

“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

Si la población ya debate y argumenta los peligros, y ventajas de está tecnología, está afirmación viene en un momento de creciente preocupación por los posibles perjuicios.

Leer más: ‘El fin de la raza humana’: la predicción sobre la inteligencia artificial que dejó Stephen Hawking

No sólo se trata de gestión responsable, ¿la Inteligencia artificial será la extinción humana?

Entre los firmantes del documento hay un verdadero “quién es quién” de luminarias de AI, incluido el “Padrino” de AI, Geoffrey Hinton; Stuart Russell de la Universidad de California, Berkeley; y Lex Fridman del Instituto Tecnológico de Massachusetts. El músico Grimes también es signatario, incluido en la categoría “otras figuras notables”.

Si bien la declaración puede parecer inocua en la superficie, el mensaje subyacente es algo controvertido en la comunidad de IA.

Un número aparentemente creciente de expertos cree que las tecnologías actuales pueden o conducirán inevitablemente al surgimiento o desarrollo de un sistema de IA capaz de representar una amenaza existencial para la especie humana.

Sus puntos de vista, sin embargo, son contrarrestados por un contingente de expertos con opiniones diametralmente opuestas. El científico jefe de IA de Meta, Yann LeCun, por ejemplo, ha señalado en numerosas ocasiones que no cree necesariamente que la IA se vuelva incontrolable.

A pesar de que algunos creen si no se hace nada para frenarla, podría llegar a ser tan poderosa como para provocar trastornos a escala social en unos pocos años, aunque los investigadores aún no explican cómo ocurriría eso.

Para él y otros que no están de acuerdo con la retórica de la “extinción”, como Andrew Ng, cofundador de Google Brain y exjefe científico de Baidu, la IA no es el problema, es la respuesta.

En el otro lado del argumento, expertos como Hinton y el CEO de Conjecture, Connor Leahy, creen que la IA a nivel humano es inevitable y, como tal, el momento de actuar es ahora.

Sin embargo, no está claro qué acciones piden los firmantes de la declaración. Los directores ejecutivos y/o jefes de IA de casi todas las principales empresas de IA, así como científicos de renombre de todo el mundo académico, se encuentran entre los que firmaron, lo que deja en claro que la intención no es detener el desarrollo de estos sistemas.

A principios de este mes, el CEO de OpenAI, Sam Altman, uno de los firmantes de la declaración mencionada anteriormente, hizo su primera aparición ante el Congreso durante una audiencia en el Senado para discutir la regulación de la IA. Su testimonio llegó a los titulares después de que pasó la mayor parte instando a los legisladores a regular su industria.

De hecho, en una entrada de blog publicada la semana pasada, Altman y otros dos ejecutivos de OpenAI propusieron varias formas de gestionar de manera responsable los potentes sistemas de inteligencia artificial. Pidieron cooperación entre los principales fabricantes de IA, más investigación técnica sobre los modelos grandes de lenguaje y la formación de una organización internacional de seguridad de la inteligencia artificial, similar al Organismo Internacional de la Energía Atómica, que trata de controlar el uso de armas nucleares.

*Con información de The Verge, The New York Times, Twitter* 

Total
0
Shares
Previous Post
¿pueden desaparecer los nft? : pronóstico de valor 'no son tan buenos'_nsur

¿Pueden desaparecer los NFT?: Pronóstico de valor ‘no son tan buenos’

Next Post
Brave lanza servicio de videollamadas usando nft_nsur

Brave lanza servicio de videollamadas usando NFT

Related Posts