banner

Noticias

May 16, 2023

Paper Claims AI puede ser una civilización

Si los extraterrestres están por ahí, ¿por qué no nos han contactado todavía? Puede ser, argumenta un nuevo artículo, que ellos, o, en el futuro, nosotros, inevitablemente seamos eliminados por una inteligencia artificial ultra fuerte, víctimas de nuestro propio impulso para crear un ser superior.

Esta posible respuesta a la paradoja de Fermi, en la que el físico Enrico Fermi y las generaciones posteriores plantean la pregunta: "¿dónde están todos?" – proviene del investigador de la Universidad Nacional de Inteligencia Mark M. Bailey, quien en un nuevo artículo aún por revisar por pares postula que la IA avanzada puede ser exactamente el tipo de riesgo catastrófico que podría acabar con civilizaciones enteras.

Bailey cita a la IA sobrehumana como un "gran filtro" potencial, una posible respuesta a la paradoja de Fermi en la que una amenaza terrible y desconocida, artificial o natural, acaba con la vida inteligente antes de que pueda entrar en contacto con otros.

"Para cualquier persona preocupada por el riesgo catastrófico global, queda una pregunta aleccionadora", escribe Bailey. "¿Está el Gran Filtro en nuestro pasado, o es un desafío que aún debemos superar?"

Los humanos, señala el investigador, somos "terribles para estimar intuitivamente el riesgo a largo plazo", y dada la cantidad de advertencias que ya se han emitido sobre la IA, y su punto final potencial, una inteligencia general artificial o AGI, es posible, argumenta, que podemos estar invocando nuestra propia desaparición.

"Una forma de examinar el problema de la IA es a través de la lente del argumento de la segunda especie", continúa el documento. "Esta idea considera la posibilidad de que la IA avanzada se comporte efectivamente como una segunda especie inteligente con la que inevitablemente compartiremos este planeta. Teniendo en cuenta cómo fueron las cosas la última vez que esto sucedió, cuando los humanos modernos y los neandertales coexistieron, los resultados potenciales son sombríos".

Aún más aterrador, señala Bailey, es la perspectiva de una superinteligencia artificial casi divina (ASI), en la que una AGI supera a la inteligencia humana porque "cualquier IA que pueda mejorar su propio código probablemente estaría motivada para hacerlo".

"En este escenario, los humanos renunciarían a su posición como la especie inteligente dominante en el planeta con posibles consecuencias calamitosas", plantea la hipótesis del autor. "Al igual que los neandertales, nuestro control sobre nuestro futuro, e incluso nuestra propia existencia, puede terminar con la introducción de un competidor más inteligente".

Todavía no ha habido, por supuesto, ninguna evidencia directa que sugiera que las IA extraterrestres acabaron con la vida natural en ninguna civilización extraterrestre, aunque en opinión de Bailey, "el descubrimiento de inteligencia extraterrestre artificial sin evidencia concurrente de una inteligencia biológica preexistente ciertamente mueve la aguja".

La posibilidad, por supuesto, plantea la posibilidad de que haya IA destructivas persistentes en el universo después de eliminar a sus creadores. Con ese fin, Bailey sugiere amablemente que "señalar activamente nuestra existencia de una manera detectable para una IA extraterrestre puede no ser lo mejor para nosotros" porque "cualquier IA extraterrestre competitiva puede estar inclinada a buscar recursos en otros lugares, incluida la Tierra".

"Si bien puede parecer ciencia ficción, es probable que una tecnología fuera de control como la IA sea un candidato probable para el Gran Filtro, ya sea orgánico para nuestro planeta o de origen extraterrestre", concluye Bailey. "Debemos preguntarnos, ¿cómo nos preparamos para esta posibilidad?"

Lector, son cosas extrañas, pero una vez más, nos alegra que alguien lo esté considerando.

Más sobre un apocalipsis de IA:Warren Buffett compara la IA con la bomba atómica

Más sobre un apocalipsis de IA:
COMPARTIR