sábado, mayo 06, 2023

por qué OpenAI ya piensa en los riesgos de la AGI

                                                                                                                              Por Javier Pastor

Si hay un tema clásico en las películas de ciencia ficción, ese es el de las máquinas que acaban dominando el mundo. Esa distopía retratada en títulos icónicos como 'Terminator', 'Yo, robot' o incluso 'The Matrix' nos parecía precisamente solo un tema de esas películas o de novelas de ciencia ficción, pero lo cierto es que el peligro es real.

No lo decimos nosotros: lo dice Sam Altman, CEO de OpenAI, que explicaba en un reciente artículo en el blog oficial de la empresa cómo esa búsqueda de una inteligencia artificial que beneficie a toda la humanidad puede acabar mal si no tenemos cuidado.

Altman hablaba de la llamada Inteligencia Artifical General (AGI, por sus siglas en inglés), que será mucho más capaz que los sistemas actuales y que teóricamente permitirá que la humanidad progrese de forma inaudita. Sin embargo, su desarrollo y despliegue no está exento de riesgos.

Lo sorprendente aquí es que uno esperaría que en OpenAI estuvieran más confiados con una evolución más o menos segura de este campo. No parecen estarlo del todo, y precisamente ese artículo mostraba algunas pautas con las que en OpenAI proponen enfrentarse a un futuro en el que las máquinas puedan acabar dominando a la humanidad.

Inteligencia artificial general, fuerte y débil

Lograr una AGI es el santo grial de quienes trabajan en este campo. Con esa inteligencia artificial general sería posible resolver cualquier tarea intelectual resoluble por un ser humano.

De hecho, la teoría es que estos sistemas serían capaces de realizar juicios y razonar ante una situación de incertidumbre, además de comunicarse en lenguaje natural, planificar o aprender.

Esta inteligencia artificial general no es, eso sí, la que nos venden las películas de ciencia ficción de Hollywood. En tramas como las de 'Terminator' lo que tenemos es una inteligencia artificial fuerte, que posee los llamados "estados mentales" y además es consciente de sí misma.

Lo que ofrece ahora esta disciplina son sistemas de inteligencia artificial débil, capaces de resolver problemas muy específicos y acotados. Por ejemplo, jugar al ajedrez, conversar como lo hace ChatGPT o generar imágenes espectaculares a partir de un entrenamiento previo.

El siguiente paso, eso sí, es el de esa "superinteligencia artificial" o inteligencia artificial general que como explicaban en OpenAI sería un sistema altamente autónomo y que "supera de largo a todos los humanos en la mayoría de trabajos económicamente valiosos".

La AGI tiene sus ventajas, pero también sus inconvenientes

Es cierto que una inteligencia artificial general podría resolver muchos problemas actuales y, como dicen en OpenAI impulsar la economía global o ayudar a conseguir nuevos descubrimientos científicos "que cambien los límites de lo posible", pero también plantea riesgos.

En OpenAI reconocen la existencia de riesgos como un mal uso o una disrupción de la sociedad, pero creen que es posible evitar esos riesgos, aunque reconocen que "lo que parece correcto en teoría a menudo acaba comportándose de forma más extraña de lo esperado en la práctica".

Para lograr que el camino hacia esa AGI sea el correcto, creen que los pasos a seguir son claros. Es importante, aseguran, desplegar esos sistemas y comprobar cómo funcionan "en el mundo real" para verlos evolucionar.

Eso, destacan, da tiempo a la gente, instituciones y reguladores a entender qué está ocurriendo para actuar en consecuencia. Una iteración cuidadosa pero continua es también importante para estos avances, pero explican que "a medida que nuestros sistemas se acercan a una AGI, nos estamos volviendo más y más cautos con la creación y despliegue de nuestros modelos".

Para evitar que esos despliegues impliquen más riesgos que beneficios, en OpenAI evalúan constantemente ese equilibrio, y es lo que ha pasado por ejemplo con ChatGPT. Los sistemas están acotados, pero el plan de OpenAI es el de facilitar a los usuarios cambiar el comportamiento de la IA que estén usando.

En esta empresa aseguran que esperan estar en constante contacto con instituciones globales a la hora de decidir cómo gobernar estos sistemas, cómo distribuir sus ventajas y cómo compartir el acceso a dichos sistemas.

Hay una clave para tratar de controlar esos avances. Una que se podría resumir en el "lento pero seguro" y que como explican en OpenAI requiere que este desarrollo vaya pasito a pasito y siempre de forma muy controlada:

"La AGI puede surgir pronto o en un futuro lejano; la velocidad de evolución de la AGI inicial a iteraciones más potentes puede ser lenta o rápida. Muchos de nosotros pensamos que el cuadrante más seguro en esta matriz de dos por dos son los plazos cortos y las velocidades de evolución lentas; los plazos más cortos parecen más susceptibles de coordinación y es más probable que conduzcan a una evolución más lenta debido a una menor sobrecarga computacional, y una evolución más lenta nos da más tiempo para averiguar empíricamente cómo resolver el problema de la seguridad y cómo adaptarnos a las nuevas tecnologías".

Ese mismo mensaje es el que desde hace tiempo también plantean otras personalidades del mundo de la ciencia o la tecnología: Stephen Hawking, Bill Gates o Elon Musk ya lo avisaron. Hace años que un grupo de expertos ya crearon la asociación Future of Life, precisamente orientada a defender un desarrollo responsable de la inteligencia artificial.

'Terminator' no está descartado

A largo plazo la cosa podría ponerse peligrosa, porque según OpenAI esa primera inteligencia artificial general será solo un punto de inflexión a partir del cual el progreso será igual de rápido.

De hecho, varios usuarios comparten en Twitter la oferta de trabajo de OpenAI en la que se buscaba un "ingeniero para un interruptor de muerte" (o de apagado) que debería estar pendiente de desconectar los servidores en caso de catástrofe.

Eso ya da buenas muestras, de hecho, explica Altman, "algunas personas en el campo de la inteligencia artificial piensan que los riesgos de la AGI (y los sistemas sucesivos) son ficticios; estaríamos encantados si resultara que tienen razón, pero vamos a funcionar como si estos riesgos fueran existenciales". Indicen en esos riesgos al decir lo siguiente:

"La transición a un mundo con superinteligencia es quizá el proyecto más importante -y esperanzador, y aterrador- de la historia de la humanidad. El éxito no está ni mucho menos garantizado, y es de esperar que lo que está en juego (ilimitadas desventajas e ilimitadas ventajas) nos una a todos".

El resumen de todo esto es claro: esperemos lo mejor y estemos preparados para lo peor. O intentemos estarlo.


https://www.xataka.com/robotica-e-ia/quiza-proyecto-importante-historia-humanidad-que-openai-piensa-riesgos-agi?utm_source=whatsapp_AMP&utm_medium=social&utm_campaign=botoneramobile_AMP

 

No hay comentarios:

Publicar un comentario