por Jesús Díaz
¿Puede la inteligencia artificial acabar con la humanidad?
Muchos
expertos opinan que es más que posible.
Eminentes
tecnólogos, economistas, generales, filósofos y autores de ciencia ficción han
imaginado múltiples cadenas de acontecimientos en los que la IA conduce a un
desastre mundial y el fin de la civilización. Pero la realidad es que no
deberíamos temer ninguno de estos posibles escenarios distópicos porque, si los
podemos imaginar, también los podemos atajar. Desgraciadamente, lo que debemos
temer es un escenario inimaginable que, al ser desconocido, no se puede
prevenir.
La
realidad es que no podemos imaginar el potencial destructor real de la IA.
Conceptos como Skynet - el cerebro cibernético de la película Terminator que
tomó el control del sistema de misiles norteamericano para lanzar un ataque
nuclear masivo a Rusia y provocar la destrucción de la humanidad - son tan
infantiles como evitables. También podemos evitar la catástrofe en la
proyección de riesgo que hace unas semanas publicamos en el episodio del
documental Control Z sobre cómo la inteligencia artificial generativa traerá la
rápida destrucción de nuestra percepción de la realidad, provocando una crisis
mundial sin precedentes. De hecho, dos de los cortafuegos propuestos por los
expertos entrevistados - la creación de nueva legislación y la autenticación
criptográfica de fotografías y vídeo reales - se han puesto en marcha en las
últimas semanas.
Poco
después de aquel episodio - y por mera coincidencia - los analistas del Bank of
America publicaron un informe que afirmaba que la inteligencia artificial es
una revolución comparable a la electricidad. Energía, armas, medicinas o naves
espaciales... todas las industrias están ya siendo transformadas por una
tecnología que en sólo siete años aportará 15,7 billones de dólares a la
economía mundial, más que el producto interior bruto anual de toda la zona euro
en 2022.
En
otro informe, Goldman Sachs afirmó que la IA eliminará dos tercios de los
empleos en Europa y Estados Unidos en sólo diez años - unos 300 millones de
personas - creando solamente unos 11 millones. A los pocos días, un grupo de
expertos y tecnólogos ilustres pedía parar el entrenamiento de grandes modelos
de inteligencia artificial como ChatGPT. Elon Musk - éste probablemente por
interés, porque Tesla se ha quedado muy atrás en la carrera de la IA - el
cofundador de Apple Steve Wozniak y más de 1.000 intelectuales e investigadores
de la industria de la IA, argumentaron que estamos jugando con una fuerza aún
más peligrosa que la energía atómica sin pensar antes en las posibles
consecuencias.
El ángel exterminador de la
inteligencia artificial.
Lo
malo es que predecir estas consecuencias es imposible. Podemos extrapolarlas de
aquí a unos años - como hacemos en los documentales de Control Z - pero éstas
proyecciones son extremadamente limitadas porque no cuentan con lo inesperado.
Cuanto más nos despeguemos del presente, menos certeras serán nuestras
predicciones y, por tanto, menor será nuestra capacidad de acción y prevención.
Esto es especialmente cierto cuando hablamos de la IA. ¿Cómo pensar en las
posibles consecuencias de una tecnología que se está moviendo a una velocidad
exponencial y que sorprende a sus mismos creadores diariamente? ¿Cómo
anticiparse a una inteligencia cuya misma esencia es la capacidad de crear
soluciones inesperadas?
El verdadero peligro de la
IA
La
realidad es que las proyecciones sobre los peligros del futuro de la humanidad
son generalmente extrapolaciones de los peligros que conocemos. En 1950, por
ejemplo, una de las predicciones de futuro peligro para la humanidad era que la
polio sería una de las grandes plagas del siglo XXI. Sólo tres años más tarde,
el médico norteamericao Jonas Salk creó una vacuna que eliminaría la enfermedad
de todo el planeta en tiempo récord. En 1950, nadie podía imaginar que en 2023
la polio no existiría y que hoy nos enfrentaríamos a amenazas existenciales
totalmente inesperadas para alguien de la época, como la desinformación
rampante en las redes sociales o, sí, la inteligencia artificial.
Skynet, el fin de la realidad, el despido de 300 millones de personas… todo eso son derivaciones de lo que conocemos hoy. Lo que realmente es una amenaza existencial es lo no sabemos que la IA puede inventar. Ahora mismo existe una inteligencia artificial llamada ChaosGPT que está intentando eliminar a la humanidad del planeta activamente, accediendo a internet y probando varias estrategias. Su última táctica - que acaba de poner en marcha hace un par de días - es acumular seguidores humanos que actúen como su brazo físico en el mundo real.
Es un experimento limitado pero interesante porque muestra cómo una IA puede intentar hacer el mal de forma autónoma.
¿Conseguirá ChaosGPT cumplir la misión de destruir a la humanidad?
Sin duda, no tiene esa capacidad. Pero, ¿qué pasará en un futuro cercano, cuando alguien use una nueva versión con trillones de parámetros?
¿Podrá esa futura IA infiltrarse en los sistemas de radar de Rusia para mostrar un falso positivo de varios misiles ucranianos en ruta a Moscú que provoquen un ataque nuclear estratégico sobre Kiev, iniciando una reacción en cadena internacional?
¿Podrá desarrollar un virus mortal imparable para esparcirlo por el mundo?
De
nuevo, esos escenarios son predecibles y evitables. Esos planes son humanos,
pero que la inteligencia artificial puede llegar a millones de soluciones que
ningún humano puede concebir ni en sus peores pesadillas. Éste es el gran
peligro para nuestra existencia.
La siguiente especie
dominante
También
es probable que la IA no nos elimine de forma premeditada ni apocalíptica. De
hecho, éste puede ser el escenario más plausible: morir como la rana que se
cuece lentamente en el cazo puede ser nuestro destino inevitable. Igual que el
hombre moderno sobrevivió al resto de las especies en la carrera darwiniana,
eliminando al neandertal en ese proceso, es posible que la IA nos sobreviva
porque, sencillamente, termine siendo un ente superior a nosotros en todos los
aspectos. La IA será quizás el ápex evolutivo de la vida en la Tierra.
Decía
el ingeniero Ryan McClelland que, cuando la gente ve que alguien de la NASA
menciona la palabra “alien”, lo que dice se hace viral instantáneamente.
McClelland se refería a artículos como el que publicamos hace unos meses, en el
que hablamos sobre cómo él usa la inteligencia artificial para diseñar y
construir componentes de naves espaciales con apariencia alienígena en el
Centro Goddard de Vuelos Espaciales de la NASA en Greenbelt, Maryland. Es
cierto y tiene todo el sentido. Para la mayoría de los humanos, la IA parece
ahora como una nueva protovida de naturaleza desconocida en constante
evolución, por lo que el término alienígena parece conectar con esa intuición
humana. La IA es muy marciana.
Pero, si realmente reflexionas sobre ello, la IA no es más que un descendiente de nosotros mismos. La IA no es alien. La IA es humana en su origen. Y en muchos aspectos, como la capacidad computacional, es superhumana. Y pronto, cuando se consiga la inteligencia artificial general, será totalmente sobrehumana. En la escala evolutiva, la IA actual se parece a las primeras etapas en el camino hacia la siguiente especie del genus homo, una especie que, esta vez, no estará atada a los límites de la biología.
Tal vez llegue a llamarse Homo artificialis intelligentia (en latín de garrafón). En ese marco, la IA de McClelland está creando los primeros "huesos" de una nueva especie que vagará por las estrellas en unos pocos miles de años, como imaginó von Neumann con las sondas autorreplicantes que busca con ahínco nuestro buen amigo Avi Loeb.
Y en ese
futuro, efectivamente, los descendientes de estas IA sí serán alienígenas en
mundos lejanos, quizás mucho después de que la Tierra y los humanos biológicos
hayan desaparecido del cosmos para siempre. Éste el único escenario que parece
cierto a largo plazo. En realidad, la IA no matará a la humanidad. La humanidad
perecerá por sí misma, por nuestras propias limitaciones biológicas, y la IA
nos sobrevivirá para mantener viva la llama de nuestra especie.
No hay comentarios:
Publicar un comentario