sábado, abril 15, 2023

«Apagad la IA o moriremos todos»

Avisa uno de los mayores expertos en la materia

 

Eliezer Yudkowsky explica en un artículo sus motivos para no firmar la carta que pide pausar el desarrollo de la IA porque la considera insuficiente.

www.elespanol.com                                                   Marta Sanz Romero

La explosión creativa que ha experimentado la inteligencia artificial, más en concreto los sistemas de aprendizaje profundo como ChatGPT, han creado una gran división entre sus principales expertos, también en España. Frente a las voces que ven como una revolución el momento que se está viviendo, hay otras que piden tomar con cautela estas nuevas herramientas. Incluso están surgiendo voces que adoptan una postura mucho más drástica y lanzan catastróficos presagios. "Todos moriremos, incluidos los niños que no eligieron esto y no hicieron nada malo", indica Eliezer Yudkowsky, uno de los pioneros de esta tecnología, en un reciente artículo publicado en la revista Time.

Los importantes beneficios que aporta esta tecnología y todos sus avances contrastan con los distintos peligros que se están manifestando y que han animado a académicos y personalidades como Elon Musk o Steve Wozniak a firmar un manifiesto en el que piden una moratoria, una pausa en el desarrollo de estas IAs. Lo que piden Musk y otros expertos es frenar unos meses el desarrollo de herramientas como GPT-4 para regular y analizar el posible impacto negativo que se avecina.

No todo el mundo dentro de la comunidad de expertos en tecnología está de acuerdo con esta carta publicada hace unos días. Los hay que la consideran exagerada, pero también quien considera que se han quedado muy cortos. Es el caso de Yudkowsky, que afirma que no la ha firmado porque no avisa del verdadero peligro: la creación de una IA más inteligente que los seres humanos.

Yudkowsky es responsable del Machine Intelligence Research Institute y lleva desde 2001 estudiando la Inteligencia Artificial General (AGI, por sus siglas en inglés) la que superaría a la mente humana en el futuro. Este investigador es considerado como uno de los fundadores de este campo de investigación y expresa su mayor miedo con contundencia: "Para visualizar una IA sobrehumana hostil, no te imagines a un intelectual sin vida que habita en Internet y envía correos electrónicos malintencionados. Imagina toda una civilización alienígena, que piensa a una velocidad millones de veces superior a la humana, confinada inicialmente en los ordenadores [...] en un mundo de criaturas que, desde su perspectiva, son muy estúpidas y muy lentas".

Este experto no le tiene miedo a los próximos progresos que pueda hacer OpenAI (empresa responsable de ChatGPT) o las demás compañías con sus actuales modelos de machine learning, cuyos principales riesgos son el mal uso de los usuarios creando fake news o ciberataques, por ejemplo. Yudkowsky habla de un salto mayor: "El progreso en las capacidades de la IA es enorme, muy por delante del progreso en la alineación de la IA o incluso del progreso en la comprensión de qué diablos está pasando dentro de esos sistemas".

La alineación de la IA se refiere a que el sistema persiga los objetivos marcados por sus desarrolladores y no otros. El propio Sam Altman, CEO de OpenAI, ha marcado este como uno de sus objetivos de seguridad, perseguir la capacidad técnica para "alinear una superinteligencia" y la coordinación entre la mayoría de agentes en la industria para crear medidas de protección para la humanidad.

"Si alguien construye una IA demasiado poderosa, en las condiciones actuales, es de esperar que todos los miembros de la especie humana y toda la vida biológica de la Tierra mueran poco después", asegura Yudkowsky. Y es que su principal advertencia tiene que ver con las capacidades de la inteligencia artificial para extender su poder al mundo real. "Una IA suficientemente inteligente no permanecerá confinada a los ordenadores durante mucho tiempo. En el mundo actual se pueden enviar cadenas de ADN por correo electrónico a laboratorios que producirán proteínas a la carta, lo que permitirá a una IA inicialmente confinada en Internet construir formas de vida artificial o pasar directamente a la fabricación molecular postbiológica".

Por este motivo, en lugar de pausar unos meses el trabajo en la IA, lo que pide es detener totalmente su evolución de forma inmediata, indefinida y a nivel mundial, para que no se produzca un desequilibrio entre unos países y otros. Mientras tanto, otros expertos menos catastrofistas recuerdan que esta tecnología sirve también para crear nuevos medicamentos, estudiar enfermedades y proteger a la humanidad de los efectos del cambio climático, entre otros beneficios que se perderían si se deja de trabajar en este campo.

https://www.elespanol.com/omicrono/software/20230405/apagad-ia-moriremos-avisa-mayores-expertos-materia/753924919_0.html

 

1 comentario: