martes, mayo 02, 2023

La carta del experto en Inteligencia Artificial



Eliezer Yudkowsky es demoledora y dice que la superinteligencia nos matará a todos.

Yudkowsky ve necesario detener de manera indefinida el entrenamiento de las IA hasta que sean seguras y capaces de valorar la vida de las personas y de los seres vivos.




Por Mar Aguilar

Después de publicarse la carta abierta a la inteligencia artificial en la que miles de expertos en la materia, entre ellos Elon Musk y Steve Wozniak, cofundador de Apple, pedían pausar el desarrollo de los sistemas de inteligencia artificial más potentes durante seis meses para garantizar la seguridad, llega otro nuevo escrito generando polémica.

En esta ocasión, se trata de un artículo de la revista Time en el que el experto en inteligencia artificial, Eliezer Yudkowsky, que no firmó la carta del Future of Life Institute, explica que los seis meses de parón son insuficientes y que el entrenamiento de estas tecnologías deberían paralizarse de manera indefinida y en todo el mundo hasta que se encuentre la manera de desarrollarlas con seguridad. En sus propias palabras, la carta abierta “pide demasiado poco” pero aun y todo es mejor que nada.



Yudkowsky es cofundador del Instituto de Investigación de la Inteligencia de las Máquinas y uno de los pioneros en el campo de la inteligencia artificial amigable, esa que es compatible con los valores humanos. Lleva más de 20 años investigando el desarrollo de una inteligencia artificial general, así como los peligros que pueden entrañar esta.



Quizá la parte del artículo de Yudkowsky que más ha llamado la atención por demoledora es aquella en la que advierte que, de crearse una inteligencia artificial en las circunstancias actuales, todos en la Tierra moriremos al poco tiempo.

«Muchos investigadores inmersos en estos temas, incluyéndome a mí, esperan que el resultado más probable de construir una IA sobrehumanamente inteligente, bajo cualquier circunstancia remotamente parecida a las actuales, es que, literalmente, todos en la Tierra morirán.

[...] No es que no puedas, en principio, sobrevivir creando algo mucho más inteligente que tú; es que requeriría precisión y preparación y nuevos conocimientos científicos", dice el experto en el artículo que lleva por título "Pausar los desarrollos de IA no es suficiente. Necesitamos cerrarlo todo».

Para Yudkowsky la manera de evitar esto es contar con “precisión, preparación y nuevos conocimientos científicos”. De lo contrario, afirma que la IA probablemente “no haga lo que queremos y no le importemos nosotros ni la vida sintiente en general”. Su idea es introducir en los sistemas de inteligencia artificial el valor que tiene la propia vida, algo que aún nadie sabe cómo hacer. Si no se cuenta con esto, el experto defiende que la IA nos vería como simples recursos para llegar a sus fines.

En opinión de Yudkowsky, un hipotético enfrentamiento entre humanos y una inteligencia superior tendría efectos desastrosos para nosotros. El experto visualiza una “IA sobrehumana hostil”, y no como un ente sin vida que estuviera dentro de Internet enviando correos maliciosos, sino como “toda una civilización alienígena pensando a millones de veces la velocidad humana, inicialmente confinada en los ordenadores”. Y dice inicialmente porque, según él, no permanecería mucho tiempo en ese lugar. Por el contrario, afirma que esta IA podría construir formas de vida artificiales o incluso dedicarse a “la fabricación molecular posbiológica".

En el artículo de Time, el experto ha criticado a la compañía OpenAI, responsable de ChatGPT y que ahora mismo se encuentra entrenando a GPT-5 por planear "que alguna futura inteligencia artificial haga la tarea de alineación de IA". La alineación consiste en que las acciones y los objetivos de una IA sean los mismos que los que tienen sus desarrolladores o usuarios. Vamos, que la inteligencia artificial haga lo que se le mande no lo que ella quiera.

“No estamos listos. No estamos en camino de estar significativamente más preparados en el futuro previsible. Si seguimos adelante con esto, todos morirán, incluidos los niños que no eligieron esto y no hicieron nada malo. Apagadlo todo”, afirma de manera contundente Yudkowsky.




No hay comentarios:

Publicar un comentario