Avisa uno de los mayores expertos en la materia
Eliezer Yudkowsky explica en
un artículo sus motivos para no firmar la carta que pide pausar el desarrollo
de la IA porque la considera insuficiente.
www.elespanol.com
Marta Sanz Romero
La explosión creativa que ha
experimentado la inteligencia artificial, más en concreto los sistemas de
aprendizaje profundo como ChatGPT, han creado una gran división entre sus
principales expertos, también en España. Frente a las voces que ven como una
revolución el momento que se está viviendo, hay otras que piden tomar con
cautela estas nuevas herramientas. Incluso están surgiendo voces que adoptan
una postura mucho más drástica y lanzan catastróficos presagios. "Todos
moriremos, incluidos los niños que no eligieron esto y no hicieron nada
malo", indica Eliezer Yudkowsky, uno de los pioneros de esta tecnología,
en un reciente artículo publicado en la revista Time.
Los importantes beneficios que
aporta esta tecnología y todos sus avances contrastan con los distintos
peligros que se están manifestando y que han animado a académicos y
personalidades como Elon Musk o Steve Wozniak a firmar un manifiesto en el que
piden una moratoria, una pausa en el desarrollo de estas IAs. Lo que piden Musk
y otros expertos es frenar unos meses el desarrollo de herramientas como GPT-4
para regular y analizar el posible impacto negativo que se avecina.
No todo el mundo dentro de la
comunidad de expertos en tecnología está de acuerdo con esta carta publicada
hace unos días. Los hay que la consideran exagerada, pero también quien
considera que se han quedado muy cortos. Es el caso de Yudkowsky, que afirma
que no la ha firmado porque no avisa del verdadero peligro: la creación de una
IA más inteligente que los seres humanos.
Yudkowsky es responsable del
Machine Intelligence Research Institute y lleva desde 2001 estudiando la Inteligencia
Artificial General (AGI, por sus siglas en inglés) la que superaría a la mente
humana en el futuro. Este investigador es considerado como uno de los
fundadores de este campo de investigación y expresa su mayor miedo con
contundencia: "Para visualizar una IA sobrehumana hostil, no te imagines a
un intelectual sin vida que habita en Internet y envía correos electrónicos
malintencionados. Imagina toda una civilización alienígena, que piensa a una
velocidad millones de veces superior a la humana, confinada inicialmente en los
ordenadores [...] en un mundo de criaturas que, desde su perspectiva, son muy
estúpidas y muy lentas".
Este experto no le tiene miedo
a los próximos progresos que pueda hacer OpenAI (empresa responsable de
ChatGPT) o las demás compañías con sus actuales modelos de machine learning,
cuyos principales riesgos son el mal uso de los usuarios creando fake news o
ciberataques, por ejemplo. Yudkowsky habla de un salto mayor: "El progreso
en las capacidades de la IA es enorme, muy por delante del progreso en la
alineación de la IA o incluso del progreso en la comprensión de qué diablos
está pasando dentro de esos sistemas".
La alineación de la IA se
refiere a que el sistema persiga los objetivos marcados por sus desarrolladores
y no otros. El propio Sam Altman, CEO de OpenAI, ha marcado este como uno de
sus objetivos de seguridad, perseguir la capacidad técnica para "alinear
una superinteligencia" y la coordinación entre la mayoría de agentes en la
industria para crear medidas de protección para la humanidad.
"Si alguien construye una
IA demasiado poderosa, en las condiciones actuales, es de esperar que todos los
miembros de la especie humana y toda la vida biológica de la Tierra mueran poco
después", asegura Yudkowsky. Y es que su principal advertencia tiene que
ver con las capacidades de la inteligencia artificial para extender su poder al
mundo real. "Una IA suficientemente inteligente no permanecerá confinada a
los ordenadores durante mucho tiempo. En el mundo actual se pueden enviar cadenas
de ADN por correo electrónico a laboratorios que producirán proteínas a la
carta, lo que permitirá a una IA inicialmente confinada en Internet construir
formas de vida artificial o pasar directamente a la fabricación molecular
postbiológica".
Por este motivo, en lugar de
pausar unos meses el trabajo en la IA, lo que pide es detener totalmente su
evolución de forma inmediata, indefinida y a nivel mundial, para que no se
produzca un desequilibrio entre unos países y otros. Mientras tanto, otros
expertos menos catastrofistas recuerdan que esta tecnología sirve también para
crear nuevos medicamentos, estudiar enfermedades y proteger a la humanidad de
los efectos del cambio climático, entre otros beneficios que se perderían si se
deja de trabajar en este campo.
https://www.elespanol.com/omicrono/software/20230405/apagad-ia-moriremos-avisa-mayores-expertos-materia/753924919_0.html
me parece q esta muy clara la informacion
ResponderEliminar