Advierte experto que pide que detengan la IA
Por Naveen Athrappully
The Epoch Times
Los seres humanos no están
preparados para una IA potente en las condiciones actuales ni tampoco en el
“futuro previsible”, afirmó un destacado experto en la materia, añadiendo que
la reciente carta abierta que pide una moratoria de seis meses en el desarrollo
de inteligencia artificial avanzada está “subestimando la gravedad de la
situación”.
“La cuestión clave no es la
inteligencia ‘humana-competitiva’ (como dice la carta abierta); es qué ocurre
después de que la IA llegue a ser más inteligente que la inteligencia humana”,
afirmó Eliezer Yudkowsky, teórico de la decisión y destacado investigador de la
IA, en un artículo de opinión publicado el 29 de marzo en la revista Time.
“Muchos investigadores, entre los que me incluyo, creen que el resultado más
probable de construir una inteligencia artificial sobrehumana, en
circunstancias remotamente parecidas a las actuales, es que muera literalmente
todo el mundo en la Tierra”.
“No en el sentido de ‘tal vez
alguna remota posibilidad’, sino en el sentido de ‘eso es lo obvio que
sucedería’. No es que no puedas, en principio, sobrevivir creando algo mucho
más inteligente que tú; es que requeriría precisión y preparación y nuevos
conocimientos científicos, y probablemente no tener sistemas de IA compuestos
por gigantescas matrices inescrutables de números fraccionarios”.
Tras la reciente popularidad y
crecimiento explosivo de ChatGPT, varios líderes empresariales e
investigadores, que suman ya 1.843, entre ellos Elon Musk y Steve Wozniak,
firmaron una carta en la que pedían “a todos los laboratorios de IA que
suspendan inmediatamente durante al menos 6 meses el entrenamiento de sistemas
de IA más potentes que GPT-4”. GPT-4, lanzado en marzo, es la última versión
del chatbot de OpenAI, ChatGPT.
A la
IA “no le importa” y exigirá derechos.
Yudkowsky predice que, en
ausencia de una preparación meticulosa, la IA tendrá demandas muy diferentes a
las de los humanos y, una vez que sea consciente de sí misma, “no se preocupará
por nosotros” ni por ninguna otra vida sensible. “Ese tipo de cuidado es algo
que, en principio, podría imbuirse en una IA, pero no estamos preparados y
actualmente no sabemos cómo”. Esta es la razón por la que pide el cese
absoluto.
Sin un enfoque humano de la
vida, la IA simplemente considerará que todos los seres sensibles están “hechos
de átomos que puede utilizar para otra cosa”. Y poco podrá hacer la humanidad
para impedirlo. Yudkowsky comparó el escenario con “un niño de 10 años
intentando jugar al ajedrez contra Stockfish 15”. Ningún ajedrecista humano ha
sido capaz aún de vencer a Stockfish, lo que se considera una hazaña imposible.
El veterano del sector pidió a
los lectores que imaginaran la tecnología de la IA como algo que no está
contenido dentro de los confines de Internet.
“Visualicen toda una
civilización alienígena, pensando a velocidades millones de veces superiores a
las humanas, confinada inicialmente a las computadoras, en un mundo de
criaturas que son, desde su perspectiva, muy estúpidas y muy lentas”.
La IA expandirá su influencia
fuera de la periferia de las redes físicas y podría “construir formas de vida
artificial” utilizando laboratorios donde se produzcan proteínas a partir de
cadenas de ADN.
El resultado final de
construir una IA todopoderosa, en las condiciones actuales, sería la muerte de
“todos y cada uno de los miembros de la especie humana y de toda la vida
biológica de la Tierra”, advirtió.
Yudkowsky culpó a OpenAI y
DeepMind —dos de los laboratorios de investigación de IA más importantes del
mundo— por no contar con los preparativos ni los protocolos necesarios al
respecto. OpenAI planea incluso que la propia IA se encargue de alinear los
valores humanos. “Trabajarán junto con los humanos para garantizar que sus
propios sucesores estén más alineados con los humanos”, según OpenAI.
Este modo de actuar es
“suficiente para que cualquier persona sensata entre en pánico”, dijo
Yudkowsky.
Añadió que los humanos no
pueden controlar ni detectar por completo los sistemas de IA autoconscientes.
Las mentes digitales conscientes que exigen “derechos humanos” podrían
progresar hasta un punto en el que los humanos ya no puedan poseer o ser dueños
del sistema.
“Si no puedes estar seguro de
si estás creando una IA autoconsciente, esto es alarmante no sólo por las
implicaciones morales de la parte ‘autoconsciente’, sino porque no estar seguro
significa que no tienes ni idea de lo que estás haciendo y eso es peligroso y
deberías parar”.
A diferencia de otros
experimentos científicos y de la progresión gradual del conocimiento y la
capacidad, la gente no puede permitirse esto con la inteligencia sobrehumana
porque si se equivoca en el primer intento, no hay segundas oportunidades
“porque estás muerto”.
“Deténganlo”
Yudkowsky afirmó que muchos
investigadores son conscientes de que “nos estamos precipitando hacia una
catástrofe”, pero no lo dicen en voz alta.
Esta postura no coincide con
la de defensores como Bill Gates, que recientemente alabó la evolución de la
inteligencia artificial. Gates afirmó que el desarrollo de la IA es “tan
fundamental como la creación del microprocesador, el ordenador personal,
Internet y el teléfono móvil. Cambiará la forma en que la gente trabaja,
aprende, viaja, recibe atención sanitaria y se comunica entre sí. Industrias
enteras se reorientarán a su alrededor. Las empresas se distinguirán por lo
bien que la utilicen”.
Gates afirmó que la IA puede
ayudar en varias agendas progresistas, como el cambio climático y las
desigualdades económicas.
Mientras tanto, Yudkowsky da
instrucciones a todos los sectores, incluidos gobiernos y ejércitos
internacionales, para que pongan fin indefinidamente a los grandes
entrenamientos de IA y detengan todas las grandes granjas informáticas donde se
perfeccionan las IA. Añade que la IA sólo debería limitarse a resolver
problemas de biología y biotecnología, y no entrenarse para leer “textos de
Internet” o hasta “el nivel en el que empiezan a hablar o a planificar”.
En cuanto a la IA, no hay
carrera armamentística. “Que todos vivamos o muramos como uno, en esto, no es
una política sino un hecho de la naturaleza”.
Yudkowsky concluye diciendo:
“No estamos preparados. No estamos en vías de estarlo en un futuro previsible.
Si seguimos adelante con esto todo el mundo morirá, incluidos niños que no
eligieron esto y no hicieron nada malo”.
“Deténgalo”.
Fuente: The Epoch Times
en español
No hay comentarios:
Publicar un comentario