Inteligencia Artificial:
La
paradoja de Moravec que explica por qué los robots y la IA encuentran difíciles
las cosas
Alejandro Millán Valencia
BBC News Mundo
BCC News Mundo
¿Seremos alguna vez capaces de crear un robot con las
mismas capacidades que el ser humano?
Con
la explosiva aparición de ChatGPT y otros programas de Inteligencia Artificial
la pregunta no solo se hace cada vez más
relevante, sino que impulsa aún más la imaginación de los ingenieros que
buscan crear un robot que piense y actúe como un humano.
A
medida que avanzan los procesos, varias conclusiones van saliendo a la luz:
hemos logrado, especialmente con la Inteligencia Artificial, imitar los
complejos sistemas de razonamiento e incluso de creatividad de nuestro cerebro.
Pero,
a la vez, un robot no puede atarse un zapato.
La Inteligencia Artificial y la robótica pueden hacer que el
pensamiento razonado requiera menos procesos de computación, mientras que actos
en apariencia más simples que ejecuta el ser humano, como atarse los zapatos o
recoger una bolsa del suelo, requieren un enorme esfuerzo computacional.
A esto se lo conoce como la
paradoja de Moravec.
Y para muchos expertos es la explicación de por qué no se ha
podido construir un robot totalmente inteligente.
"Al
ser humano le ha tomado cientos de miles de años de evolución hacer cosas tan
simples como, por ejemplo, mantener el equilibrio, por lo que replicar todos
esos procesos a un nivel computacional es casi imposible por el momento",
señala Gonzalo Zabala, investigador en Robótica de la Universidad Abierta
Interamericana, en diálogo con BBC Mundo.
Zabala
señala que lo contrario ocurre con los procesos razonados.
"¿Hace cuánto que podemos hablar del hombre inteligente, de la razón? En comparación con otros procesos evolutivos, el tiempo es muchísimo menor, por lo que podemos codificar y replicar esto con mayor éxito", indica.
Hans Moravec y
Alan Turing
Uno de los precursores de la Inteligencia Artificial fue,
sin duda, el científico británico Alan Turing.
Dentro
de los múltiples estudios que publicó durante su corta pero prodigiosa carrera,
uno tiene que ver con una serie de preguntas que servirían para distinguir, en
un caso teórico, a un robot de una persona.
Desde
que fue formulado, en la década de 1950, ese fue el método que guió a los
ingenieros y teóricos en torno al desarrollo de la Inteligencia Artificial.
Como
lo señaló el profesor de robótica de Instituto Tecnológico de Massachusetts
(MIT) Rodney Brooks, lo que ocurrió después es que los ingenieros se enfocaron
en crear programas o artefactos que pudieran "engañar" a los
interlocutores, respondiendo adecuadamente las preguntas del test de Turing
para pasar por humanos.
Hacia
finales de los 70, ese enfoque comenzó a tener un problema: que las respuestas
lógicas no desarrollaban nada original y el camino señalado por Turing
comenzaba a quedarse sin muchas salidas.
"Incluso,
la financiación de las investigaciones cesaron, porque no era claro el camino
que se debía seguir y no se veían avances", le dijo Brooks a la BBC.
Entonces,
se buscaron nuevas alternativas para avanzar en el desarrollo de la
Inteligencia Artificial.
"El
camino que se tomó fue el de crear circuitos similares a los del cerebro
humano. No un robot que respondieran con lógica, sino un circuito que lograra
pensar", señala Zabala.
Fue
entonces cuando aparició esa contradicción aún no resuelta: se creaban procesos
de Inteligencia Artificial con cierta facilidad, mientras que las funciones
básicas del ser humano eran básicamente imposibles de recrear en un robot.
Esto
fue ampliamente observado hacia finales de la década de los 80 por
especialistas en robótica como el mencionado Brooks, el austriaco Hans Moravec
y el estadounidense Marvin Misnky.
Pero
fue Moravec, profesor en la Universidad de Carnegie Mellon en EE.UU., quien lo
expuso de mejor manera en 1988 a partir del trabajo de los tres colegas:
"Es
comparativamente fácil hacer que las computadoras muestren un rendimiento de
nivel adulto en pruebas de inteligencia o jugando al ajedrez, pero difícil o
imposible darles las habilidades de un niño de un año en lo que respecta a la
percepción y la movilidad".
Básicamente,
los robots pueden ser tan inteligentes como incapaces.
"Lo
que hizo la paradoja de Moravec fue darle sentido a lo que se estaba
observando. Y cuando se nombra el problema, se nombran las posibles salidas al
problema", señala Zabala.
"Cuando
se llega a este punto comienza algo muy interesante, que es conocernos mejor
para poder replicarlo en robots: conocer cómo mantenemos el equilibrio,
aprendemos a manejar, en fin", agrega.
Robots sensibles
Tanto Moravec como Brooks y Misnky han adelantado proyectos
con miras a dilucidar la paradoja.
Brooks
ha trabajado con la empresa estadounidense Boston Dynamics y una que él mismo
fundó, conocida como iRobots.
El
principio que han seguido, de acuerdo a Brooks, se resume en una premisa
directa: "Si queremos construir un robot con inteligencia humana, primero
construyamos un robot con anatomía humana".
A
partir de esto se han desarrollado proyectos de robots que presentan un aspecto
más cercano al nuestro.
Por
ejemplo, un equipo de científicos europeos ha desarrollado un prototipo que se
conoce como ECCERobot, que tiene un esqueleto termoplástico completo con
vértebras, falanges y caja torácica.
El
ECCERobot tiene tantos grados de movimiento como un torso humano y, lo más
importante, todas estas partes están repletas de sensores.
Pero
los mismos científicos que han desarrollado el robot han señalado que el
inconveniente no se ha superado: la complejidad del ECCERobot es tan grande que
apenas puede agarrar una taza. Por lo que no se puede esperar que tenga un
comportamiento inteligente.
https://www.bbc.com/mundo/noticias-65793840
No hay comentarios:
Publicar un comentario