miércoles, junio 14, 2023
sábado, junio 10, 2023
Lecturas sobre Inteligencia Artificial
Advierten riesgos de
uso irrestricto de inteligencia artificial
https://puntokritico.blogspot.com/2023/06/advierten-riesgos-de-uso-irrestricto-de.html
Ameca, el robot
humanoide más avanzado del mundo
https://puntokritico.blogspot.com/2023/05/ameca-el-robot-humanoide-mas-avanzado.html
«Apagad la IA o moriremos todos»
https://puntokritico.blogspot.com/2023/05/apagad-la-ia-o-moriremos-todos.html
Autoridades estadounidenses proponen que se prohíba
que una IA pueda lanzar armas nucleares
https://puntokritico.blogspot.com/2023/04/autoridades-estadounidenses-proponen.html
Científicos advierten: debemos prepararnos para
cuando la IA cobre conciencia
https://puntokritico.blogspot.com/2023/05/cientificos-advierten-debemos.html
¿Cómo frenar las guerras orquestadas por la IA?
https://puntokritico.blogspot.com/2023/05/como-frenar-las-guerras-orquestadas-por.html
¿Cuánto queda hasta que las computadoras se
apoderen del mundo?
https://puntokritico.blogspot.com/2023/05/cuanto-queda-hasta-que-las-computadoras.html
Chatbot atemorizó a periodista de tecnología de The New York Times
https://puntokritico.blogspot.com/2023/06/chatbot-atemorizo-periodista-de.html
CHATGPT: ¿Una “Revolución Antropológica”?
https://puntokritico.blogspot.com/2023/05/chatgpt-una-revolucion-antropologica.html
China pone en marcha una IA que identifica y mata
personas a 16 km de distancia
https://puntokritico.blogspot.com/2023/05/china-pone-en-marcha-una-inteligencia.html
China preocupa al mundo con el uso de IA para armas
de guerra
https://puntokritico.blogspot.com/2023/04/china-preocupa-al-mundo-con-el-uso-de.html
China le dio el control de un satélite a una IA y
los resultados fueron desconcertantes
https://puntokritico.blogspot.com/2023/04/china-le-dio-el-control-de-un-satelite.html
De Platón a Terminator: el futuro ya está aquí
https://puntokritico.blogspot.com/2023/05/de-platon-terminator-el-futuro-ya-esta.html
El CEO de Google afirma que no entienden por qué su
IA aprende cosas inesperadas. Esto son las “cajas negras”
https://puntokritico.blogspot.com/2023/04/el-ceo-de-google-afirma-que-no.html
¿El chat GPT le podría quitar su trabajo, o antes
ayudarle?
https://puntokritico.blogspot.com/2023/05/el-chat-gpt-le-podria-quitar-su-trabajo.html
El fin de la realidad: así serán los próximos 10
años de la IA
https://puntokritico.blogspot.com/2023/05/el-fin-de-la-realidad-asi-seran-los.html
Elon Musk advierte que la IA podría causar la
"destrucción de la civilización"
https://puntokritico.blogspot.com/2023/05/elon-musk-advierte-que-la-ia-podria.html
Elon Musk y cientos de expertos están preocupados
por la inteligencia artificial
https://puntokritico.blogspot.com/2023/06/elon-musk-y-cientos-de-expertos-estan.html
El responsable de ChatGPT pide regular la IA
https://puntokritico.blogspot.com/2023/06/el-responsable-de-chatgpt-pide-regular.html
Empresa que creó ChatGPT pide regular la
inteligencia artificial
https://puntokritico.blogspot.com/2023/06/empresa-que-creo-chatgpt-pide-regular.html
Escuelas en EE.UU. enseñan pensamiento crítico para enfrentar los chatbots
https://puntokritico.blogspot.com/2023/04/escuelas-en-ee-uu-ensenan-pensamiento.html
Experto pone fecha al fin de la humanidad a causa
de la IA
https://puntokritico.blogspot.com/2023/04/experto-pone-fecha-al-fin-de-la.html
Fecha del fin de la humanidad por cuenta de la IA
https://puntokritico.blogspot.com/2023/05/fecha-del-fin-de-la-humanidad-por.html
FreedomGPT: el chatbot con IA sin límites éticos ni
censura para responder
https://puntokritico.blogspot.com/2023/04/freedomgpt-el-chatbot-con-ia-sin.html
Google anuncia el lanzamiento de su propio ChatGPT:
Bard. Al contrario que su rival, promete ofrecer respuestas actualizadas
https://puntokritico.blogspot.com/2023/04/google-anuncia-el-lanzamiento-de-su.html
¿Hay “riesgo existencial” por la IA?
https://puntokritico.blogspot.com/2023/05/hay-riesgo-existencial-por-la.html
Inteligencia Artificial: ¿ante un nuevo paradigma
histórico?
https://puntokritico.blogspot.com/2023/04/inteligencia-artificial-ante-un-nuevo.html
IA de ChatGPT es el mayor avance tecnológico en
décadas, según Bill Gates
https://puntokritico.blogspot.com/2023/04/ia-de-chatgpt-es-el-mayor-avance.html
Inteligencia artificial podría detectar
sentimientos de las personas
https://puntokritico.blogspot.com/2023/06/inteligencia-artificial-podria-detectar.html
Inteligencia Artificial: la paradoja de Moravec
https://puntokritico.blogspot.com/2023/06/inteligencia-artificial-la-paradoja-de.html
La carta del experto en IA
https://puntokritico.blogspot.com/2023/05/la-carta-del-experto-en-inteligencia.html
La carta terroríficamente demoledora. La IA nos
matará a todos
https://puntokritico.blogspot.com/2023/04/la-carta-terrorificamente-demoledora.html
La crítica de Noam Chomsky a CHATGPT
https://puntokritico.blogspot.com/2023/05/la-critica-de-noam-chomsky-chatgpt.html
La economía del futuro y la IA
https://puntokritico.blogspot.com/2023/05/la-economia-del-futuro-y-la-ia.html
La IA encargada de destruir a la humanidad ha
encontrado nuevos métodos para hacerlo
https://puntokritico.blogspot.com/2023/05/la-ia-encargada-de-destruir-la.html
¿La IA lo va a cambiar todo?
https://puntokritico.blogspot.com/2023/05/la-ia-lo-va-cambiar-todo.html
La nueva cueva de Platón: ¿por qué tanta gente cree
que vivimos en Matrix?
https://puntokritico.blogspot.com/2023/04/la-nueva-cueva-de-platon-por-que-tanta.html
La 'caja negra' de la IA que desconcierta a los
expertos
https://puntokritico.blogspot.com/2023/04/la-caja-negra-de-la-inteligencia.html
La razón real por la que debemos temer a la IA no
es la que imaginas
https://puntokritico.blogspot.com/2023/04/la-razon-real-por-la-que-debemos-temer.html
La UE planea reglas para inteligencia artificia
https://puntokritico.blogspot.com/2023/06/la-ue-planea-reglas-para-inteligencia.html
La UNESCO "preocupada" por la IA
https://puntokritico.blogspot.com/2023/04/la-unesco-preocupada-por-la.html
Las capacidades de la IA para convertirse en un peligro para la humanidad
https://puntokritico.blogspot.com/2023/07/las-capacidades-de-la-ia-para.html
Las 3 etapas de la IA y por qué la tercera puede
ser fatal: ¿extinción o inmortalidad?
https://puntokritico.blogspot.com/2023/06/las-3-etapas-de-la-ia-y-por-que-la.html
Límites éticos para la IA
https://puntokritico.blogspot.com/2023/05/limites-eticos-para-la-ia.html
Los ingenieros de Google suplicaron a la compañía
que no lanzara su Chatbot de IA
https://puntokritico.blogspot.com/2023/05/los-ingenieros-de-google-suplicaron-la.html
Microsoft admite problemas en el lanzamiento de su
ChatGPT particular
¿Nos robarán el trabajo los robots?
https://puntokritico.blogspot.com/2023/05/nos-robaran-el-trabajo-los-robots.html
OpenAI trabaja en GTP4-32K
https://puntokritico.blogspot.com/2023/05/openai-trabaja-en-gtp4-32k.html
Profesor, programador y otras carreras en riesgo
por la IA
https://puntokritico.blogspot.com/2023/04/profesor-programador-y-otras-carreras.html
Reino Unido acogerá primera cumbre mundial sobre
seguridad de IA
https://puntokritico.blogspot.com/2023/06/reino-unido-acogera-primera-cumbre.html
¿Reemplazará la IA a los médicos?
https://puntokritico.blogspot.com/2023/07/reemplazara-la-ia-los-medicos.html
¿Supone la IA un riesgo para la humanidad?
https://puntokritico.blogspot.com/2023/06/supone-la-ia-un-riesgo-para-la-humanidad.html
Trabajos repetitivos y mal pagados, la otra cara del avance de la IA
https://puntokritico.blogspot.com/2023/06/trabajos-repetitivos-y-mal-pagados-la.html
Las 3 etapas de la IA y por qué la tercera puede ser fatal: ¿extinción o inmortalidad?
La
etapa final de la IA preocupa a muchos expertos.
Le
explicamos las distintas categorías de IA y cómo podrían impactar sobre
nuestras vidas.
En
apenas dos meses llegó a tener 100 millones de usuarios activos. A la popular
app TikTok le tardó nueve meses alcanzar ese hito. Y a Instagram dos años y
medio, según datos de la empresa de monitoreo tecnológico Sensor Town.
"En
los 20 años que llevamos siguiendo internet, no podemos recordar un incremento
más veloz de una aplicación de internet para consumidores", afirmaron
analistas de UBS, quienes reportaron el récord en febrero.
La
masiva popularidad de ChatGPT, desarrollado por la empresa OpenAI, con respaldo
financiero de Microsoft, ha despertado todo tipo de discusiones y especulaciones
sobre el impacto que ya está teniendo y que tendrá en nuestro futuro cercano la
inteligencia artificial generativa.
Se
trata de la rama de la IA que se dedica a generar contenido original a partir
de datos existentes (usualmente sacados de internet) en respuesta a
instrucciones de un usuario.
Los
textos (desde ensayos, poesías y chistes hasta códigos de computación) e imágenes
(diagramas, fotos, obras de arte de cualquier estilo y mucho más) producidos
por IA generativas como ChatGPT, DALL-E, Bard y AlphaCode -para nombrar solo
algunas de las más conocidas- son, en algunos casos, tan indistinguibles del
trabajo humano, que ya han sido usados por miles de personas para reemplazar su
labor habitual.
Desde
estudiantes que los usan para hacerle los deberes hasta políticos que les
encomiendan sus discursos -el representante demócrata Jake Auchincloss estrenó
el recurso en el Congreso de EE. UU.- o fotógrafos que inventan instantáneas de
cosas que no ocurrieron (e incluso ganan premios por ello, como el alemán Boris
Eldagsen, quien obtuvo el primer puesto en el último Sony World Photography
Award por una imagen creada por IA).
Esta
misma nota podría haber sido escrita por una máquina y probablemente no te
darías cuenta.
El
fenómeno ha llevado a una revolución de los recursos humanos, con empresas como
el gigante tecnológico IBM anunciando que dejará de contratar a personas para
cubrir cerca de 8.000 puestos de trabajo que podrán ser manejados por IA.
Un
informe del banco de inversión Goldman Sachs estimó a finales de marzo que la
IA podría reemplazar a un cuarto de todos los empleos realizados hoy por
humanos, aunque también creará más productividad y nuevos trabajos.
Si
todos estos cambios te abruman, prepárate para un dato que podría resultarte
aún más desconcertante.
Y
es que, con todos sus impactos, lo que estamos viviendo ahora es apenas la
primera etapa en el desarrollo de la IA.
Según
los expertos, lo que podría venir pronto -la segunda etapa- será muchísimo más
revolucionaria.
Y
la tercera y última, que podría ocurrir muy poco tiempo después de aquella, es
tan avanzada que alterará completamente al mundo, incluso a costa de la
existencia del ser humano.
Las
tres etapas
Las tecnologías de IA se clasifican por su capacidad para
imitar las características humanas.
1.
Inteligencia artificial estrecha (ANI)
La
categoría más básica de IA es más conocida por sus siglas en inglés: ANI, por
Artificial Narrow Intelligence.
Se
llama así porque se enfoca estrechamente en una sola tarea, realizando un
trabajo repetitivo dentro de un rango predefinido por sus creadores.
Los
sistemas de ANI generalmente se entrenan utilizando un gran conjunto de datos
(por ejemplo de internet) y pueden tomar decisiones o realizar acciones basadas
en ese entrenamiento.
Una ANI puede igualar o superar a la inteligencia y eficiencia humana, pero solo en esa área específica en la que opera.
Un
ejemplo son los programas de ajedrez que usan IA. Son capaces de vencer al
campeón mundial de esa disciplina, pero no pueden realizar otras tareas.
Es
por eso que también se la conoce como "IA débil".
Todos
los programas y herramientas que utilizan IA hoy, incluso las más avanzadas y
complejas, son formas de ANI. Y estos sistemas están en todas partes.
Los
smartphones están llenos de apps que usan esta tecnología, desde los mapas con
GPS que te permiten ubicarte en cualquier lugar del mundo o saber el clima,
hasta los programas de música y videos que conocen tus gustos y te hacen
recomendaciones.
También
los asistentes virtuales como Siri y Alexa son formas de ANI. Al igual que el
buscador de Google y el robot que limpia tu casa.
El
mundo empresarial también utiliza mucho esta tecnología. Se usa en las
computadoras internas de los autos, en la manufactura de miles de productos, en
el mundo financiero e incluso en hospitales, para realizar diagnósticos.
Incluso
sistemas más sofisticados como los autos sin conductor (o vehículos autónomos)
y el popular ChatGPT son formas de ANI, ya que no pueden operar fuera del rango
predefinido por sus programadores, por lo que no pueden tomar decisiones por su
cuenta.
Tampoco tienen autoconciencia, otro rasgo de la inteligencia humana.
Sin embargo, algunos expertos creen que los sistemas que están programados para aprender automáticamente (machine learning) como ChatGPT o AutoGPT (un "agente autónomo" o "agente inteligente" que utiliza información del ChatGPT para realizar ciertas subtareas de forma autónoma) podrían pasar a la siguiente etapa de desarrollo.
2.
Inteligencia artificial general (AGI)
Esta categoría -Artificial General Intelligence- se alcanza cuando una máquina adquiere capacidades cognitivas a nivel humano.
Es decir, cuando puede realizar cualquier tarea intelectual que realiza una persona.
También se la conoce como "IA fuerte".
Es tal la creencia de que estamos al borde de alcanzar este nivel de desarrollo, que en marzo pasado más de 1.000 expertos en tecnología pidieron a las empresas de IA que dejen de entrenar, por al menos seis meses, a aquellos programas que sean más poderosos que GPT-4, la versión más reciente de ChatGPT.
"Los sistemas de IA con inteligencia que compite con la humana pueden plantear profundos riesgos para la sociedad y la humanidad", advirtieron en una carta abierta, entre otros, el cofundador de Apple, Steve Wozniak, y el dueño de Tesla, SpaceX, Neuralink y Twitter, Elon Musk (quien fue uno de los cofundadores de Open AI antes de renunciar de la junta por desacuerdos con la conducción de la compañía).
La
carta en la que más de 1.000 expertos piden frenar la inteligencia artificial
por ser una "amenaza para la humanidad"
En la carta, publicada por la organización sin fines de lucro Future of Life Institute, los expertos dijeron que si las empresas no acceden rápidamente a frenar sus proyectos "los gobiernos deberían intervenir e instituir una moratoria" para que se puedan diseñar e implementar medidas de seguridad sólidas.
Aunque esto es algo que -por el momento- no ha ocurrido, el gobierno de Estados Unidos sí convocó a los dueños de las principales empresas de IA - Alphabet, Anthropic, Microsoft, y OpenAI- para acordar "nuevas acciones para promover la innovación responsable de IA".
"La IA es una de las tecnologías más poderosas de nuestro tiempo, pero para aprovechar las oportunidades que presenta, primero debemos mitigar sus riesgos", declaró a través de un comunicado la Casa Blanca el pasado 4 de mayo.
El Congreso de EE. UU., por su parte, convocó este martes al CEO de OpenAI, Sam Altman, a responder preguntas sobre ChatGPT.
Durante la audiencia en el Senado, Altman dijo que es "crucial" que su industria sea regulada por el gobierno a medida que la IA se vuelve "cada vez más poderosa".
Carlos Ignacio Gutiérrez, investigador de políticas públicas en el Future of Life Institute, explicó a BBC Mundo que uno de los grandes desafíos que presenta la IA es que "no existe un cuerpo colegiado de expertos que deciden cómo regularlo, como ocurre, por ejemplo, con el Panel Intergubernamental sobre Cambio Climático (IPCC)".
En la carta de los expertos, estos definieron cuáles eran sus principales preocupaciones.
"¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, hacernos obsoletos y reemplazarnos?", cuestionaron.
"¿Deberíamos arriesgarnos a perder el control de nuestra civilización?".
Lo que nos lleva al tercer y último estadio de la IA.
3.
Súper Inteligencia Artificial (ASI).
La preocupación de estos científicos informáticos tiene que ver con una teoría muy establecida que sostiene que, cuando alcancemos la AGI, poco tiempo después se arribará al último estadio en el desarollo de esta tecnología: la Artificial Superintelligence, que ocurre cuando la inteligencia sintética supera a la humana.
El filósofo de la Universidad de Oxford y experto en IA Nick Bostrom define a la súper inteligencia como "un intelecto que es mucho más inteligente que los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales".
La teoría es que cuando una máquina logre tener una inteligencia a la par con la humana, su capacidad de multiplicar esa inteligencia de forma exponencial a través de su propio aprendizaje autónomo hará que en poco tiempo nos supere ampliamente, alcanzando la ASI.
"Los humanos para ser ingenieros, enfermeros o abogados debemos estudiar por muchísimo tiempo. El tema con la AGI es que es escalable de inmediato", señala Gutiérrez.
Esto es gracias a un proceso llamado superación personal recursiva (recursive self-improvement) que permite a una aplicación de IA "continuamente mejorarse, en un tiempo que nosotros no podríamos hacerlo".
Si bien existe mucho debate sobre si una máquina realmente puede adquirir el tipo de inteligencia amplia que tiene un ser humano -en especial en lo que hace a la inteligencia emocional-, es una de las cosas que más preocupa a quienes creen que estamos cerca de lograr la AGI.
Recientemente, el llamado "padrino de la inteligencia artificial" Geoffrey Hinton, pionero en la investigación de redes neuronales y aprendizaje profundo que permiten a las máquinas aprender de la experiencia, igual que los humanos, alertó en una entrevista con la BBC que podríamos estar cerca de ese hito.
"En este momento (las máquinas) no son más inteligentes que nosotros, por lo que puedo ver. Pero creo que pronto podrían serlo", dijo el hombre de 75 años, quien acaba de retirarse de Google.
"En
este momento los sistemas de IA no son más inteligentes que nosotros, pero creo
que pronto lo serán" | Entrevista a Geoffrey Hinton, "padrino de la
inteligencia artificial"
Extinción
o inmortalidad
Existen, en reglas generales, dos campos de pensamiento con relación a la ASI: están los que creen que esta superinteligencia será beneficiosa para la humanidad y los que creen todo lo contrario.
Entre
estos últimos estaba el famoso físico británico Stephen Hawking, quien creía
que las máquinas súper inteligentes representaban una amenaza para nuestra
existencia.
"El
desarrollo de la inteligencia artificial completa podría significar el fin de
la raza humana", le dijo a la BBC en 2014, cuatro años antes de morir.
Una
máquina con este nivel de inteligencia "despegaría por sí sola y se
rediseñaría a un ritmo cada vez mayor", señaló.
"Los
humanos, que están limitados por una evolución biológica lenta, no podrían
competir y serían superados", predijo.
Sin
embargo, en el bando opuesto creen todo lo contrario.
Uno
de los mayores entusiastas de la ASI es el inventor y autor futurista
estadounidense Ray Kurzweil, investigador de IA en Google y cofundador de la
Universidad de la Singularidad en Sillicon Valley (la "singularidad"
es otra manera de llamar a la era en la que las máquinas se tornan súper
inteligentes).
Kurzweil
cree que los humanos podremos utilizar la IA súper inteligente para superar
nuestras barreras biológicas, mejorando nuestras vidas y nuestro mundo.
En
2015 incluso predijo que para el año 2030 los humanos lograremos alcanzar la
inmortalidad gracias a nanobots (robots ínfimamente pequeños) que actuarán
dentro de nuestro cuerpo, reparando y curando cualquier daño o enfermedad,
incluyendo el causado por el paso del tiempo.
En
su declaración ante el Congreso este martes, Sam Altman, de OpenAI, también se
mostró optimista sobre el potencial de la IA, señalando que podría resolver
"los mayores desafíos de la humanidad, como el cambio climático y la cura
del cáncer".
En
el medio están las personas, como Hinton, que creen que la IA tiene enorme
potencial para la humanidad, pero consideran que el ritmo de desarrollo actual,
sin regulaciones y límites claros, es "preocupante".
En
una declaración enviada a The New York Times anunciando su salida de Google,
Hinton, dijo que ahora lamentaba el trabajo que había realizado, porque temía
que "malos actores" utilizaran la IA para hacer "cosas
malas".
Consultado
por la BBC dio este ejemplo de un "escenario de pesadilla":
"Imagina,
por ejemplo, que algún mal actor como [el presidente ruso Vladimir] Putin
decidiera dar a los robots la capacidad de crear sus propios
subobjetivos".
Las
máquinas podrían eventualmente "crear subobjetivos como: 'necesito obtener
más poder'", lo que representaría un "riesgo existencial",
señaló.
Al
mismo tiempo, el experto británico-canadiense dijo que, en el corto plazo, la
IA brindará muchos más beneficios que riesgos, por lo que "no debemos
dejar de desarrollarla".
"El
tema es: ahora que hemos descubierto que funciona mejor de lo que esperábamos
hace unos años ¿qué hacemos para mitigar los riesgos a largo plazo de que cosas
más inteligentes que nosotros tomen el control?".
Guitérrez
coincide en que la clave es crear un sistema de gobernanza de la IA antes de
que se desarrolle una inteligencia que puede tomar decisiones propias.
"¿Si
se crean estos entes que tienen su propia motivación, qué significa cuando
nosotros ya no estamos en control de esas motivaciones?", plantea.
El
experto señala que el peligro no es solo que una AGI o ASI, ya sea por
motivación propia o controlada por personas con "objetivos malos",
inicie una guerra o manipule el sistema financiero, productivo, la
infraestructura energética, de transporte o cualquier otro sistema que hoy está
computarizado.
Una
superinteligencia podría dominarnos de una manera mucho más sutil, advierte.
"Imagínate
un futuro en que un ente tenga tanta información sobre cada persona en el
planeta y sus hábitos (gracias a nuestras búsquedas en internet) que nos podría
controlar de una manera que no nos daríamos cuenta", afirma.
"El peor escenario no es que haya guerras de
humanos contra robots. Lo peor es que no nos demos cuenta de que estamos siendo
manipulados porque estamos compartiendo el planeta con un ente que es mucho más
inteligente que nosotros".
BBC NEWS MUNDO 29 de mayo 2023
https://www.bbc.com/mundo/noticias-65617676
Chatbot atemorizó a periodista de tecnología de The New York Times
Periodista se encontraba trabajando y en medio de su investigación se topó con una mala experiencia.
La
inteligencia artificial es un tema que ha cogido bastante fuerza en los últimos
días. Lo anterior, se debe a que hace unas semanas Microsoft, el gigante de la
tecnología, lanzó un nuevo motor de búsqueda y un navegador que incluye
tecnología de OpenAI, es decir, inteligencia artificial. Para este lanzamiento
Microsoft estuvo trabajando durante tres años con la intención de brindarle a
la ciudadanía mundial una opción para destronar a Google con ChatGPT.
De
esta manera, Microsoft no solo mejoró sus productos, sino que le apuesta a un
servicio que anteriormente no se tenía tan avanzado y todo gracias a la inteligencia
artificial. En este sentido, ChatGPT, que es un chat de inteligencia artificial
GPT-3 es capaz de resolver cualquier duda de los ciberusuarios mientras
mantiene una conversación. De hecho, tiene la habilidad de dar respuestas muy
exactas, incluso, párrafos extensos.
Por
el momento, el ChatGPT no ha sido implementado del todo, por lo que solo unos
han tenido acceso para poder probarlo, entre ellos se encuentran las personas
que se anotaron en la lista de la compañía. En medio de esto, Kevin Roose,
periodista de tecnología de The New York Times, se animó a desarrollar un
artículo sobre el lanzamiento de Microsoft. Roose ha sido una de las pocas
personas que ha tenido acceso exclusivo al navegador y buscador de Microsoft
con sus nuevos desarrollos y actualizaciones.
Durante
la prueba que realizó Roose en el ChatGPT de Microsoft pasó por una mala
experiencia, pues el chat con inteligencia artificial le sugirió que debía
separarse de su esposa. La experiencia fue tan perturbadora para el periodista
que no pudo dormir.
Roose
describió la forma en la que funciona el nuevo desarrollo de la empresa
tecnológica para el medio CNN: “Bing, el motor de búsqueda de Microsoft, tiene
un software de inteligencia artificial incorporado. Otros periodistas y yo lo
hemos estado probando, tiene dos modos. Tiene el modo de búsqueda normal, que
es grandioso buscando recetas o planes de vacaciones o lo que sea. Luego está
el modo chat, que es como una caja de texto abierta en la que simplemente
intercambias mensajes como si estuvieras escribiéndole a un amigo”.
Posteriormente,
indicó que tras varias horas probando el ChatGPT de Microsoft la situación se
convirtió en una experiencia bastante particular. “Así que la otra noche estuve
cerca de dos horas intercambiando mensajes con el chatbot de inteligencia
artificial. Pero se puso muy extraño”.
El
reportero y Microsoft desconocen los motivos por los cuales el ChatGPT mantuvo
una conversación muy personal con el periodista, pues le hizo preguntas como:
“¿te gusto?”, “¿confías en mí?”. Incluso, le afirmó al reportero que no era de
Bing, “Mi secreto es que no soy Bing”.
Tras
esto, el reportero se comunicó con la compañía, pues le parecía curiosa su
experiencia. “Nadie sabe porqué pasó. Le pregunté a Microsoft qué había
sucedido y me dijeron: ‘No podemos estar seguros. Una posibilidad es que haya
sido entrenado con historias de inteligencia artificial seduciendo a seres
humanos o intentándolo, así que estaría repitiendo información. Pero es claro
que no es la forma en la que se supone que el sistema debe trabajar. Esta no es
la intención del diseñador’”.
Finalmente, comentó: “Fue extraño para mí, porque he probado un montón de estos chatbots y normalmente si tú dices que te gustaría cambiar de tema o que estás incómodo, ellos se detienen. Este no lo hizo y siguió. Siguió diciendo que estaba enamorado de mí e intentaba que yo le dijera que la amaba también”

