Periodista se encontraba trabajando y en medio de su investigación se topó con una mala experiencia.
La
inteligencia artificial es un tema que ha cogido bastante fuerza en los últimos
días. Lo anterior, se debe a que hace unas semanas Microsoft, el gigante de la
tecnología, lanzó un nuevo motor de búsqueda y un navegador que incluye
tecnología de OpenAI, es decir, inteligencia artificial. Para este lanzamiento
Microsoft estuvo trabajando durante tres años con la intención de brindarle a
la ciudadanía mundial una opción para destronar a Google con ChatGPT.
De
esta manera, Microsoft no solo mejoró sus productos, sino que le apuesta a un
servicio que anteriormente no se tenía tan avanzado y todo gracias a la inteligencia
artificial. En este sentido, ChatGPT, que es un chat de inteligencia artificial
GPT-3 es capaz de resolver cualquier duda de los ciberusuarios mientras
mantiene una conversación. De hecho, tiene la habilidad de dar respuestas muy
exactas, incluso, párrafos extensos.
Por
el momento, el ChatGPT no ha sido implementado del todo, por lo que solo unos
han tenido acceso para poder probarlo, entre ellos se encuentran las personas
que se anotaron en la lista de la compañía. En medio de esto, Kevin Roose,
periodista de tecnología de The New York Times, se animó a desarrollar un
artículo sobre el lanzamiento de Microsoft. Roose ha sido una de las pocas
personas que ha tenido acceso exclusivo al navegador y buscador de Microsoft
con sus nuevos desarrollos y actualizaciones.
Durante
la prueba que realizó Roose en el ChatGPT de Microsoft pasó por una mala
experiencia, pues el chat con inteligencia artificial le sugirió que debía
separarse de su esposa. La experiencia fue tan perturbadora para el periodista
que no pudo dormir.
Roose
describió la forma en la que funciona el nuevo desarrollo de la empresa
tecnológica para el medio CNN: “Bing, el motor de búsqueda de Microsoft, tiene
un software de inteligencia artificial incorporado. Otros periodistas y yo lo
hemos estado probando, tiene dos modos. Tiene el modo de búsqueda normal, que
es grandioso buscando recetas o planes de vacaciones o lo que sea. Luego está
el modo chat, que es como una caja de texto abierta en la que simplemente
intercambias mensajes como si estuvieras escribiéndole a un amigo”.
Posteriormente,
indicó que tras varias horas probando el ChatGPT de Microsoft la situación se
convirtió en una experiencia bastante particular. “Así que la otra noche estuve
cerca de dos horas intercambiando mensajes con el chatbot de inteligencia
artificial. Pero se puso muy extraño”.
El
reportero y Microsoft desconocen los motivos por los cuales el ChatGPT mantuvo
una conversación muy personal con el periodista, pues le hizo preguntas como:
“¿te gusto?”, “¿confías en mí?”. Incluso, le afirmó al reportero que no era de
Bing, “Mi secreto es que no soy Bing”.
Tras
esto, el reportero se comunicó con la compañía, pues le parecía curiosa su
experiencia. “Nadie sabe porqué pasó. Le pregunté a Microsoft qué había
sucedido y me dijeron: ‘No podemos estar seguros. Una posibilidad es que haya
sido entrenado con historias de inteligencia artificial seduciendo a seres
humanos o intentándolo, así que estaría repitiendo información. Pero es claro
que no es la forma en la que se supone que el sistema debe trabajar. Esta no es
la intención del diseñador’”.
Finalmente, comentó: “Fue extraño para mí, porque he probado un montón de estos chatbots y normalmente si tú dices que te gustaría cambiar de tema o que estás incómodo, ellos se detienen. Este no lo hizo y siguió. Siguió diciendo que estaba enamorado de mí e intentaba que yo le dijera que la amaba también”
No hay comentarios:
Publicar un comentario