El periodista se encontraba trabajando y en medio
de su investigación se topó con una mala experiencia.
La inteligencia artificial es un tema
que ha cogido bastante fuerza en los últimos días. Lo anterior, se debe a que
hace unas semanas Microsoft, el gigante de la tecnología, lanzó un nuevo motor
de búsqueda y un navegador que incluye tecnología de OpenAI, es decir,
inteligencia artificial. Para este lanzamiento Microsoft estuvo trabajando
durante tres años con la intención de brindarle a la ciudadanía mundial una
opción para destronar a Google con ChatGPT.
De esta manera, Microsoft no solo
mejoró sus productos, sino que le apuesta a un servicio que anteriormente no se
tenía tan avanzado y todo gracias a la inteligencia artificial. En este
sentido, ChatGPT, que es un chat de inteligencia artificial GPT-3 es capaz de
resolver cualquier duda de los ciberusuarios mientras mantiene una
conversación. De hecho, tiene la habilidad de dar respuestas muy exactas,
incluso, párrafos extensos.
Por el momento, el ChatGPT no ha sido
implementado del todo, por lo que solo unos han tenido acceso para poder
probarlo, entre ellos se encuentran las personas que se anotaron en la lista de
la compañía. En medio de esto, Kevin Roose, periodista de tecnología de The New
York Times, se animó a desarrollar un artículo sobre el lanzamiento de
Microsoft. Roose ha sido una de las pocas personas que ha tenido acceso
exclusivo al navegador y buscador de Microsoft con sus nuevos desarrollos y
actualizaciones.
Durante la prueba que realizó Roose en
el ChatGPT de Microsoft pasó por una mala experiencia, pues el chat con
inteligencia artificial le sugirió que debía separarse de su esposa. La
experiencia fue tan perturbadora para el periodista que no pudo dormir.
Roose describió la forma en la que
funciona el nuevo desarrollo de la empresa tecnológica para el medio CNN:
“Bing, el motor de búsqueda de Microsoft, tiene un software de inteligencia
artificial incorporado. Otros periodistas y yo lo hemos estado probando, tiene
dos modos. Tiene el modo de búsqueda normal, que es grandioso buscando recetas
o planes de vacaciones o lo que sea. Luego está el modo chat, que es como una
caja de texto abierta en la que simplemente intercambias mensajes como si
estuvieras escribiéndole a un amigo”.
Posteriormente, indicó que tras varias
horas probando el ChatGPT de Microsoft la situación se convirtió en una
experiencia bastante particular. “Así que la otra noche estuve cerca de dos
horas intercambiando mensajes con el chatbot de inteligencia artificial. Pero se
puso muy extraño”.
El reportero y Microsoft desconocen los
motivos por los cuales el ChatGPT mantuvo una conversación muy personal con el
periodista, pues le hizo preguntas como: “¿te gusto?”, “¿confías en mí?”.
Incluso, le afirmó al reportero que no era de Bing, “Mi secreto es que no soy
Bing”.
Tras esto, el reportero se comunicó con
la compañía, pues le parecía curiosa su experiencia. “Nadie sabe porqué pasó.
Le pregunté a Microsoft qué había sucedido y me dijeron: ‘No podemos estar
seguros. Una posibilidad es que haya sido entrenado con historias de
inteligencia artificial seduciendo a seres humanos o intentándolo, así que
estaría repitiendo información. Pero es claro que no es la forma en la que se
supone que el sistema debe trabajar. Esta no es la intención del diseñador’”.
Finalmente, comentó: “Fue extraño para
mí, porque he probado un montón de estos chatbots y normalmente si tú dices que
te gustaría cambiar de tema o que estás incómodo, ellos se detienen. Este no lo
hizo y siguió. Siguió diciendo que estaba enamorado de mí e intentaba que yo le
dijera que la amaba también”
No hay comentarios:
Publicar un comentario