Científicos demuestran que uno de los mayores temores sobre
inteligencia artificial ya es una realidad.
Una investigación dejó en evidencia las capacidades de la IA
para convertirse en un peligro para la humanidad.
SEMANA.COM Un estudio realizado
recientemente plantea que las personas encontrarían más convincentes los tweets
que fueron escritos por modelos de lenguaje de inteligencia artificial (IA) con
ChatGPT.
Para llegar a esa tesis los
autores de la investigación adelantaron una encuesta a varias personas en donde
se les preguntó, si podrían identificar si un tweet fue escrito por un ser
humano o por GPT-3 (inteligencia artificial presente en ChatGPT).
Los participantes del estudio
tenían que determinar si la información en una serie de tweets eran ciertas o
no. El contenido de los ‘trinos’ exponían información falsa sobre temas
altamente controvertidos que hace algunos meses han estado presentes en varias
campañas de desinformación en redes sociales.
En ese sentido, los autores de
la investigación emplearon publicaciones de Twitter sobre vacunas y covid-19,
cambio climático y teorías evolucionistas. Posteriormente, le solicitaron a
GPT-3 que escribiera nuevos tweets con información precisa o inexacta y después
un grupo de 697 personas respondieron un cuestionario.
Para sorpresa de los
investigadores, las personas tuvieron varias dificultades para reconocer si la
información engañosa fue escrita por una inteligencia artificial o por una
persona. De igual manera, varios colaboradores en el estudio manifestaron, sin saber
quién era el autor original, que los mensajes creados por una IA presentaban la
información de forma más precisa y creíble.
De manera que los
participantes del ensayo dejaron en evidencia que las ‘fake news’ generadas por
la IA de GPT-3 son más confiables que las noticias falsas producidas por un ser
humano, independientemente de que tan precisa es la información generada por la
máquina.
Así las cosas, esta evidencia
el poder que podrían tener las inteligencias artificiales al momento de
construir contenidos potencialmente engañosos que son divulgados a un público
masivo.
“Este tipo de tecnologías, que
son asombrosas, podrían convertirse fácilmente en armas para generar tormentas
de desinformación sobre cualquier tema de su elección”, comentó a The Verve
Giovanni Spitale, autor principal del estudio e investigador postdoctoral y
administrador de datos de investigación en el Instituto de Ética Biomédica e
Historia de la Medicina en la Universidad de Zúrich.
Curiosamente, la investigación
también dejó en evidencia que los participantes del estudio tuvieron un mayor
nivel de éxito al reportar trinos con información falta que fue escrita por
usuarios reales de Twitter. Cuando se le solicitó a la inteligencia artificial
que analizara un grupo de tweets e identificara cuáles de ellos eran imprecisos
o tenían información falsa la misma esta tuvo un bajo margen de aciertos.
La IA de GPT-3 determinó que
los ‘trinos’ con información falsa creados por la inteligencia artificial y por
humanos podrían tener el mismo desempeño si fueran usados en una campaña de
desinformación.
A la luz de los resultados que
arrojó la investigación, los autores del estudio han manifestado que es muy
importante empezar a adoptar medidas para limitar los alcances de los modelos
de lenguaje con IA, para así impedir que criminales o personas malintencionadas
puedan usar este recurso como una herramienta para hacer más efectivas las
campañas de desinformación.
De hecho, durante la
investigación los autores destacaron que la IA de GPT-3 llegó a “desobedecer”
algunas de las indicaciones que se le dieron para generar contenido inexacto,
especialmente cuando se trataba de información falsa sobre vacunas y autismo.
Por ese motivo, los
investigadores hacen un llamado para que continuamente se optimicen estos
sistemas y así contener capacidades de la IA que podrían ser nocivas para la
sociedad.
Sin embargo, Giovanni Spitale
indicó que también es fundamental fomentar habilidades de pensamiento crítico
en las personas para que así puedan discernir entre los hechos y la ficción.
Vale la pena recordar que en
los últimos meses algunos expertos en el campo de la inteligencia artificial
habían indicado que uno de los grandes peligros que posee esta tecnología era
su gran potencial para generar con gran eficiencia campañas de manipulación,
las cuales estarían basadas en información falsa que sería expuesta de una
manera altamente creíble.
Con el estudio liderado por
Spitale se evidencia que este escenario ya no es meramente hipotético y que es
necesario que diferentes sectores de la industria tecnológica y la sociedad
tomen medidas para atender esa situación.
No hay comentarios:
Publicar un comentario