Dos
informes publicados este mes advierten sobre los riesgos que conlleva para la
privacidad y los derechos de las personas la aplicación irrestricta de la
inteligencia artificial (IA), una tecnología en rápida evolución en el mundo.
Por: Lorena Guzmán Hormazábal
El
informe titulado “El derecho a la privacidad en la Era Digital”, de la Oficina
de Derechos Humanos de Naciones Unidas (ACNUDH) señala que si bien la IA puede
generar grandes beneficios a la sociedad, de no utilizarse con las debidas
protecciones puede poner en peligro los derechos humanos, por lo que recomienda
imponer moratorias a la venta y uso de tales sistemas hasta que se establezcan
las salvaguardas adecuadas para proteger esos derechos.
Por
su parte, el Informe del panel 2021 del “Estudio de cien años de inteligencia
artificial” (AI100), reconoce que el avance de esta tecnología llegó a un punto
de inflexión. Y advierte sobre la urgencia de “pensar seriamente en las
desventajas y los riesgos “de la amplia aplicación de la IA”.
“Mientras
mayor sea el riesgo para los derechos humanos, más estrictos deben ser los
requisitos legales para el uso de la tecnología de IA”, dijo Michelle Bachelet,
alta comisionada de la ACNUDH, durante la presentación del informe (20 de
setiembre).
“Pero
dado que la evaluación de los peligros y cómo superarlos puede llevar todavía
algún tiempo, los Estados deberían implementar desde ahora moratorias sobre el
uso de las tecnologías que presentan un alto potencial de riesgo”, añadió.
El
informe de la ACNUDH analiza cómo la IA -a través de la elaboración automática
de perfiles, la toma de decisiones y el aprendizaje de máquinas- puede afectar
al derecho a la intimidad, pero también los relativos a salud, educación,
libertad de movimiento, libertad de reunión y asociación pacífica, y libertad
de expresión.
Los
algoritmos de deep learning (aprendizaje profundo) son tan grandes y complejos
que es difícil explicar cómo toman las decisiones, y si ellas son
discriminatorias o no”.
Denis
Parra, docente de la Facultad de Ingeniería de la Pontificia Universidad
Católica de Chile
Para
evitar esos riesgos es imprescindible que el desarrollo de la IA no sólo
considere la tecnología y su correcta aplicación para resolver brechas
productivas, dijo a SciDev.Net Fernando Hentzschel, gerente de Capacidades
Tecnológicas de Corfo (Corporación de Fomento de la Producción, Chile).
“Siempre debe ir acompañada de las reflexiones sobre los potenciales problemas éticos que pueda generar. Pero también de las acciones o mitigaciones, en los casos que sea necesario, para que se implemente de manera responsable”, agregó.
El
problema es que la IA es una tecnología tan nueva y que evoluciona tan rápido
que es difícil anticiparse a sus resultados. Por ello, tanto su desarrollo como
la generación de una política que la regule deben ir a la par, comentó a
SciDev.Net Denis Parra, docente de la Facultad de Ingeniería de la Pontificia
Universidad Católica de Chile.
Si
bien cree que el desarrollo y utilización de la IA no deberían detenerse, sí
concuerda con la propuesta de moratoria de la ACNUDH respecto de aplicaciones
militares. “Utilizarla para fines bélicos puede tener complicaciones serias
(por la falta de precisión)”, opina.
Asimismo,
señala que uno de los principales escollos a salvar es determinar qué tan
peligrosos son los algoritmos que se utilizan y también poder entender cómo
funcionan.
“Los
algoritmos de deep learning (aprendizaje profundo) son tan grandes y complejos
que es difícil explicar cómo toman las decisiones, y si ellas son
discriminatorias o no”, dijo.
Los
algoritmos tienen el potencial de ser tan beneficiosos que pueden ayudar a la
reactivación económica pos pandemia, como un programa que está impulsando Corfo
en Chile, pero también pueden dejar a alguien sin ayudas sociales, o incluso
ampliar la brecha de género en temas tan variados como el acceso a la educación
o al financiamiento bancario.
IA: arma de doble filo
En ese contexto, el informe (AI100) asegura que la creciente
capacidad para automatizar decisiones a escala es un arma de doble filo, porque
puede ser manipulada o utilizada de forma irresponsable, lo que no solo puede
terminar en el engaño o discriminación de las personas, sino también en daño
físico.
Ese
es el caso de los algoritmos entrenados en base a datos históricos, ya que
ellos pueden reforzar y exacerbar los prejuicios y desigualdades existentes.
Justamente
uno de los parámetros que debieran considerarse en la calificación de riesgo de
los algoritmos es la calidad de los datos en los que se basan, aseguró Denis
Parra. “Por eso es importante que se definan las métricas que permitan testear
la seguridad de los algoritmos”, explicó.
Así,
por ejemplo, si por falta de estudios médicos no se tienen datos equivalentes
para hombres y mujeres sobre una determinada enfermedad o condición médica,
podría generarse una diferencia en la precisión del diagnóstico.
Recién
se están comenzando a legislar al respecto en todo el mundo, dice Parra.
Mientras que en abril pasado la Unión Europea comenzó a discutir una propuesta,
en Estados Unidos el proceso está estancado, entre otras cosas, por sus
implicancias económicas.
En
tanto, en Latinoamérica la mayoría de los esfuerzos se guían más hacia
desarrollar e implementar la IA, antes que regularla, informó. Aun así, Chile
presentará durante este semestre su Política Nacional de Inteligencia
Artificial, mientras Colombia tiene una Política Nacional de Transformación
Digital e Inteligencia Artificial, Perú acaba de aprobar (25 de set.) su
Sistema Nacional de Transformación Digital, que considera a la IA como una de
las “tecnologías emergentes”, y en Brasil la ley que regula el tema está siendo
discutida en el congreso.
Este
tipo de dilemas no es nuevo, aseguró Fernando Hentzschel. “Al igual que en
oleadas tecnológicas anteriores, hemos tenido que avanzar cuidadosamente como
sociedad en acelerar los desarrollos tecnológicos que conlleven beneficios y,
al mismo tiempo, resguardar la creación de los marcos regulatorios adecuados
que salvaguarden los derechos fundamentales y la seguridad”, dijo.
https://www.scidev.net/america-latina/news/advierten-riesgos-de-uso-irrestricto-de-inteligencia-artificial/?https://www.scidev.net/america-latina
No hay comentarios:
Publicar un comentario