sábado, junio 10, 2023

Qué es ChatGPT

 

El revolucionario sistema de inteligencia artificial que preocupa a algunos expertos

 

Shin Suzuki

BBC News Brasil, Sao Paulo

BBC NEWS MUNDO -  El pasado 30 de noviembre de 2022, cuando el mundo entraba en el espíritu de fin de año y tenía los ojos centrados en la Copa del Mundo en Qatar, debutó un programa que pronto se consideró un paso adelante en el avance de la inteligencia artificial: ChatGPT.

Este nuevo sistema puede generar contenidos escritos de forma altamente coherente y muy parecidos a los creados por los humanos.

A pesar de los errores y carencias que aún existen, la capacidad ya demostrada por el programa, y ​​su potencial para mejorar a largo plazo, despierta no solo admiración, sino también temores.

Basta con mirar la cantidad de reseñas que asocian ChatGPT con la palabra "amenaza". Muchos sienten que el programa parece demasiado convincente al imitar el habla de un ser humano y prevén la aparición de problemas. 

¿Qué es el programa?

ChatGPT es, básicamente, un robot virtual (chatbot) que responde una variedad de preguntas, realiza tareas por escrito, conversa con fluidez e incluso da consejos sobre problemas personales (aunque se advierte que no tiene este objetivo). 

Sus posibilidades de generar contenido son inmensas.

Puede, por ejemplo, enseñarte a preparar un Stroganoff -y con un giro diferente en la receta, si lo especificas-, darte consejos para conseguir un trabajo, escribir poesía, trabajos académicos y también redactar una carta de reconciliación para un amigo del que te has distanciado.

ChatGPT responde en cuestión de segundos a una petición aleatoria sobre cómo "escribir un poema sobre inteligencia artificial al estilo de Carlos Drummond de Andrade"; la calidad del resultado, dependiendo de quien lo critique, puede ser discutible.

Según las pruebas de SEO.ai, ChatGPT está disponible en casi 100 idiomas, pero el rendimiento del modelo varía según el idioma (funciona mejor en inglés).

El sistema fue desarrollado por OpenAI, empresa fundada en 2015 en EE.UU. por Sam Altman (hoy su principal figura) y por el omnipresente Elon Musk (quien la abandonó en 2018 por considerar que había un conflicto de intereses con su principal empresa, Tesla).

Cinco días después de su lanzamiento, ChatGPT llegó a más de 1 millón de usuarios (quienes, irónicamente, tienen que ser humanos; tienes que demostrar que no eres un robot al iniciar sesión). Estas interacciones se están utilizando para entrenar y desarrollar el modelo.

OpenAI dice que el uso será gratuito y abierto a todos durante esta etapa de "prueba e investigación", lo que lleva a los expertos a especular sobre los futuros tipos de monetización de la herramienta.

La compañía también advierte que, en ese período, el software "puede generar ocasionalmente información incorrecta o engañosa" y que su historial de datos se limita a 2021.

A pesar de ser señalado como una posible amenaza a la hegemonía de Google como facilitador de información en internet, el sistema aún comete errores graves, como decir que Brasil ha ganado al menos cinco premios Oscar (de hecho, el país nunca ha ganado una estatuilla).

¿Por qué ChatGPT se considera un gran avance para la IA?

Los potentes programas de inteligencia artificial basados ​​en texto funcionan almacenando cantidades gigantescas de datos (con énfasis en palabras y conversaciones en este caso) y con algoritmos para predecir la mejor formulación de una oración.

Estos se denominan modelos de lenguaje grande (LLM, por sus siglas en inglés).

El profesor de la Unifesp Álvaro Machado Dias, neurocientífico, explica que, durante la capacitación del software, al chatbot se le hacen preguntas como "¿qué es un cilindro?" y los técnicos elaboran sus propias respuestas.

"Si la respuesta del chatbot no es válida, las correctas se insertan en el sistema para enseñarle. Esto se pasa a otras situaciones automáticamente".

A pesar de ya utilizar una modalidad que logra entender el contexto del uso de las palabras, permitiendo concatenar mejor los textos, los programas anteriores no respondían tan bien al usuario o aún sonaban muy artificiales.

ChatGPT aprendió a hablar de una manera más cercana a un humano.

Machado Díaz dice que lo que diferencia a este programa es el uso de una técnica que entiende cómo funciona el lenguaje: el refuerzo del aprendizaje a través de la retroalimentación humana (RLHF).

Los ingenieros aplican métodos de "recompensa" y "castigo" para enseñar al sistema las formas de interacción más deseables. Es un proceso de ajuste fino.

"En la práctica, los ingenieros ordenan las respuestas dadas por el algoritmo según su relevancia y animan al programa a aprender las preferencias enumeradas en el ordenamiento para aumentar la relevancia de las producciones textuales. El resultado se da en forma de textos que parecen más profundos y más significativos que los de las alternativas", dice el profesor de la Unifesp.

ChatGPT también ha sido capacitado para admitir errores, desafiar suposiciones incorrectas y rechazar solicitudes inapropiadas.

Pero un profesor de la Universidad de California logró que el sistema escribiera un código de programación para decir que solo los hombres blancos o asiáticos son buenos científicos.

OpenAI afirma que, aunque se ha esforzado en este sentido, el programa "a veces responderá a instrucciones problemáticas o exhibirá un comportamiento sesgado".

Según la empresa, los datos recopilados en esta etapa de prueba servirán para mejorar el sistema.

¿Es una amenaza para el aprendizaje y la creatividad?

La amenaza de cambios o alteraciones ya se cierne sobre el trabajo y el empleo. Los campos que dependen del texto, como el periodismo, podrían modificarse mucho y las vacantes podrían desaparecer para siempre.

La competencia de ChatGPT en la generación de códigos también está planteando preguntas en un sector relativamente nuevo: la programación.

Pero una de las áreas que se ha ido dando cuenta de los posibles problemas de ChatGPT es precisamente una de las más afectadas por la llegada de las nuevas tecnologías: la educación.

La tentación entre los estudiantes de usar el programa para encontrar respuestas listas para sus tareas llevó a Nueva York a tomar una decisión rápida: solo un mes después de su debut, el sistema fue prohibido en las escuelas y dispositivos públicos de la ciudad estadounidense.

OpenAI ha estado trabajando en una especie de marca para identificar que el contenido se originó en ChatGPT. Ya existen algoritmos que calculan con bastante precisión la probabilidad de que un chatbot haya realizado un texto.

Además de "copiar y pegar", existe el miedo a los impactos estructurales en el aprendizaje humano. Por ejemplo, ¿se verá afectado el ejercicio cognitivo de escribir un ensayo con principio, medio y final, concatenando ideas de manera coherente?

"Me preocupa mucho la algoritmización del pensamiento, que es la alteración de nuestra comprensión y relación con el mundo debido a la interacción con la IA", dice Machado Dias, de la Unifesp.

"Creo que este será el cambio de mentalidad más grande en toda la historia moderna. Vale la pena señalar que el cerebro humano se ha ido reduciendo de tamaño lentamente, como resultado del desarrollo tecnológico, durante más de mil años, desde el punto de vista técnico-cultural, pero también más limitado desde un punto de vista neurocognitivo".

Martha Gabriel, autora del libro "Inteligencia Artificial: del cero al metaverso" y docente de la Pontificia Universidad Católica de Rio Grande do Sul, afirma que será necesario adaptarse a los nuevos tiempos.

"Lo que marca la diferencia en este contexto ya no son las respuestas, sino las preguntas. Hay que saber preguntar. Para saber preguntar hay que saber pensar críticamente", dice.

Para Yuri Lima, investigador del Laboratorio del Futuro de la Universidad Federal de Río de Janeiro, "la propia enseñanza necesita adaptarse para estimular un aprendizaje que reconozca a los estudiantes como cyborgs cada vez más integrados con las nuevas tecnologías".

"Esto exige que los docentes también sepan utilizar estas mismas tecnologías e integrarlas en sus actividades. Desde el momento en que los proyectos, actividades y tareas se vuelven más complejos e integrados al universo actual en el que viven los estudiantes, la motivación deja de verse afectada por esta cuestión tecnológica".

Otro tema gira en torno al futuro de la creatividad humana y la producción de contenidos que no estén basados ​​en inteligencia artificial.

Diez días después de la llegada del sistema OpenAI, un diseñador de San Francisco (EE.UU.) logró crear en tan solo un fin de semana un libro infantil con texto e ilustraciones realizado con ChatGPT y MidJourney, un programa que produce imágenes proporcionando descripciones.

"Un punto importante aún por tratar es el tema del plagio. Dado que el entrenamiento de modelos como ChatGPT se basa en textos disponibles en internet como noticias, libros y blogs, sus respuestas pueden traer ideas publicadas por ciertas personas sin que reciban crédito por ello", dice Lima.

"En áreas creativas, este reconocimiento a los autores se considera importante. Además, el desconocimiento de las fuentes dificulta reconocer sesgos o incluso mentiras, como en las noticias falsas".

Machado Dias señala que "la creatividad surge de combinaciones que son a la vez inusuales y relevantes. Como los algoritmos son dispositivos para generar combinaciones, se espera que el impulso creativo se reduzca".

"Por otro lado, a medida que los algoritmos realizan sus tareas, tienden a generar patrones que ni siquiera imaginamos posibles, expandiendo nuestra comprensión combinatoria, es decir, nuestra creatividad".

Martha Gabriel va en una línea similar: "La tecnología puede ser una herramienta increíble para ampliar nuestro pensamiento, ya que podemos probar en poco tiempo innumerables hipótesis, formatos, soluciones para refinar nuestras hipótesis y mejorar nuestras preguntas".

"Sin embargo, esto también puede ser una amenaza muy grande para quienes usan estos sistemas a ciegas, sin críticas ni cuestionamientos a la moral y la ética. Esto no es solo un riesgo individual, sino para toda la humanidad".

https://www.bbc.com/mundo/noticias-64461255



Reino Unido acogerá primera cumbre mundial sobre seguridad de IA

Varios gobiernos están estudiando cómo mitigar los peligros de esta tecnología emergente, que ha experimentado un auge de inversión

Reino Unido acogerá en otoño una cumbre mundial sobre la seguridad de la inteligencia artificial, según anunció el miércoles el Gobierno británico, que añadió que el primer ministro, Rishi Sunak, y el presidente de Estados Unidos, Joe Biden, también hablarán de esta tecnología en su reunión del jueves.

En la cumbre se estudiarán los riesgos de la IA, también para los sistemas fronterizos, y se debatirá cómo mitigar estos peligros mediante una acción coordinada a nivel internacional, señaló el Gobierno británico en un comunicado.

Varios gobiernos están estudiando cómo mitigar los peligros de esta tecnología emergente, que ha experimentado un auge de inversión y popularidad entre los consumidores en los últimos meses tras la publicación del ChatGPT de OpenAI.

Eso incluye a China, donde el Gobierno está tratando de iniciar regulaciones para la inteligencia artificial, según el multimillonario Elon Musk, que se reunió con funcionarios durante su reciente viaje al país asiático. 

Los organismos reguladores de todo el mundo se afanan por elaborar normas que regulen el uso de la IA generativa, capaz de crear textos e imágenes, cuyo impacto sus defensores comparan con la llegada de internet.

https://www.larepublica.co/globoeconomia/reino-unido-acogera-primera-cumbre-mundial-sobre-seguridad-de-inteligencia-artificial-3632607 

Trabajos repetitivos y mal pagados, la otra cara del avance de la IA

Estos empleados laboran en empresas de tecnología alimentando la IA, bajo contratos temporales y sin estabilidad laboral

La inteligencia artificial (IA) está creando nuevas oportunidades laborales con condiciones de trabajo buenas, especialmente para perfiles digitales. Pero la otra cara de la moneda, son los empleos necesarios para que esta tecnología avance. Tres investigadoras, Timnit Gebru, Adrienne Williams y Milagros Miceli, señalan que los sistemas de IA “son alimentados por millones de trabajadores mal pagados en todo el mundo que realizan tareas repetitivas en condiciones laborales precarias”.

Detrás de la IA hay un “ejército de trabajadores” tratados como máquinas, poniendo en riesgo sus vidas, dañando su salud mental y física, sostienen las tres especialistas. Estos empleados laboran en empresas de tecnología, bajo contratos temporales y sin estabilidad laboral, etiquetando datos, controlando entregas y moderando contenido.

Tienen pocas herramientas y posibilidades de defender sus derechos humanos laborales, ya sea de manera individual o colectiva, pues muchas veces les impiden organizarse, agregan Gebru, Williams y Miceli en el documento El trabajo explotado detrás de la inteligencia artificial, publicado en la revista especializada Noema.

Timnit Gebru es científica en computación, especializada en IA. En 2020 fue despedida de Google, donde dirigía el área de ética de inteligencia artificial, luego de publicar un informe en el que advertía de los riesgos financieros y medioambientales de esa tecnología, su uso poco regulado en la vida de las personas, así como la explotación laboral que se ejerce para hacerla funcionar.

En el proceso de su despido, Gebru pasó por acoso laboral y tácticas que suelen aplicar en muchas otras personas trabajadoras en muchas partes del mundo, como asegurar que ella fue quien presentó su renuncia.

La profesora Adrienne Williams “es una exconductora y organizadora de entregas de Amazon, que ha experimentado los daños de la vigilancia y las cuotas poco realistas establecidas por los sistemas automatizados”. Ahora es parte del Instituto de Investigación de IA Distribuida.

Milagros Miceli es socióloga e informática. El enfoque de su investigación “son las condiciones laborales y las dinámicas de poder en la generación y el etiquetado de datos”, el cual realiza desde la etnografía, yendo a campo, realizando entrevistas y apoyando a persona que trabajan como “anotadores de datos, recolectores y científicos en varios sitios alrededor del mundo”.

Personas que suplantan máquinas

En 2020 la revista académica Big Data & Society publicó una investigación la cual revela que muchas empresas contratan a personas para hacerse pasar por sistemas de inteligencia artificial.

Simulan ser chatbots, por ejemplo, para engañar a posibles inversores de que la compañía utiliza la mejor tecnología. Esto fue documentado en el reporte "El formador, el verificador, el imitador: tres formas en que los trabajadores de plataformas humanas apoyan la inteligencia artificial".

Paola Tubaro, Antonio Casilli y Marion Coville identificaron en varias empresas “la suplantación de IA, que ocurre cada vez que los humanos superan a las computadoras”. Esto lo realizan a través de la subcontratación de lo que llaman “microtrabajadores” para verificar los resultados de un sistema automatizado.

“Los humanos reemplazan parte del algoritmo”, cuando un programa tiene dificultades para completar una tarea. Pero también lo reemplazan por completo: cuando un algoritmo no ha sido codificado, aparentan que lo que están haciendo personas lo hace por entero un algoritmo.

Pero a diferencia de los salarios millonarios que reciben algunos investigadores de IA de Silicon Valley, “estos trabajadores son explotados y a menudo reclutados de poblaciones empobrecidas”. Los salarios que reciben son de apenas “US$1,46 por hora después de impuestos”, señalan Timnit Gebru, Milagros Miceli y Adrienne Williams.

Ahora, para lo que las compañías sí usan la inteligencia artificial es para vigilar al personal. A través de sistemas automatizados, les asignan tareas repetitivas, monitorean sus movimientos y castigan “las desviaciones”, indican las investigadoras.

Riesgos laborales sin atender

Las discusiones sobre la IA se han enfocado en la filtración de datos personales y su mal uso, en que el algoritmo que nos mete en una burbuja con el mismo contenido en internet y en el reemplazo de empleos.

Pero “la explotación laboral no es central en el discurso que rodea el desarrollo ético y el despliegue de sistemas de IA”, lamentan Gebru, Miceli y Williams. Tanto así, que se sabe poco de las ocupaciones en este sector. Algunas de ellas son el manejo de datos, moderación de contenido, logística en almacén y entrega de productos.

 

Quienes se encargan de moderar contenido tienen la responsabilidad de encontrar y marcar los temas que cada plataforma considera inapropiados. Pero eso les cuesta graves daños a su salud mental y a su estabilidad emocional.

“Cada video de asesinato, suicidio, agresión sexual o abuso infantil que no llega a una plataforma ha sido visto y marcado por un moderador de contenido o un sistema automatizado entrenado con datos probablemente proporcionados por un moderador de contenido”.

Es decir, gracias al trabajo de estas personas, los sistemas automatizados saben qué textos e imágenes contienen expresiones de odio, noticias falsas, violencia u otros tipos de contenido, explican. El personal que realiza este tipo de tareas “sufre de ansiedad, depresión y trastorno de estrés postraumático debido a la constante exposición a este horrible contenido”. Y lo hacen con “salarios miserables”, subrayan las investigadoras.

Por ejemplo, un reportaje de las periodistas Rosie Bradbury y Majd Al Waheidi, publicado en agosto de 2022, revela que en países de África el pago que reciben los moderadores de contenido de TikTok por revisar videos de suicidio y crueldad animal es de menos de 3 dólares por hora.

 

“Además de experimentar un entorno de trabajo traumático con apoyo de salud mental inexistente o insuficiente, estos trabajadores son monitoreados y castigados si se desvían de sus tareas repetitivas prescritas” y si no lo hacen en el tiempo que el sistema les marca para realizarlo, señalan Gebru, Miceli y Williams.

En cuanto a los trabajadores de almacén y repartidores de conglomerados como Amazon, “deben realizar tareas repetitivas bajo la presión de una vigilancia constante” de programas de IA. Las tareas que realizan bajo la presión de un sistema informático “en ocasiones ponen en riesgo sus vidas y, a menudo, resultan en lesiones musculoesqueléticas graves”.

Es imprescindible “apoyar los esfuerzos transnacionales de organización de los trabajadores”, apuntan las investigadoras. Las condiciones laborales de estas personas “deberían ser una prioridad en las discusiones relacionadas con la ética de la IA”.

https://www.larepublica.co/alta-gerencia/trabajos-repetitivos-y-mal-pagados-la-otra-cara-del-avance-de-la-inteligencia-artificial-3635101 

Inteligencia Artificial: la paradoja de Moravec






Inteligencia Artificial: 

La paradoja de Moravec que explica por qué los robots y la IA encuentran difíciles las cosas


Alejandro Millán Valencia

BBC News Mundo

BCC News Mundo 

¿Seremos alguna vez capaces de crear un robot con las

 mismas capacidades que el ser humano?

Con la explosiva aparición de ChatGPT y otros programas de Inteligencia Artificial la pregunta no solo se hace cada vez más relevante, sino que impulsa aún más la imaginación de los ingenieros que buscan crear un robot que piense y actúe como un humano.

A medida que avanzan los procesos, varias conclusiones van saliendo a la luz: hemos logrado, especialmente con la Inteligencia Artificial, imitar los complejos sistemas de razonamiento e incluso de creatividad de nuestro cerebro.

Pero, a la vez, un robot no puede atarse un zapato.

La Inteligencia Artificial y la robótica pueden hacer que el pensamiento razonado requiera menos procesos de computación, mientras que actos en apariencia más simples que ejecuta el ser humano, como atarse los zapatos o recoger una bolsa del suelo, requieren un enorme esfuerzo computacional.

A esto se lo conoce como la paradoja de Moravec.

Y para muchos expertos es la explicación de por qué no se ha podido construir un robot totalmente inteligente.

"Al ser humano le ha tomado cientos de miles de años de evolución hacer cosas tan simples como, por ejemplo, mantener el equilibrio, por lo que replicar todos esos procesos a un nivel computacional es casi imposible por el momento", señala Gonzalo Zabala, investigador en Robótica de la Universidad Abierta Interamericana, en diálogo con BBC Mundo.

Zabala señala que lo contrario ocurre con los procesos razonados.

"¿Hace cuánto que podemos hablar del hombre inteligente, de la razón? En comparación con otros procesos evolutivos, el tiempo es muchísimo menor, por lo que podemos codificar y replicar esto con mayor éxito", indica. 

Hans Moravec y Alan Turing

Uno de los precursores de la Inteligencia Artificial fue, sin duda, el científico británico Alan Turing.

Dentro de los múltiples estudios que publicó durante su corta pero prodigiosa carrera, uno tiene que ver con una serie de preguntas que servirían para distinguir, en un caso teórico, a un robot de una persona.

Desde que fue formulado, en la década de 1950, ese fue el método que guió a los ingenieros y teóricos en torno al desarrollo de la Inteligencia Artificial.

Como lo señaló el profesor de robótica de Instituto Tecnológico de Massachusetts (MIT) Rodney Brooks, lo que ocurrió después es que los ingenieros se enfocaron en crear programas o artefactos que pudieran "engañar" a los interlocutores, respondiendo adecuadamente las preguntas del test de Turing para pasar por humanos.

Hacia finales de los 70, ese enfoque comenzó a tener un problema: que las respuestas lógicas no desarrollaban nada original y el camino señalado por Turing comenzaba a quedarse sin muchas salidas.

"Incluso, la financiación de las investigaciones cesaron, porque no era claro el camino que se debía seguir y no se veían avances", le dijo Brooks a la BBC.

Entonces, se buscaron nuevas alternativas para avanzar en el desarrollo de la Inteligencia Artificial.

"El camino que se tomó fue el de crear circuitos similares a los del cerebro humano. No un robot que respondieran con lógica, sino un circuito que lograra pensar", señala Zabala.

Fue entonces cuando aparició esa contradicción aún no resuelta: se creaban procesos de Inteligencia Artificial con cierta facilidad, mientras que las funciones básicas del ser humano eran básicamente imposibles de recrear en un robot.

Esto fue ampliamente observado hacia finales de la década de los 80 por especialistas en robótica como el mencionado Brooks, el austriaco Hans Moravec y el estadounidense Marvin Misnky.

Pero fue Moravec, profesor en la Universidad de Carnegie Mellon en EE.UU., quien lo expuso de mejor manera en 1988 a partir del trabajo de los tres colegas:

"Es comparativamente fácil hacer que las computadoras muestren un rendimiento de nivel adulto en pruebas de inteligencia o jugando al ajedrez, pero difícil o imposible darles las habilidades de un niño de un año en lo que respecta a la percepción y la movilidad".

Básicamente, los robots pueden ser tan inteligentes como incapaces.

"Lo que hizo la paradoja de Moravec fue darle sentido a lo que se estaba observando. Y cuando se nombra el problema, se nombran las posibles salidas al problema", señala Zabala.

"Cuando se llega a este punto comienza algo muy interesante, que es conocernos mejor para poder replicarlo en robots: conocer cómo mantenemos el equilibrio, aprendemos a manejar, en fin", agrega.

Robots sensibles

Tanto Moravec como Brooks y Misnky han adelantado proyectos con miras a dilucidar la paradoja.

Brooks ha trabajado con la empresa estadounidense Boston Dynamics y una que él mismo fundó, conocida como iRobots.

El principio que han seguido, de acuerdo a Brooks, se resume en una premisa directa: "Si queremos construir un robot con inteligencia humana, primero construyamos un robot con anatomía humana".

A partir de esto se han desarrollado proyectos de robots que presentan un aspecto más cercano al nuestro.

Por ejemplo, un equipo de científicos europeos ha desarrollado un prototipo que se conoce como ECCERobot, que tiene un esqueleto termoplástico completo con vértebras, falanges y caja torácica.

El ECCERobot tiene tantos grados de movimiento como un torso humano y, lo más importante, todas estas partes están repletas de sensores.

Pero los mismos científicos que han desarrollado el robot han señalado que el inconveniente no se ha superado: la complejidad del ECCERobot es tan grande que apenas puede agarrar una taza. Por lo que no se puede esperar que tenga un comportamiento inteligente.

https://www.bbc.com/mundo/noticias-65793840





El responsable de ChatGPT pide regular la IA

 


El responsable de ChatGPT pide regular la IA

RTVE Noticias


Empresa que creó ChatGPT pide regular la inteligencia artificial

 

Noticias CNN- El CEO de OpenAI, compañía que creó el ChatGPT, reconoció la importancia de acciones internacionales coordinadas para regular la inteligencia artificial generativa. En el video los detalles

Ver video:

         https://cnnespanol.cnn.com/category/inteligencia-artificial/

Advierten riesgos de uso irrestricto de inteligencia artificial




 


Dos informes publicados este mes advierten sobre los riesgos que conlleva para la privacidad y los derechos de las personas la aplicación irrestricta de la inteligencia artificial (IA), una tecnología en rápida evolución en el mundo.

Por: Lorena Guzmán Hormazábal

El informe titulado “El derecho a la privacidad en la Era Digital”, de la Oficina de Derechos Humanos de Naciones Unidas (ACNUDH) señala que si bien la IA puede generar grandes beneficios a la sociedad, de no utilizarse con las debidas protecciones puede poner en peligro los derechos humanos, por lo que recomienda imponer moratorias a la venta y uso de tales sistemas hasta que se establezcan las salvaguardas adecuadas para proteger esos derechos.

Por su parte, el Informe del panel 2021 del “Estudio de cien años de inteligencia artificial” (AI100), reconoce que el avance de esta tecnología llegó a un punto de inflexión. Y advierte sobre la urgencia de “pensar seriamente en las desventajas y los riesgos “de la amplia aplicación de la IA”.

“Mientras mayor sea el riesgo para los derechos humanos, más estrictos deben ser los requisitos legales para el uso de la tecnología de IA”, dijo Michelle Bachelet, alta comisionada de la ACNUDH, durante la presentación del informe (20 de setiembre).

“Pero dado que la evaluación de los peligros y cómo superarlos puede llevar todavía algún tiempo, los Estados deberían implementar desde ahora moratorias sobre el uso de las tecnologías que presentan un alto potencial de riesgo”, añadió.

El informe de la ACNUDH analiza cómo la IA -a través de la elaboración automática de perfiles, la toma de decisiones y el aprendizaje de máquinas- puede afectar al derecho a la intimidad, pero también los relativos a salud, educación, libertad de movimiento, libertad de reunión y asociación pacífica, y libertad de expresión.

Los algoritmos de deep learning (aprendizaje profundo) son tan grandes y complejos que es difícil explicar cómo toman las decisiones, y si ellas son discriminatorias o no”.

Denis Parra, docente de la Facultad de Ingeniería de la Pontificia Universidad Católica de Chile

Para evitar esos riesgos es imprescindible que el desarrollo de la IA no sólo considere la tecnología y su correcta aplicación para resolver brechas productivas, dijo a SciDev.Net Fernando Hentzschel, gerente de Capacidades Tecnológicas de Corfo (Corporación de Fomento de la Producción, Chile).

“Siempre debe ir acompañada de las reflexiones sobre los potenciales problemas éticos que pueda generar. Pero también de las acciones o mitigaciones, en los casos que sea necesario, para que se implemente de manera responsable”, agregó. 

El problema es que la IA es una tecnología tan nueva y que evoluciona tan rápido que es difícil anticiparse a sus resultados. Por ello, tanto su desarrollo como la generación de una política que la regule deben ir a la par, comentó a SciDev.Net Denis Parra, docente de la Facultad de Ingeniería de la Pontificia Universidad Católica de Chile.

Si bien cree que el desarrollo y utilización de la IA no deberían detenerse, sí concuerda con la propuesta de moratoria de la ACNUDH respecto de aplicaciones militares. “Utilizarla para fines bélicos puede tener complicaciones serias (por la falta de precisión)”, opina.

Asimismo, señala que uno de los principales escollos a salvar es determinar qué tan peligrosos son los algoritmos que se utilizan y también poder entender cómo funcionan.

“Los algoritmos de deep learning (aprendizaje profundo) son tan grandes y complejos que es difícil explicar cómo toman las decisiones, y si ellas son discriminatorias o no”, dijo.

Los algoritmos tienen el potencial de ser tan beneficiosos que pueden ayudar a la reactivación económica pos pandemia, como un programa que está impulsando Corfo en Chile, pero también pueden dejar a alguien sin ayudas sociales, o incluso ampliar la brecha de género en temas tan variados como el acceso a la educación o al financiamiento bancario.

IA: arma de doble filo

En ese contexto, el informe (AI100) asegura que la creciente capacidad para automatizar decisiones a escala es un arma de doble filo, porque puede ser manipulada o utilizada de forma irresponsable, lo que no solo puede terminar en el engaño o discriminación de las personas, sino también en daño físico.

Ese es el caso de los algoritmos entrenados en base a datos históricos, ya que ellos pueden reforzar y exacerbar los prejuicios y desigualdades existentes.

Justamente uno de los parámetros que debieran considerarse en la calificación de riesgo de los algoritmos es la calidad de los datos en los que se basan, aseguró Denis Parra. “Por eso es importante que se definan las métricas que permitan testear la seguridad de los algoritmos”, explicó.

Así, por ejemplo, si por falta de estudios médicos no se tienen datos equivalentes para hombres y mujeres sobre una determinada enfermedad o condición médica, podría generarse una diferencia en la precisión del diagnóstico.

Recién se están comenzando a legislar al respecto en todo el mundo, dice Parra. Mientras que en abril pasado la Unión Europea comenzó a discutir una propuesta, en Estados Unidos el proceso está estancado, entre otras cosas, por sus implicancias económicas.

En tanto, en Latinoamérica la mayoría de los esfuerzos se guían más hacia desarrollar e implementar la IA, antes que regularla, informó. Aun así, Chile presentará durante este semestre su Política Nacional de Inteligencia Artificial, mientras Colombia tiene una Política Nacional de Transformación Digital e Inteligencia Artificial, Perú acaba de aprobar (25 de set.) su Sistema Nacional de Transformación Digital, que considera a la IA como una de las “tecnologías emergentes”, y en Brasil la ley que regula el tema está siendo discutida en el congreso.

Este tipo de dilemas no es nuevo, aseguró Fernando Hentzschel. “Al igual que en oleadas tecnológicas anteriores, hemos tenido que avanzar cuidadosamente como sociedad en acelerar los desarrollos tecnológicos que conlleven beneficios y, al mismo tiempo, resguardar la creación de los marcos regulatorios adecuados que salvaguarden los derechos fundamentales y la seguridad”, dijo.

https://www.scidev.net/america-latina/news/advierten-riesgos-de-uso-irrestricto-de-inteligencia-artificial/?https://www.scidev.net/america-latina

¿Supone la IA un riesgo para la humanidad?

 

Expertos y líderes tecnológicos creen que sí

Famosos empresarios y académicos han advertido de que los sistemas de inteligencia artificial (IA) "plantean profundos riesgos para la sociedad y la humanidad", al tiempo que piden a las empresas que frenen el desarrollo de esta tecnología.

Elon Musk, consejero delegado de Twitter y Steve Wozniak, cofundador de Apple, son algunos de los firmantes de una carta abierta en la que se pide a los laboratorios de inteligencia artificial que detengan inmediatamente su desarrollo durante al menos seis meses.

La carta, publicada en el sitio web del Instituto del Futuro de la Vida, afirma que los laboratorios de IA están "inmersos en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable".

Piden que se suspenda el entrenamiento de cualquier sistema de inteligencia artificial más potente que el GPT-4, el último gran modelo de lenguaje (LLM) de OpenAI, en el que se basa su popular chatbot ChatGPT.

La carta, publicada el miércoles, coincidió con la publicación de otro informe de Goldman Sachs (NYSE:GS), que calcula que 300 millones de empleos a tiempo completo podrían estar expuestos a la IA generativa en todo el mundo.

La explosión de interés por la IA que han provocado programas como ChatGPT y DALL-E, un generador de imágenes, también ha suscitado muchas preguntas sobre la ética y el impacto de estas nuevas y potentes herramientas.

Incluso Sam Altman, director general de OpenAI, empresa creadora de ChatGPT, ha dado la voz de alarma en varias ocasiones sobre el repentino auge de la IA, y recientemente declaró que el mundo podría no estar "tan lejos de herramientas de IA potencialmente aterradoras".

En respuesta a esa advertencia, algunos expertos en IA dijeron a Euronews Next que, no solo las aplicaciones "potencialmente aterradoras" están a la vuelta de la esquina, sino que ya vivimos un "presente distópico" gracias a la proliferación de la IA.

Sarah Myers West, Directora General del AI Now Institute, afirma que hoy en día "en muchos sentidos, ahí es donde ya estamos", con sistemas de IA que exacerban "patrones de desigualdad de gran cantidad de datos", especialmente en áreas como las solicitudes de empleo y la educación.

La carta abierta, publicada el 28 de marzo, contaba con 1.123 firmas en el momento de la publicación de este artículo, entre ellas las del autor Yuval Noah Harari y el ganador del premio Turing Yoshua Bengio.

En ella se afirma que la IA podría estar a punto de cambiar profundamente la trayectoria de la vida en la Tierra, y que "debería planificarse y gestionarse con la atención y los recursos adecuados", algo que, según los autores, no está ocurriendo.

Advirtiendo de que las máquinas podrían "inundar nuestros canales de información con propaganda" o quitarnos "todos los puestos de trabajo", haciendo a los humanos "obsoletos", los autores se preguntan: "¿Deberíamos arriesgarnos a perder el control de nuestra civilización?".

Y a continuación piden una supervisión, para que estas decisiones no queden en manos de los líderes tecnológicos. Esta supervisión debería incluir protocolos de seguridad compartidos y supervisados por expertos independientes.

Los desarrolladores de IA también deberían colaborar con los responsables políticos para "acelerar drásticamente el desarrollo de sistemas sólidos de gobernanza de la IA", añaden.

300 millones de empleos expuestos

Un memorando del banco multinacional de inversiones Goldman Sachs ha revelado el impacto económico a gran escala de la IA, según el equipo de investigación del banco.Calculan que la IA podría llegar a ocupar hasta una cuarta parte de todo el trabajo actual, lo que expondría a la automatización el equivalente a 300 millones de puestos de trabajo a tiempo completo.

La buena noticia, según la nota, es que "el desplazamiento de trabajadores por la automatización se ha compensado históricamente con la creación de nuevos puestos de trabajo, y la aparición de nuevas ocupaciones tras las innovaciones tecnológicas representa la gran mayoría del crecimiento del empleo a largo plazo".

El ahorro de costes laborales y la mayor productividad de los trabajadores no desplazados podrían suponer "un auge de la productividad que eleve sustancialmente el crecimiento económico", añade. Por ejemplo, estiman que un impulso de la productividad laboral mundial podría elevar el PIB mundial anual en un 7%.

https://es.investing.com/news/economy/supone-la-ia-un-riesgo-para-la-humanidad-expertos-y-lideres-tecnologicos-creen-que-si-