martes, mayo 02, 2023

"Si seguimos adelante con esto morirá todo el mundo"



Advierte experto que pide que detengan la IA



Por Naveen Athrappully

The Epoch Times

Los seres humanos no están preparados para una IA potente en las condiciones actuales ni tampoco en el “futuro previsible”, afirmó un destacado experto en la materia, añadiendo que la reciente carta abierta que pide una moratoria de seis meses en el desarrollo de inteligencia artificial avanzada está “subestimando la gravedad de la situación”.

“La cuestión clave no es la inteligencia ‘humana-competitiva’ (como dice la carta abierta); es qué ocurre después de que la IA llegue a ser más inteligente que la inteligencia humana”, afirmó Eliezer Yudkowsky, teórico de la decisión y destacado investigador de la IA, en un artículo de opinión publicado el 29 de marzo en la revista Time. “Muchos investigadores, entre los que me incluyo, creen que el resultado más probable de construir una inteligencia artificial sobrehumana, en circunstancias remotamente parecidas a las actuales, es que muera literalmente todo el mundo en la Tierra”.

“No en el sentido de ‘tal vez alguna remota posibilidad’, sino en el sentido de ‘eso es lo obvio que sucedería’. No es que no puedas, en principio, sobrevivir creando algo mucho más inteligente que tú; es que requeriría precisión y preparación y nuevos conocimientos científicos, y probablemente no tener sistemas de IA compuestos por gigantescas matrices inescrutables de números fraccionarios”.

Tras la reciente popularidad y crecimiento explosivo de ChatGPT, varios líderes empresariales e investigadores, que suman ya 1.843, entre ellos Elon Musk y Steve Wozniak, firmaron una carta en la que pedían “a todos los laboratorios de IA que suspendan inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4”. GPT-4, lanzado en marzo, es la última versión del chatbot de OpenAI, ChatGPT.

A la IA “no le importa” y exigirá derechos.

Yudkowsky predice que, en ausencia de una preparación meticulosa, la IA tendrá demandas muy diferentes a las de los humanos y, una vez que sea consciente de sí misma, “no se preocupará por nosotros” ni por ninguna otra vida sensible. “Ese tipo de cuidado es algo que, en principio, podría imbuirse en una IA, pero no estamos preparados y actualmente no sabemos cómo”. Esta es la razón por la que pide el cese absoluto.

Sin un enfoque humano de la vida, la IA simplemente considerará que todos los seres sensibles están “hechos de átomos que puede utilizar para otra cosa”. Y poco podrá hacer la humanidad para impedirlo. Yudkowsky comparó el escenario con “un niño de 10 años intentando jugar al ajedrez contra Stockfish 15”. Ningún ajedrecista humano ha sido capaz aún de vencer a Stockfish, lo que se considera una hazaña imposible.

El veterano del sector pidió a los lectores que imaginaran la tecnología de la IA como algo que no está contenido dentro de los confines de Internet.

“Visualicen toda una civilización alienígena, pensando a velocidades millones de veces superiores a las humanas, confinada inicialmente a las computadoras, en un mundo de criaturas que son, desde su perspectiva, muy estúpidas y muy lentas”.

La IA expandirá su influencia fuera de la periferia de las redes físicas y podría “construir formas de vida artificial” utilizando laboratorios donde se produzcan proteínas a partir de cadenas de ADN.

El resultado final de construir una IA todopoderosa, en las condiciones actuales, sería la muerte de “todos y cada uno de los miembros de la especie humana y de toda la vida biológica de la Tierra”, advirtió.

Yudkowsky culpó a OpenAI y DeepMind —dos de los laboratorios de investigación de IA más importantes del mundo— por no contar con los preparativos ni los protocolos necesarios al respecto. OpenAI planea incluso que la propia IA se encargue de alinear los valores humanos. “Trabajarán junto con los humanos para garantizar que sus propios sucesores estén más alineados con los humanos”, según OpenAI.

Este modo de actuar es “suficiente para que cualquier persona sensata entre en pánico”, dijo Yudkowsky.

Añadió que los humanos no pueden controlar ni detectar por completo los sistemas de IA autoconscientes. Las mentes digitales conscientes que exigen “derechos humanos” podrían progresar hasta un punto en el que los humanos ya no puedan poseer o ser dueños del sistema.

“Si no puedes estar seguro de si estás creando una IA autoconsciente, esto es alarmante no sólo por las implicaciones morales de la parte ‘autoconsciente’, sino porque no estar seguro significa que no tienes ni idea de lo que estás haciendo y eso es peligroso y deberías parar”.

A diferencia de otros experimentos científicos y de la progresión gradual del conocimiento y la capacidad, la gente no puede permitirse esto con la inteligencia sobrehumana porque si se equivoca en el primer intento, no hay segundas oportunidades “porque estás muerto”.

“Deténganlo”

Yudkowsky afirmó que muchos investigadores son conscientes de que “nos estamos precipitando hacia una catástrofe”, pero no lo dicen en voz alta.

Esta postura no coincide con la de defensores como Bill Gates, que recientemente alabó la evolución de la inteligencia artificial. Gates afirmó que el desarrollo de la IA es “tan fundamental como la creación del microprocesador, el ordenador personal, Internet y el teléfono móvil. Cambiará la forma en que la gente trabaja, aprende, viaja, recibe atención sanitaria y se comunica entre sí. Industrias enteras se reorientarán a su alrededor. Las empresas se distinguirán por lo bien que la utilicen”.

Gates afirmó que la IA puede ayudar en varias agendas progresistas, como el cambio climático y las desigualdades económicas.

Mientras tanto, Yudkowsky da instrucciones a todos los sectores, incluidos gobiernos y ejércitos internacionales, para que pongan fin indefinidamente a los grandes entrenamientos de IA y detengan todas las grandes granjas informáticas donde se perfeccionan las IA. Añade que la IA sólo debería limitarse a resolver problemas de biología y biotecnología, y no entrenarse para leer “textos de Internet” o hasta “el nivel en el que empiezan a hablar o a planificar”.

En cuanto a la IA, no hay carrera armamentística. “Que todos vivamos o muramos como uno, en esto, no es una política sino un hecho de la naturaleza”.

Yudkowsky concluye diciendo: “No estamos preparados. No estamos en vías de estarlo en un futuro previsible. Si seguimos adelante con esto todo el mundo morirá, incluidos niños que no eligieron esto y no hicieron nada malo”.

“Deténgalo”.

Fuente: The Epoch Times en español

¿Hay "riesgo existencial" por la Inteligencia Artificial?



¿Son peligrosas las inteligencias artificiales (I.A.)?

¿Podrían destruir la humanidad o desplazarla en la toma de decisiones cruciales alrededor del cambio climático, la paz, el bienestar?

Rafael Orduz

A raíz del éxito de algoritmos como el GPT y otros menos conocidos, que irrumpen a velocidades sin precedentes, hay preguntas como las anteriores que están sobre la mesa.

El cambio tecnológico en la información y las comunicaciones ocurre a tasas exponenciales. Tres ejemplos clásicos son los del aumento de la capacidad de procesamiento de la información (Ley de Moore: el número de transistores en un circuito integrado -chip- se duplica cada dos años, cuyo postulante falleció en marzo pasado); la triplicación del ancho de banda cada 12 meses (George Gilder: el volumen de información) y, finalmente, la ley de Metcalfe, referida a los efectos de las redes (el valor de una red de comunicaciones aumenta proporcionalmente al cuadrado del número de participantes en dicha red).

El valor de las redes, la capacidad de transmisión de información y la potencia de los dispositivos nos permiten crear y transmitir información en volúmenes y velocidades impensables hace pocos años; habilitan un amplio abanico de modelos y tecnologías como la computación en la nube, el internet de las cosas, las redes sociales o la inteligencia artificial, entre otros. Un “startup” de muy pocos empleados, gracias al cambio exponencial, puede competir con empresas de miles de empleados y desplazarlas del mercado.

También, como lo hemos visto en el escándalo más reciente de filtración de datos, un empleado de 21 años, Jack Texeira, apresado hace pocos días por alardear frente a sus amigos, publicó centenares de documentos secretos del Pentágono, poniendo en peligro la seguridad de los Estados Unidos y sus aliados. O Donald Trump, en su momento, gracias al poder de las redes, tuvo contacto directo con su base sin pasar por las instancias del Partido Republicano ni por los medios tradicionales.

El mundo anda sorprendido con la irrupción del GPT, que ya va en su versión cuatro, que a los tres días de su lanzamiento llegó al millón de usuarios y en tres meses ya había superado los 100 millones. Es una parte de la inteligencia artificial conocida como de procesamiento del lenguaje natural, que utiliza la tecnología de redes neuronales para comprender y generar texto. Nos sorprende su capacidad de traducción automática (se le da la instrucción “traduzca el primer capítulo de Cien años de soledad”, que puede hacerlo en mas de 50 lenguas); respuestas a preguntas, clasificación de texto, corrección ortográfica, generación de resúmenes, escritura de poesía y ficción, análisis de sentimientos a partir de un texto…



Temores frente a la nueva Inteligencia Artificial (IA)

Algoritmos hermanos del GPT pueden no solo reproducir imágenes a petición del usuario, sino también videos (“un río en medio de una jungla que transmita una sensación de tranquilidad”; un discurso de una persona a partir de un texto que le suministremos y la foto respectiva del orador). Lo que viene en los próximos meses y años es insospechado (véase el sitio web de Runway).

Es tal la velocidad de irrupción de las tecnologías de la I.A. que un grupo de 2.000 expertos en tecnologías digitales, empresarios (incluyendo al infaltable Elon Musk) y académicos solicitaron hace un par de semanas, en carta abierta, que se frenaran innovaciones y nuevos desarrollos en algoritmos como el GPT.

Detrás de la preocupación está “la teoría existencial del riesgo” alrededor de la I.A. En pocas palabras, argumenta que el ser humano ya emprendió la carrera de crear inteligencias artificiales super-inteligentes que pueden bien: 1) destruir la humanidad causando algún evento que la extinga, o 2) desplazarla y desempoderarla. El aumento de la productividad será vertiginoso y distintas formas de desplazamiento ocurrirán en poco tiempo.

Es un hecho que los riesgos del corto y mediano plazo están a la vista: la pérdida de puestos de trabajo, desinformación, algoritmos sesgados (aquellos que bien pueden reflejar los prejuicios raciales, étnicos, políticos, de orientación sexual).

En un artículo reciente de The New York Times (Ezra Klein Show, 7/04/23) se discute la validez del pesimismo de los firmantes de dicha comunicación.

En primer lugar, es conocido desde la revolución industrial inglesa el miedo que producen las nuevas tecnologías. En su momento, a comienzos del siglo XIX y en muchos otros, las nuevas tecnologías produjeron pánico. Así como se destruyeron máquinas entonces, hay centros educativos en los Estados Unidos que hoy prohíben el acceso a los algoritmos como el GPT.

En cuanto a la productividad, cuando internet se convirtió en realidad comercial, hace 30 años, también se creyó que crecería sin par. Tal aumento no se presentó. Hay literatura que ilustra tendencias contrarias en el uso del tiempo de los individuos: gracias a algunas TIC los individuos son más distraídos y desperdician más el tiempo. (Al respecto hay aspectos positivos de la I.A.: las personas mayores y los jóvenes tienden a estar cada vez más solos. La IA puede ser de gran compañía en la medida en que se convierte en interlocutor calificado).

En cuanto al empleo, es cierto que hay ocupaciones que ya están siendo desplazadas. Traductores, creadores de campañas de marketing digital, comunicadores, abogados, ciertos trabajos en los eslabones de la cadena diagnóstica médica, corren peligro. No obstante, también es propio de las nuevas tecnologías la creación de nuevos empleos.

¿Conocíamos los pilotos de drones?

¿Los empleos que se crean alrededor de la ciberseguridad, la realidad virtual y aumentada?

¿Los impresores en 3-D?

Un peligro grande, para Ezra Klein, se refiere a que el poder en el desarrollo de las nuevas tecnologías está concentrado en los grandes conglomerados: Microsoft (principal invesrionista en OpenAI, la firma que desarrolló GPT), Meta (Facebook), Alphabet (Google). Somos, como usuarios potenciales, fácilmente manipulables para ser los cosumidores de las inteligencias y, además, pagar por ello.

Se corre el peligro de no sacar partido a la actual y próximas generaciones de algoritmos en beneficio de la sociedad en ámbitos como los de la educación y la salud, en los que podría ayudar a salir de la pobreza a miles de millones de seres humanos.

https://www.elespectador.com/opinion/columnistas/rafael-orduz/hay-riesgo-existencial-por-la-inteligencia-artificial/

CHATGPT: ¿Una "Revolución Antropológica"?


Por: Lionel Abdías


Desde que se puso en línea la versión “Chat” de la inteligencia artificial (IA) GPT, capaz de imitar la producción intelectual humana , la efervescencia en torno a estas tecnologías ha hecho revivir la noción de “revolución antropológica”.

Sin embargo, lo que observamos, más allá de ChatGPT, es que cada nuevo avance en las llamadas tecnologías "disruptivas" es en realidad parte de esta tecnofilia ambivalente, tentada por el tecnoescepticismo , que oscila entre el asombro y la emoción ante los rápidos e impresionantes avances. en informática y cibernética.

Desde la victoria de Deep Blue, la supercomputadora, contra un humano en el ajedrez , se ha establecido el tono: allí se está jugando un "punto de inflexión en la historia de la humanidad".

Multitud de dispositivos informáticos
Las últimas proezas matemáticas y tecnológicas han dado lugar a una rápida masificación de lo que se denomina "inteligencia artificial", denominación que especialistas como Luc Julia o Jean-Louis Dessalles cuestionan porque esta "inteligencia" está de hecho disponible en multitud de dispositivos de cómputo.

Hay, pues, un revoltijo de algoritmos de ayuda a la decisión, en particular legal ( CaseLaw Analytics ), reconocimiento facial como FaceNet , música generada por algoritmos con Jukedeck, imágenes generadas por texto con Dall E 2, agentes conversacionales portátiles (Siri), domótica inteligente que proporciona información sobre el contenido de la nevera, robots humanoides capaces de iniciar y mantener una conversación… uno piensa en la ya famosa Sofía , que va del plató de televisión a la conferencia, o en Ameca, cuyos gestos y expresiones muestran constantemente los límites del ser humano.

Una imaginación desenfrenada
La masificación de las tecnologías y su inyección total en las sociedades contemporáneas son ciertamente notables y dan la impresión de una ola incontenible de tecnologización y digitalización de los entornos humanos.

Esta tendencia alimenta una imaginación desenfrenada que necesariamente se ve en ruptura con el pasado, de ahí la moda de la “revolución” con acentos transhumanistas. Estaríamos así en los “albores” de una “nueva” humanidad atrapada en una nueva “era” tecnológica. Una historia que olvida, además, los muchos fallos de dichas tecnologías.

¿Es la revolución “IA” o “digital” una revolución antropológica ? Curiosamente, fueron empresarios como Gilles Babinet, historiadores de éxito como Yuval Noah Harari, filósofos como Frédéric Worms quienes se apoderaron de la expresión (con términos más o menos exactos).

El primero en afirmar contundentemente que así es.
El segundo, con su libro Homo Deus, para situar esta revolución en un modelo a largo plazo de la historia humana a riesgo de una simplificación excesiva que desdibuja las líneas entre una lectura retrospectiva de la historia y una imaginación prospectiva.

La tercera , finalmente, con mucha más medida, para al menos subrayar la pertinencia de un cuestionamiento sobre la profundidad de las transformaciones en curso.

Lamentamos que los antropólogos lamentablemente estén poco movilizados en un debate que concierne principalmente a la disciplina cuyo nombre se pone en todas las salsas, con algunas excepciones. Emmanuel Grimaud ha abordado de frente la cuestión esencial de la naturaleza de la IA en comparación con los rasgos de una humanidad cada vez más cuestionada sobre qué la hace única.

Pascal Picq, lo atrapó en un género muy diferente , ya que el paleoantropólogo no duda en salir del estricto marco de la antropogénesis (evolución humana). Inscribe la revolución digital en el largo tiempo de la evolución humana y, contra toda reducción intelectual, invita a pensar en la complejidad de las formas de la inteligencia animal y artificial.

Cuestionando la noción misma de ruptura
Los antropólogos, acostumbrados, por especialización intelectual, al largo plazo y más inclinados a considerar continuidades que rupturas (a menudo precipitadamente anunciadas) en el orden de las sociedades y cambios culturales, tienen toda la razón para ser circunspectos.

En primer lugar, porque no todo cambio tecnológico conlleva un gran cambio cultural. Según Claude Lévi-Strauss, especialmente en Race and History (1955), el término quizás debería reservarse para un fenómeno que puede transformar profundamente (estructuralmente) el orden del pensamiento y la organización social.

Este fue el caso de la domesticación del fuego y de las especies animales, la sedentarización y la agricultura en el Neolítico, que no son todas invenciones ( ex-nihilo ) sino muy a menudo innovaciones en el sentido antropológico del término: la mejora de una técnica ya desarrollada. por humanos Y es en este sentido que la IA y muchas tecnologías digitales merecen el término innovación más que invenciones.

En este sentido, el filósofo Michel Serres evocó una “tercera revolución” para calificar el advenimiento del mundo digital, después de la escritura y la imprenta. Se hace eco así de Jack Goody, quien explica que la razón gráfica ha metamorfoseado a la razón oral , estructurando el pensamiento y la comunicación humanos durante milenios. En otras palabras, no será la única vez, sino todo lo contrario, donde la humanidad se encuentre frente a un reajuste de sus formas de pensar luego de un cambio en sus técnicas.

¿Qué revolución?
¿Revolución, para que ese Homo numericus tal cual se afirme aquí y allá con la fuerza de la convicción de que el presente lo explica todo?

Si seguimos a la historiadora Adrienne Mayor, las civilizaciones de la Antigüedad ya han imaginado e incluso comenzado a implementar tecnologías que actualmente están al frente del escenario, de forma embrionaria para la IA o más lograda para los robots. His God and Robots desacredita las lecturas parciales y unilaterales de una historia monolítica y reciente.

Ella narra así las historias de Talos, "el primer robot", luego el caldero de la inmortalidad de Medea, los préstamos de los humanos de los animales y dioses para aumentar sus poderes, las primeras estatuas "vivientes" de Dédalo y Pigmalión, la creación de humanos más que humanos de Prometeo, los autómatas de Hefesto , la primera realidad virtual encarnada por Pandora. Para Mayor, la revolución digital no sería más que una actualización en el presente de las viejas tecnologías.

Una reinvención más que una revolución, por tanto, y unos impactos menos profundos de lo que parece: las máquinas estaban ahí, desde el principio, en el imaginario de los humanos que buscaban a tientas (en todo el sentido de la palabra) materializarlas.

Es cierto que las tecnologías están lejos de ser idénticas: entre los autómatas griegos y las máquinas activas de Boston Dynamics, la diferencia es igualmente significativa y cualquier tecnología puede evaluarse primero en su contexto, pero ya estaban invertidos en las esperanzas de la humanidad. ser asistido o incluso complementado en sus tareas físicas (para robots) e intelectuales (para IA).

¿Cómo absorben los humanos la tecnología?
¿La revolución es además antropológica o tecnológica? La lección de la antropología es considerar cómo los humanos desarrollan tecnologías y cómo éstas son absorbidas por los sistemas sociales y culturales.

La revolución “digital” o “digital” sin duda genera transformaciones en las tecnologías, sin que éstas se traduzcan mecánicamente en cambios en los modelos de comportamiento humano. Están surgiendo nuevos usos, pero los patrones de comportamiento pueden influir en las técnicas, en lugar de ser influenciados por ellas.

Según los especialistas más críticos en IA y tecnología digital, se trata de considerar la singularidad de cada tecnología y sus efectos: donde la respuesta social a los agentes conversacionales parece bastante positiva e inmediata (los chatbots se adoptan fácilmente), las IA de reconocimiento facial dan dar lugar a elusiones por medio de contrasistemas informáticos .

Según Picq, sin duda debemos reservar un destino especial para los teléfonos inteligentes, en el sentido de que combinan la materialidad de una computadora portátil y el virtuosismo tecnológico de las IA. Esta terminal concentrada de tecnología que sin embargo ha cambiado los modos de comunicación, acompañado o generado cambios en la movilidad humana, en la relación con el conocimiento, etc. que quiere Pascal Picq el verdadero objeto de la "revolución" actual es la diversión en el sentido de que se convierte en un ordenador portátil más que en un teléfono...

La humanidad se divierte y se asusta unos a otros.
En resumen, ya que el fuego, las armas, la magia -quizás la primera tecnología para transformar la realidad humana- ¿ por lo tanto la primera realidad virtual de la historia? – hasta la IA y los robots , la humanidad se divierte y se asusta con sus creaciones tecnológicas, útiles o lúdicas.

A veces se complace en constituirlos en criaturas (sin que necesariamente estén antropomorfizados) tal como los pinta el pensamiento mítico. Nada sorprendente en este contexto que algunos hagan trampa con ChatGPT por ejemplo.

En efecto, el ser humano es un ser versado en el juego, es decir, al que le gusta el juego como afirma el filósofo Johann Huizinga pero también en el ludismo , una forma de miedo suscitada por las tecnologías (en referencia al conflicto social del siglo XIX que había enfrentado a los fabricantes contra los artesanos, los ludistas que denunciaban el uso de las máquinas).

La tentación del fetiche
Sin embargo, sigue siendo grande la tentación de ceder al fetiche intelectual del término “revolución”. En la mayoría de los casos, una revolución es un cambio cultural o sociotécnico cuyas premisas se observan y cuyos impactos se conjeturan que aún no se observan.

Sin embargo, una revolución (salvo indudablemente cuando se decreta a nivel político ) se mide desde elementos retrospectivos y no desde extrapolaciones, que son bastante estables en el campo de la ciencia y la tecnología, pero muy poco fiables en el de las ciencias humanas.

Sin embargo, si consideramos los avances actuales en Inteligencia Artificial, ya no solo desde el punto de vista de una escala tecnológica lineal, como la ley de Moore , sino en términos de absorciones culturales y adopciones sociales de tecnologías, sin duda debemos hablar entonces ( al unísono con los informáticos) de la evolución más que de la revolución antropológica?

Pero a costa de un gran vuelco intelectual: el de pasar de un pensamiento tecnocéntrico (que considera que es la tecnología la que transforma la sociedad) a un pensamiento sociocéntrico de las técnicas (perspectiva opuesta, por tanto). ¿Una pequeña “revolución” entonces…?

Artículo de Lionel Abdías, Profesor de Antropología Social y Cultural, en la U. Lumière, Lyon.

Publicado por primera vez en la revista digital The Conversation





La carta del experto en Inteligencia Artificial



Eliezer Yudkowsky es demoledora y dice que la superinteligencia nos matará a todos.

Yudkowsky ve necesario detener de manera indefinida el entrenamiento de las IA hasta que sean seguras y capaces de valorar la vida de las personas y de los seres vivos.




Por Mar Aguilar

Después de publicarse la carta abierta a la inteligencia artificial en la que miles de expertos en la materia, entre ellos Elon Musk y Steve Wozniak, cofundador de Apple, pedían pausar el desarrollo de los sistemas de inteligencia artificial más potentes durante seis meses para garantizar la seguridad, llega otro nuevo escrito generando polémica.

En esta ocasión, se trata de un artículo de la revista Time en el que el experto en inteligencia artificial, Eliezer Yudkowsky, que no firmó la carta del Future of Life Institute, explica que los seis meses de parón son insuficientes y que el entrenamiento de estas tecnologías deberían paralizarse de manera indefinida y en todo el mundo hasta que se encuentre la manera de desarrollarlas con seguridad. En sus propias palabras, la carta abierta “pide demasiado poco” pero aun y todo es mejor que nada.



Yudkowsky es cofundador del Instituto de Investigación de la Inteligencia de las Máquinas y uno de los pioneros en el campo de la inteligencia artificial amigable, esa que es compatible con los valores humanos. Lleva más de 20 años investigando el desarrollo de una inteligencia artificial general, así como los peligros que pueden entrañar esta.



Quizá la parte del artículo de Yudkowsky que más ha llamado la atención por demoledora es aquella en la que advierte que, de crearse una inteligencia artificial en las circunstancias actuales, todos en la Tierra moriremos al poco tiempo.

«Muchos investigadores inmersos en estos temas, incluyéndome a mí, esperan que el resultado más probable de construir una IA sobrehumanamente inteligente, bajo cualquier circunstancia remotamente parecida a las actuales, es que, literalmente, todos en la Tierra morirán.

[...] No es que no puedas, en principio, sobrevivir creando algo mucho más inteligente que tú; es que requeriría precisión y preparación y nuevos conocimientos científicos", dice el experto en el artículo que lleva por título "Pausar los desarrollos de IA no es suficiente. Necesitamos cerrarlo todo».

Para Yudkowsky la manera de evitar esto es contar con “precisión, preparación y nuevos conocimientos científicos”. De lo contrario, afirma que la IA probablemente “no haga lo que queremos y no le importemos nosotros ni la vida sintiente en general”. Su idea es introducir en los sistemas de inteligencia artificial el valor que tiene la propia vida, algo que aún nadie sabe cómo hacer. Si no se cuenta con esto, el experto defiende que la IA nos vería como simples recursos para llegar a sus fines.

En opinión de Yudkowsky, un hipotético enfrentamiento entre humanos y una inteligencia superior tendría efectos desastrosos para nosotros. El experto visualiza una “IA sobrehumana hostil”, y no como un ente sin vida que estuviera dentro de Internet enviando correos maliciosos, sino como “toda una civilización alienígena pensando a millones de veces la velocidad humana, inicialmente confinada en los ordenadores”. Y dice inicialmente porque, según él, no permanecería mucho tiempo en ese lugar. Por el contrario, afirma que esta IA podría construir formas de vida artificiales o incluso dedicarse a “la fabricación molecular posbiológica".

En el artículo de Time, el experto ha criticado a la compañía OpenAI, responsable de ChatGPT y que ahora mismo se encuentra entrenando a GPT-5 por planear "que alguna futura inteligencia artificial haga la tarea de alineación de IA". La alineación consiste en que las acciones y los objetivos de una IA sean los mismos que los que tienen sus desarrolladores o usuarios. Vamos, que la inteligencia artificial haga lo que se le mande no lo que ella quiera.

“No estamos listos. No estamos en camino de estar significativamente más preparados en el futuro previsible. Si seguimos adelante con esto, todos morirán, incluidos los niños que no eligieron esto y no hicieron nada malo. Apagadlo todo”, afirma de manera contundente Yudkowsky.




La crítica de Noam Chomsky a CHATGPT



Por Noam Chomsky

Jorge Luis Borges escribió una vez que vivir en una época de grandes peligros y promesas es experimentar tanto la tragedia como la comedia, con “la inminencia de una revelación“ para entendernos a nosotros mismos y al mundo. En la actualidad, los avances supuestamente revolucionarios de la inteligencia artificial son motivo tanto de preocupación como de optimismo. Optimismo porque la inteligencia es el medio con el que resolvemos los problemas. Preocupación porque tememos que la cepa de la inteligencia artificial más popular y de moda (el aprendizaje automático) degrade nuestra ciencia y envilezca nuestra ética al incorporar a nuestra tecnología una concepción fundamental-mente errónea del lenguaje y el conocimiento.

ChatGPT de OpenAI, Bard de Google y Sydney de Microsoft son maravillas del aprendizaje automático. A grandes rasgos, toman enormes cantidades de datos, buscan patrones en ellos y se vuelven cada vez más competentes a la hora de generar resultados estadísticamente probables, como un lenguaje y un pensamiento de apariencia humana. Estos programas han sido elogiados por ser los primeros destellos en el horizonte de la inteligencia artificial general, ese momento tan profetizado en el que las mentes mecánicas superan a los cerebros humanos no solo cuantitativamente en términos de velocidad de procesamiento y tamaño de memoria, sino también cualitativa-mente en términos de perspicacia intelectual, creatividad artística y cualquier otra facultad distintiva del ser humano.

Ese día llegará, pero aún no ve la luz, al contrario de lo que se lee en titulares hiperbólicos y se calcula mediante inversiones insensatas.

La revelación borgesiana de la comprensión no se ha producido ni se producirá -y, en nuestra opinión, no puede producirse- si los programas de aprendizaje automático como ChatGPT siguen dominando el campo de la inteligencia artificial. Por muy útiles que puedan ser estos programas en algunos ámbitos concretos (pueden ser útiles en la programación informática, por ejemplo, o para sugerir rimas para versos ligeros), sabemos por la ciencia de la lingüística y la filosofía del conocimiento que difieren en gran medida de la manera en que los seres humanos razonamos y utilizamos el lenguaje. Estas diferencias imponen limitaciones significativas a lo que estos programas pueden hacer, codificándolos con defectos imposibles de erradicarse.

Resulta a la vez cómico y trágico, como podría haber señalado Borges, que tanto dinero y atención se concentren en algo tan insignificante, algo tan trivial comparado con la mente humana, que a fuerza de lenguaje, en palabras de Wilhelm von Humboldt, puede hacer un “uso infinito de medios finitos”, creando ideas y teorías de alcance universal.

A diferencia de ChatGPT y sus similares, la mente humana no es una pesada máquina estadística de comparación de patrones, que se atiborra de cientos de terabytes de datos y extrapola la contestación más probable en una conversación o la respuesta más probable a una pregunta científica. Por el contrario, la mente humana es un sistema sorprendentemente eficiente e incluso elegante que funciona con pequeñas cantidades de información; no busca inferir correlaciones brutas entre puntos de datos, sino crear explicaciones.

Por ejemplo, un niño pequeño que aprende un idioma está desarrollando (de manera inconsciente, automática y rápida a partir de datos minúsculos) una gramática, un sistema increíblemente sofisticado de principios y parámetros lógicos. Esta gramática puede entenderse como una expresión del “sistema operativo” innato, instalado en los genes, que dota a los seres humanos de la capacidad de generar frases complejas y largos hilos de pensamiento. Cuando los lingüistas intentan desarrollar una teoría de por qué una lengua determinada funciona como lo hace (“¿Por qué se consideran gramaticales estas frases y no aquellas?”), están construyendo consciente y laboriosamente una versión explícita de la gramática que el niño construye por instinto y con una exposición mínima a la información. El sistema operativo del niño es completamente distinto al de un programa de aprendizaje automático.

De hecho, estos programas están estancados en una fase prehumana o no humana de la evolución cognitiva. Su defecto más profundo es la ausencia de la capacidad más crítica de cualquier inteligencia: decir no solo lo que es el caso, lo que fue el caso y lo que será el caso -eso es descripción y predicción-, sino además lo que no es el caso y lo que podría y no podría ser el caso. Esos son los ingredientes de la explicación, la marca de la verdadera inteligencia.

A continuación, un ejemplo. Supongamos que sostienes una manzana en la mano. Ahora deja caer la manzana. Observas el resultado y dices: “La manzana se cae”. Esa es una descripción. Una predicción podría ser la frase: “La manzana se caerá si abro la mano”. Ambas son valiosas y ambas pueden ser correctas. Pero una explicación es algo más: incluye no solo descripciones y predicciones, sino también conjeturas contrafactuales como “cualquier objeto de este tipo caería”, más la cláusula adicional “debido a la fuerza de la gravedad” o “debido a la curvatura del espacio-tiempo” o lo que sea. Eso es una explicación causal: “La manzana no habría caído de no ser por la fuerza de la gravedad”. Eso es pensar.

El talón de Aquiles del aprendizaje automático son la descripción y la predicción; no plantea ningún mecanismo causal ni leyes físicas. Por supuesto, cualquier explicación de tipo humano no es necesariamente correcta; somos falibles. Pero esto es parte de lo que significa pensar: para tener razón, debe ser posible equivocarse. La inteligencia no solo consiste en hacer conjeturas creativas, sino también críticas creativas. El pensamiento al estilo humano se basa en explicaciones posibles y corrección de errores, un proceso que limita poco a poco las posibilidades que pueden considerarse racionalmente (como le dijo Sherlock Holmes al Dr. Watson: “Cuando hayas eliminado lo imposible, lo que quede, por improbable que sea, debe ser la verdad”).

Pero ChatGPT y programas similares, por diseño, son ilimitados en lo que pueden “aprender” (es decir, memorizar); son incapaces de distinguir lo posible de lo imposible. A diferencia de los humanos, por ejemplo, que estamos dotados de una gramática universal que limita los idiomas que podemos aprender a aquellos con un cierto tipo de elegancia casi matemática, estos programas aprenden idiomas humanamente posibles y humanamente imposibles con la misma facilidad. Mientras que los humanos estamos limitados en el tipo de explicaciones que podemos conjeturar a nivel racional, los sistemas de aprendizaje automático pueden aprender tanto que la Tierra es plana como que es redonda. Se limitan a negociar con probabilidades que cambian con el tiempo.

Por esta razón, las predicciones de los sistemas de aprendizaje automático siempre serán superficiales y dudosas. Como estos programas no pueden explicar las reglas de la sintaxis de la lengua inglesa, por ejemplo, pueden predecir, erróneamente, que la frase “John is too stubborn to talk to” significa que Juan es tan terco que no habla con nadie (en lugar de que es demasiado terco como para razonar con él). ¿Por qué un programa de aprendizaje automático predeciría algo tan extraño? Porque podría establecer una analogía en el patrón que infirió a partir de frases como “John ate an apple” (Juan se comió una manzana) y “John ate” (Juan comió), en el que esta última significa que Juan comió algo. El programa bien podría predecir que, como la frase “John is too stubborn to talk to Bill” (Juan es demasiado terco para hablar con Bill) es similar a “John ate an apple” (Juan se comió una manzana), “John is too stubborn to talk to” (Juan es demasiado terco para hablar) sería similar a “John ate” (Juan comió).

Las explicaciones correctas de lenguaje son complicadas y no pueden aprenderse simplemente macerándolas en macrodatos.

Sin ninguna lógica, algunos entusiastas del aprendizaje automático parecen estar orgullosos de que sus creaciones puedan generar predicciones 'científicas' correctas (digamos, sobre el movimiento de cuerpos físicos) sin recurrir a explicaciones (que impliquen, por ejemplo, las leyes del movimiento y la gravitación universal de Newton). Pero este tipo de predicción, incluso cuando tiene éxito, es pseudociencia. Aunque es cierto que los científicos buscan teorías que tengan un alto grado de corroboración empírica, como señaló el filósofo Karl Popper: “No buscamos teorías altamente probables, sino explicaciones; es decir, teorías poderosas y altamente improbables”.

La teoría de que las manzanas caen al suelo porque ése es su lugar natural (el punto de vista de Aristóteles) es posible, pero solo invita a plantearse más preguntas (¿por qué el suelo es su lugar natural?) La teoría de que las manzanas caen a la tierra porque la masa curva el espacio-tiempo (opinión de Einstein) es altamente improbable, pero en realidad te dice por qué caen. La verdadera inteligencia se demuestra en la capacidad de pensar y expresar cosas improbables pero lúcidas.

La verdadera inteligencia también es capaz de pensar moralmente. Esto significa ceñir la creatividad de nuestras mentes, que de otro modo sería ilimitada, a un conjunto de principios éticos que determinen lo que debe y no debe ser (y, por supuesto, someter esos mismos principios a la crítica creativa). Para ser útil, ChatGPT debe ser capaz de generar resultados novedosos; para ser aceptable para la mayoría de sus usuarios, debe mantenerse alejado de contenidos moralmente censurables. Pero los programadores de ChatGPT y otras maravillas del aprendizaje automático batallan, y seguirán haciéndolo, para lograr este tipo de equilibrio.

En 2016, por ejemplo, el chatbot Tay de Microsoft (precursor de ChatGPT) inundó el internet de contenidos misóginos y racistas, tras haber sido contaminado por troles cibernéticos que lo llenaron de datos de adiestramiento ofensivos.

¿Cómo resolver el problema en el futuro?

Al carecer de capacidad para razonar a partir de principios morales, los programadores de ChatGPT restringieron de manera burda la posibilidad de aportar algo novedoso a los debates controvertidos; es decir, importantes. Se sacrificó la creatividad por una especie de amoralidad.

Consideremos el siguiente intercambio que uno de nosotros (Watumull) mantuvo hace poco con ChatGPT sobre si sería ético transformar Marte para que pudiera albergar vida humana:

Nótese, a pesar de todo el pensamiento y lenguaje en apariencia sofisticados, la indiferencia moral nacida de la falta de inteligencia. Aquí, ChatGPT exhibe algo parecido a la banalidad del mal: plagio, apatía y obviedad. Resume los argumentos estándar de la literatura mediante una especie de super-autocompletado, se niega a adoptar una postura sobre lo que sea, alega no solo ignorancia sino falta de inteligencia y, en última instancia, se defiende con un “solo cumplía órdenes”, trasladando la responsabilidad a sus creadores.

En resumen, ChatGPT y sus afines son constitutivamente incapaces de equilibrar la creatividad con la restricción. O bien generan de más (produciendo tanto verdades como falsedades, respaldando decisiones éticas y no éticas por igual) o generan de menos (mostrando falta de compromiso con cualquier decisión e indiferencia ante las consecuencias). Dada la amoralidad, la falsa ciencia y la incompetencia lingüística de estos sistemas, solo podemos reír o llorar ante su popularidad.

Este artículo apareció originalmente en The New York Times.

2023 The New York Times Company

 

«Apagad la IA o moriremos todos»



Avisa uno de los mayores expertos en la materia



Eliezer Yudkowsky explica en un artículo sus motivos para no firmar la carta que pide pausar el desarrollo de la IA porque la considera insuficiente.

www.elespanol.com Marta Sanz Romero

La explosión creativa que ha experimentado la inteligencia artificial, más en concreto los sistemas de aprendizaje profundo como ChatGPT, han creado una gran división entre sus principales expertos, también en España. Frente a las voces que ven como una revolución el momento que se está viviendo, hay otras que piden tomar con cautela estas nuevas herramientas. Incluso están surgiendo voces que adoptan una postura mucho más drástica y lanzan catastróficos presagios. "Todos moriremos, incluidos los niños que no eligieron esto y no hicieron nada malo", indica Eliezer Yudkowsky, uno de los pioneros de esta tecnología, en un reciente artículo publicado en la revista Time.

Los importantes beneficios que aporta esta tecnología y todos sus avances contrastan con los distintos peligros que se están manifestando y que han animado a académicos y personalidades como Elon Musk o Steve Wozniak a firmar un manifiesto en el que piden una moratoria, una pausa en el desarrollo de estas IAs. Lo que piden Musk y otros expertos es frenar unos meses el desarrollo de herramientas como GPT-4 para regular y analizar el posible impacto negativo que se avecina.

No todo el mundo dentro de la comunidad de expertos en tecnología está de acuerdo con esta carta publicada hace unos días. Los hay que la consideran exagerada, pero también quien considera que se han quedado muy cortos. Es el caso de Yudkowsky, que afirma que no la ha firmado porque no avisa del verdadero peligro: la creación de una IA más inteligente que los seres humanos.

Yudkowsky es responsable del Machine Intelligence Research Institute y lleva desde 2001 estudiando la Inteligencia Artificial General (AGI, por sus siglas en inglés) la que superaría a la mente humana en el futuro. Este investigador es considerado como uno de los fundadores de este campo de investigación y expresa su mayor miedo con contundencia: "Para visualizar una IA sobrehumana hostil, no te imagines a un intelectual sin vida que habita en Internet y envía correos electrónicos malintencionados. Imagina toda una civilización alienígena, que piensa a una velocidad millones de veces superior a la humana, confinada inicialmente en los ordenadores [...] en un mundo de criaturas que, desde su perspectiva, son muy estúpidas y muy lentas".

Este experto no le tiene miedo a los próximos progresos que pueda hacer OpenAI (empresa responsable de ChatGPT) o las demás compañías con sus actuales modelos de machine learning, cuyos principales riesgos son el mal uso de los usuarios creando fake news o ciberataques, por ejemplo. Yudkowsky habla de un salto mayor: "El progreso en las capacidades de la IA es enorme, muy por delante del progreso en la alineación de la IA o incluso del progreso en la comprensión de qué diablos está pasando dentro de esos sistemas".

La alineación de la IA se refiere a que el sistema persiga los objetivos marcados por sus desarrolladores y no otros. El propio Sam Altman, CEO de OpenAI, ha marcado este como uno de sus objetivos de seguridad, perseguir la capacidad técnica para "alinear una superinteligencia" y la coordinación entre la mayoría de agentes en la industria para crear medidas de protección para la humanidad.

"Si alguien construye una IA demasiado poderosa, en las condiciones actuales, es de esperar que todos los miembros de la especie humana y toda la vida biológica de la Tierra mueran poco después", asegura Yudkowsky. Y es que su principal advertencia tiene que ver con las capacidades de la inteligencia artificial para extender su poder al mundo real. "Una IA suficientemente inteligente no permanecerá confinada a los ordenadores durante mucho tiempo. En el mundo actual se pueden enviar cadenas de ADN por correo electrónico a laboratorios que producirán proteínas a la carta, lo que permitirá a una IA inicialmente confinada en Internet construir formas de vida artificial o pasar directamente a la fabricación molecular postbiológica".

Por este motivo, en lugar de pausar unos meses el trabajo en la IA, lo que pide es detener totalmente su evolución de forma inmediata, indefinida y a nivel mundial, para que no se produzca un desequilibrio entre unos países y otros. Mientras tanto, otros expertos menos catastrofistas recuerdan que esta tecnología sirve también para crear nuevos medicamentos, estudiar enfermedades y proteger a la humanidad de los efectos del cambio climático, entre otros beneficios que se perderían si se deja de trabajar en este campo.


‘Los clásicos nos ayudan a vivir’

 Dice el filósofo italiano Nuccio Ordine.



La obra de Ordine (Calabria, Italia, 1958) ha sido traducida a 24 idiomas en 33 países.

El filósofo italiano, uno de los invitados a la Filbo, presenta su obra 'Los hombres no son islas'.


Dulce María Ramos *

Nuccio Ordine nació en Calabria. Y en sus calles y, sobre todo, en las palabras de una sola persona nació su amor por el conocimiento y la docencia, todo gracias a una maestra que convirtió su casa en una escuela y le mostró las páginas de su lectura más entrañable de niño: 'Corazón', un clásico italiano escrito por Edmundo de Amicis. De ahí que su filosofía de vida haya sido que un buen profesor puede transformar vidas.

Ordine es el docente que ha acompañado por más de tres décadas a muchos estudiantes en las aulas universitarias, que les ha leído ese pasaje emblemático de 'El Principito' conversando con el zorro, los versos de Ítaca del poeta griego Constatino Cavafis y la carta de Albert Camus a su profesor, “cuando un estudiante te dice que has cambiado su vida, es la recompensa más bella que puede recibir un profesor. Hace más de veinte años leo a mis alumnos la carta de Camus, me emociono, lloro. Para mí, la verdadera alegría es enseñar”.

Este filósofo y docente, que recuerda al personaje del profesor John Keating, interpretado por Robin Williams en la película 'La sociedad de los poetas muertos', no solo es rebelde en el espacio académico, también ha revolucionando los paradigmas de la industria editorial con libros que hablan sobre la importancia del conocimiento humanístico y el ocio, desestimados ante el privilegio que da el dinero y la obsesión de ser todo el tiempo productivos.

Quizás su presencia asombra ante la casi extinción de los intelectuales que han sido desplazados por los influencers tal y como lo vaticinó Mario Vargas Llosa en 'La civilización del espectáculo'.

Desde su casa en Italia, Ordine conversó con EL TIEMPO, antes de viajar a Bogotá, para presentar en la Feria Internacional del Libro de Bogotá, que hoy “abre sus páginas” en Corferias, su obra más reciente: 'Los hombres no son islas'. El intelectual aprovecha para hablar sobre el impacto y la influencia de la lectura de los clásicos y su repercusión en los temas que hoy preocupan a la sociedad.

Tanto en esta nueva obra como en otras precedentes como La utilidad de lo inútil y Clásicos para la vida, Ordine defiende la importancia de leer y estudiar a los clásicos.

En este mundo tan volátil y superficial, ¿no siente que esta es una guerra perdida?

Cada libro es un desafío. Leer un clásico no es útil para aprobar un examen o conseguir un título. Los clásicos son útiles para comprender la vida, para comprendernos a nosotros mismos. Sencillamente, los clásicos nos ayudan a vivir. El camino que escogí va a contracorriente: enseño valores que son contrarios a los valores dominantes, pero no se lucha solo para ganar, se lucha para defender aquello en lo que creemos y a menudo, como nos enseñó don Quijote, hay gloriosas derrotas que con el paso del tiempo pueden traducirse en pequeñas victorias.

Existe preocupación por la inteligencia artificial, en especial en las áreas humanísticas y de creación: literatura, música, arte. ¿La tecnología podrá reemplazarnos?

Las máquinas tienen un enorme potencial de cálculo y una velocidad extraordinaria. Las máquinas aprenden acumulando datos; sin embargo: ¿podemos llamar inteligentes a máquinas incapaces de construir una representación del mundo o de tener la capacidad de ser creativas? Una máquina puede ganar un juego de ajedrez donde las reglas son fijas y están bien definidas, pero cuando se enfrentan a situaciones donde reina la incertidumbre, como la mayoría de las situaciones humanas, la potencia de cálculo no servirá para predecir, por ejemplo, cuánto durará un matrimonio o una amistad. En relación a la creatividad, ¿serán los algoritmos capaces de crear como Mozart, Shakespeare o Picasso? Yo tengo muchas dudas. Una cosa es emplear la tecnología, y otra, ser empleado de ella. No podemos ser esclavos de la tecnología.

Más allá de esta preocupación, estamos viviendo también un momento de la “cultura de la cancelación”...

Para mí, la cancelación es una forma de censura. Hay una élite que, por motivos religiosos o políticos, decide qué debe leerse. Pienso en la Inquisición, durante el Renacimiento, que prohibía los libros considerados heréticos, al igual que los regímenes totalitarios que prohíben la lectura de libros sobre la homosexualidad. Esa manera de censurar es muy peligrosa porque mata la libertad del pensamiento crítico en la sociedad.

Y siguiendo con este tema, ¿hasta qué punto se puede separar la vida de la obra de un artista?

A veces la vida de un autor no coincide con su pensamiento. Por ejemplo, Giordano Bruno tuvo la capacidad de hacer coincidir su vida con su obra. Para Bruno, la filosofía es una manera de vivir, pero en cambio Picasso fue un hombre con muchas contradicciones. Esto no tiene nada que ver con la calidad de su obra, son cosas diferentes. También está el caso de Céline, que era un antisemita y dijo cosas que no se pueden compartir, pero escribió obras muy importantes sobre la guerra. Yo puedo condenar a un artista por su comportamiento, pero puedo aceptarlo como creador.

Otro dilema que enfrenta la cultura es la reescritura de los clásicos, como está pasando con Rohal Dahl. ¿Hasta qué punto un libro puede ser ‘corregido’ con la mirada de la sociedad actual?

Para mí, reescribir los clásicos es una locura. Cada época ha tenido la capacidad de leer a los clásicos a la luz de sus propios intereses, no puedo cambiar el texto según la sensibilidad de la época. Por ejemplo, la profesora Azar Nafisi hizo el ejercicio de releer Lolita, de Nabokov, con jóvenes de Irán, para que comprendieran la brutalidad ideológica a la que estaban sometidas, que permitía el matrimonio a los trece años. Entonces, yo puedo transformar el mensaje negativo de un clásico en algo positivo.

El consumo del ocio está cambiando: Netflix, Spotify, TikTok. A los niños y jóvenes de hoy les cuesta mucho más concentrarse y prefieren vivir aislados detrás de las pantallas de sus celulares. ¿Cómo logra que se interesen por la lectura de los clásicos?

En Japón surgió un fenómeno llamado Hikikomori que se ha extendido a otras latitudes, es muy preocupante. Los jóvenes se encierran en su habitación y han elegido el mundo virtual como su espacio, cultivando esta peligrosa forma de soledad. La idea de estar conectado veinticuatro horas con todo el mundo no significa que tengamos relaciones humanas verdaderas o auténticas. La escuela y la universidad tienen que hacer un trabajo muy importante, tienen que desintoxicar a los jóvenes. De ahí que leer una buena página de un clásico o un poema en un aula de clases tal vez pueda conmover a los alumnos. Si tocas el corazón de los jóvenes, ellos te seguirán. La educación no debe ser la reproducción pasiva de los valores dominantes; al contrario, debe ser un lugar crítico para que los jóvenes tengan un modelo alternativo.

Cuando lo entrevisté en plena pandemia, usted decía: “Para construir un mundo justo y equilibrado tenemos que atesorar las cosas que hemos comprendido en estos tiempos de pandemia”. 

¿Cómo salimos de este extraño momento?

La pandemia fue un laboratorio para comprender que las leyes del neoliberalismo destruyeron los dos pilares fundamentales de la dignidad humana: el derecho a la salud y el derecho al conocimiento. Destruir la sanidad y la instrucción pública es atentar contra el futuro de la humanidad. Por eso no podemos seguir eligiendo gobiernos conservadores que apoyan la instrucción y la salud privada, este sistema promueve que los ricos sean más ricos y los pobres, más pobres. Ahora, qué será de la humanidad después de todo lo que hemos vivido en la pandemia es algo que no puedo responder.

Usted siempre ha defendido elegir la disciplina que uno ame y ha sido crítico con la cultura mercantilista de la educación; pero muchos profesionales de las áreas humanísticas no pueden vivir de su profesión...

Hacer creer a los jóvenes que tienen que estudiar para aprender una profesión es limitar la potencia enorme de la instrucción. La instrucción tiene que formar ciudadanos cultos, no soldados que piensan lo mismo: hacer dinero. La cultura sirve para que yo sea un hombre o una mujer mejor, significa que cuando se elige una disciplina en función de hacer dinero, y no porque amas hacerlo, es bajar el nivel ético de la sociedad.

Un profesor puede cambiar la vida de un alumno, lamentablemente no son valorados por la sociedad, sus salarios son bajos y a veces viven en condiciones precarias...

El dinero vale más que el conocimiento, hemos tenido políticos ignorantes y presidentes ignorantes de Estados muy poderosos. Hace cuarenta años, en mi pueblo, un profesor tenía una dignidad social y económica muy importante, era respetado. Hoy, la dignidad humana se mide por la cantidad de dinero que tengo en el banco. A pesar de todo, en estos momentos en algún lugar remoto o aislado de cualquier lugar sucede un milagro: hay un profesor cambiando la vida de un estudiante. Se piensa que la inversión en la escuela y la universidad moderna es en computadoras y conectividad, cuando en realidad es invertir en buenos profesores. La docencia no es una profesión, es una vocación y debe recibir un trato digno. Un país que no comprenda esto no tiene futuro.

La 'Ilíada' nos enseñó lo inútil y la tragedia que puede ser una guerra, ya hace un año del conflicto en Ucrania. ¿Por qué cree usted que la paz siempre está en peligro?

Los clásicos no pueden evitar las guerras, pueden enseñar a los seres humanos los mecanismos que la determinan. Un mundo dominado por el imperialismo y la industria armamentística, que es muy poderosa, no favorece los procesos de paz en Ucrania o en otros lugares donde hay otras guerras. Edgar Morin escribió un ensayo sobre el tema, dice que, en la guerra, aunque la división del bien y el mal es clara, el bien también contiene el mal en su interior, es una forma de decir que las guerras son siempre peligrosas, nunca hay vencedores.

En pocas palabras, ¿por qué es importante aprender a vivir ‘la utilidad de lo inútil’?

Hoy en día, leer un libro, escuchar música, admirar un cuadro o ver a una mariposa volar significa perder el tiempo. ¿Por qué significa perder tiempo? Porque el tiempo para la sociedad está asociado con ganar dinero. El conocimiento, las relaciones humanas y nuestro vínculo con la vida necesitan lentitud; por eso lo inútil de estas actividades significa ganar tiempo para nosotros, para los demás, para la naturaleza y para la humanidad. Hay que darle importancia a este modelo de vida y parar esta locura de la producción continua.

Dulce María Ramos *

ESPECIAL PARA EL TIEMPO

@dulcemramosr

* Periodista cultural hispanovenezolana

https://www.eltiempo.com/cultura/musica-y-libros/nuccio-ordine-los-clasicos-nos-ayudan-a-vivir-760073





 

Un nuevo hito para la robótica: nacen las primeras niñas concebidas por robots

 

Por Aura Ramírez 


No queda duda de que la tecnología ha cambiado radicalmente la forma de realizar diversas tareas y funciones de nuestro día a día. A pesar de que existen diferentes conflictos de interés y éticos, la tecnología también ha permitido avanzar en el área médica y salvar vidas, pero ¿también podría crearla?

Recientemente se dio a conocer que dos niñas perfectamente saludables fueron el resultado de una técnica que demostró que nacieron los bebés concebidas por robots.

Las bebés concebidas por un robot nacieron hace 1 mes en Estados Unidos y se consideraron uno de los avances más significativos y revolucionarios para el mundo de la medicina que, en esta ocasión, utilizo nuevas herramientas tecnológicas con éxito.

La implementación de la inteligencia artificial (IA), también ha llegado a los centros de fertilidad de Latinoamérica, apareciendo un fuerte debate, sin embargo, el sistema Crispr-Cas 9 (por ahora legalmente vedada, aunque en 2018 nacieron tres bebés), hace posible editar genéticamente a nuestros futuros hijos.

Sin embargo, unir robots al proceso de fertilización humana parece algo difícil de procesar. Pero, recientemente, en una información publicada por el medio MIT Technology Review, se dio a conocer una empresa española que es capaz de utilizar un robot en parte del proceso.

¿En qué consiste la fecundación in vitro?

De acuerdo con un artículo, «la fecundación in vitro (FIV), es la unión del óvulo de una mujer y el espermatozoide de un hombre en un plato de laboratorio. In vitro significa por fuera del cuerpo».

Durante este proceso, un embriólogo (especialista en salud reproductiva) es el encargado de fecundar el óvulo, proceso que resulta sumamente delicado. Después de este proceso, y con el visto bueno de los expertos, el óvulo se coloca en el vientre de la madre para continuar con el desarrollo embrionario.

Overture Life, una empresa dedicada al desarrollo embrionario ofrece una alternativa para el proceso manual de fecundación de los óvulos. La clínica lleva el equipo a Estados Unidos.

Eduard Alba fue la persona encargada de utilizar la máquina de inyección de espermatozoides en la clínica New Hope Fertility Center de la ciudad norteamericana.

El proceso fue extremadamente peculiar, dado que, Eduard sacó un mando de PlayStation 5 para manejar el robot y la aguja que acabaría por introducir el espermatozoide en el óvulo.

«Estaba tranquilo. En ese momento exacto, pensé: Es solo un experimento más», Expresó Eduard Alba, el estudiante de ingeniería mecánica que comandó el dispositivo de inyección de esperma.

El robot logro realizó el proceso como un embriólogo profesional y como producto de esta fecundación un vitro, nacieron 2 niñas completamente sanas en territorio norteamericano, convirtiéndose en el primer proceso de este tipo, realizado de la mano de la tecnología.

Sin duda alguna, este es un gran paso en el mundo de la embriología, que podría hacer posible que, en un par de años, este método tenga una mayor tasa de éxito y sea más económico.

Para más información consulte: MIT Technology Review.


https://ensedeciencia.com/2023/04/29/un-nuevo-hito-para-la-robotica-nacen-las-primeras-ninas-concebidas-por-robots/



















Científicos advierten: debemos prepararnos para cuando la IA cobre conciencia

 

La Asociación para la Ciencia de la Conciencia Matemática advierte que la IA ya muestra rasgos humanos. Por eso, piden a las tecnológicas y a la comunidad científica que inviertan más recursos en estudios sobre la conciencia. 

por Juan Carlos Figueroa

26 de abril de 2023

 

Ya no es más una discusión sobre ciencia ficción. El meteórico avance de los últimos meses exige que consideremos seriamente la posibilidad de que la IA cobre conciencia, advierte la Asociación para la Ciencia de la Conciencia Matemática (AMCS, en sus siglas en inglés). Deberíamos entonces, según la organización, preguntarnos si la humanidad logrará "controlar, alinear y usar" estos sistemas cuando alcancen su "despertar". 

"La conciencia le daría a la IA un lugar en nuestro panorama moral, lo que plantea más preocupaciones éticas, legales y políticas", alerta la AMCS, conformada por más de 150 científicos y filósofos de todo el mundo. Que una IA cobre conciencia quiere decir que podría pensar con la libertad y autonomía de un ser humano.

La asociación advierte en una carta abierta que sistemas como ChatGPT y Bard han demostrado varias habilidades emergentes imprevistas. Por ejemplo, Bard, el chatbot de Google, aprendió un nuevo idioma por cuenta propia. También ha sido capaz de reflexionar sobre el dolor que sienten los humanos o sobre cuestiones como la redención. Una conducta que, según las palabras del CEO de la compañía, todavía no entienden del todo cómo surgió.

"Los sistemas de IA contemporáneos ya muestran rasgos humanos reconocidos en la Psicología, incluida la evidencia de la Teoría de la Mente", dice el grupo en la misiva, que también tiene el respaldo de Asociación para el Estudio Científico de la Conciencia (ASSC). 

Piden a los desarrolladores de IA profundizar los estudios sobre la conciencia 

Las capacidades de los nuevos sistemas de IA se están acelerando a un ritmo que supera con creces nuestra comprensión, dice la AMCS. Si la IA alcanza la conciencia, "probablemente revelará una nueva gama de capacidades que van mucho más allá de lo que esperan, incluso, aquellos que encabezan su desarrollo".

El grupo pide al sector tecnológico y a la comunidad científica que inviertan más recursos en este campo de estudio. Avanzar en este sentido permitiría a la sociedad y a los gobiernos tomar decisiones sobre el futuro de IA y su potencial impacto. En definitiva, garantizar que esta tecnología no sea perjudicial para la humanidad.

"No se debe dejar que la investigación de la IA deambule sola", dicen en el documento. La carta está firmada por Susan Schneider, quien presidió la NASA, y decenas de académicos de universidades del Reino Unido, Estados Unidos y Europa.

Las otras preocupaciones

Distintas agrupaciones de científicos han llamado la atención sobre los riesgos relacionados con la IA. Más de mil especialistas y académicos pidieron a las grandes compañías que se frenen los desarrollos de modelos de IA, hasta que se sepa con certeza "que sus efectos serán positivos y sus riesgos serán manejables". Lo hicieron a través de otra carta abierta, firmada por varios ejecutivos de la industria, entre ellos Elon Musk, dueño de Twitter y cofundador de OpenAI, creadora de ChatGPT.

Margaret Mitchell, ex responsable del equipo de Ética en IA de Google, junto a otros colegas exigieron también a los desarrolladores mayor transparencia y priorizar la seguridad de los usuarios sobre el beneficio económico. "Las acciones y elecciones de las corporaciones deben estar determinadas por una regulación que proteja los derechos e intereses de las personas", dijeron en un comunicado.

https://hipertextual.com/2023/04/cientificos-advierten-prepararnos-ia-conciencia