‘Nexus’: un libro que explica cómo las redes de información hacen y deshacen el mundo: 'Debemos asumirnos como especie en peligro'

hace 1 mes 36

En 2014, el autor israelí Yuval Noah Harari hizo un completo recorrido desde nuestras raíces evolutivas hasta la sociedad capitalista –vinculando historia, biología, filosofía, ingeniería genética y economía– que develó, en su libro Sapiens (De Animales a Dioses), por qué somos como somos. En 2016, el historiador y filósofo examinó lo que sucedería cuando los mitos de la antigüedad entrasen en contacto con la inteligencia artificial y la ingeniería genética.

Conforme a los criterios de

Entonces, en su libro Homo Deus. Breve Historia del Mañana, el profesor del Departamento de Historia de la Universidad Hebrea de Jerusalén ofreció una visión de los sueños y pesadillas que marcarían el siglo XXI, y que hoy estamos corroborando en una realidad controlada por el algoritmo y la hipervigilancia de las redes de información, temas transversales de su nuevo bestseller, Nexus, en el cual él enciende las alarmas ante el creciente poder que le otorgamos a la inteligencia artificial, planteando una paradoja: nuestra especie fue bautizada Homo sapiens, que significa ‘humano sabio’; pero, si somos tan sabios ¿por qué somos tan autodestructivos?

No obstante, Harari no es determinista ante un posible totalitarismo tecnológico. “Depende de las decisiones que adoptemos, pero debemos entender que existe un potencial totalitario en la inteligencia artificial, a diferencia de cualquier otra cosa que hayamos visto en la historia”, explicó el también conferencista y articulista de grandes medios de comunicación internacionales, en la rueda de prensa de lanzamiento de Nexus.

¿Qué diferencia a la IA de un totalitarismo y/o de un autoritarismo?

Los regímenes autoritarios controlan las esfera política y militar y el presupuesto, pero dejan que la gente tenga un margen; el rey o el tirano no puede saber lo que cada uno de nosotros hace o piensa cada minuto del día. Los regímenes totalitarios intentan precisamente hacer eso. Stalin en la Unión Soviética o Hitler en Alemania, no solo querían controlar el ámbito militar y el presupuesto, sino todos los aspectos de la vida, la totalidad de la vida de cada uno de sus habitantes; pero incluso Hitler y Stalin tenían limites frente al nivel de control de sus súbditos porque no podían seguir a todo el mundo constantemente, ni mucho menos disponer de unos 400 millones de agentes para vigilar y controlar a sus 200 millones de ciudadanos (…) La IA permite una vigilancia total que acaba cualquier libertad, porque no necesita agentes para seguir a cada humano: hay teléfonos inteligentes, ordenadores, cámaras, reconocimiento facial y de voz; la IA tiene la capacidad de revisar una cantidad ingente de videos, audios, textos, analizarlos y reconocer patrones.

¿Esto ya está sucediendo?

Por supuesto; en Israel hay territorios ocupados con cámaras y drones, siguiendo a todo el mundo constantemente. En Irán, donde las mujeres deben cubrir su rostro, hay cámaras de vigilancia con software de reconocimiento facial que identifica a las mujeres que, por ejemplo, van en su vehículo sin cubrir su rostro. Ellas reciben de inmediato en su teléfono móvil un SMS que les recuerda su falta y su castigo: la confiscación de su vehículo; ellas deben descender del auto y entregarlo. La autoridad para castigarlas está en manos de la IA. No es un escenario de ciencia ficción ni algo que pasará en 100 años. Ya estamos viviéndolo.

¿Considera que debemos asumirnos, como especie, en peligro?

Portada Nexus, de Yuval Noah Harari

Portada Nexus, de Yuval Noah Harari

Foto:Penguin Random House

Sí, pues la IA es diferente frente a cualquier tecnología previamente inventada. No es una herramienta sino un agente independiente. Todas las anteriores tecnologías –la bomba atómica o las armas nucleares– tenían un inmenso poder destructivo, pero su poder estaba en las manos de los humanos, pues ellos decidían cómo y dónde usarlas. No sucede lo mismo con la IA, pues esta toma decisiones por sí misma. En el ámbito periodístico, las decisiones más importantes en un periódico están en manos de su editor. Un periodista puede escribir la historia que desee, pero al final, es el editor quien decide qué publicar en la primera página del periódico. Ahora, en la mayoría de los principales medios de comunicación y plataformas digitales como Twitter y Facebook, el rol del editor ha sido reemplazado por la IA. Son algoritmos los que deciden cuál debe ser la historia recomendada, cuál debe ir en la parte alta del newsfeed. Ahora la IA no solo toma decisiones por su cuenta, sino que también crea ideales, en cuanto produce mil cosas nuevas por sí misma, desde textos, imágenes, etc.

¿Qué papel debe asumir la prensa para fortalecer la democracia?

Antes del mundo premoderno no conocemos una democracia (la palabra democracia significa conversación) en sí, pues una conversación a gran escala era imposible. En una pequeña ciudad, sus habitantes podían reunirse en la plaza y conversar llegando a acuerdos, pero en un reino era técnicamente imposible mantener una conversación entre millones de personas. Una conversación a gran escala fue posible con la llegada de la tecnología de la información moderna, cuya primera herramienta fueron los periódicos que surgieron entre los siglos XVII y XVIII en Países Bajos o Inglaterra, en donde nacieron las primeras democracias de la historia. Luego llegaron otras nuevas tecnologías como el telégrafo, la radio, etc., demostrando que los medios integran la base de una democracia a gran escala. Algunos dictadores de la era moderna empezaron como periodistas: Lenin antes de ser dictador fue editor de un periódico. Mussolini empezó como periodista socialista y después cambió de parecer y fundó un periódico fascista. Era editor de un periódico y a partir de ese poder se convirtió en dictador de Italia; hoy este poder está en manos de los gigantes: Facebook, Instagram y Twitter y en manos de sus algoritmos.

¿En este marco, caben la libertad de expresión y la censura?

Si bien existe un fuerte debate sobre la responsabilidad de estos nuevos gigantes tecnológicos, cuando se les acusa de algo siempre hablan de la libertad de expresión: ‘Nosotros, por la libertad de expresión, no queremos censurar a nadie’ y este tema está en el centro de la polémica. Estoy de acuerdo en que las empresas de redes sociales deben ser cuidadosas con el tema de la censura a sus usuarios, pero el problema no son los contenidos producidos por humanos sino las decisiones editoriales de los algoritmos.

¿Qué pueden hacer las personas del común?

Insto a la gente a marcar la diferencia entre las decisiones de los usuarios humanos y las del algoritmo. Si el usuario humano decide inventar una historia, publicar fake news y mentir (tal vez por error o a propósito), en situaciones extremas, podría ser perseguido y castigado; en términos generales la gente miente, pero en una democracia debemos tener cuidado antes de empezar a censurar; además, creo que la gente tiene derecho a la estupidez, inclusive a decir mentiras –excepto cuando se vinculan a un delito–. No es bueno que la gente mienta, pero forma parte de la libertad de expresión; sin embargo, el tema principal con esas teorías de conspiración y fake news no son las decisiones de los seres humanos protegidos por la libertad de prensa, sino las decisiones de los algoritmos de las corporaciones, pues su modelo de negocio se basa en la implicación del usuario.

¿Cómo describe el modelo de negocio de las empresas de redes de información?

La implicación del usuario es la base de todo. Si las personas pasan más tiempo en las plataformas, las empresas ganan más dinero pues venden más anuncios y recaban datos que más adelante venderán a terceros. Este es su modelo de negocio. Y persiguiendo este objetivo, los algoritmos de las empresas han descubierto que hay que diseminar fake news y teorías que aumentan las dosis de odio, miedo y rabia en los usuarios porque esto hace que la gente se implique, esté más tiempo en las plataformas y envíen links para que sus amigos también se puedan enfadar y tengan miedo; de eso sí que deberían ser responsables las empresas porque esto no es libertad de prensa.

 Olivier Middendorp

Yuval Noah Harari es el autor del exitoso libro 'Homo Deus. Breve Historia del Mañana',

Foto:Olivier Middendorp

¿Qué pueden hacer las empresas de redes de información?

No hay que detener todo esto, simplemente, hay que invertir más en seguridad, como sucede, por sentido común en cualquier otro sector. Por ejemplo, si vas a fabricar un fármaco o una vacuna hay que invertir tiempo, esfuerzo y talento para que funcione sin generar efectos adversos. Si las empresas de IA invirtieran, por ejemplo, 20 por ciento de su presupuesto, su tiempo y talento en seguridad, sería un paso significativo que podría protegernos de su lado más pernicioso. Pero la gente del sector está atrapada en una mentalidad de carrera armamentística, de competidores y de no dejarse ganar. Así que cuando les hablas de los peligros de la IA te responden: ‘Ahora estamos desarrollando la IA y si tenemos un problema en el camino, pues ya lo trataremos’; esto es muy peligroso porque es como alguien que ponga en la carretera un vehículo sin frenos y diga: ‘solo queremos que vaya lo más rápido posible y, si luego hay un problema en carretera con los frenos, inventaremos algo cuando eso suceda’. Esto no funciona así en los vehículos y tampoco debiera hacerlo en la IA.

¿Algo positivo o aporte de IA a la humanidad?

Sin duda, la IA tiene un potencial enorme; no creo que toda la gente en Silicon Valley sea malvada. La IA puede darnos a todos la mejor atención sanitaria, pues hay falta de médicos en muchos países y la IA podría crearlos; inclusive, el médico de IA puede actualizarse a diario con los descubrimientos, estudios y desarrollos que se producen en todo el mundo. El médico IA puede estar 24 horas con nosotros mientras que los médicos humanos no pueden hacerlo (además, el médico IA es más barato). Y en este sentido, dentro de 20 o 30 años la IA podrá crear la mejor atención sanitaria incluso en zonas remotas y/o de pobreza extrema. Ahora, en el campo de la prevención de accidentes de tránsito, muchas veces los siniestros son producidos por errores humanos, pero cuando le das a la IA el control de un vehículo autónomo, esta no se va a dormir al volante, no bebe alcohol y luego conduce, etc. No hay tecnología perfecta, pero creo que automatizar la conducción salvará millones de vidas. 

Por: Pilar Bolívar

Para EL TIEMPO

 @lavidaentenis

Leer Todo el Artículo