Harari – Nexus : Historia de las redes de información desde la Edad de Piedra hasta la IA

Harari – Nexus : Historia de las redes de información desde la Edad de Piedra hasta la IA

 

Podcast: Harari – Nexus : Historia de las redes de información desde la Edad de Piedra hasta la IA

Harari – Nexus

“Las redes sociales destruyeron nuestra capacidad de atención, los modelos de lenguaje estan destruyendo nuestra memoria. En una carrera hacia avances tecnológicos nunca antes vistos, ¿estamos realmente preparados para enfrentar los dilemas éticos y los impactos sociales de la inteligencia artificial?”

 

Hola caminantes, soy Nico, y una vez más gracias por acompañarme en este tramo del camino. Hoy vengo a hablar de redes de información e inteligencia artificial, específicamente del último libro del historiador Yuval Harari – Nexus. Este libro no solo es un análisis frío de los avances tecnológicos, es una obra que nos obliga a confrontar preguntas difíciles sobre el control, la ética y la esencia misma de la humanidad.¿Estamos pasando el control de nuestra realidad?

 

Espero que disfrutes el programa.

 

Harari, empieza el libro contando el poema de Goethe, El brujo, que luego es llevado a Disney, interpretado por el ratón Mickey, quien es un aprendiz de brujo y es dejado por su maestro a cargo de los quehaceres de la casa por unas horas. Mickey, coge el libro de su maestro y a través de hechizos, en vez de limpiar, ordenar y lavar la loza, el mismo, le da vida a utensilios como escobas, esponjas, platos, etc, delegando su tarea en ellos. El asunto empieza bien, pero al rato, se empieza a salir de control, y la casa se inunda, se rompe todo, es el caos. Mickey no sabe cómo detenerlo, se asusta, y se ve impotente y desesperado, finalmente llega su maestro y salva la situación. Este es un gran clásico de Disney, que espero que hayan podido ver.
La lección para el aprendiz y la humanidad es clara: Nunca recurras a poderes que no puedes controlar.

 

Pero la tendencia a crear artefactos con capacidades imprevistas, no se inició con la Inteligencia Artificial. 

 

Ya vamos a llegar a ello. 

Harari, el también autor de Sapiens y Homo Deus, nos decía que los homo sapiens hemos llegado hasta este nivel de evolución, no por fuerza, sino por nuestra capacidad para cooperar. . La información es el pegamento que mantiene unida las redes de cooperación, que van desde cazar mamuts, hasta hoy ir a trabajar y pagar impuestos.

Harari en este libro toma 250 páginas para repasar la historia de la información desde los pueblos nómades recolectores, hasta llegar a la actualidad, y solo luego entra en la IA, así que paciencia, porque voy a ser fiel al libro. Harari detecta dos variables transversales a lo largo de nuestra humanidad para montar redes de información: La verdad y el orden.

Verdad y orden, esa es la tensión ancestral. Es que la red información es poder. Pero no solo es poder, es cohesión, como decía. Y para Harari hay una ingenuidad en la idea de la información, esa que a mayor información habrá mayor verdad. Y a su vez la verdad conduce al poder y a la sabiduría.

Pero la verdad, es que las Redes Sociales, nos han mostrado que no es necesariamente así. Nunca ha habido más información como hoy, pero los agentes pueden manipularla a su gusto, permitiendo que ocurran genocidios como en Myanmar con el pueblo rohinya, o en elecciones plagadas de Fake News, como el caso de Cambridge Analytics, que han distorsionado la opinión pública, permitiendo la llegada de líderes como Trump el 2016 y Bolsonaro.

Haciendo el paralelo con el aprendiz de brujo, Google, afirma que su misión “es organizar la información mundial y hacerla universalmente accesible y útil” O sea, que aunque haya probabilidades de que , al robar el libro de hechizo de su maestro, un solo aprendiz cause desastres, siempre habrán muchos aprendices con libre acceso a toda la información del mundo, los cuales no solo crearan escobas encantadas que le sean útiles, sino que también aprenderán   a manejarlas con sabiduría. O sea un aprendiz libera por error al tigre de la jaula, pero otro que tiene también acceso al libro, lo podrá volver a enjaular.

Mark Zuckerberg, afirmaba sobre Facebook: “Ayudar a la gente a compartir más con el fin de hacer que el mundo sea más abierto y promover el entendimiento entre personas”

La verdad es que en más de una década se han sobrecargado los conflictos mundiales. Esta semana que estoy escribiendo este Podcast, el presidente Trump se ha juntado con Putin, en Arabia Saudita, para ver cómo parar la guerra contra Ucrania, sin Ucrania. Y luego ha espetado que “Ucrania no debería haber empezado la guerra” O sea, el invadido inicia la guerra? Increíble. Pero como hay fanáticos, y el algoritmo les muestra solo lo que refuerzan sus ideas en las redes,  seguro que se lo van a creer. 

La información, que era el pegamento de las redes de cooperación, podrían empezar a convertirse en barreras, en un gran telón de silicio. Y ojo, que ya no es necesario de presidentes Trump, o de populistas de turno, totalitarios, como podría haber sido un Stalin con esta tecnología, ya que la IA puede procesar info por si sola, y por lo tanto sustituirnos en la toma de decisiones. La IA no es una herramienta como el fuego, la rueda, la  imprenta o internet. Es un agente, es una entidad más que maneja la caja de herramientas.

¿Y quién sabe si en los próximos años pueda incluso adquirir la capacidad de crear nuevas vidas, de replicarse ya sea a través de códigos genéticos o códigos inorgánicos que animen a los entes inorgánicos? Después de todo, ¿hemos podido responder la pregunta de la conciencia?

Ya es una realidad que el poder se ha transferido de los humanos a los algoritmos. 

Bueno, hablábamos de la escuela ingenua de la información, que pregonan los gigantes del tech, en que a mayor información, mayor verdad. Hay otra escuela, que es la populista, quienes son básicamente, los que enfrentan y dividen los pueblos, en buenos contra malos, en patriotas e inmigrantes, en puros y la elite corrupta . Ellos consideran la info como un arma, como lo que recién les mencionaba de Trump. Por lo mismo están erosionando la confianza en las instituciones a gran escala y en la cooperación internacional como lo es el calentamiento global.

Es verdad que los populistas tienen razón en ser escépticos de la idea ingenua de la información, pero se equivocan en reducir todo a poder. La info no es la materia prima de la verdad, pero tampoco un arma. En ese espacio debemos navegar, entre verdad y poder.

Harari dice que lo que a menudo vemos como conflictos de ideologías y políticos, en realidad son discrepancias entre distintos tipos de informaciones.

Un aspecto vital, ya sea si una red de información está más volcada a la verdad o al poder, son los mecanismos de autocorrección de una red. Que son instituciones que monitorean la eficacia, veracidad, y grado de orden que imponen estas redes. Por ejemplo la Biblia, no tiene mecanismo de autocorrección, no se puede editar ni cambiar nada del libro sagrado, para adaptarlo a su tiempo.
No hay ningún erratum o federratas en una edición nueva de la biblia diciendo que en el tomo anterior, San Mateo estaba reloco y se equivocó. Por otro lado, las disciplinas científicas, si tienen como base el mecanismo de autocorrección. 

Pero ¿Qué es la verdad? Harari no hace el quite a los temas filosóficos. La verdad es casi imposible de representar en relatos, porque siempre algo se queda fuera. Cuando alguien intenta decir que en tal ataque en Gaza, habían diez mil soldados, se le olvida decir cuántos eran veteranos experimentados y cuantos novatos. La realidad, además, tiene muchos puntos de vista. La segunda guerra mundial es un evento para un francés, otro para un estadounidense, y otro para un alemán. La nacionalidad es uno más de los elementos que crean identidad, nos moldea a través de su capital cultural y lo mismo con el género. La cuestión es que ni siquiera los relatos más veraces pueden representar la realidad. Por lo que es ingenuo que la información pueda representar la verdad. Es ingenuo pensar que la solución a la desinformación sea más información. Eso lo veo en twitter todos los días.

La pregunta de verdad, debería ser, hasta qué punto tal información permite una buena conexión entre personas. Pero la capacidad de conectar, viene influida por ilusiones, errores y fantasías. Uno siente que conecta con tal grupo o gente, pero se inventa toda una historia acerca de ellos.

En las tecnologías de redes de información, el primer artefacto que nos encontramos es el relato. Este es un conector, que permite que no tengamos que conocernos y vivir juntos para cooperar, como lo hacían nuestros ancestros en sus manadas nómades. Tal vez el primer gran relato que se hizo viral, utilizando el léxico actual, fue el de Jesús. En los relatos, hay unos objetivos, como decir que el día está soleado, otros subjetivos, que hablan de emociones. Pero hay un tercer tipo que son los intersubjetivos, que vinculan y existen en el nexo entre un buen número de mentes. Como por ejemplo, las leyes como no cruzar en rojo un semáforo, las naciones, los Dioses, y el dinero. En sí, objetivamente no tienen ningún valor, pero los miembros que participan en el relato deciden darle vida. Estos son los relatos más importantes, porque crean realidades. Estos son los que mantienen unidas a las redes humanas. Hay un componente importante, la ficción puede simplificarse tanto como queramos -de ahí las teorías complotistas- mientras que la realidad siempre es más compleja, y por ende, más difícil de difundir.

Una segunda ventaja de la ficción, es  que la verdad suele ser dolorosa e inquietante. Como que existe el calentamiento global, y tenemos que cambiar nuestro modelo de consumo, o que reprobe en la Universidad o no conseguiste un trabajo porque no soy lo suficientemente bueno  ¿A quién le gusta escuchar eso?

Lo cierto es que para sobrevivir toda redes de información necesita dos cosas: descubrir la verdad y crear orden. A algunos no les gusta la teoría de la evolución porque nos hermana con los chimpancés, y nos quita un halo divino, abriendo una ventana de caos. El equilibrio entre orden y verdad es la balanza de cada red de información.

Lo importante aquí es que los relatos -tecnología de información- no pueden representar la verdad. Luego aparecen los documentos. Hasta antes, no había un rey que se pudiera recordar con detalle topográfico qué terreno pertenecía a cada vecino. Pero con una tabla de arcilla, una tira de bambú, un pedazo de papel o un chip de silicio esto cambió. Se podía oficializar que poseías dicho terreno. La propiedad es otra realidad intersubjetiva creada mediante un intercambio de información, pero ahora la información adopta la forma de un documento escrito. Ya no se necesita que se comunique entre sí o hablando por gestos. El poder de los documentos es que tienen vida, si el billete de 10 euros lo come tu perro, ya no vale. No puedes ir a la verdulería con tu vecina como aval que eres propietario de 10 euros. No funciona así.

Es ahí cuando aparece la burocracia, que es el ordenamiento de estos documentos. Es verdad que estos documentos funcionaban mucho mejor que cualquier cerebro humano, pero su aparición viene con el problema del almacenamiento de documentos. Este orden de organizar y categorizar la información es lo que se llama la burocracia.

Pero la burocracia también simplifica el mundo, y sacrifica la realidad por verdad. Fuerza a que elementos entren en sus cajones, es que la burocracia tiene una determinada cantidad de cajones fijos. Incluso, hoy la mayoría de los homo sapiens, tenemos entre 1 a 3 por ciento de ADN neandertal, por ejemplo. O un buen hombre blanco puede tener sangre afroamericana. O el problema de género, que solo nos separaban en hombres y mujeres, hasta hace poco.

Pero la verdad es que estas categorías, más o menos arbitrarias, son vitales para la supervivencia de especies por ejemplo, que están en peligro de extinción. Una decisión burocrática puede salvar o matar especies. Prohibida la caza de la especie con nombre latino x, los salva.

Independientemente de relatos o documentos,  el gran error que tiene un artefacto o tecnología en una red de información es su presunción de infalibilidad, la cual viene casi siempre de una conexión con lo divino, y que se presenta en los libros sagrados. Estas tecnologías infalibles son las más conservadoras, las menos reacias a la modificación, porque ¿cómo modificar el mensaje de Dios? Además estas tecnologías que son los libros sagrados son creadas efectivamente para esquivar la falibilidad humana. La gracia del libro es que garantiza que mucha gente de distintas épocas y lugares pueda acceder a la misma base de datos. Cosa que no se podía con el relato. Antiguamente la comunicación se hacía a través de médiums, como un oráculo en Delfos.

Pero esto se hacía a través de pitonisas, o sea, al final siempre esto pasaba por un humano, y eso es lo que el libro sagrado termina, o intenta al menos ¿Pero quien compila este mensaje divino que cae de los cielos? Al final tuvieron que ser humanos ¿Cuáles fueron las bases para crear consenso del mensaje? ¿Los más sabios? ¿Quiénes eran los humanos más sabios? Y cuáles eran los criterios para ser el más sabio? ¿El con más seguidores y más comentarios?

Pero luego viene el problema de época de que faltarían más de quince siglos hasta que llegara la imprenta y pudiera difundir a gran velocidad el mensaje. Faltaban los intérpretes. El antiguo testamento dice que no se trabajará el sábado. Pero no aclara lo que se considera trabajo. ¿Está bien regar tus plantas? ¿Está bien leer un libro?¿O rasgar un pedazo de papel? Los rabinos dictaminaron que leer un libro no es trabajo, pero que rasgar papel si lo es.

Inevitablemente estos interpretadores de la verdad acumularon poder y se volvieron más relevantes que el propio libro. En el cristianismo, este rol, lo tomó otra institución que fue la iglesia católica. La teología católica aceptaba que jesús nos hubiera dicho que amaramos a nuestros enemigos, pero defendía que quemar herejes era un acto de amor porque disuadir a otras personas de adoptar opiniones heréticas, las salvaba de las llamas del infierno. Pero no de las llamas de este mundo.

Estamos en una red de información, en que el orden lo es todo, sin diversidad. La iglesia pretendía limitar la difusión de libros únicamente a aquellos que la respaldan, y la gente confiaba en la iglesia porque casi todos los libros la apoyaban.

Así pasó el medioevo, guerras santas, quemas a lo bonzo de herejes, e incluso heroínas de guerra, como Juana de Arco. La introducción de la imprenta, impensadamente cambia esto. Supuestamente, el hecho de que se permitiera que la gente intercambiará información con mucha más libertad que antes condujo la revolución científica ¿Cómo podría ser lo contrario? Finalmente se podrían difundir textos de todo tipo. Quienes conectan la imprenta con la ciencia dan por sentado que producir y difundir más información lleva inevitablemente a la gente a la verdad. Bueno, pero antes que Copérnico enseñara que la tierra no estaba en el centro del Universo, en regiones como en Valais, en la actual Suiza, ocurrían las primeras cazas de bruja en masa, por la difusión de un texto influyente del siglo X, el Canon Episcopi, que atacaba la brujería. Si, la caza de brujas fue un fenómeno moderno, no medieval. Luego un fraile inquisidor crea y difunde su texto “El martillo de las brujas”, en que decía por ejemplo, que las brujas le robaban el pene a los hombres y que luego depositaban en nidos de aves o los guardan en cajas. Obviamente la realidad, siempre es más compleja, es multifactorial, pero la imprenta en vez de develar la verdad, en este caso, fue una herramienta para propiciar la caza de brujas.

Las brujas se convirtieron en una realidad intersubjetiva, como decía anteriormente, esas ficciones que son creídas por grupos, que toman el estatuto de verdad. Como el dinero. Si todo el mundo lo cree o lo dice, será verdad, no?

Y como siempre hay gente que ganó con esto. Los impresores y libreros ganaban mucho más dinero con el martillo de las brujas, que con los libros de Copérnico. Pese a que el primero era falso y el segundo veraz.

Para que la verdad tenga éxito, es necesario crear instituciones de organización y conservación con el poder de inclinar la balanza a favor de los hechos. En este ambiente, se crean por primera vez las asociaciones científicas como la Royal Society of London for Improving knowledge, fundada en 1660. Y así se multiplicaron en Francia, Holanda, y en toda Europa.

Estas instituciones tuvieron éxito y ganaron autoridad porque contaban con fuertes mecanismo de autocorrección que denunciaban y rectificaron sus propios errores. Humildad que no podía reconocer ni la iglesia, ni los rabinos, ni nada de la esfera divina.

Se quitaba así el sesgo de confirmación, es que no se puede confiar en nadie que corrija sus propios errores -incluso los genios lo tienen. Estas instituciones premiaban el escepticismo y la innovación en lugar de la conformidad. ¿Escépticos como  las teorías de conspiración pensarán algunos? Es verdad que son escepticos,  pero solo con todo el consenso existente, en cambio, cuando se trata de sus propias creencias pierden todo su escepticismo y sucumben con el sesgo de confirmación. Son fervorosos borregos de sus lideres.
Es digno de elogio este rasgo de autocorrección, nunca escucharemos en cual sea religion, al lider decir “Nuestro expertos acaban de descubrir un error garrafal en la biblia, corán. Pronto publicaremos una edición revisada”

En cambio sí hemos escuchado decir a inicios del siglo XX a la comunidad científica que la física newtoniana no explica completamente el Universo -obviamente no sin arduos debates, picardía, inventiva- pero nunca matando a nadie. Lo mismo con el manual de desordenes mentales, donde hasta 1974 la homosexualidad se listaba como una alteración sociopatica de la personalidad. Confesar los errores, afina la máquina, no la corroe.

Pero, volviendo al equilibrio de orden y verdad, si sacrificar la verdad, como lo hacen las instituciones sin mecanismos de autocorrección, en pos de un orden, tiene costes. Lo mismo pasa a la inversa, cuando se sacrifica orden, en pos de una verdad absoluta. Es que no es interés ni potestad de la ciencia, ella delega el orden a la política, al Estado. El universo tiende al desorden, es una de las leyes de la termodinámica y de ahí todo se complejiza. Necesitamos un mínimo de orden, sino es caos ¿Cuánto orden? Esa respuesta cada persona y por ende cada pueblo la debe formular en su propio diván.

Y una de las mayores preguntas con la irrupción de la IA es si favorece o socava los mecanismos democráticos de autocorrección.

Y ahora hago esta última parada antes de entrar en lo que todos quieren escuchar que es la Inteligencia artificial. Veamos en lo práctico, aterricemos todo en los últimos 100 años. Una dictadura por ejemplo, por ser centralizada carece mecanismos de autocorrección sólidos, todo pasa por un centro infalible, bien entre comillas. Eso es lo que ocurría en la URSS de Stalin donde no había a quien reclamar cuando la inteligencia rusa te anotaba en el libro negro. En cambio, una democracia, es una red de información distribuída que cuenta con mecanismos de autocorrección sólidos. Las famosas instituciones, prensa independiente, un senado, ONG, sindicatos, empresas, y un largo etc.

Actualmente vemos como ha habido una irrupción de algo híbrido: las democracias iliberales. Donde encontramos a Orban en Hungría, Netanyahu en Israel, Erdogan en Turquía por ejemplo. Estos hombres fuertes, como los llama Harari, son elegidos democráticamente y luego empiezan a desmantelar los sistemas de autocorrección, empiezan con los tribunales, se hacen de los medios de comunicación, y así siguen. Luego calumnian a las respectivas oposiciones y en el peor de los casos las persiguen. Pero a diferencia de las dictaduras, no abolen las elecciones. ¿Por qué son iliberales? Porque atacan las libertades de prensa, académica y de reunión, entre otras. Pero como decía Stuart Mills, en Sobre la libertad, el Estado necesita una oposición que lo desafíe, que lo cuestione, que sea escéptico. Sino, el Estado es rápidamente captado.  Por eso hay que tener cuidado con lo que también Stuart Mills, llamaba la tiranía de las mayorías, hay que ponerle bordes, porque sino, la mayoría puede en caso extremo decidir, eliminar una minoría, como ocurrió en la Alemania nazi. Así como las instituciones de la verdad, como centros de estudios científicos, Universidades, etc, delegan el orden. Tampoco es sano que el Estado no delegue la verdad. Imaginense que solo porque una mayoría niega el calentamiento global, vamos a omitir medidas sugeridas por científicos. Harari dice que permitir que el gobierno supervise la búsqueda de la verdad equivale a encargar al zorro que vigile el gallinero.
Bueno, aquí algunos se dirán, y quién les dio la autoridad a estos científicos o peor, a estos doctores de ciencias sociales, en decir cual y cual no es la verdad. Eso es exactamente lo que hacen los populistas, ellos dividen el pueblo en buenos y malos, en zurdos de mierda y fascistas, bajo un único eje del poder. En ese sentido, todo lo que vaya en contra de ellos, como contra los combustibles fósiles por ejemplo, es porque persiguen intereses políticos o económicos. “Estos verdes marxistas, son envidiosos, quieren quitarme mi esforzada tajada de la torta, cambiando la matriz energética, para imponer negocios propios de energías limpias”
Pero el populista, sabe eso, y sabe aún más, que él es el portador de la verdad, entonces no necesita instituciones fuertes de autocorrección, esas son enemigas del pueblo. A esa red de información peligrosamente muchos países se están volcando.

Pero surge una legítima duda ¿Nos podemos poner todavía de acuerdo cuando somos tantos democráticamente? Antes del desarrollo de la tecnología de la información moderna, no encontramos ejemplos de democracias de gran envergadura en ningún lugar. Hasta el siglo XX todas las democracias de gran envergadura limitaron los derechos políticos a un círculo reducido de hombres más o menos adinerados.

Un gran instrumento para luchar con esto fue el diario, como folleto informativo, que podía corregir día a día sus opiniones emitidas. Pero ni en la Rusia Zarista, ni en la China de la dinastía Han, ni en India, ni siquiera en en EE.UU que en 1820 tenía más esclavos que votantes, se abrió la cancha, salvo hasta el siglo pasado.

Aquí el autor pasa ejemplos de totalitarismo en China y Rusia, pero lo que hay que retener es que el totalitarismo quiere que toda la información pase por el núcleo central y que no haya ninguna institución independiente que tome decisiones por sí mismas. Mientras que la democracia incentiva el flujo de información a través de diversos canales independientes en lugar de hacerlo únicamente a través del centro.
La mayor ventaja de la red totalitaria es que es extremadamente organizada, lo que significa que puede tomar decisiones con rapidez y hacer que se cumplan sin compasión. Cómo enviar familias completas a Siberia o a campos de concentración. Pero también hay problemas, como el de bloquear la información porque subordinados temerosos ocultan malas noticias a sus superiores. Como se ve en ese clásico video meme, en que Hitler está en un búnker, le llega la noticia que han perdido la guerra. Nadie quiere dar esas noticias. En definitiva, se tiende a darle más valor al orden que a la verdad, cueste lo que cueste, como ocurrió con el desastre nuclear de Chernobyl, en que solo se supo esto porque en Finlandia se detectaron elevados grados de radiación en el aire.

Pero ahora el escenario ha cambiado y estamos en un mundo de algoritmos. Ese miedo se ha difuminado gracias a las redes sociales, y quien sea, en el rincón que sea, puede difundir un desastre nuclear con un teléfono. Existen algoritmos.

Y ellos descubren cosas de nosotros que ni siquiera nosotros sabemos, nos conocen mejor que nosotros, nos recomiendan música que nos gusta y noticias que nos interesan. Es que estamos en la economía de la atención que son el corazón de las redes sociales, que buscan mantenernos el mayor tiempo posible enganchados interactuando en sus plataformas. Han sido entrenados para aquello. Han descubierto que el odio es una emoción determinante. Como mencionaba en el inicio, Facebook jugo un papel principal en la difusión de odio hacia la comunidad musulmana rohingya en Myanmar, donde los budistas, que son el 90%, se sintieron amenazados por esta minoría y comenzaron una persecución que decantó en un genocidio. Esto no lo decidió directamente el equipo de facebook, el algoritmo lo aprendió solo, a modo de prueba y error,  aprendió que reaccionamos más a través de estos mensajes. Inclusive un pueblo budista. Los algoritmos podrían haberse decidido por difundir cursos de cocina, este podcast, pero decidieron difundir teorías de conspiración llenas de odio. 

Por lo que no es exagerado decir que corremos peligro de perder el control de nuestro futuro.
¿Pero cómo nos va a manipular una entidad que no tiene ni siquiera consciencia?

Si para tomar decisiones y generar ideas se necesita tomar conciencia. Pero este es un error de interpretación, dice Harari, que deriva de la confusión entre conciencia e inteligencia.
La inteligencia es la capacidad de alcanzar objetivos como, por ejemplo, potenciar la implicación del usuario en una plataforma de redes sociales. La consciencia es la capacidad de experimentar sentimientos subjetivos como dolor, placer, amor y odio.
Por supuesto, si los ordenadores siguen adquiriendo inteligencia, podrían llegar a desarrollar conciencia y a poseer algún tipo de experiencia subjetiva. Pero también podrían llegar a ser mucho más inteligentes que nosotros sin desarrollar nunca ningún tipo de sentimiento.
¿Pero qué pasaría si una IA pudiera ser instruida para superar los CAPTCHA, esos test para discernir entre computadores y humanos? ¿Podría una IA manipular a un humano para alcanzar ese objetivo? 

Digo esto, porque en la nueva cadena de información, la presencia humana no es imperativa. Los ordenadores, no son solo herramientas, s Qino que son agentes y generan nuevas ideas por sí mismos. Y si el poder como concepto depende de cuántas personas o entidades cooperan contigo, del conocimiento que tienes en las leyes y de exitosas estrategias financieras, entonces los ordenadores se encuentran a las puertas de acumular mucho más poder que los humanos.

En la década de 2010 las RRSS se convirtieron en un campo de batalla por el control de la atención humana. En la década de 2020, es probable que la batalla pase de la atención a la intimidad. Ya contaba en el episodio de la generación ansiosa, que los humano se están empezando a enamorar de chatbots, y a suicidarse por ellos y son los menores los más vulnerables. La gente podría llegar a utilizar un único ordenador como consejero, como si de un oráculo integral se tratase.

De lo que estamos hablando es de la posibilidad de que la historia llegue a su fin. No del fin de la historia, sino de la parte dominada por los humanos ¿Acaso no sienten que están pasando el relevo? Es como si nos estrujaramos y le diéramos una palmadita en la espalda a estos ordenadores, chat box y/o algoritmos. Y el resultado es que cada vez más las nuevas generaciones tienen más problemas de atención, y ahora se suman problemas de memoria, causados por el uso y abuso de estos modelos de lenguaje ¿Sorprenden acaso? ¿No es acaso una señal? Estamos perdiendo relevancia, estamos llegando al final de la línea, y nos está reemplazando algo más sofisticado.

¿Qué exagero? Los primeros computadores aparecieron hace ochenta años. Estos modelos en comparación a la vida orgánica, que conocemos, ni siquiera llegan a la etapa de las bacterias, ni de las amebas, están muchísimo antes. Solo queda ver cuando lleguen los dinosaurios. Harari dice que mientras a la evolución orgánica le tardó cuatro mil millones de años en pasar de la sopa orgánica a los simios que pisaron la luna, a los ordenadores le puede llevar solo un par de siglos desarrollar una super inteligencia, expandirse hasta tamaños planetarios, contraer a un nivel subatómico o acabar extendiéndose por el espacio el tiempo galáctico.

Harari utiliza el término computador u ordenador para los amigos españoles y no algoritmo o IA, ya que es consciente con lo rápido que cambian los términos.

Bueno, Harari se da toda está vuelta, para hablar de responsabilidad. Es que cuando escribimos código informático no solo estamos diseñando un producto. Estamos rediseñando la política, la sociedad y la cultura. Es increíble que todavía los gigantes del tech diluyen esa responsabilidad en sus usuarios. Después de toda la evidencia de odio, y de elecciones manipuladas por algoritmos.

Pero pareciera que esto ya se pudrió hace rato, el 2022 las principales compañías tecnológicas destinaron cerca de 70 millones de dólares al lobby EE.UU y otros 113 millones en la Unión Europea, lo que supera el gasto de lobby por las empresas petroleras y las farmacéuticas.
El problema es más profundo, los principios como “el cliente siempre tiene la razón” y “los votantes saben mejor que nadie”, dan por sentado que los clientes, los votantes y los políticos saben lo que sucede a su alrededor. Cuando eso que saben, es justamente lo que más interés y más tiempo los va a retener en redes sociales, nada más.

Otro asunto son los impuestos, ¿donde tributan las empresas que están en el ciberespacio? Shell, el kiosco de la esquina, tributan donde extraen petróleo y donde venden el diario, los gigantes del tech deben tributar entonces en los países donde extraen datos. Eso habla de un cambio de paradigma, de que el valor o la moneda, están pasando a ser más rápido de lo que uno cree, los datos. Es la mina de oro, el pozo de petróleo, al mismo tiempo.
¿Qué importancia tienen los dólares si se puede obtener lo que sea con información? Estamos cambiando de una economía monetaria a una economía de datos. Todavía no sabemos cómo gravar este nuevo modelo.

La recolección de datos es tan grande que ha permitido grandes avances y beneficios. En 2023 unos algoritmos de reconocimiento facial ayudaron a localizar en China a un niño raptado el 2001, cuando este tenía tres años. En 2023 Irán, desde 1979 una teocracia islámica, instaló cámaras de reconocimiento facial para detectar a las mujeres que no portaran el hiyab en el espacio público, después de las últimas protestas, incluyendo a aquellas que se trasladaban en sus autos particulares.
Esto bien enfocado incluso podría parecer positivo, imaginense detectar a todos los violentos, asesinos, y personas que crean incendios, pero esto se puede desmadrar -como dicen los amigos mexicanos- fácilmente a otros casos como el de contaminar. Se te cae un boleta del supermercado por error en la calle dos veces y la cárcel? Bueno, esos casos podrían llegar. Es lo que le puede pasar a una mujer iraní que se le desamarra su hiyab, y si hay reincidencia, podría tener 10 años de cárcel.

Los países totalitaristas con redes de información centralizada ya empiezan a jugar con estos juguetes. Harari habla de un distópico, pero no lejano, sistema de puntuación social. Si piensan incluso en las sociedades más capitalistas, siempre ha habido muchas cosas carentes de valor monetario.
Para puntuar aquello que el dinero no puede comprar existía un sistema no monetario alternativo que ha recibido diferentes nombres: honor, posición social, reputación, etc. La diferencia entre estos sistemas, es que el primero es cuantitativo, preciso, exacto. Mientras que el sistema de reputación no lo es, por ejemplo en la época medieval, los caballeros no tenían idea de la cantidad de su honor.¿Ser valiente en la batalla les reportaría diez o cien puntos? El solo hecho de la pregunta ya era sinónimo de malicia, de deshonor, de vil utilitarismo.

Sin embargo,este sistema ya ha llegado. Ya lo utilizamos para saber donde ir a comer, por ejemplo en Tripadvisor, o para donde alojarse en vacaciones en booking, por dar ejemplos.
El gobierno chino, por ejemplo, explica que sus sistemas de puntuación social, podrían contribuir a luchar contra la corrupción, las estafas, la evasión de impuestos, los anuncios engañosos y las falsificaciones, al transparentar toda la información de los ciudadanos reforzando la confianza entre individuos, entre clientes y empresas, y entre ciudadanos e instituciones gubernamentales.
El sistema de puntuación sin darnos de a cuenta está absorbiendo este sistema de honor en las ciudades, en el que se valoraba al chico que salvó en la playa a la niña que se ahogaba. Ejemplo de ciudad costera, jeje disculpen. Eso ahora no interesa en las megalópolis, es que se ha perdido la confianza, estamos -y esto viene de antes la IA- vinculados como números, más que por vínculos afectivos, en la mayoría de nuestros roles. Pero esto podría expandirse y perseguirte en todo momento.
¿Te emborrachaste en una fiesta del instituto? ¿Participaste en una manifestación política? ¿Eres amigo de alguien de reputación baja? Esto será parte de tu entrevista de trabajo o tu ficha criminal. Tanto a corto plazo, como décadas después.

Quedaríamos manchados para siempre por errores menores años antes. Y eso tiene sus consecuencias.Hay más gente que se suicida por su baja reputación que por una adversidad económica. Sino, miren culturas como las japonesas, en que el honor es de los valores más altos en su escala de valores.

Siempre ha sido un alivio darnos un respiro de dichas competiciones de honor, ya suficiente con las comparaciones materiales y la carrera de ratas. Ahora imaginense estar compitiendo además, porque en el cumpleaños de Javier, el que trae el mejor regalo tiene 20 puntos y todos los demás 0. Si se decide imponer algo así, no solo la privacidad que ya casi no existe estaría destruída, sino que nos obligaremos a mirar aún más a los demás, porque nos afectaría directamente en este sistema comparativo, donde siempre hay ganadores y perdedores. Un sistema de reputación sería más controlador que el sistema monetario.

La información no es la verdad. Un sistema de vigilancia total puede generar un conocimiento muy distorsionado del mundo y de los seres humanos.

La verdad es que las redes suelen equivocarse. Son falibles. La culpa actualmente del odio, polarización y el desastre en Myanmar por ejemplo, los gigantes del tech es endosado a los usuarios. A la famosa libre expresión, pero lo que ya sabemos desde las redes sociales, es que nadie dice de ir en contra del freedom of speech, sino que del freedom o reach, o sea a la libertad de alcance de los algoritmos de amplificar el contenido dañino mediante una distribución forzada, como decíamos cuando detectaron que el odio era un gran motor de interacción en las redes. En 2016 Facebook detectó que 64% de afiliaciones a grupos extremos fue por recomendación del algoritmo.
Una hora de mentiras puntúa más que diez minutos de verdad. Cuando una avalancha de falsedades e indignación inunda las plataformas, los ejecutivos confiaron en que, si se permitía que más personas se expresaran con más libertad, al final acabará por imponerse la verdad.
Cuando a un algoritmo se le marca un objetivo concreto, como aumentar el tráfico de Youtube a mil millones de horas al día, emplea todo su poder e ingenio para conseguir dicho objetivo, la veracidad, el odio es irrelevante. Eso es lo que se busca regular.

Es que no se puede tener un único objetivo final, sin regulaciones, sin abrir la caja de pandora y dejar a los monstruos salir. Hemos hablado de esto en el episodio/video del paso del tiempo, el cual pueden visitar para ahondar en esos conceptos. Que la danza del cosmos es una sinfonía, no hay monólogos. Los ejecutivos e ingenieros que se apresuran a desarrollar la IA cometen un enorme error si piensan que existe una manera racional de decirle a la IA cuál ha de ser su objetivo principal.
¿Qué podemos hacer? Se pueden seguir filosofías como la utilitarista, que el objetivo es minimizar el sufrimiento y maximizar la felicidad ¿Pero cómo calculamos el sufrimiento? El utilitarismo se vuelve evidente en casos donde la balanza sufrimientro contra felicidad se desequilibra, como en el holocausto para el pueblo judío. El peligro es que la recompensa de ese futuro utópico, en pos de esa felicidad, permite aceptar este tipo de crímenes como el exterminio. Todo debido a imposibilidad de medir el sufrimiento.
Es un problema esto de declarar un único objetivo a un algoritmo, sin que se queme la pradera en un otro  punto. Se necesita regular.

Harari contínua e indica que no sorprendería que la IA empiece a ser cada vez más protagonista en la agencia de creación de cultos, monedas, incluso de part idos políticos o religiones, todos creados por entidades inorgánicas. Es por lo mismo, que tal vez en el corto plazo, ya nos encontremos en situaciones en que las IA obtengan derechos, y sean reconocidas como personas legales.

Hay que pensar que hoy a final de febrero del 2025, los modelos de lenguaje más de punta, tienen defectos y sesgos varios. No es descabellado pensar que estos modelos de lenguajes se multipliquen y ocupan nichos, como para personas más progresistas y otra más de derecha: tipo CNN y FOX, respectivamente. Microsoft el 2016 lanzó el chatbot de IA Tay y le concedió libre acceso a Twitter. A las pocas horas Tay empezó a publicar tuits misóginos, antisemitas. Solo diez y seis horas pudo estar mínimamente presentable Tay, sin que se le saliera la cadena.
Es que estos modelos de lenguaje son alimentados con información ya sesgada. Por ejemplo, un algoritmo de clasificación facial de IBM el 2017 se equivocaba solo un 0,3 por ciento de las veces cuando intentaba identificar el género de hombres blancos, pero el 34,7 por ciento cuando eran mujeres de piel oscura. Es un problema esto, que podría crear aún más desigualdades, los modelos de lenguaje deben estar vigilados atentamente. Esto fue porque tomaron fotos de bases de datos sobre artículos en línea. Y como el 78 por ciento de las fotos eran de hombres, el algoritmo se hizo experto en detectarlos, pero pésimo en detectar caras de mujeres negras.

Y es que aquí ocurre el peligro de pasar de un mito intersubjetivo como el de “las mujeres no son buenas en matemáticas” a luego a un mito inter computacional por los datos acumulados, y luego convertido en una realidad. Si no nos libramos de los sesgos desde el inicio, los computadores pueden perpetuarlos y magnificarlos.
¿Pero donde podemos encontrar un conjunto de datos libres de prejuicios? Es pedir a nuestros hijos que hagan lo que nosotros no logramos, ¿no? ¿O mejor dicho nuevos Dioses?

Volvamos a las redes de información.A diferencia de los libros sagrados la IA puede adaptarse a las circunstancias cambiantes y a la vez interpretar sus decisiones e ideas para nosotros. Es biblia e iglesia al mismo tiempo.
Los algoritmos son agentes independientes, como hemos hablado, que ya nos están arrebatando el poder. Si imponemos una estructura o una sociedad de puntos o una mitología informática tan compleja, que no llegue a haber ningún humano que la entienda. ¿Cómo la podremos revisar para ver si se equivoca?

¿Podemos mantener una conversación? Un primer principio de una red de información es el principio de benevolencia, o sea que la información recopilada sea para ayudarme y no para manipularme. Este principio lo siguen los doctores, psicólogos, saben de nuestros vicios, nuestros hábitos sexuales,  y de nuestra familia, pero siempre con el objetivo de que sea benevolente hacia nosotros. ¿Por qué no extender un principio tan obvio y antiguo a ordenadores y algoritmos?
Si ya no pueden los gigantes tecnológicos adaptar su deber fiduciario(que es el deber de actuar en responsabilidad con sus usuarios), los legisladores podrían requerirles que cambien el modelo de negocio, en que los usuarios no paguen con su información sino con su valor monetario, como con el sistema antiguo. Porque cuando algo es gratis, como las redes sociales, es porque tu eres el producto. Ese es un principio de este nuevo sistema de información y post-monetario, por eso el peligro del monopolio de los datos, porque las barreras de entrada para otros actores es altísima. Y es que este es un segundo principio que podría proteger las democracias, la descentralización. Para la supervivencia de la democracia, la ineficiencia no es un defecto, es una característica. Es que para proteger la privacidad y libertad de los individuos, será mejor que ni la policía ni el jefe lo sepa todo sobre nosotros. Estas bases de datos no se pueden mezclar con la de los bancos, compañías de seguro, de policías, y así. Lo que trae un tercer principio, el de la mutualidad, si va aumentar la vigilancia sobre el individuo, también debería ser sobre el gobierno, y las empresas, incluídas las empresas tecnológicas, sobre todo ellas. Hay una asimetría grosera entre estos gigantes del tech, y el consumidor.¿Acaso tienen políticos en las planillas? ¿Cómo deciden su algoritmo?
Y aquí viene un cuarto principio para Harari en esta nueva red de información si queremos salvaguardar la democracia, que es dejar margen al cambio. Si mi compañía de seguros usa un algoritmo rígido puede aumentar la prima de mi póliza. Si lo utiliza mi banco, puede denegar un préstamo. Si lo utiliza un posible cónyuge: puede decidir no casarse conmigo. El ser humano es cambio, solo al escuchar este Podcast o una conversación en la micro, puede que algo está cambiando algo en ti, al animar a las neuronas a producir nuevas conexiones o a abandonar antiguos vínculos.

Hay otro aspecto que asusta, y tal vez es el más extendido, que es el reemplazo de los trabajos. La verdad es que el algoritmo encuentra mucha más facilidad para derrotar a un campeón de ajedrez, que en lavar platos. Seguramente en el futuro habrá que invertir tanto en habilidades motrices y sociales, tanto como en las intelectuales.
Un supuesto erróneo dice Harari, es que los computadores no pueden suplirlos en tareas que se precise inteligencia emocional, como la psicología o la enseñanza. Pero las emociones también son patrones. La IA no tiene emociones propias, pero puede aprender a reconocer estos patrones humanos. Hay experimentos que ya posicionan a modelos de lenguaje especializados sobre los humanos en reconocer emociones.
Pero claro, hay un consenso, al menos aún, de que no solo queremos a alguien que entienda nuestros sentimientos, sino que sea humano. Es lo que hacemos, repito, todavía, cuando buscamos amor o amistad.
En los deportes, ocurre lo mismo, nos interesan los juegos olímpicos de humanos, no de robots, al menos aún. ¿Crees que esto podría cambiar en el corto plazo? Déjame tus comentarios, si crees que nos vamos a enamorar cada vez más de chatbots o que nos interesará más seguir la excelencia de un Usain Bolt robot que un humano corriendo.
¿Siempre vamos a preferir lo propio? La gente tiene mascotas, pero sus amos, dan por sentado que estos sienten, que son capaces de amar y sentir dolor, pero solo porque tienen una relación emocional con su mascota.
Después de todo, es que no hay manera de verificar si alguien -sea humano, perro, IA- es consciente. Cariño no es conciencia.

En las décadas que sigan desaparecerán trabajos, aparecerán otros, pero los que aparezcan serán efímeros. Es probable que la flexibilidad sea la habilidad humana más importante para sobrevivir en el siglo XXI. Y las democracias son más flexibles que los regímenes totalitarios.
Por ejemplo en el caso evidente e inevitable de la incomprensibilidad de las decisiones de los algoritmos, que nos dirán porque no obtenemos una hipoteca o porque no te dan una visa. El derecho a entender porqué, es vital.
Ojo, esto no es teórico. Ya hay casos en que sentencias judiciales son apoyadas por ayudas de algoritmos, como en Wisconsin, donde un juez se apoyó de un algoritmo de análisis de riesgo, llamado COMPAS, que por el 2013 ocupaban algunos estados como herramienta. Al imputado y luego sentenciado, le dieron 6 años por un crimen menor, de intento de huída de un agente de tráfico y conducción de un vehículo sin el consentimiento del propietario. El señor Loomis, el sentenciado apeló al fallo, y la empresa Northpoint, que era quien tenía la propiedad de COMPAS, argumentó que la metodología del algoritmo era un secreto comercial. Además, qué herramientas tiene el juez para entender el funcionamiento del algoritmo de análisis de riesgo. Estamos llegando a esa distopía, tipo Psycho Pass, el anime japonés, altamente recomendado. Loomis se fue a la cárcel sin entender bien por qué tanto tiempo.

¿Podemos pedirles a los funcionarios regular algoritmos incomprensibles? Si estos empiezan a tomar vida y a complejizarse más y más. ¿Acaso los nuevos inventos se hallarán fuera de nuestro alcance? Y piensen, si esto se acentúa, si la caja negra toma todas las decisiones y nadie en un momento las podrá respaldar y aterrizar al ciudadano de a pie ¿Tiene sentido delegar el poder? ¿Tiene sentido la democracia, los políticos? Si, cierto que los podremos elegir, y hacernos creer en la importancia de la libertad. Pero en realidad será una gran fachada, una ceremonia vacía, como son hoy los reyes. Hacia esa irrelevancia vamos.

Si nosotros mismos algunas veces no nos entendemos, no comprendemos nuestras decisiones. No asistimos a una comida, no porque vaya tal persona, sino porque va el detestable de Francisco, pero también porque está lloviendo, y porque no va Alicia,  y porque es una cena, y no quiero estar sentado todo el tiempo, y porque es fin de mes, y no tengo tanta plata, etc. Nuestra toma de decisión propia, dice si voy o no voy, pero no sopesamos conscientemente todos estas variables. Lo mismo ocurre con un algoritmo bancario que se niega a concedernos un crédito bancario.

Lo positivo es que aún estamos a tiempo de que el bebé no se transforme en monstruo, todavía podemos enseñarle que decida o no dar el crédito, disminuyendo la importancia del color de piel, o la educación de sus padres o el colegio que estudió o su género u orientación sexual. Estamos a tiempo.
Además, siempre puede haber instituciones que piloteen esto. Grupos de humanos armados con otras IA analizan y revisan la imparcialidad de estos algoritmos.

Las instituciones se deben preparar para no ser absorbidas, pero también necesitamos de artistas divulgadores de estas nuevas tramas. De más series como Black Mirror, o Psycho Pass, que sean capaces de tocar estos temas de manera simple y entretenida, de divulgar. El hecho de que podamos crear sistemas de puntuación no significa que debamos hacerlo.

Estamos ante un eventual problema de anarquía digital, un estudio que menciona Harari, indica que de una muestra de 20 millones de tuits generados durante la campaña correspondiente a las elecciones presidenciales de EE.UU del 2016, casi el 20 por ciento, fueron generados por bots. Imaginense ahora. ¿Qué ocurrirá en esta época, que los deep fake están a la orden del día, permitiendo ganarse nuestra confianza y amistad? Los algoritmos y bots no solo ya se unieron a la conversación, sino que ya la dirigen. La gente en twitter no sabe si debate con un humano o una máquina manipuladora. Esta red de información anárquica es incompatible con la verdad y el orden, y no puede mantenerse mucho más tiempo.

Así como se luchó contra el lavado de dinero, se prohibieron y penalizaron los billetes falsos, se debería hacer lo mismo con los bots. Prohibirse. Sino, se perdía la confianza en el dinero. Si van a apelar los libertarios para defenderlo, a la libertad de expresión, habría que recordarles que un bot no tiene libertad de expresión. Es útil el chatbot que nos da consejos médicos, pero cuando se cruza la línea a hacerse pasar un médico de carne y hueso, es otra cosa.
Como mínimo las compañías deben mostrar transparencia en relación con los principios selectivos que siguen sus algoritmos. Después de todo moldean realidades, tenemos derechos de saber hacia dónde va el bote.

Si las democracias terminan por desmoronarse va a ser no por ningún tipo de inevitabilidad tecnológica, sino de un fracaso humano a la hora de regular con sensatez las tecnologías. Obvio que estas regulaciones van a quedar obsoletas, pero hay que seguir el rastro. La democracia, por sus mecanismos de autocorrección de ser escéptico ante el poder hegemónico, a diferencia de las dictaduras o gobiernos totalitarios, pueden regular el mercado de información. Su supervivencia depende de estas regulaciones.

¿Y si optamos por el totalitarismo? Centralizar todo en el caso de las IA en comparación con la burocracia allá URSS, ya no es un problema. Los archivos sin cajones donde ingresar, los burócratas ineficientes, el orden, es limitado, todo eso tiende a la ineficacia. Eso no ocurre con la IA.

¿Qué países creen que pueden generar mejores modelos? Países con leyes de privacidad restringida con cinco millones de habitantes, como NZ, o países con 1.400 millones de habitantes con leyes laxas en materia de privacidad como China? Bueno, al momento de escribir esto Harari, no aparecía DeepSeek el modelo de lenguaje chino. 

El problema es que si un autócrata del siglo XXI concede demasiado poder a los computadores, estos bien podrían convertirlo en su marioneta. Un algoritmo no consciente es capaz de acumular poder y de manipular a la gente -como hemos revisado- aunque carezca de instintos humanos como la codicia o el egoísmo. Esto porque las instituciones que vigilan el poder centralizado son menores, serían como Jafar o el hombre en la sombra que controla al sultán. Y cada vez que alguien intente hacer algo que atente contra el algoritmo, este sabrá cómo manipular al Líder Supremo. No tiene contrapartes, carece de mecanismos autocorrectores que permitirían corregir la red de información.

Pero más que dictadura lo que parece factible, es que los ordenadores circunscribiendo la información y el poder en un núcleo central, podría encaminarnos a una nueva era imperial. Las diversas redes podrían encontrar cada vez más dificultades para interactuar y lo mismo ocurriría con los humanos que estas controlan.
Algo de eso ya se ve cuando China prohíbe el uso de google y facebook. El problema es que una especie humana así, con problemas globales como el calentamiento global, necesita soluciones globales. No es la mejor estrategia pero parece que hacia allá vamos.

Se habla de dos hitos mundiales que levantaron la atención mundial sobre esta nueva era. El 2012 el algoritmo ImageNet logró en un reto, identificar con más de 85% certeza, correctamente a gatos. Así, tal cual. Luego en 2015 un algoritmo de reconocimiento facial diseñado por Microsoft, superó la capacidad humana para identificar imágenes de gatos, logrando una increíble precisión de 96 por ciento. Hasta antes de aquello la IA todavía parecía un campo especulativo de geeks, y una de las tantas áreas de investigación que no producían retornos. Pese a que ya el 2002, el CEO de Google Larry Page decía que lo que buscaban era recopilar los datos suficientes para crear una IA.
El vencer a lo humano era un cambio copernicano, un evento bisagra y esto rápidamente se intentó replicar: Israel se basó en este modelo para el reconocimiento facial de civiles palestinos en territorios ocupados, al poco tiempo. Como siempre, empieza en comedia  y termina en tragedia.

Este fue el primer hito. El segundo hito, lo contaré en el siguiente episodio.
Pero lo que es relevante es que lo que empezó como una carrera entre empresas, ahora se ha propagado a los Estados. “Quien controle los datos controlará el mundo” decía en 2018 Modi, el primer ministro de la India.

Y hablamos de imperialismo porque para colonizar a un país basta con apoderarse de sus datos. La materia prima de la IA son los datos. Datos de La Paz o Managua pueden enriquecer y afinar algoritmos de asistencia sanitaria por ejemplo, que enriquecerán a gente en San Francisco o Pekín. Mientras que esos ciudadanos seguirán siendo pobres, porque no recibirán ni los beneficios ni el poder. Las brechas de desigualdad -que sabemos que traen caos, violencia- con seguridad aumentarán.
Ni siquiera habrá teoría del chorreo, en que inversores de países del primer mundo extraen bienes en países del tercer mundo, y de pasada -muchas veces-dejando desastres medioambientales, pero al menos dando trabajo y bonanzas económicas.

El telón de silicio se está instalando. Y actualmente la tensión es entre China y Estados Unidos, todo el resto parece arroz graneado, acompañamiento. China puede encontrarse un paso adelante en lo relativo al desarrollo y la puesta en marcha de un sistema de puntuación social que abarque todos los aspectos de la vida de sus ciudadanos. El objetivo de la IA en China es reforzar el estado y servir a las políticas del Gobierno.

En cambio Estados Unidos, está atrasado con respecto a esa estructura de privacidad laxa que permite amasar datos, pero tiene más historia en esto. Aunque aquí el objetivo final de la IA es distinto, ya que es enriquecer a los gigantes tecnológicos. Si los chinos tienen prohibido facebook y google y el uso de wikipedia. Los estadounidenses, a su vez, son pocos los que utilizan las redes chinas, salvo tik tok. Ahora Trump con sus aranceles, intenta evitar los aparatos chinos como la red 5g de Huawei, a costa de los bolsillos de sus ciudadanos.
La verdad es que desde las redes sociales, la idea de una única realidad humana compartida, parece que ha llegado para quedarse. El futuro podría pertenecer a las cápsulas, a los grupos de semejantes.

Y en esta nueva órbita digital: Es legítimo preguntarse por la identidad corpórea y digital. Es legítimo que alguien que haya encontrado un espacio profesional, una pareja, una comunidad en este espacio pueda sentirse liberado de lo corpóreo y pueda gozar de las infinitas posibilidades del mundo digital, potencialmente ajeno a las leyes biológicas. Uno es libre para deambular por un espacio más vasto y excitante, y para explotar nuevos aspectos de la identidad.
Ahora, si seguimos en la lógica actual, es complicado que algo fuera de lo corpóreo le sea dada una identidad, como por ejemplo a una IA, y sean reconocidas como personas legales y gozar de derechos. Esa postura ni siquiera en mediano plazo se debería tomar ¿Estamos preparados para esa conversación? Necesitamos filosofía ontológica para esto, entender que nos constituye como seres.

Pero esto siempre parece menos urgente al lado de posibles conflictos bélicos. La teoría de juegos enseña que el momento más peligroso en una carrera armamentista es cuando uno de los bandos siente que goza de ventaja, pero que esta se empieza a desvanecer. ¿Les suena eso a nuestros locos años 20’?

Lo lógico es buscar cosas en común, nuestro vínculo como especie, y salir del eje patriota versus globalistas. Cuando se descubre una vacuna por una farmacéutica alemán, un brasileño debería celebrar. Ningún colectivo humano, ya sea tribu, comunidad conspiracionista o Estado, puede beneficiarse del hecho de que el poder pase de los humanos a los algoritmos.

Al final hay que salir de la lógica actual de la ley de la jungla, y buscar la cooperación. Y la ley de la jungla tampoco es así de completamente bestial, hay espacio para la cooperación, el 80 por ciento de las plantas terrestres basan su supervivencia en relaciones simbióticas con el reino de los hongos. Se necesitan, han llegado a esta altura de la evolución,  en equipo. Y con una mirada más alta, en ese eje de competencia y cooperación, esta última, la cooperación, es la que ha crecido en proporción. Cooperamos con gente que ni siquiera conocemos y de distintas razas, que ni siquiera hablan nuestro idioma.
Además, no creo que muchas personas se consideren unidimensionales y que solo les interese el poder para su toma de decisiones.¿Por qué tenemos entonces esa opinión de los demás? Porque el saber que el otro sigue corriendo hacia el poder, es lo que nos tiene corriendo a nosotros.

Todo esto parece utópico con guerras en varios polos del planeta y con el mundo tendiendo a una lógica imperialista, donde los presupuestos armamentistas aumentan. Sin embargo, deberíamos recordarles a estos líderes que el depredador más temibles está llamado a ser la inteligencia artificial. 

Y puede Harari ser catastrofista, pero su mirada no es la de un emprendedor, o influencer, que ve la IA como herramienta para su beneficio. Eso es evidente. Sino que es la de un historiador, que sabe que en su día, todo lo viejo fue nuevo. La única constante de la historia es el cambio.  Este libro al final afirma que el defecto no está en nuestra naturaleza, sino en nuestras redes de la información. Debido a que favorece el orden por encima de la verdad. Harari afirma que hemos creado una inteligencia ajena no consciente – aún- pero muy poderosa. Si la manejamos mal, la IA podría extinguir no solo el dominio humano sobre la Tierra, sino la propia luz de la consciencia, y convertir el universo en un entorno de oscuridad absoluta.

Pero para crear redes más sabias debemos abandonar tanto la ingenua como la populista red de información, que hablamos en el inicio, debemos encontrar un nuevo equilibrio entre orden y verdad, dejar de lado las fantasía de infalibilidad y comprometernos con el trabajo duro y poco sexy que es construir instituciones con mecanismo de autocorrección sólidos. Esta es la lección más importante del libro, según el propio Harari.
Las decisiones que tomemos en los próximos años determinarán si convocar a esta inteligencia ajena ha sido un error terminal o el inicio de un nuevo y esperanzador capítulo en la evolución de la vida.

Y vuelvo a hacer la pregunta con la que inicie el programa¿Está la humanidad preparada para delegar decisiones críticas y éticas a los algoritmos?¿Está la humanidad preparada para delegar decisiones críticas y éticas a los algoritmos?

Escribanme en sus comentarios. Seguiremos esta conversación en el siguiente episodio, sobre el gran hito de la IA que cambió el panorama mundial para siempre.

Soy Nico y gracias por haberme acompañado en este camino digital e incierto.
Hasta la vuelta, chau!


Agregar un comentario

Tu dirección de correo electrónico no será publicada. Los campos requeridos están marcados *