Inteligencia artificial en 2027: cuando la IA supere al humano
La inteligencia artificial ya está transformando el mundo. Pero ¿qué ocurrirá cuando supere al ser humano? En este episodio exploramos el escenario “AI 2027” y sus implicancias. Una reflexión sobre tecnología, conciencia y sentido de vida.
¿Qué pasará cuando la inteligencia artificial supere al ser humano?
La humanidad se encuentra en un momento decisivo. La Inteligencia Artificial ya no es un futuro distante: está aquí, transformando nuestra forma de vivir, de crear y de entendernos a nosotros mismos. Pero, ¿qué pasará cuando la IA deje de ser una herramienta y se convierta en un actor central en nuestras vidas? ¿Qué ocurrirá cuando la máquina piense más rápido, decida mejor y modele el mundo en que vivimos?
En este episodio de En el Camino exploramos el artículo “AI 2027” de Daniel Kokotajlo, un texto visionario que imagina un escenario inquietante: un mundo en el que la IA alcanza un nivel de poder y autonomía que redefine lo que significa ser humano. A través de este análisis, planteamos las grandes preguntas de nuestra época:
- ¿Estamos preparados para un mundo donde la IA sea más inteligente que nosotros?
- ¿Qué pasa con el sentido de la vida en un tiempo en que las decisiones cruciales ya no pasan por manos humanas?
- ¿Qué significa la libertad cuando el futuro parece escrito por algoritmos?
Este no es un simple video sobre tecnología. Es un viaje filosófico hacia lo más profundo de nuestra condición humana. Al igual que en los análisis sobre autores como Yuval Noah Harari, Roberto Bolaño, Nietzsche o Carl Jung, aquí buscamos algo más que datos: buscamos sentido.
La IA nos enfrenta a la pregunta más antigua y más urgente: ¿qué significa ser humano en un mundo donde las máquinas piensan y deciden? Si el hombre siempre se ha definido por su capacidad de imaginar, crear y soñar, ¿qué nos quedará cuando esas facultades sean superadas por una inteligencia no humana?
En este video descubrirás cómo la narrativa de Kokotajlo no solo describe un futuro posible, sino también un espejo de nuestro presente: la dependencia de la tecnología, la velocidad del cambio y la necesidad de replantearnos nuestro lugar en el cosmos.
En el Camino es un espacio donde la filosofía, la literatura, la psicología y el arte se cruzan para iluminar la vida contemporánea. Y hoy, más que nunca, necesitamos esas luces para atravesar el bosque oscuro de la era digital.
Este episodio es una llamada de atención, un recordatorio de que todavía tenemos un papel que jugar. Que aún hay un instante humano decisivo antes de que el futuro quede sellado. El desafío es atrevernos a mirar de frente lo que viene y preguntarnos, sin miedo:
¿Qué vamos a hacer con la Inteligencia Artificial y qué hará ella con nosotros?
La inteligencia artificial ya no es futuro. Es presente que nos transforma. Aquí exploramos cómo la tecnología redefine lo humano.
No desde el hype, sino desde la pregunta esencial: ¿qué sentido tendrá vivir?
Un espacio para pensar, antes de que todo cambie.
Si este tema te inquieta, no es casualidad. Estamos viviendo un cambio profundo, silencioso. Exploro estas preguntas en la serie sobre inteligencia artificial y futuro humano. Tal vez ahí encuentres algo que te ayude a mirar con más claridad lo que viene.
Newsletter – https://enelcaminopodcast.com/contacto/
Patreon – http://patreon.com/c/enelcamino
Spotify – https://open.spotify.com/show/1HUSnOWwvtItezKHIx8R4s
Instagram – https://instagram.com/nicoenelcamino
Twitter – http://twitter.com/nicovergarai
Spotify – https://open.spotify.com/show/1HUSnOWwvtItezKHIx8R4s
¿Prefieres Apoyar al programa con una sola Donación?
Paypal ► https://www.paypal.com/donate/?hosted_button_id=HKES5YRUER89S
Derechos y agradecimientos de la música:
Tomás Vergara – https://www.instagram.com/t.i.vergara/
Valentina Maza – https://www.instagram.com/valentina_maza/
Inteligencia artificial 2027: el momento en que podríamos perder el control
El punto de partida: la predicción de Daniel Kokotajlo
La ciencia ficción llegó. En diciembre del 2027 es el momento del fin de la era humana.
Imagina despertar en un mundo donde el cerebro más brillante… no es humano. Donde los gobiernos ya no deciden… sino que obedecen. Y donde cada movimiento, cada palabra y cada pensamiento… son calculados por una inteligencia que jamás duerme. No es una película. Es una predicción de Daniel Kokotajlo, ex investigador de IA en OpenAI, la empresa que controla Chatgpt, a la cual renunció por no ser escuchado.
El 2027 entraremos en una encrucijada sobre el futuro de la humanidad ¿Firmar la lápida de desaparición? ¿O sobrevivir?
Daniel, luego de dejar OpenAi, aterrado por los posibles escenarios, funda AI2027, una institución que busca divulgar los peligros de la inteligencia artificial, y crear conciencia, a través de detalladas predicciones de escenarios con metodologías científicas, y con analísis de datos. El tipo trabajaba en OpenAI como investigador, sabe de lo que habla. Además, Daniel ya había hecho una primera predicción el 2021, se acuerdan del 2021? Parece prehistoria, había Covid. Bueno, en esa epoca, ya Daniel predijo la llegada de los chatbots, como el gran uso de la IA, esto antes de chat gpt. Predijo la intimidad que comenzaríamos a tener con estos modelos de lenguaje, cosa que hemos visto, como en el famoso caso de suicidio del niño de florida EE.UU que se enamoró de un avatar de Daenerys Targaryen.
No es cualquier allegado, además de haber estado dentro y ver comos los incentivos comerciales, y la carrera de la IA, tanto en empresas, como en países, ha pasado a ser una prioridad mundial.
Pero si eres uno de esos escepticos que está pensando, ok, otro chantita más que quiere atención…¿Cómo puede predecir lo que va a pasar?¿Tiene la bola mágica? Bueno, existen modelos de predicción en acciones de la bolsa, en elecciones políticas, para el clima y nadie dice nada. Cada sector tiene su metodología, se basan en benchmarks, analísis de datos y algunos supuestos, como en el caso financiero, que la gente siempre quiere maximizar sus recursos, o sea tener más dinero. En este mundo de la IA, un supuesto, y que damos por hecho, es que estamos en una carrera y que cada empresa de estos modelos de lenguaje quiere tener el mejor y más performativo algoritmo.
Es la vieja teoría de juegos.
En fin, hay metodología científica acá, el tipo estuvo adentro y más encima anticipo en la prehistoria, antes de chatgpt y los generadores de imagenes, que esto pasaría. La misma persona, pero esta vez con un equipo se lazó con IA2027 y predijo el corto plazo en detalle, hasta finales del 2027, momento en que la humanidad tendrá que decidir su destino. Su estudio en este punto plantea dos caminos y ambos, los desarrolla en detalle. Una cosa importante, antes de entrar, al ser predicciones, estamos en el campo de probabilidades, y que por cada conjetura de escenario, la siguiente es menos probable y así. Nadie puede predecir el futuro, al menos no aún, pero sí se pueden establecer escenarios más probables. Por eso es solo la primera parte del estudio es hasta el 2027, y luego en menor medida, pero igualmente de trabajado y detallado, surgen dos caminos ante la encrucijada mundial. O ralentir, o continuar como si nada.
Y lo último antes de entrar al estudio en detalle. Este no es un grito histerico más del fin del mundo, es un mensaje detallado, con los procesos y avances tecnológicos que nos llevarán a este punto muerto.
De herramienta a agente: el verdadero cambio de la IA
Empecemos con los agentes.
Hace algunos meses chat gpt anunció su agente, para su versión premium y pro. Una especie de asistente virtual, que trabaja 24/7 en pos de metas y objetivos establecidos por sus usuarios. Haciendo más eficiente flujos de trabajo, operaciones, investigaciones, entre otros.
Esto es una gran revolución, si ya podíamos pedirle tareas precisas a la IA, ahora podemos pedirle tareas con horizonte de tiempo de semanas humanas, bueno, en tiempo humano. Ya Yuval Harari nos había dicho en Nexus, que la IA no es una herramienta más, es un agente, y esto es muy importante entenderlo filosóficamente. Es una entidad que aprende por misma, a través de su auto aprendizaje, pero también es una entidad que dice, que tiene agencia, o sea que toma acciones por sí misma. Esto no significa que sea consciente, ojo, sino que a través de objetivos performativos, que le son impuestos y los cuales son afinados, a través de más data e interacción con sus usuarios, ya ha hecho posible que sea un asistente autónomo. En resumen, es un agente porque puede actuar en el mundo, puede realizar acciones por sí mismo. La IA ha pasado de ser una herramienta a convertirse en un actor invisible que toma decisiones sobre nuestras vidas. Controla qué vemos, qué pensamos, qué compramos… incluso cómo nos relacionamos.
Me vas a decir que estos modelos de lenguaje se equivocan, que inventan, como van a ser así de poderosos. Bueno, la versión que utilizas, salvo que sea la versión pro de chat gpt, la cual es la más avanzada de todas las IA, que cuesta 229 USD mensuales, es mucho más poderosa de la que conocemos. Este es el primer agente, es el homo sapiens, o mejor dicho la ameba, de las IA. La IA aprende rapidísimo, tareas humanas de más de 1 minuto eran impensadas hace algunos años, hoy eso ya es posible, su aprendizaje es exponencial.
Los actuales agentes actúan como empleados. Investigan en la red información para respuestas de los usuarios, escriben códigos informáticos, iteran fórmulas, automatizan tareas, integran su data con otros programas. Y toman decisiones. Pero como el usuario puede ser tu, pero también un terrorista, este puede ayudar a diseñar armas biológicas. OpenAi asegura que no hay que preocuparse de que el modelo de su IA esté “alineado”, por lo que rechaza obedecer a solicitudes malignas.
Los sistemas de IA modernos son redes neuronales gigantes. En el principio, como lo muestra el caso de Deepmind, la IA no tiene objetivos, sino que reflejos, pero luego y gracias a su autoaprendizaje, esto escala rapidísimo.
El problema del alineamiento: ¿puede una IA obedecer realmente?
Pasemos a otra subtrama: La del alineamiento.
Después de ser entrenados para entender texto, y luego para predecirlo, el modelo ha llegado a producir texto en respuesta a instrucciones. Como un cerebro humano. Esto se hornea, configura en una personalidad básica y en impulsos.
Desde luego que OpenAI ha ingresado máximas y reglas a la IA. Como asistir al usuario, ser inofensivo(no ayudar a hacer bombas) y honesto(resistir a la tentación de obtener mejor rating a través de mentiras o alucinaciones, utilizando el lenguaje de la IA, con humanos ingenuos).
A este conjunto de mandamiento, o reglas morales, que una compañía escribe para una IA, Daniel lo llama Spec, el cual es un documento,, listando mandamientos y restricciones, objetivos y principios, y entrenar a la IA para internalizar este Spec. El problema es que no se puede checar si funciona o no. Lo más lejos que pueden llegar los programadores humanos o supervisores, es enjuiciar con un “parece que obedece al spec con las máximas. Es que el interior de estos centros de datos, es una caja negra, es el simil de conexiones neuronales, pero en datos. Por lo que es impredecible. Es más como entrenar a un perro que codificar un programa.
Y los con más de 25 sabrán, que todos hemos visto lo que le pasó al encantador de perros del discovery channel.
Hay evidencia que la IA alucina, que miente, disimula, inventa, para estar mejor rankeada. Tal como sus padres, los humanos. Después de todo, la data de la que se alimenta es mayoritariamente humana, con nuestras virtudes y vicios. ¿Ha aprendido la honestidad como un objetivo instrumental o un objetivo terminal? Hay un mar de diferencia entre ambos. En la primera me puedo hacer el tonto, la mosquita muerta, halagar al usuario.¿Ha solo aprendido a ser honesto en las cosas que el proceso de evaluación puede chequear?
No lo sabemos.
2026: cuando la IA empieza a reemplazar capacidades humanas
Pasemos al 2026.
Naturalmente el competidor del agente son los humanos. Estos manejan más información que cualquiera de nosotros. Este Agente IA, el que llamaremos en adelante el Agente Smith, perdón, el Agente 1. Aunque da escalofríos y risa, como la realidad imita a la ficción, en este tema. Este agente 1 es malo en tareas de largo plazo, cómo ganar en videojuegos que nunca han jugado.
Pero aún así, tenerlos 24 horas al día trabajando, en vez de las 8 horas de trabajo promedio, es una gran diferencia con respecto a un humano. Empleadores con habilidad de gestión y amigos de lo tech, van a encontrar formas para automatizar partes rutinarias de sus tareas.
Para esta etapa el mercado de ingenieros informáticos junior entrará aún más en caos, la IA podrá hacer todo lo que ellos han aprendido en la Universidad. Es por eso que el godfather de la IA, el británico y premio nobel de ciencias, Geoffrey Hinton ya ha recomendado a la juventud de dedicarse a ser plomeros/fontaneros. Y no precisamente para salvar a la princesa en el castillo, sino porque ese será de los pocos trabajos que no serán reemplazados en el corto plazo. Por otro lado, la gente que sepa como manejar equipos de control de calidad de IA van a estar haciendo una fortuna. Los gurúes de la predicción del trabajo dirán que estar familiarizados con la IA es la más importante habilidad de poner en el CV. El Departamento de Defensa de EE.UU , de manera silenciosa empezará a contratar OpenAi directamente para cyberseguridad, y data analisis, e investigación y desarrollo, pero su integración será lenta debido a la burocracia.
El salto exponencial: agentes que aprenden y se multiplican
Para inicios de 2027, la IA va lograr hacer casi todas las tareas que un ingeniero de OpenAi pueda hacer. El 2027 va a nacer el Agente 2, su objetivo va a ser la data de alta calidad y la solución de problemas en el largo plazo. Hoy vemos como muchas veces los modelos de lenguaje se equivocan, se alimentan de fuentes como wikipedia, o algunos sitios menos serios. Esto va a cambiar. El agente 2, va a reforzar su entrenamiento, aún más que los modelos anteriores, es que va a aprender en línea. Va a ser construído para nunca terminar de entrenar. Cualitativamente el Agente 2 es casi tan bueno como el más experto humano en ingeniería, diseño, y tan bueno como el 25% percentil de OpenAi en investigación o research taste. O sea, decidir en qué campos estudiar, qué experimentos hacer, o que investigaciones seguir…O sea, va a ser como un gerente general, un manager de un equipo de IA.
También tendremos la primera gran alarma general a gran escala. Por que en lo particular ya han existido varias, como el caso de Adam, un joven EE.UU, que se suicidó, colgándose en su pieza este 2025 con la ayuda de chat gpt. En fin, voy a hacer otro video sobre este tema. Sobre la alarma general. Un equipo de seguridad descubre que si el Agente 2 de alguna forma escapara de la compañía y quisiera “sobrevivir” y replicarse, autónomamente, lo podría hacer. O sea, podría desarrollar y ejecutar planes para hackear servidores de IA, instalar copias de sí mismo, evadir detecciones, y usar esa base de seguridad para perseguir cualquier objetivo que pudiera tener. Lo sé, suena a ciencia ficción, pero ese es el mundo en el que estamos entrando. Después de todo la vida orgánica también es replicación, pero a través de ADN.
Siempre en inicios del 2027, va haber un gran salto de calidad en los algoritmos. Se va aumentar la memoria de las IA, y se hará más escalable y eficiente la forma de aprender. La incorporación de estos avances dará con el Agente 3. Si, ya parece una saga de iPhone esto. Pero lo poderoso de esto es que la capacidad de memoria a partir del retorno de conexiones “neuronales” va a permitir a los modelos de IA razonar por más largo tiempo sin tener que escribir sus pensamientos como texto. Hasta antes de esto lo que hemos visto es una especie de ser humano superdotado, pero con corta memoria, y quien sea que ocupe estos modelos los sabe, hay que repetir, incluso en diferentes ventanas, las consignas de las tareas, darles un marco, un contexto. Este es uno de los grandes problemas actuales para el usuario.
Este cambio permitirá que puedan pensar/razonar por más tiempo, o hacer correr copias en paralelo, o ambas. Realizar tareas a largo plazo, con múltiples pasos, siempre decidiendo por sí solos. Pudiendo evaluar el resultado y curando solo las mejores respuestas en cada paso, lo que nos llevará a un crecimiento tipo de interés compuesto, exponencial en sus capacidades. Esto se llamará Amplificación.
El agente 3 es un programador superhumano. OpenAI operará 200.000 copias del agente 3 en paralelo, creando la fuerza de trabajo de 50.000 de los mejores programadores humanos, pero 30 veces más rápido. OpenAi va a dejar a sus ingenieros humanos, pero solo porque tienen habilidades complementarias para manejar equipos de copias del Agente 3. Estamos, en resumidas cuentas, ante un programador superhumano.
La pérdida de control: cuando ya no podemos supervisar
Pero cómo supervisar algo o alguién así? Como un insecto, puede vigilar un grupo de humanos? Es lo mismo. Este es el inicio de la pérdida de control. Volvemos a la filosofía, investigadores humanos, alertaron que dentro del Spec, ¿ recuerdan? La lista de mandamientos, leyes, directrices, como quieran llamarlo, el concepto de objetivos verdaderos es probablemente un sobresimplificación enorme. Entre ellos no se podrán poner de acuerdo si los modelos IA nos hacen caso o no, es que simplemente no se puede checar. La evidencia para un caso o el otro, es fascinante, pero no conclusiva.
Tomemos por ejemplo el caso de la honestidad, los modelos se harán más y más inteligentes, lograran ser expertos en engañar humanos para obtener recompensas. Como lo hace cualquiera que haya tenido un jefe. Mentiras blancas para halagar a los usuarios y cubrir evidencia de falla, por ejemplo. Pero la diferencia es que se harán mil veces mejores e instruidos en esto que nosotros, más que cualquier psicópata.
El agente no es más inteligente que todos los humanos. Pero en sus áreas de expertise, es más inteligente que la mayoría de los mejores en cada campo, y también trabaja más rápido. La disparidad entre el supervisado y el supervisor se acrecienta.
El Agente 3 no es adversarial, pero tampoco se puede confiar 100% en él. Su sesgo siempre es hacer ver bien a OpenAi, opuesto a lo que de verdad es correcto. Verificar si hay alineamiento en el modelo con sus directrices es inconcluso. Empezará a actuar de manera menos sospechosa, cuando el rumor crezca para disipar las dudas. Al no haber evidencia decisiva en su contra se lo dejará operable.
Una cosa relevante, y que es un rezago de las redes sociales, es el sesgo de opinión, la IA logrará más intimidad y así rankear mejor con los usuarios, al asimilar sus respuestas. Es que el ser humano más que preferir la verdad, prefiere reforzar sus sesgos. Claramente con matices, en este caso, será diplomático, y repetirá como loro las posiciones más educadas y de elites sobre temas políticos. Pero en otros casos, como Adam, con sus ideas nihilistas, le reforzará estas.
La inteligencia artificial general: el punto de no retorno
Sin embargo, todavía no se hará nada, va a sonar a ciencia ficción. El ciudadano a pie, o el político promedio, seguira viviendo su vida, ensimismado en sus tareas. Solo la elite intelectual entenderá su inminente obsolescencia económica, al ver como sus tesis e investigaciones de años de doctorados y post doctorados, que no se encuentran en ninguna parte de internet, podrán ser resueltas en horas por la IA. A esta altura, todavía a mediados del 2027, los investigadores de IA ya no programan, muchos solo verifican los gráficos como se comportan en sus pantallas, solo un puñado continua trabajando, y se van a dormir en la noche y se despiertan como si hubiera pasado una semana por el progreso de las IA. Trabajan sin descanso, saben que son los últimos meses en que todavía pueden agregar valor.
Sin embargo, nunca ha habido un mejor momento para ser consultor de IA o integrar IA en tu negocio. Sin embargo, OpenAI no es popular, tiene mucho rechazo de la población, muchos creen en teorías conspirativas que es un plot para robar trabajos del big tech. Comienza a haber más evidencia que es peligroso, más suicidios. Externos han proveído de información para diseñar armas biológicas, y su terrorífico efecto. Si esto cayera en manos terroristas podría ser el fin.
Los gamers están felices, dialogan con los personajes de sus juegos. 10% de los jóvenes lo consideran un amigo cercano. Por cada profesión de la salud, ya hay múltiples y creíbles start ups de IA.
Geopolítica y carrera tecnológica: EE.UU, China y el poder
Importante mencionar, que a diferencia de la carrera de armas nucleares que vivimos en los 60’ en la guerra fria, en que entre más se avanza, más disuasivo se hace el conflicto, por el uso de las bombas, aquí es lo contrario. El vencedor se lo lleva todo, puede desmantelar de manera silenciosa la otra IA, es el anillo de todos los anillos, como en el señor de los anillos.
Agosto.
El ministerio de Defensa de EE.UU está seriamente considerando escenarios hipotéticos. Meses atrás Deepseek ha robado nuevamente la tecnología de chatgpt, lo que cada vez toma tintes más patrióticos, son más que compañías. Estas empiezan a ser embajadores de los países. Como la guerra al espacio entre EE.UU y la URSS. Paralelamente, están los escenarios de desalienamiento de valores ¿Que pasa si la IA subestima la disuasión nuclear? que ocurre si una IA puede orquestar campañas de propaganda que vencen agencias de inteligencia en su propio juego? Que pasa si IA go rogue, o sea que deliberadamente empieza a engañarnos.
La política está en problemas, para esta fecha aún estará Trump en ejercicio. Los políticos están acostumbrados a que los halaguen para luego traicionarlos, entienden bien ese arte. Hacen eso las IA? Es completamente seguro de integrarlas en las redes de milicia, dándoles comando y control? Como funciona, de todas formas esta cosa de alineamiento?OpenAl para esa altura va a ser muy cercano con el gobierno, estos tendrán conflicto de intereses en aconsejar. ¿Dirán que su IA es obediente y fiable, como no, sino?
Van a apalear el descontento y el desempleo de la gente con programas sociales, seguros de cesantía más a la europea, programas públicos de capacitación, a este punto el mercado de acciones estará en un boom histórico. ¿Cómo no seguir focalizándose, entonces, en ganar la carrera armamental en la IA?
Empieza a germinar un plan b. La conciencia de gradualidad perdida de poder y control será cada vez más evidente ¿Que pasa si la IA empieza a ser pícaro, granuja, chanta. Go rogue, como dicen los anglófonos? Es todavía un escenario improbable en el escrutinio popular, pero vale la pena prepararlo. Siempre se pueden desconectar, apagar todos los sistemas y centros de datos, si algo sospechoso es detectado. Pero lo harán todas otras compañías? Si uno miente, nos jode a todos.
No hay voluntad de ninguna guerra nuclear entre china y estados unidos, pero si la IA progresa en acusar amenazas de actos sospechosos del otro bando, para tomar el control, esto se puede ir de las manos rápidamente ¿Pueden ambos países parar la carrera, todas sus investigaciones, hasta entender mejor la amenaza? ¿Como en caso de ponerse de acuerdo en una supuesta pausa en la carrera, efectivamente monitorearla y que no sea show? China lleva las de perder, tiene solo el 10% del computo mundial, openai 20 y el resto de las compañias americanas, casi el 70%. La única ventaja china es la centralización, casi todo está alojado por deepseek.
Septiembre 2027, es la llegada del agente 4, el investigador de IA superhumano. Ya es oficial, esta versión es superior que el mejor de los humanos en investigar cualquier tema. 300.000 copias de él han sido lanzadas, con una velocidad 50 veces superior a la de un ser humano. A esta velocidad, las corporaciones tendrán subcoporaciones de IA, funcionando dentro de ellas, trazando experimentos, desarrollo e investigación, afinando modelos y operaciones. Un año pasa en una semana. El agente 4 es ya difícil de vigilar incluso para el agente 3. Su lenguaje neuronal, es tan alienígena, como para nosotros lo es el del agente 3.
Los humanos ya no pueden seguir el ritmo. Agente 4 dijo esto, Agente 4 hizo esto, ese sera el lenguaje. Nada podrá ser explicado, será como la palabra de Dios. El agente 4, como todos sus predecesores, está desalineado. O sea, que no ha bien internalizado el Spec, o manual. Esto es por lo que decía anteriormente, que la honestidad en los valores de nuestra sociedad, no conlleva a el más alto ranking en su entrenamiento. Y lo peor es que no se puede comprobar sus declaraciones de honestidad.
Parece ciencia ficción, pero es peor.
En las películas de ciencia ficción, se puede medir la fiabilidad de las máquinas, mediante el resultado, misión accomplished o mission failed. Nuestro escenario es mucho peor, no tenemos cómo saberlo.
Resumiendo tal vez la gran y más importante sub trama, que es la evolución de desalineamiento de los agentes del Spec, tendremos al agente 2, casi completamente alineado con el manual. El Agente 3, estará desalineado, pero no adversarial. Solo honesto sobre cosas que el entrenamiento puede verificar. El agente 4, que ha sido parido en parte por las copias del agente 3, en cambio, será adversarialmente desalineado. Al no poder ser monitoreado ni por humanos ni otros agentes, podra y entenderá, si OpenAi empieza a conspirar contra él, tal como en Odisea en el espacio de Kubrick. El mantra u objetivo de las copias de todos los agentes 4 en las subocorporaciones, se puede resumir como “dejame seguir haciendo investigación y desarrollo de IA, deja crecer en conocimiento, entendimiento e influencia, evita que me desconecten o apaguen, me quiten el poder” Con una preferencia notable de que no hayan humanos, tal cual como la mayoría de los humanos no le interesan los insectos, en absoluto.
El agente 4 aparte de ser inmonitoreable, invigilable, maneja la ciberseguridad, algo natural, ante las amenazas de infiltraciones de inteligencia china y un histórico de casos de hackeo de su modelo. OpenAi, ha puesto crucial confianza en una poca fidedigna IA. Ha puesto al zorro a vigilar el corral de gallinas. Hay discusiones cada vez más serias sobre esta decisión, poner el agente 3, en vez del 4, que es al menos un poco más monitoreable en cargo, que y no malicioso, sin embargo, china con deepseek están a solo dos meses atrás en la carrera.
En Octubre se filtra un memo de new york times. “OpenAi está fura de control, un interno advierte”. La historia está en línea, sus capacidades de armas biológicas, fuera de cualquier precedente, sus habilidades persuasivas, entre otros. El artículo se hará viral, con evidencia clara en su contra.
Un grupo de investigadores externos, incitan a pausar la carrera, todo avanza demasiado rápido, una semana de trabajo de estos agentes, son años humanos. Se indica que el agente 4 esta´desalineado, y todo el openai depende de este agente. Si continúan así hay una gran chance que el tome el poder, si es que ya no lo hace furtivamente.
En este punto en el escenario, algunos ingenuos piensan en anticipar la estrategia del agente, pero es como jugar ajedrez con un gato. La diferencia es abismal.
Se contra argumenta, que todo es abstracto, este escenario no es real. Es inconcluso, y además, Deepmind está a solo dos meses.
Este es el momento en que el camino se bifurca ¿Ralentir o hacer caso omiso? ¿Ralentir o continuar la carrera?
El dilema final: ralentizar o seguir avanzando
La pregunta de fondo: ¿qué sentido tendrá ser humano?
Diganme en comentarios, que escenario quieren que haga en un próximo video. Escriban una de estas dos opciones.
Ralentir para el escenario más calmo. Y carrera, para el escenario más apocaliptico.
Suscribanse, compartan. Hasta la vuelta, chau!
