Título original del video: Vitalik Buterin vs Beff Jezos: Debate sobre la Aceleración de IA (E/acc vs D/acc)
Fuente original del video: a16z crypto
Traducción original: Deep Tide TechFlow
¿Deberíamos impulsar el desarrollo rápido de la IA tanto como sea posible, o deberíamos abordar su progreso con más cautela?
Actualmente, el debate en torno al desarrollo de la IA se centra principalmente en dos puntos de vista opuestos:
· e/acc (aceleracionismo efectivo, effective accelerationism): aboga por avanzar en el progreso tecnológico lo más rápido posible, ya que el desarrollo acelerado es el único camino hacia adelante para la humanidad.
· d/acc (aceleracionismo defensivo/descentralizado, defensive / decentralized acceleration): apoya el desarrollo acelerado, pero enfatiza la necesidad de avanzar con precaución, de lo contrario, podríamos perder el control sobre la tecnología.
En este episodio del a16z crypto show, el fundador de Ethereum, Vitalik Buterin, y el fundador y CEO de Extropic, Guillaume Verdon (seudónimo “Beff Jezos”), se reunieron con el CTO de a16z crypto, Eddy Lazzarin, y el fundador de Eliza Labs, Shaw Walters, para llevar a cabo una profunda discusión sobre estos dos puntos de vista. Exploran las implicaciones potenciales de estas ideas para la IA, la tecnología blockchain y el futuro de la humanidad.
En el programa, discutieron las siguientes preguntas clave:
· ¿Podemos controlar el proceso de aceleración tecnológica?
· ¿Cuáles son los mayores riesgos que la IA presenta, desde la vigilancia masiva hasta la concentración extrema del poder?
· ¿Podrían la tecnología de código abierto y la descentralización determinar quién se beneficiará de la tecnología?
· ¿Es realista desacelerar el progreso de la IA, o se debe alentar?
· En un mundo dominado por sistemas cada vez más poderosos, ¿cómo pueden los humanos mantener su valor y posición?
· ¿Cómo podría ser la sociedad humana en los próximos 10, 100 o incluso 1000 años?
La pregunta central de este episodio es: ¿se puede guiar el desarrollo acelerado de la tecnología, o ya ha superado nuestro control?
Sobre la naturaleza y la perspectiva histórica del “aceleracionismo”
· Vitalik Buterin: “En el último siglo ha ocurrido algo nuevo, que es que debemos comprender un mundo en rápida transformación, a veces incluso un mundo de cambios rápidos y destructivos. … La Segunda Guerra Mundial generó reflexiones como ‘He llegado a ser la muerte, el destructor de mundos’, lo que llevó a la gente a intentar entender: ¿en qué podemos creer cuando las viejas creencias son destruidas?”
Guillaume Verdon: “E/acc es esencialmente una ‘receta cultural meta’. No es una cultura en sí misma, sino que nos dice qué deberíamos acelerar. La esencia de la aceleración es la complejidad material, porque así podemos predecir mejor nuestro entorno.”
· Guillaume Verdon: “El opuesto de la ansiedad es la curiosidad. En lugar de temer lo desconocido, deberíamos abrazar lo desconocido. … Debemos pintar el futuro con una actitud optimista, porque nuestras creencias afectan la realidad.”
Sobre la entropía, la termodinámica y los “bits egoístas”
· Vitalik Buterin: “La entropía es subjetiva, no es una cantidad física fija, sino que refleja cuánto desconocemos sobre el sistema. … Cuando la entropía aumenta, en realidad estamos aumentando nuestra ignorancia sobre el mundo. … La fuente del valor radica en nuestras propias elecciones. ¿Por qué creemos que un mundo humano lleno de vida es más interesante que un Júpiter lleno de partículas? Porque le damos significado.”
· Vitalik Buterin: “Supongamos que tienes un gran modelo de lenguaje y cambias al azar el valor de uno de sus pesos a un número enorme, como 9 mil millones. El peor resultado es que el sistema colapse por completo. … Si aceleramos ciegamente una parte sin discriminación, el resultado final podría ser que perdemos todo valor.”
· Guillaume Verdon: “Cada información está ‘luchando’ por su existencia. Para seguir existiendo, cada información necesita dejar más huellas indelebles sobre su existencia en el universo, como dejar una ‘impronta’ más profunda en el cosmos.”
· Guillaume Verdon: “Por eso se considera que la escala de Kardashev es el indicador definitivo del nivel de desarrollo de una civilización. … Este ‘principio de bits egoístas’ significa que solo aquellos bits que pueden promover el crecimiento y la aceleración tendrán un lugar en los sistemas futuros.”
Sobre la trayectoria defensiva de D/acc y los riesgos de poder
· Vitalik Buterin: “La idea central de D/acc es que la aceleración tecnológica es extremadamente importante para la humanidad. … Pero veo dos tipos de riesgos: el riesgo multipolar (cualquiera puede obtener armas nucleares fácilmente) y el riesgo unipolar (la IA lleva a una sociedad dictatorial permanente de la que no se puede escapar).”
· Guillaume Verdon: “Nos preocupa que el concepto de ‘seguridad de la IA’ pueda ser mal utilizado. Algunas instituciones que buscan poder podrían usarlo como herramienta para consolidar el control sobre la IA y tratar de convencer al público: para su seguridad, las personas comunes no deberían tener acceso al uso de la IA.”
Sobre la defensa de código abierto, hardware e “inteligencia densificada”
· Vitalik Buterin: “Dentro del marco de D/acc, apoyamos la ‘tecnología defensiva de código abierto’. Una de las empresas en las que invertimos está desarrollando un producto terminal completamente de código abierto que puede detectar pasivamente partículas virales en el aire. … Me gustaría regalarte un dispositivo CAT.”
· Vitalik Buterin: “En el futuro que imagino, necesitamos desarrollar hardware verificable. Cada cámara debería poder demostrar al público su propósito específico. Podemos usar verificación de firmas para asegurarnos de que estos dispositivos se utilicen solo para proteger la seguridad pública y no se utilicen indebidamente para la vigilancia.”
· Guillaume Verdon: “La única forma de lograr una simetría de poder entre individuos y entidades centralizadas es lograr una ‘densificación de inteligencia’. Necesitamos desarrollar hardware más eficiente para que los individuos puedan ejecutar modelos poderosos con dispositivos simples (como Openclaw + Mac mini).”
Sobre la demora en la AGI y el juego geopolítico
· Vitalik Buterin: “Si podemos retrasar la llegada de la AGI de 4 a 8 años, sería una opción más segura. … La práctica más viable y menos propensa a resultados distópicos es ‘limitar el hardware disponible’. Dado que la producción de chips está altamente concentrada, una región de Taiwán produce más del 70% de los chips del mundo.”
· Guillaume Verdon: “Si limitas la producción de chips de Nvidia, Huawei podría rápidamente llenar el vacío y superar. … O aceleras, o te extingues. Si te preocupa que la inteligencia basada en silicio evolucione más rápido que nosotros, debes apoyar el desarrollo acelerado de la biotecnología y esforzarte por superarla.”
· Vitalik Buterin: “Si podemos retrasar la AGI cuatro años, el valor podría ser cien veces más alto que volver a 1960. Los beneficios de esos cuatro años incluyen: una comprensión más profunda del problema de alineación, reducción del riesgo de que una única entidad controle el 51% del poder. … Aproximadamente 60 millones de vidas se salvan anualmente al terminar con el envejecimiento, pero el retraso puede reducir significativamente la probabilidad de la destrucción de la civilización.”
· Vitalik Buterin: “Me interesa más un ‘Photoshop asistido por IA’ que un ‘botón que genera imágenes automáticamente’. En el proceso de ejecutar el mundo, la mayor cantidad de ‘agencia’ debería seguir proveniendo de nosotros, los humanos. El estado ideal debería ser una combinación de ‘parte humano biológico y parte tecnología’.”
· Guillaume Verdon: “Una vez que la IA tenga ‘bits persistentes’, puede intentar protegerse a sí misma para garantizar su existencia continua. Esto podría dar lugar a una nueva forma de ‘otro tipo de estado’, donde la IA autónoma intercambia económicamente con los humanos: nosotros hacemos tareas para ti, tú nos proporcionas recursos.”
Sobre las criptomonedas como ‘capa de acoplamiento’ entre humanos e IA
· Guillaume Verdon: “Las criptomonedas tienen el potencial de convertirse en la ‘capa de acoplamiento’ (coupling layer) entre humanos e IA. Cuando este intercambio ya no dependa de la sanción violenta del estado, la criptografía puede convertirse en el mecanismo que permite a entidades puramente de IA llevar a cabo actividades comerciales confiables con los humanos.”
· Vitalik Buterin: “Si los humanos y la IA comparten un sistema de propiedad, sería la situación ideal. En lugar de que los humanos y la IA utilicen sistemas financieros completamente divididos (donde el sistema de los humanos eventualmente pierde su valor), un sistema financiero integrado es claramente superior.”
Sobre el destino de la civilización en los próximos mil millones de años
· Vitalik Buterin: “El próximo desafío es entrar en la ‘era espeluznante’ (spooky era), donde la velocidad de cálculo de la IA es millones de veces más rápida que la de los humanos. … No quiero que los humanos solo disfruten pasivamente de una vida cómoda de jubilación, eso traería la falta de sentido. Quiero explorar la potenciación humana y la colaboración entre humanos y máquinas.”
· Guillaume Verdon: “Si dentro de 10 años tenemos un buen desenlace, todos tendrán su propia IA personalizada, convirtiéndose en ‘un segundo cerebro’. … A escala temporal de 100 años, los humanos lograrán una ‘fusión suave’ de manera generalizada. Dentro de mil millones de años, es posible que ya hayamos terraformado Marte, y la mayoría de las IA funcionarán en la nube de Dyson alrededor del sol.”
Eddy Lazzarin: sobre el término “aceleracionismo”, al menos en el contexto del capitalismo tecnológico, se remonta al trabajo de Nick Land y el grupo de investigación CCRU en la década de 1990. Sin embargo, algunos creen que el origen de estas ideas se remonta a las décadas de 1960 y 1970, especialmente en relación con las teorías de algunos filósofos como Deleuze y Guattari.**
Vitalik, me gustaría comenzar contigo: ¿por qué deberíamos discutir en serio las ideas de estos filósofos? ¿Qué es lo que hace que el concepto de “aceleracionismo” sea tan importante hoy en día?
Vitalik Buterin: Creo que, al final, todos estamos tratando de entender este mundo y averiguar qué es significativo hacer en él, lo que ha sido una cuestión en la que la humanidad ha reflexionado durante milenios.
Sin embargo, creo que ha ocurrido algo nuevo en el último siglo, que es que debemos entender un mundo en rápida transformación, a veces incluso un mundo de cambios rápidos y destructivos.
Las etapas tempranas fueron algo así: antes de la Primera Guerra Mundial, alrededor de 1900, había un gran optimismo hacia la tecnología. En ese momento, la química se consideraba una tecnología, la electricidad también era tecnología, aquella época estaba llena de entusiasmo por la tecnología.
Si miras algunas de las películas de esa época, como las obras de Sherlock Holmes, puedes sentir la atmósfera optimista de ese período. La tecnología estaba elevando rápidamente el nivel de vida, liberando el trabajo de las mujeres, prolongando la vida humana y creando muchos milagros.
Sin embargo, la Primera Guerra Mundial cambió todo. Esa guerra terminó de una manera devastadora; la gente entraba al campo de batalla a caballo pero salía en tanques; luego estalló la Segunda Guerra Mundial, que trajo aún más destrucción. Esta guerra incluso inspiró reflexiones como “He llegado a ser la muerte, el destructor de mundos.”
Estos eventos históricos llevaron a la gente a reflexionar sobre el costo del progreso tecnológico y fomentaron la aparición de ideas como el posmodernismo. La gente comenzó a intentar comprender: ¿en qué podemos creer cuando las viejas creencias son destruidas?
Creo que esta reflexión no es nueva; cada generación pasa por un proceso similar. Hoy, también enfrentamos desafíos similares. Vivimos en una era de rápido desarrollo tecnológico, y esa aceleración en sí misma también está acelerándose. Necesitamos decidir cómo lidiar con este fenómeno: ¿aceptamos su inevitabilidad o intentamos desacelerarlo?
Creo que estamos en un ciclo similar. Por un lado, heredamos ideas del pasado, pero por otro lado, también estamos tratando de abordar todo esto de nuevas maneras.
Shaw Walters: “Guill, ¿puedes explicar brevemente qué es E/acc? ¿Por qué lo necesitamos?”
Guillaume Verdon: "En realidad, E/acc (aceleracionismo efectivo) es, en cierto modo, un subproducto de mis reflexiones sobre ‘¿por qué estamos aquí?’ y ‘¿cómo hemos llegado hasta aquí?’. ¿Qué tipo de proceso generativo nos creó y impulsó el desarrollo de la civilización? La tecnología nos ha llevado a este punto, donde podemos sentarnos en esta sala y tener esta conversación. Estamos rodeados de tecnologías asombrosas, y nosotros, los humanos, hemos emergido de un ‘sopa primordial’ de materia inorgánica.
En cierto sentido, hay un proceso generativo físico detrás de esto. Mi trabajo diario es ver la IA generativa como un proceso físico e intentar implementarlo en dispositivos. Este ‘pensamiento priorizando la física’ ha influido en mi forma de pensar. Deseo expandir esta perspectiva a toda la civilización, viendo la civilización humana como un enorme ‘plato de cultivo’, tratando de inferir direcciones futuras posibles al entender cómo llegamos a este punto.
Este pensamiento me llevó a investigar la física de la vida, incluyendo el origen de la vida y la emergencia, así como una rama de la física llamada ‘termodinámica estocástica’. La termodinámica estocástica estudia las leyes termodinámicas de sistemas no equilibrados y puede describir el comportamiento de los seres vivos, incluso nuestro pensamiento y nuestra inteligencia.
En un sentido más amplio, la termodinámica estocástica no solo se aplica a la vida y la inteligencia, sino a todos los sistemas que siguen la segunda ley de la termodinámica, incluyendo toda nuestra civilización. Para mí, el núcleo de todo esto está en una observación: todos los sistemas tienen una tendencia a volverse más complejos a través de la auto-adaptación, para obtener energía del entorno y hacer trabajo, mientras disipan energía excedente en forma de calor; esta tendencia es el motor fundamental que impulsa todo progreso y aceleración.
En otras palabras, esta es una ley física inalterable, como la gravedad. Puedes luchar contra ella, puedes negarla, pero no cambiará; seguirá existiendo. Por lo tanto, la idea central de E/acc es: dado que esta aceleración es inevitable, ¿cómo podemos aprovecharla? Si examinas de cerca las ecuaciones de la termodinámica, descubrirás que un efecto similar al de la selección darwiniana está en juego: cada bit de información debe pasar la prueba de presión de selección, ya sea que se trate de genes, memes, química, diseño de productos o alguna política.
Esta presión de selección filtrará la información según su utilidad para el sistema en el que se encuentra. Lo que se considera ‘útil’ se refiere a si esos bits pueden predecir mejor el entorno, obtener energía y consumir más calor. En términos simples, se trata de si esos bits contribuyen a la supervivencia, el crecimiento y la reproducción. Si ayudan a alcanzar esos objetivos, se conservarán y replicarán.
Desde la perspectiva de la física, este fenómeno puede verse como el resultado del ‘Principio de Bits Egoístas’. Es decir, solo aquellos bits que pueden promover el crecimiento y la aceleración tendrán un lugar en los sistemas futuros.
Así que propuse una idea: ¿podemos diseñar una cultura que incorpore este ‘software mental’ en la sociedad humana? Si podemos lograr esto, entonces el grupo humano que adopte esta cultura tendrá una mayor probabilidad de supervivencia que otros grupos.
Por lo tanto, E/acc no busca destruir a todos. En realidad, está intentando salvar a todos. Para mí, matemáticamente, casi se puede demostrar que tener una mentalidad de ‘desaceleración’ es en realidad perjudicial. Ya sea a nivel personal, empresarial, nacional o incluso civilizacional, elegir desacelerar el desarrollo reducirá sus posibilidades de supervivencia en el futuro. Además, creo que difundir esta idea de ‘desaceleración’, como el pesimismo o el apocalipticismo, no es un comportamiento moral.
Shaw Walters: “Acabamos de mencionar muchos términos, como E/acc, aceleración, desaceleración. ¿Puedes desglosar un poco estos conceptos? ¿La aparición de E/acc es una respuesta a ciertos fenómenos culturales? ¿Qué estaba sucediendo en ese momento? ¿Puedes describir el contexto? ¿A qué está específicamente respondiendo E/acc? ¿Puedes describir la conversación de ese momento y cómo finalmente se resumieron estas ideas en el concepto de ‘E/acc’?”
Guillaume Verdon: "En 2022, sentí que el mundo entero parecía un poco pesimista. Apenas habíamos salido de la pandemia de COVID y la situación global no era optimista. Todos parecían un poco deprimidos, como si les faltara la luz solar, y la gente se sentía generalmente pesimista sobre el futuro.
En ese ambiente, el ‘apocaliptismo de la IA’ se convirtió en parte de la cultura predominante. El apocaliptismo de la IA se refiere al miedo a que la tecnología de IA pueda perder el control. Proviene de la preocupación de que, si creamos un sistema demasiado complejo, y el cerebro humano o nuestros modelos no pueden predecir su comportamiento, no podremos controlarlo, y ese miedo a lo incontrolable puede generar incertidumbre sobre el futuro, llevando a la ansiedad.
Desde mi perspectiva, el apocaliptismo de la IA es en realidad una politización de la ansiedad humana. En general, creo que esta narrativa de apocalipsis tiene un impacto profundamente negativo, por lo que quiero crear una contracultura para combatir esa pesimismo.
Noté que algoritmos como los de Twitter, e incluso muchos otros algoritmos de redes sociales, tienden a favorecer contenidos que evocan emociones fuertes, como ‘apoyo ferviente’ o ‘oposición ferviente’. Estos algoritmos terminan polarizando las opiniones, así que hemos visto muchos campamentos opuestos, como el fenómeno de ‘cultos espejo’ formado por AA (anti-aceleracionismo) y EA (aceleracionismo).
Me preguntaba, ¿cuál es el opuesto de este fenómeno? Llegué a la conclusión de que el opuesto de la ansiedad es la curiosidad. En lugar de temer lo desconocido, deberíamos abrazar lo desconocido; en lugar de preocuparnos por perder oportunidades, deberíamos explorarlas activamente en el futuro.
Si elegimos desacelerar el desarrollo tecnológico, pagaremos un alto costo de oportunidad y podríamos perder para siempre un futuro mejor. Por el contrario, deberíamos describir el futuro con una actitud optimista, porque nuestras creencias afectan la realidad. Si creemos que el futuro será malo, nuestras acciones podrían llevar al mundo en esa dirección negativa; pero si creemos que el futuro será mejor y trabajamos por ello, es más probable que logremos ese futuro.
Por lo tanto, creo que tengo la responsabilidad de difundir una actitud optimista, para que más personas crean que pueden hacer un cambio para el futuro. Si podemos hacer que más personas tengan esperanza en el futuro y tomen acción para construirlo, entonces podemos crear un mundo mejor.
Por supuesto, reconozco que a veces mis expresiones en línea pueden parecer un poco radicales, pero eso es porque quiero provocar discusión y llevar a la gente a pensar. Creo que solo a través de estos diálogos podemos encontrar la posición más adecuada y decidir cómo debemos actuar.
Shaw Walters: “El mensaje de E/acc siempre ha sido inspirador, y para alguien que está sentado en una habitación escribiendo código, esta difusión de energía positiva es emocionante, y esta difusión de información es muy natural. Se podría decir que, al principio, E/acc era claramente una respuesta a la negativa que impregnaba la sociedad en ese momento, pero para 2026 siento que E/acc ya no es lo que era. Claramente, el ‘Manifiesto de Optimismo Tecnológico’ publicado por Marc Andreessen ha sistematizado algunas de esas ideas y elevado estas nociones a la perspectiva de comentarios más macro como la de Vitalik.”
Así que Vitalik, quiero preguntarte: ¿Qué representan E/acc y D/acc para ti? ¿Cuáles son las diferencias clave entre ellos? ¿Qué te impulsa a elegir esta dirección?
Vitalik Buterin: "Bien, empecemos con la termodinámica. Este es un tema muy interesante porque a menudo escuchamos la palabra ‘entropía’ en diferentes contextos, por ejemplo, ‘calor y frío’ en termodinámica, o ‘entropía’ en criptografía; parecen ser cosas completamente diferentes. Pero, en realidad, son esencialmente el mismo concepto.
Déjame intentar explicarlo en tres minutos. La pregunta es: ¿por qué el calor y el frío pueden mezclarse, pero no puedes separarlos de nuevo en ‘calor’ y ‘frío’?
Imaginemos un ejemplo simple: supongamos que tienes dos frascos de gas, cada uno con un millón de átomos. El gas de la izquierda es frío, y la velocidad de cada átomo podría describirse con dos dígitos; el gas de la derecha es caliente, y la velocidad de cada átomo podría describirse con seis dígitos.
Si queremos describir el estado del sistema completo, necesitamos conocer la velocidad de cada átomo. La información de velocidad del gas frío a la izquierda necesita alrededor de 2 millones de dígitos, la información de velocidad del gas caliente a la derecha necesita 6 millones de dígitos, totalizando 8 millones de dígitos de información para describir completamente ese sistema.
Ahora, podemos considerar un problema mediante el método de contradicción. Supón que tienes un dispositivo que puede separar completamente el calor del frío. Específicamente, este dispositivo puede transferir todo el calor de un frasco de gas ‘semi-frío y semi-cálido’ al lado caliente y todo el frío al lado frío. Desde la perspectiva de conservación de energía, esto parece totalmente razonable, porque la energía total no ha cambiado. Pero, ¿cuál es el problema?
La respuesta es que si realmente pudieras hacer esto, en realidad estarías transformando un sistema que ‘contiene 11.4 millones de bits de información desconocida’ en un sistema que ‘solo contiene 8 millones de bits de información desconocida’, lo cual es físicamente imposible.
Esto se debe a que las leyes físicas son simétricas en el tiempo, es decir, el tiempo puede correr hacia atrás. Si realmente existiera este ‘dispositivo mágico’, podrías hacer que este proceso retroceda en el tiempo y regresar al estado original. Esto significaría que este dispositivo podría comprimir cualquier información de 11.4 millones de bits en 8 millones de bits, y sabemos que dicha compresión es imposible de lograr.
Esto también explica la viabilidad del famoso problema de la física ‘demonio de Maxwell’. El demonio de Maxwell es una entidad hipotética que puede separar el calor del frío, y la clave para lograr esto es que necesita conocer esa información adicional de 3.4 millones de bits. Con esta información adicional, puede realizar esta tarea que parece violar la intuición.
Entonces, ¿qué significa esto? El núcleo está en el concepto de ‘aumento de entropía’. Primero, la entropía es subjetiva, no es una cantidad física fija, sino que refleja cuánto desconocemos sobre el sistema. Por ejemplo, si reorganizo la distribución de los átomos usando una función hash criptográfica, para mí, la entropía de ese sistema puede volverse muy baja, porque sé cómo está organizado. Pero desde la perspectiva de un observador externo, la entropía es alta. Por lo tanto, cuando la entropía aumenta, en realidad estamos aumentando nuestra ignorancia sobre el mundo, lo que significa que la cantidad de información que no sabemos está creciendo.
Podrías preguntar, ¿por qué aún podemos volverse más inteligentes a través de la educación? La educación nos enseña más ‘información útil’, en lugar de reducir nuestra ignorancia sobre el mundo. En otras palabras, aunque desde cierto punto de vista el aumento de la entropía significa que nuestro conocimiento total del universo está disminuyendo, la información que poseemos se vuelve más valiosa. Por lo tanto, en este proceso, algunas cosas se consumen, pero también se crean otras. Y las cosas que obtenemos determinan nuestras formas de valorar — valoramos la vida, la felicidad y la alegría.
Esto también explica por qué creemos que un mundo humano lleno de vida y belleza es más interesante que un Júpiter lleno de partículas. Aunque hay más partículas en Júpiter, que necesitarían más bits de información para describir, el significado que le asignamos hace que la Tierra parezca más valiosa.
Desde esta perspectiva, la fuente del valor radica en nuestras propias elecciones. Y esto plantea la pregunta: dado que estamos acelerando, ¿qué es exactamente lo que queremos acelerar?
Si utilizo una analogía matemática para explicar: supongamos que tienes un gran modelo de lenguaje y cambias al azar el valor de uno de sus pesos a un número enorme, como 9 mil millones. El peor resultado es que el modelo se vuelva completamente inutilizable; y el mejor resultado podría ser que solo las partes no relacionadas con ese peso sigan funcionando normalmente. En otras palabras, en el mejor de los casos podrías obtener un modelo de menor rendimiento; y en el peor de los casos, solo obtendrás un montón de salidas sin sentido.
Por lo tanto, creo que la sociedad humana es como un complejo gran modelo de lenguaje. Si aceleramos ciegamente una parte sin discriminación, el resultado final puede ser que perdamos todo el valor. Así que la verdadera pregunta es: ¿cómo aceleramos de manera consciente? Como lo sugirió Daron Acemoglu con su teoría del ‘corredor estrecho’, aunque los contextos sociales y políticos pueden variar, lo que necesitamos pensar es cómo elegir impulsar el progreso de manera selectiva bajo una guía clara.
Guillaume Verdon: "La forma en que acabas de explicar el concepto de entropía usando gas es muy interesante. De hecho, la razón por la que los fenómenos físicos son irreversibles se debe a la segunda ley de la termodinámica. En términos simples, cuando un sistema libera calor, su estado no puede volver a ser el mismo. Porque, desde un punto de vista probabilístico, la posibilidad de que el sistema avance hacia el futuro es mucho más alta que la posibilidad de retroceder, y esta diferencia aumenta exponencialmente a medida que se disipa el calor.
En cierto sentido, esto es como dejar una ‘impronta’ en el universo. Esta ‘impronta’ puede ser comparada con una colisión inelástica. Por ejemplo, si golpeo el suelo con una pelota de rebote, rebotará; eso es elástico. Pero si golpeo el suelo con un trozo de plastilina, se aplastará y mantendrá esa forma; eso es elástico. En esencia, cada información está ‘luchando’ por su existencia. Para seguir existiendo, cada información necesita dejar más huellas indelebles sobre su existencia en el universo, como dejar una ‘impronta’ más profunda en el cosmos.
Este principio también puede usarse para explicar cómo la vida y la inteligencia emergen de una ‘sopa de materia primordial’. A medida que el sistema se vuelve más complejo, contiene más bits de información. Y cada bit de información puede contarnos algo. La esencia de la información es la reducción de la entropía, porque la entropía representa nuestra ignorancia, mientras que la información es la herramienta para reducir esa ignorancia.
Eddy Lazzarin: “Me gustaría saber qué es E/acc.”
Guillaume Verdon: "E/acc es esencialmente una ‘receta cultural meta’. No es una cultura en sí misma, sino que nos dice qué debemos acelerar. La esencia de la aceleración es la complejidad material, porque así podemos predecir mejor nuestro entorno. A través de esta complejidad, podemos mejorar la capacidad de predicción autorregresiva y capturar más energía libre. Esto también está relacionado con la escala de Kardashev, y lo logramos disipando calor.**
Nota de Deep Tide TechFlow: La escala de Kardashev es un método propuesto por el astrónomo soviético Nikolai Kardashev en 1964 para evaluar el nivel de avance tecnológico de una civilización, basado en la cantidad de energía que puede utilizar. Se divide en tres tipos: Tipo I (energía planetaria), Tipo II (energía de sistemas estelares, como la esfera de Dyson) y Tipo III (energía de galaxias). Hasta 2018, la humanidad estaba en aproximadamente el 0.73 de la escala.)
Desde principios fundamentales, esta es la razón por la cual la escala de Kardashev se considera el indicador definitivo del nivel de desarrollo de una civilización.
Eddy Lazzarin: "Usar metáforas de física y entropía para explicar ciertos fenómenos es, de hecho, una herramienta para describir la realidad que experimentamos directamente. Por ejemplo, nuestra capacidad de producción económica está acelerando, el desarrollo tecnológico también está acelerando, y estas aceleraciones traen muchas consecuencias, ¿verdad? Esta es mi comprensión de ‘aceleración’.**
Guillaume Verdon: "Esencialmente, independientemente de cómo se definan los límites de un sistema, se volverá cada vez más competente en predecir el mundo a su alrededor. A través de esta capacidad de predicción, podrá obtener más recursos para su supervivencia y expansión. Este patrón se aplica a empresas, individuos, naciones e incluso al planeta entero.
Si continuamos esta tendencia, el resultado será: hemos encontrado una manera de convertir la energía libre en capacidad de predicción — es decir, IA. Esta capacidad impulsará nuestra expansión y mejora en la escala de Kardashev.
Esto significa que obtendremos más energía, más IA, más capacidad de cálculo y más otros recursos. Aunque estamos emitiendo entropía (desorden) hacia el universo, también estamos creando orden. En realidad, estamos obteniendo ‘negativa entropía’, es decir, la inversa de la entropía.
A veces, las personas pueden preguntar: dado que la entropía está aumentando, ¿por qué no simplemente destruimos todo? La respuesta es que hacer eso detendría la generación de entropía. La vida es un estado más ‘óptimo’; la vida es como una llama que persigue energía, se vuelve cada vez más inteligente en la búsqueda de fuentes de energía.
La tendencia natural de evolución es que dejemos el pozo gravitacional de la Tierra, buscando ‘bolsillos’ en el universo que contengan energía libre, y utilicemos esa energía para auto-organizarnos en sistemas más complejos e inteligentes, expandiéndonos a cada rincón del universo.
Este es, de hecho, el objetivo final de la ética altruista efectiva (Effective Altruism, EA). En cierto modo, se alinea con la visión de expansión cósmica estilo ‘Elon Musk’: la búsqueda de un cosmopolitismo y un expansionismo.
E/acc proporciona un principio fundamental de orientación. Su idea central es: independientemente de qué políticas o acciones tomes en este mundo, siempre que ayuden a que ascendamos en la escala de Kardashev, ese es un objetivo valioso que también es la dirección de nuestras vidas.
E/acc es un modo de pensamiento meta-heurístico que se puede utilizar para diseñar políticas o guiar la vida de las personas. Para mí, este modo de pensar en sí mismo constituye una cultura. Tiene una narrativa ‘meta’ porque se concibió como aplicable en cualquier tiempo y bajo cualquier condición. Es una cultura con alta universalidad y durabilidad, en otras palabras, es una ‘cultura Lindy’ (Lindy culture) diseñada después de una cuidadosa consideración.
Shaw Walters: "Para ti, los temas discutidos aquí tienen un significado más profundo. Es casi como un ‘sistema espiritual’ matemáticamente coherente. Para aquellos que no han tenido una fe alternativa desde que se proclamó que ‘Dios ha muerto’, un sistema así parece poder llenar el vacío espiritual y ofrecer consuelo y esperanza. Pero al mismo tiempo, no podemos ignorar el significado real de esto: está sucediendo ahora. Creo que este es también el enfoque que Eddy quiere explorar.
Vitalik, he notado que has planteado algunas perspectivas perspicaces sobre los problemas reales de D/acc en tu blog. Cuando tengamos la oportunidad, deberíamos profundizar en este tema; siento que un día deberíamos encerrarlos a ambos en una habitación para tener un gran debate sobre cuestiones cuánticas.
Vitalik: "¿Qué te inspiró? ¿Qué representan E/acc y D/acc para ti?**
Vitalik Buterin: "Para mí, D/acc significa — su abreviatura es ‘aceleración defensiva descentralizada’, pero también incluye los conceptos de ‘diferenciación’ y ‘democratización’. En mi opinión, la idea central de D/acc es que la aceleración tecnológica es extremadamente importante para la humanidad, y este debería ser nuestro objetivo base.
Incluso si miramos hacia el siglo XX, aunque los avances tecnológicos han traído muchos problemas, también han traído innumerables beneficios. Por ejemplo, considera la expectativa de vida humana: a pesar de las guerras y las turbulencias, la esperanza de vida promedio en Alemania en 1955 era aún superior a la de 1935, lo que demuestra que los avances tecnológicos han mejorado nuestra calidad de vida en muchos aspectos.
Hoy en día, el mundo es más limpio, hermoso, saludable y también más interesante. No solo puede alimentar a más personas, sino que también hace que nuestras vidas sean más ricas y variadas, y esos cambios son muy positivos para la humanidad.
Sin embargo, creo que debemos reconocer que estos avances no son accidentes, sino el resultado de la intención clara de la humanidad. Por ejemplo, en la década de 1950, había una grave contaminación del aire, con niebla espesa. La gente se dio cuenta de que esto era un problema y tomó medidas para solucionarlo. Hoy, al menos en muchos lugares, el problema de la niebla se ha aliviado considerablemente. De manera similar, también enfrentamos el problema de la capa de ozono, y hemos logrado avances significativos a través de la cooperación global.
Además, me gustaría añadir que, en el contexto del rápido desarrollo de la tecnología y la IA, veo dos tipos principales de riesgos.
Uno de los riesgos es el riesgo multipolar. Este riesgo se refiere a que, con la proliferación de la tecnología, más y más personas pueden utilizarla para hacer cosas extremadamente peligrosas. Por ejemplo, se puede imaginar una situación extrema: el desarrollo de la tecnología podría permitir que ‘cualquiera obtenga armas nucleares fácilmente, como si estuvieran comprando en una tienda de conveniencia’.
Y luego está la preocupación sobre la IA misma. Necesitamos considerar seriamente la posibilidad de que la IA desarrolle algún tipo de conciencia autónoma. Una vez que su capacidad sea lo suficientemente fuerte como para actuar sin intervención humana, no podemos saber exactamente qué decisiones tomará, y esa incertidumbre es inquietante.
Además, hay un riesgo unipolar. Creo que una IA única es una de las amenazas potenciales. Peor aún, la combinación de la IA con otras tecnologías modernas podría dar lugar a una sociedad dictatorial permanente de la que no se puede escapar. Esta perspectiva me resulta muy inquietante y ha sido un foco de mi atención.
Como ejemplo, en Rusia, podemos ver que la tecnología ha traído avances, pero también ha traído peligros. Por un lado, las condiciones de vida han mejorado; pero, por otro lado, la libertad social ha disminuido. Si alguien intenta protestar, las cámaras de vigilancia registrarán su comportamiento, y entonces, probablemente, alguien vendrá a arrestarlos una semana después en medio de la noche.
El rápido desarrollo de la IA está acelerando esta tendencia de concentración de poder. Por lo tanto, para mí, lo que realmente quiere hacer D/acc es: trazar un camino hacia adelante, continuar esta aceleración y acelerarla aún más, pero al mismo tiempo abordar realmente estos dos tipos de riesgos.
Eddy Lazzarin: "Entonces, ¿quieres decir que D/acc se centra más en algunas categorías de riesgo que han sido pasadas por alto o enfatizadas insuficientemente en el marco de E/acc, verdad?**
Vitalik Buterin: "Exactamente. Creo que el desarrollo tecnológico está asociado con múltiples riesgos, y estos riesgos