El largoplacismo y el altruismo eficaz van de la mano. El altruismo eficaz, que ganó popularidad gracias a las ideas del filósofo Peter Singer en los años 70, plantea que las sociedades más prósperas tienen la responsabilidad moral de combatir la pobreza, incluso más allá de sus fronteras. Se basa en un enfoque utilitarista, calculando qué acciones tienen el mayor impacto positivo. Por ejemplo, financiar mosquiteras tratadas con insecticida para prevenir la malaria en comunidades remotas suele ser más efectivo para salvar vidas que donar a un banco de alimentos local.
Los largoplacistas, sin embargo, llevaron este concepto un paso más allá: dicen que nuestra responsabilidad no solo es con quienes viven hoy, sino con las generaciones futuras, incluso aquellas que podrían existir dentro de miles o millones de años. Y si se toma en cuenta la posibilidad de seres sintientes no humanos, como algunos creen, el número de futuras vidas podría superar con creces la población actual.
Siguiendo esa lógica, garantizar la supervivencia de la humanidad preparando medidas contra posibles catástrofes—como la caída de un asteroide o una guerra nuclear—sería incluso más importante que resolver el hambre o la pobreza de millones de personas en el presente.
Para los largoplacistas, los mayores riesgos suelen ser existenciales, y la tecnología, la mejor solución.
Aquí entra Elon Musk. Su visión tecnológica—cohetes, robótica humanoide, e incluso su empresa de túneles—busca expandir la "conciencia humana" más allá de la Tierra. Llama a la colonización de Marte "el seguro de vida de la humanidad" y se queja de que las regulaciones frenan su misión. Como buen vendedor, tiene claro su discurso.
"Por primera vez en la historia de la Tierra, podemos extender la conciencia más allá de nuestro planeta", dijo en el pódcast de Joe Rogan en febrero.
"Esto es una carrera contrarreloj", agregó. "¿Podemos hacer que Marte sea autosuficiente antes de que enfrentemos una guerra nuclear, nos golpee un meteorito o simplemente la civilización se apague poco a poco?"
Musk dio su primer paso hacia Marte en 2001, cuando donó 5000 dólares a la Sociedad Marciana de Robert Zubrin, autor del libro Alegato a Marte. Un año después, fundó SpaceX.
Coincidencia o no, en esa misma época el filósofo Nick Bostrom publicó Riesgos Existenciales, un análisis de amenazas como meteoritos, pandemias y una posible inteligencia artificial descontrolada. También mencionó una hipótesis que Musk ha citado en varias ocasiones: la idea de que vivimos en una simulación, al estilo Matrix.
Bostrom advirtió que el riesgo de un desastre existencial es real y que la tecnología es nuestra mejor apuesta para evitarlo. Musk ha repetido ideas similares a lo largo de los años y ha recomendado el libro Lo que le debemos al futuro, del filósofo William MacAskill, quien aboga por un enfoque filantrópico basado en "ganar dinero para donarlo".
En 2023, Musk dijo que la IA llegando a ser más inteligente que los humanos podría ser el mayor riesgo existencial. En 2022, afirmó que la caída de la natalidad era una amenaza mayor que el calentamiento global.
A principios de este año, intentó influir en las elecciones a la Corte Suprema de Wisconsin, diciendo: "Esto podría afectar el destino de la humanidad." Y en agosto, al hablar con Trump en su red social X, declaró que apoyarlo como presidente era crucial en "la bifurcación del destino de la civilización".
Como otros empresarios tecnológicos que han respaldado a Trump, Musk ha visto beneficios tras las elecciones. Trump promocionó una misión a Marte en su discurso de investidura, un colaborador de Musk dirige la NASA, y las regulaciones que antes complicaban sus proyectos están desapareciendo.
Los críticos del largoplacismo sostienen que atrae a los magnates porque da una justificación moral a sus ambiciones. También creen que el objetivo final de muchos no es solo la supervivencia humana, sino una civilización utópica con humanos mejorados por la IA y robots avanzados.
Mollie Gleiberman, antropóloga de la Universidad de Amberes, señala una paradoja: algunas de las mismas figuras que advierten sobre los peligros de la IA—incluido Musk—son quienes la están desarrollando. "El miedo a algo lo hace parecer más real", escribió en 2023.
Tomemos el caso de los robots humanoides. En una entrevista con Ted Cruz este año, Musk estimó que la probabilidad de que los robots aniquilen a la humanidad es del 20%. Sin embargo, cree que si evitamos ese escenario, el 80% de las posibilidades apuntan a una prosperidad extrema para todos.
Max Tegmark, físico del MIT, dice que Musk se destaca por no solo pensar a largo plazo, sino actuar en consecuencia. "Gana dinero ahora y lo invierte en hacer que el futuro sea mejor", explicó.
Independientemente de si logra su visión completa, ha impulsado avances como cohetes reutilizables, autos eléctricos, internet satelital y tecnologías para ayudar a personas con daños neurológicos.
Su enfoque ha generado debate entre largoplacistas comprometidos. MacAskill señala que el largoplacismo no se trata de ignorar los problemas actuales, sino de preservar la cooperación internacional necesaria para enfrentar riesgos globales.
Peter Singer, el filósofo que inspiró el altruismo eficaz, también critica a Musk. "Si realmente fueras altruista, habrías prestado más atención al impacto de recortes en USAID y otros programas que afectan a cientos de millones de personas", afirmó.
En febrero, Musk llevó su visión futurista a una conversación con Rogan sobre el gasto federal. Más allá de su rechazo a la Agencia Estadounidense para el Desarrollo Internacional, encontró una nueva amenaza: según él, la civilización occidental sufre una "empatía suicida".
"La empatía es buena, pero hay que pensarla bien y no dejarse programar como un robot", concluyó.
Comentarios
Publicar un comentario