Extinción de la humanidad
Un equipo internacional de científicos, matemáticos y filósofos del Instituto del Futuro de la Humanidad, de la Universidad de Oxford, está investigando cuáles son los mayores peligros para la humanidad.
Y ellos argumentan en un texto académico recién divulgado, “Riesgos Existenciales como Prioridad Global”, que los autores de políticas públicas deben estar atentos a los riesgos que pueden contribuir al fin de la especie humana.
El año pasado, hubo más textos académicos lanzados respecto al snowboarding que sobre la extinción humana.
El director del instituto, el sueco Nick Bostrom, afirma que existe una posibilidad plausible de que este sea el último siglo de la humanidad.
Buenas noticias, primero
Pero primero las buenas noticias. Las pandemias y los desastres naturales pueden causar una pérdida de vida colosal y catastrófica, pero Bostrom cree que la humanidad sería propensa a sobrevivir.
Eso es porque nuestra especie ya sobrevivió a millares de años de enfermedades, hambre, inundaciones, predadores, persecuciones, terremotos y cambios ambientales. Por eso, las chances todavía están a nuestro favor.
Y a lo largo del espacio de un siglo, él afirma que el riesgo de extinción como consecuencia del impacto de asteroides y súper erupciones volcánicas permanece siendo ‘extremadamente pequeño’.
Incluso las pérdidas sin precedentes autoimpuestas en el siglo XX, con dos guerras mundiales y la epidemia de gripe española, dejaron de prevenir el ascenso del crecimiento de la población humana global.
Una guerra nuclear podría causar una destrucción sin precedentes, pero un número suficiente de individuos podría sobrevivir y, así, permitir, que la especie continúe.
Pero si existen todos esos atenuantes, ¿qué debería preocuparnos?
Amenazas sin precedentes
Bostrom cree que entramos en una nueva era tecnológica capaz de amenazar nuestro futuro de una forma nunca antes vista. Estas son ‘amenazas de las que no tenemos ningún registro de haber sobrevivido’.
El director del instituto compara las amenazas existentes con un arma peligrosa en manos de un niño. Él dice que el avance tecnológico superó nuestra capacidad de controlar las posibles consecuencias.
Los experimentos en áreas como biología sintética, nanotecnología e inteligencia artificial están avanzando dentro del territorio de lo no intencional y de lo imprevisible.
La biología sintética, donde la biología se encuentra con la ingeniería, promete grandes beneficios médicos, pero Bostrom teme efectos no previstos en la manipulación de la biología humana.
La nanotecnología, si es realizada a nivel atómico o molecular, podría también ser altamente destructiva al ser usada para fines bélicos. Él ha escrito que los gobiernos futuros tendrán un gran desafío al controlar y restringir los usos inapropiados.
Hay también temores en relación a la forma en que la inteligencia artificial o mecánica pueda interactuar con el mundo externo. Ese tipo de inteligencia orientada por computadoras puede ser una poderosa herramienta en la industria, en la medicina, en la agricultura o para administrar la economía, pero enfrenta también el riesgo de ser completamente indiferente a cualquier daño incidental.
Sean O’Heigeartaigh, un genetista del instituto, traza una analogía con el uso de algoritmos usados en el mercado de acciones.
De la misma forma que esas manipulaciones matemáticas, argumenta, pueden tener efectos directos y destructivos sobre las economías reales y sobre las personas de verdad, tales sistemas computacionales pueden ‘manipular el mundo verdadero’.
En términos de riesgos biológicos, él se preocupa con las buenas intenciones mal aplicadas, como experimentos visualizando promover modificaciones genéticas y desmantelar y reconstruir estructuras genéticas.
Un tema recurrente entre el ecléctico grupo de investigadores es sobre la habilidad de crear computadoras cada vez más poderosas.
El investigador Daniel Dewey, del instituto, habla de una ‘explosión de inteligencia’, en la que el poder de aceleración de las computadoras se vuelve menos previsible y menos controlable.
‘La inteligencia artificial es una de las tecnologías que deposita más y más poder en envases cada vez más pequeños’, afirma el perito americano, un especialista en súper inteligencia mecánica que trabajó anteriormente en Google.
Efecto en cadena
Juntamente con la biotecnología y la nanotecnología, él afirma que esas nuevas tecnologías podrían generar un ‘efecto en cadena, de modo que, aún comenzando con escasos recursos, usted puede crear proyectos con potencial de afectar a todo el mundo’.
El instituto del Futuro de la Humanidad en Oxford integra una tendencia centrada en investigar tales grandes temas. El Instituto fue una iniciativa del Oxford Martin School, que abarca a académicos de diferentes áreas, con el objetivo de estudiar los ‘más urgentes desafíos globales’.
Martin Rees, ex presidente de la Sociedad Real de Astronomía británica, es uno de los defensores del Centro de Estudios de Riesgo Existencial y afirma que ‘este es el primer siglo en la historia mundial en el que las mayores amenazas provienen de la humanidad’.
Nick Bostrom afirma que el riesgo existencial enfrentado por la humanidad ‘no está en el radar de todo el mundo’. Pero él argumenta que los riesgos vendrán, estemos o no preparados.
‘Existe un problema en la historia de la humanidad. La condición humana cambiará. Puede ser que terminemos en una catástrofe o que seamos transformados al asumir más control sobre nuestra biología. No es ficción científica, doctrina religiosa o charla de bar’.
Portugués
Inglés
Francés
Italiano
Haití
Ruso
