¿La humanidad subestima el riesgo de su propia extinción?
Una vez que no sea personalizado, esta publicación no describirá un descubrimiento publicado recientemente en una revisión. A lo largo de mis diversas lecturas, en las últimas semanas, he recogido algunas piezas de rompecabezas y he notado que encajan bastante bien, que había una idea rectora detrás de ellos. Comenzó a finales de 2011 en Durban, con el nuevo fracaso de la comunidad internacional para acordar limitar las emisiones de gases de efecto invernadero (GEI). Luego hubo este anuncio, a fines de diciembre, de la creación por parte de investigadores de virus de influenza aviar mutantes, capaces de transmitirse más fácilmente entre humanos infectados. Anuncio seguido, en primer lugar, por un debate sobre si era muy relevante publicar los métodos con los que los biólogos habían modificado el H5N1, luego por la pregunta más pragmática: ¿puede el terrorista ordinario lograrlo fácilmente?
Luego hubo otro anuncio, el 12 de enero, más ritualista éste, pero también más discreto: el del Boletín de los Científicos Atómicos anunciando que el reloj del fin del mundo que, desde 1947, advierte simbólicamente al la humanidad cuando da pasos hacia su extinción o la tranquiliza cuando toma medidas para alejarse de ella, se adelantó un minuto hacia la medianoche. Ahora son las 23:55 pm en este reloj y esta progresión de la mano grande se ha justificado por la falta de progreso en la limitación tanto de la proliferación nuclear como de las emisiones de gases de efecto invernadero. La declaración decía: "La comunidad mundial puede estar cerca de un punto sin retorno en sus esfuerzos por prevenir desastres debido a cambios en la atmósfera terrestre. La Agencia Internacional de Energía predice que" A menos que las sociedades comiencen, en los próximos cinco años, a desarrollar alternativas a las tecnologías energéticas que emiten carbono, el mundo está condenado a un clima más cálido, al aumento del nivel del mar, a la desaparición de naciones insulares y aumento de la acidificación de los océanos ". No es sin cierta ironía que hace unos días salió otro dato, directamente ligado a éste, y lo di, como fundición, en una de mis selecciones semanales: nunca, Durante los últimos 300 millones de años, los océanos no han sido tan ácidos como lo son hoy. A pesar de su importancia, la noticia no pareció conmover a nadie ...
En el mismo momento en que se están publicando muchos libros sobre el tema "2012, año del fin del mundo predicho por el calendario maya" (me asombró ver toda una tabla de trabajos en la FNAC sobre este tema), los hombres jugando a asustarse sabiendo muy bien que es una tontería, barremos bajo la alfombra los verdaderos motivos de preocupación. De ahí la pregunta que da título a este post: ¿está la humanidad subestimando el riesgo de su propia extinción al no abordar los problemas que la amenazan o al arriesgarse a derribar tecnologías de destrucción masiva entre ellos? manos maliciosas? Obviamente no tengo la respuesta y dejo que todos lo piensen, pero quería, para terminar este post como ningún otro, mencionar la entrevista, en The Atlantic, con el filósofo sueco Nick Bostrom, quien enseña en la Universidad de Oxford, dirige el Instituto para el Futuro de la Humanidad allí y aparece en la imagen en la parte superior de esta página.
Con formación en física, neurociencia y filosofía de la ciencia, Nick Bostrom no necesariamente tiene el perfil típico del filósofo como solemos imaginarlo. Ha trabajado mucho en el concepto de "riesgo existencial", en el sentido de un escenario de desastre que conduce "a la destrucción total de toda la vida inteligente en la Tierra, o a una parálisis permanente de su potencial de desarrollo". En esta entrevista, por lo tanto, no le interesan las consecuencias lejanas del calentamiento global, pero, considerando que este siglo XXI será crucial para la humanidad debido al rápido desarrollo de las nuevas tecnologías, los riesgos que estas presentarán en un futuro. Un futuro muy cercano para nosotros: "En el corto plazo", dijo, "creo que varios desarrollos en los campos de la biotecnología y la biología sintética son bastante desconcertantes. Estamos en proceso de adquirir la capacidad de crear patógenos modificados". y los planos de varios organismos patógenos son de dominio público: se puede descargar de Internet la secuencia genética del virus de la viruela o la de la gripe española, hasta ahora el ciudadano de a pie sólo tiene su representación gráfica en Internet. pantalla de su computadora, pero también estamos desarrollando máquinas cada vez más eficientes que sintetizan ADN, que pueden tomar uno de estos planos digitales y fabricarhebras reales de ARN o ADN. Pronto, estas máquinas serán lo suficientemente potentes para recrear estos virus. Entonces, ya tiene algún tipo de riesgo predecible y si, entonces, comienza a modificar estos patógenos de diferentes maneras, ve aparecer una nueva frontera peligrosa. A largo plazo, creo que la inteligencia artificial, una vez que haya adquirido capacidades humanas y luego sobrehumanas, nos llevará a una zona de mayor riesgo. También hay diferentes tipos de control de la población que me preocupan, como la vigilancia y la manipulación psicológica con drogas ".
Cuando el periodista le pregunta por qué el riesgo de un deslizamiento importante se estima en uno o dos de cada diez a lo largo del siglo, que es mucho, Nick Bostrom tiene esta respuesta: "Creo que lo que lleva a esa es la sensación de que los seres humanos están desarrollando estas herramientas tan poderosas ... y que existe el riesgo de que algo salga mal. Si regresa con armas nucleares, encontrará que una bomba atómica, necesitabas materias primas raras como uranio enriquecido o plutonio, que son muy difíciles de conseguir. Pero supongamos que existiera una técnica que te permitiera fabricar un arma nuclear horneando arena en un microondas o algo así. Si ese hubiera sido el caso, ¿dónde estaríamos ahora? Presumiblemente, una vez que se hizo ese descubrimiento, la civilización habría estado condenada. hacer uno de estos descubrimientos, ponemos nuestro m Estamos en una gran urna llena de balas y disparamos una nueva bala: hasta ahora hemos sacado balas blancas y grises, pero tal vez la próxima vez disparemos una bala negra, un descubrimiento que significa desastre. . Por el momento, no tenemos una buena manera de devolver la pelota a las urnas si no nos gusta. Una vez que se ha publicado el descubrimiento, no hay forma de "anular la publicación".
Nick Bostrom no se opone en absoluto a la tecnología: al contrario, es un gran partidario del transhumanismo. Simplemente, está haciendo campaña para que mantengamos el control. Control de nuestras tecnologías, nuestro planeta, nuestro futuro. Porque la extinción del hombre no es el único riesgo que corremos. La otra cara del riesgo existencial es la desaparición total de las libertades a escala planetaria: "Se puede imaginar el escenario de una distopía global totalitaria. Una vez más, se vincula a la posibilidad de que desarrollemos tecnologías que facilitarán mucho a los regímenes opresores eliminar a los disidentes o monitorear a sus poblaciones para lograr una dictadura estable, en lugar de las que hemos visto a lo largo de la historia que han terminado siendo derrocadas . " George Orwell y su 1984 no están lejos.
Pierre Barthélémy
Fuente: http://passeurdesciences.blog.lemonde.f ... xtinction/