Chegamos ao ponto em que as chances de nos destruirmos é maior que a de sermos aniquilados por catástrofes naturais. Riscos existenciais é o nome que algumas das mais prestigiosas instituições acadêmicas do mundo dão ao estudo desses cenários e possibilidades – especialmente para que sejam enfrentados antes de ocorrerem
Asteroides, vulcões, tempestades solares e outros riscos naturais não foram capazes de interromper a trajetória que, ao longo de dois mil séculos, permitiu à espécie humana expandir-se e ampliar seu poder de transformar o mundo em sua volta. Chegamos ao ponto, porém, em que este poder ultrapassou um patamar a partir do qual as chances de nos destruirmos é maior que a de sermos aniquilados por catástrofes naturais. E o método correto para abordar essas chances consiste em imaginar cenários e possibilidades de destruição completa da espécie humana, com base em seu poder cada vez maior, para então conceber os meios para que estes cenários não se realizem.
Riscos existenciais é o nome que algumas das mais prestigiosas instituições acadêmicas do mundo dão ao estudo destes cenários e destas possibilidades. Toby Ord, pesquisador do Future of Humanity Institute, da Universidade de Oxford, em seu recém lançado Precipice: Existential Risk and the Future of Humanity, calcula probabilidades de destruição vinculadas a algumas das mais fascinantes conquistas científicas e tecnológicas da atualidade.
Antes de mencionar estas conquistas, é fundamental esclarecer que estudar riscos existenciais não é fazer profecia do apocalipse, nem tampouco traçar com cores sombrias o futuro da humanidade. Ao contrário, o argumento central de Toby Ord é que se conseguirmos instituições, cultura e rotinas que reduzam a distância entre nosso poder e a escassa sabedoria com que o usamos, a humanidade tem pela frente um futuro altamente promissor. Mas este futuro depende antes de tudo da emergência da capacidade coletiva de autorreflexão, cujo formato nem de longe está claro para o próprio autor.
Mais que isso. Estudar os riscos existenciais é conceber situações extremas não com o intuito de mostrar sua inevitabilidade, mas, ao contrário, para que elas sejam enfrentadas antes de sua ocorrência. Imaginar o pior cenário é a única forma de se insurgir contra a tolerância diante de situações irreversivelmente destrutivas. E é importante frisar que não se trata, para Toby Ord e seus colegas, de interromper o avanço científico e tecnológico. Ao contrário, a ciência e a tecnologia exprimem o paradoxo de abrirem caminho para formas inéditas de destruição, mas de serem, ao mesmo tempo, fundamentais para o desenvolvimento humano.
O primeiro e mais óbvio risco existencial é o de guerra nuclear. Ord conta no livro o horripilante episódio em que um oficial da marinha soviética (Vassili Arkhipov) em 1962 vetou o disparo de um ataque contra forças americanas perto da Baía dos Porcos. O ataque dependia da decisão de três oficiais e Arkhipov contrariou o voto de seus dois colegas. Na verdade, houve um erro de comunicação que quase desencadeou um conflito que poderia ter dado fim à espécie humana.
O segundo risco é o da mudança climática. Os eventos extremos que marcam a crise climática não têm dimensão que ameace, é verdade, a própria existência das sociedades humanas. Mas, da mesma forma que o IPCC ou a consultoria McKinsey, Ord desenha cenários extremos em que a elevação da temperatura seria de tal magnitude que impediria que as pessoas sobrevivessem por mais que algumas horas em ambientes sem ar condicionado. O avanço da extração de fósseis, do derretimento do Ártico e da destruição das florestas tropicais abre caminho para tais horizontes.
O terceiro risco global é o da inteligência artificial. Toby Ord, neste sentido, acompanha o trabalho de um dos mais célebres pesquisadores da área, Stuart Russel que mostra que o mantra “quanto mais inteligente, melhor” é profundamente ameaçador. “A marcha em direção a uma inteligência sobre humana é incontrolável, mas seu sucesso pode significar o aniquilamento da raça humana”. A única maneira de evitar isso é que as máquinas realizem nossos objetivos e não os delas próprias. Esta é uma das mais importantes áreas de pesquisa sobre riscos existenciais.
O quarto risco é o das pandemias. As sociedades modernas, devido a sua comunicação instantânea e sua concentração populacional, são muito mais sujeitas que as anteriores a pandemias, apesar de nossos conhecimentos e nossas técnicas de combate serem muito superiores às do passado. Além disso, as possibilidades de produção de armas biológicas, baseadas em manipulação genética de organismos vivos, são tanto maiores que as técnicas para isso estão cada vez mais baratas e acessíveis a laboratórios quase domésticos. E é preciso não esquecer os não tão raros vazamentos de patógenos mesmo em laboratórios credenciados.
Já se tornou um lugar comum que o mundo não será o mesmo, após a Covid-19. A percepção de que existem riscos que ameaçam a existência humana talvez contribua a fazer emergir a consciência de que ciência, tecnologia e o conjunto da relação entre a sociedade e natureza terão que se reger por normas éticas que respondam às perguntas básicas:
O que queremos para nós e nossos descendentes? Além de nossa reprodução material, seremos capazes de um exercício social de autorreflexão que permita a nós e às futuras gerações uma vida significativa, que valha a pena ser vivida?
É de nossa capacidade coletiva de formular e responder a estas perguntas que depende o futuro do que Toby Ord chama de a era do precipício.
*Ricardo Abramovay é professor sênior do Instituto de Energia e Ambiente da USP e autor de Amazônia: Para uma economia do conhecimento da natureza (Ed. Elefante/Outras Palavras). Twitter: @abramovay
[Foto: Zoltan Fekeshazi/ Unsplash]