Qual é o risco da extinção humana?



Impensável que seja, a humanidade, até a última pessoa, poderia um dia ser apagado da face da Terra. Aprendemos a se preocupar com os asteróides e supervulcões, mas o cenário mais provável -, de acordo com Nick Bostrom, um professor de filosofia em Oxford – é que nós, humanos, vamos destruir a nós mesmos.

Bostrom tem escrito vários artigos detalhando seus pontos de vista de que os riscos de extinção humana são um tanto incompreendidos e subestimados. "Estamos fazendo as coisas sem precedentes, e há um risco de que algo poderia dar errado", disse ele.

Alguns destes riscos existenciais são bastante conhecidos, principalmente os naturais. Mas outros são obscuros ou mesmo exóticos. Mais preocupante, segundo Bostrom, é o subconjunto dos riscos existenciais que surgem a partir da tecnologia humana, um subconjunto que ele espera crescer em número e potência durante o próximo século.

No longo prazo, ele vê a tecnologia como uma ponte, uma ponte que nós humanos devemos cruzar com grande cuidado, a fim de alcançar novos meios de sermos melhores.
No entanto, por exemplo, a inteligência artificial de uma máquina ou nanotecnologia molecular avançada poderia conduzir ao desenvolvimento de certos tipos de sistemas de armas. Você também poderia ter riscos associados com os avanços da biologia sintética.

O desenvolvimento de tecnologias também torna as coisas mais fáceis para regimes opressivos para eliminar dissidentes ou para realizar a vigilância em suas populações, de modo que você poderia ter uma tirania permanentemente estável, e não os que temos visto ao longo da história, que finalmente foram derrubados.

A curto modo, o professor acredita que a humanidade deveria se preocupar com seus avanços e avaliar cada escolha para evitar que isso cause estragos irreversíveis no futuro.