Instituto da Universidade de Oxford alerta para riscos de
extinção da humanidade
Uma equipe
internacional de cientistas, matemáticos e filósofos do Instituto do Futuro da
Humanidade, da Universidade de Oxford, está investigando quais são os maiores
perigos contra a humanidade.
E eles argumentam em
um texto acadêmico recém-divulgado, Riscos Existenciais como Prioridade
Global, que autores de políticas públicas devem atentar para os riscos que
podem contribuir para o fim da espécie humana.
No ano passado, houve
mais textos acadêmicos lançados a respeito de snowboarding do que sobre a
extinção humana.
O diretor do
instituto, o sueco Nick Bostrom, afirma que existe uma possibilidade plausível
de que este venha a ser o último século da humanidade.
Boas notícias
primeiro
Mas primeiro as boas
notícias. Pandemias e desastres naturais podem causar uma perda de vida
colossal e catastrófica, mas Bostrom acredita que a humanidade estaria propensa
a sobreviver.
Isso porque nossa
espécie já sobreviveu a milhares de anos de doenças, fome, enchentes,
predadores, perseguições, terremotos e mudanças ambientais. Por isso, as
chances ainda estão a nosso favor.
E ao longo do espaço
de um século, ele afirma que o risco de extinção em decorrência do impacto de
asteroides e super erupções vulcânicas permanece sendo “extremamente pequeno”.
Até mesmo as perdas
sem precedentes auto impostas no século 20, com duas guerras mundiais e
epidemia de gripe espanhola, deixaram de prevenir a ascensão do crescimento da
população humana global.
Uma guerra nuclear
poderia causar destruição sem precedentes, mas um número suficiente de
indivíduos poderia sobreviver e, assim, permitir, que a espécie continue.
Mas se existem todos
esses atenuantes, com o que deveríamos estar preocupados?
Ameaças sem
precedentes
Bostrom acredita que
entramos em uma nova era tecnológica capaz de ameaçar nosso futuro de uma forma
nunca vista antes. Estas são “ameaças que não temos qualquer registro de haver
sobrevivido”.
O diretor do
instituto compara as ameaças existentes a uma arma perigosa nas mãos de uma
criança. Ele diz que o avanço tecnológico superou nossa capacidade de controlar
as possíveis consequências.
Experimentos em áreas
como biologia sintética, nanotecnologia e inteligência artificial estão avançando
para dentro do território do não intencional e o imprevisível.
Pelas próprias mãos
“Este é o primeiro
século na história mundial em que as maiores ameaças provêm da humanidade” –
Martin Rees, Universidade de Cambridge.
A biologia sintética,
onde a biologia se encontra com a engenharia, promete grandes benefícios
médicos, mas Bostrom teme efeitos não previstos na manipulação da biologia
humana.
A nanotecnologia, se
realizada a nível atômico ou molecular, poderia também ser altamente destrutiva
ao ser usada para fins bélicos. Ele tem escrito que governos futuros terão um
grande desafio ao controlar e restringir usos inapropriados.
Há também temores em
relação à forma como a inteligência artificial ou maquinal possa interagir com
o mundo externo. Esse tipo de inteligência orientada por computadores pode ser
uma poderosa ferramenta na indústria, na medicina, na agricultura ou para
gerenciar a economia, mas enfrenta também o risco de ser completamente
indiferente a qualquer dano incidental.
Sean O’Heigeartaigh,
um geneticista do instituto, traça uma analogia com o uso de algoritmos usados
no mercado de ações.
O diretor do
instituto adverte que riscos são reais e não se trata só de ficção científica
Da mesma forma que
essas manipulações matemáticas, argumenta, podem ter efeitos diretos e
destrutivos sobre economias reais e pessoas de verdade, tais sistemas
computacionais podem “manipular o mundo verdadeiro”.
Em termos de riscos
biológicos, ele se preocupa com boas intenções mal aplicadas, como experimentos
visando promover modificações genéticas e desmanter e reconstruir estruturas
genéticas.
Um tema recorrente
entre o eclético grupo de pesquisadores é sobre a habilidade de criar
computadores cada vez mais poderosos.
O pesquisador Daniel
Dewey, do instituto, fala de uma “explosão de inteligência”, em que o poder de
aceleração de computadores se torna menos previsível e menos controlável.
“A inteligência
artificial é uma das tecnologias que deposita mais e mais poder em pacotes cada
vez menores”, afirma o perito americano, um especialista em super inteligência
maquinal que trabalhou anteriormente na Google.
Efeito em cadeia
Juntamente com a
biotecnologia e a nanotecnologia, ele afirma que essas novas tecnologias
poderiam gerar um “efeito em cadeia, de modo que, mesmo começando com escasos
recursos, você pode criar projetos com potencial de afetar todo o mundo”.
O Instituto do Futuro
da Humanidade em Oxford integra uma tendência centrada em pesquisar tais
grantes temas. O Instituto foi uma iniciativa do Oxford Martin School, que
abrange acadêmicos de diferentes áreas, com o intuito de estudar os “mais
urgentes desafios globais”.
Martin Rees,
ex-presidente da Sociedade Real de Astronomia britânica é um dos defensores do
Centro de Estudos de Risco Existencial e afirma que “este é o primeiro século
na história mundial em que as maiores ameaças provêm da humanidade”.
Nick Bostrom afrima
que o risco existencial enfrentando pela humanidade “não está no radar de todo
mundo”. Mas ele argumenta que os riscos virão, caso estejamos ou não
preparados.
“Existe um gargalo na
história da humanidade. A condição humana irá mudar. Pode ser que terminemos em
uma catástrofe ou que sejamos transformados ao assumir mais controle sobre a
nosa biologia. Não é ficção científica, doutrina religiosa ou conversa de bar”.
(EcoDebate)
Nenhum comentário:
Postar um comentário