quarta-feira, 24 de junho de 2015

QUEM VIVER VERÁ DEUSES EM FORMA DE MÁQUINAS? ARA!

Nick Bostrom: "A máquina superinteligente será a última invenção da humanidade"
O filósofo de Oxford alerta para os perigos da criação de máquinas mais inteligentes que humanos, e capazes de se aprimorar continuamente. 
Segundo ele, a chamada superinteligência pode levar a humanidade à extinção.
RAFAEL CISCATI  

 
 
O filósofo Nick Bostrom não é um homem de preocupações corriqueiras. 
Sueco, ele dirige o Centro para o Futuro da Humanidade na Universidade de Oxford, no Reino Unido. Lá, sua função é pensar sobre os riscos existenciais a ameaçar a vida humana: do choque de um asteroide com a Terra à eclosão de um conflito nuclear generalizado. 
Em seu novo livro, Superintelligence: paths, dangers and strategies (algo como Superinteligência: caminhos, perigos e estratégias) ele discute um problema digno de filme de ficção científica – a emergência de uma espécie de inteligência artificial capaz de aprender e se aprimorar sozinha. 
Segundo ele, se mal projetada, essa chamada superinteligência será o principal risco que a humanidade enfrentará ao longo do próximo século.
Máquinas que odeiam e escravizam humanos são já lugar-comum no cinema. 
Bostrom explica que os avanços experimentados no campo da inteligência artificial levarão à criação de máquinas super capazes. Mas elas não vão nos odiar: “Essas máquinas serão indiferentes a nós”. Elas serão perigosas porque terão um objetivo final, que vão cumprir mesmo que isso ponha pessoas em risco. Digamos que, entre as instruções dadas a uma máquina superinteligente, esteja a tarefa de permanecer sempre carregada com energia elétrica. Ela não vai sentir remorsos se, para isso, precisar deixar populações inteiras sem luz em casa. 
Para evitar que a tecnologia fique perigosa demais, Bostrom explica que os cientistas devem se concentrar em resolver o problema do controle - descobrir como controlar e, se necessário, desligar, uma máquina que será mais inteligente que qualquer ser humano.
Os temores de Bostrom podem soar como pura paranoia, mas têm base nas pesquisas realizadas por acadêmicos respeitados. Seus medos fazem sucesso: o livro do filósofo entrou para a lista de mais vendidos do jornal The New York Times e inspirou as preocupações de personalidades importantes, como o astrofísico Stephen Hawking e o empresário Elon Musk - um homem que não se assusta com facilidade, e fez dinheiro investindo em carros elétricos, compras online e viagens espaciais.
Nessa entrevista a ÉPOCA, Bostrom fala sobre robôs assassinos e sobre a necessidade de a humanidade pensar a respeito da própria extinção.

ÉPOCA – Quando as máquinas superinteligentes devem surgir?
Nick Bostrom – Ainda estamos bastante longe. Quão longe? Ninguém sabe. Não conseguimos prever uma data precisa. E, se você examinar as previsões feitas por especialistas em tecnologia no passado, vai perceber que não somos muito bons com datas. Mas esse tipo de máquina deve surgir até o final deste século.

ÉPOCA – As máquinas superinteligentes serão muito mais espertas que os humanos?
Bostrom – A superinteligência deve ultrapassar largamente as capacidades humanas. Não há porque achar que nossos cérebros humanos, limitados pela biologia, poderão competir. A tecnologia sintética será capaz de ir muito mais longe.

ÉPOCA – Considerando que a superinteligência é um risco em potencial, não seria melhor ser mais cauteloso nesse campo – e, talvez, interromper as pesquisas na área?
Bostrom – A superinteligência ainda está no campo das possibilidades. Hoje, ninguém sabe como desenvolvê-la. Acho que, eventualmente, descobriremos como. Desde que, claro, a humanidade não se destrua de outras maneiras antes. E espero que, quando fizermos essa descoberta, também já tenhamos encontrado uma solução para o problema do controle. Para o problema de como desenvolver uma máquina superinteligente que também seja segura e nos beneficie. Por isso, não acho que devamos pensar em controlar quanto esforço a humanidade investe nas pesquisas sobre inteligência artificial. Devemos nos preocupar com a quantidade de esforço investida na resolução do problema do controle.Trata-se de uma área de extrema importância na qual apenas algumas poucas pessoas trabalham. Mas ainda temos um longo caminho pela frente. A comunidade de pessoas que desenvolve inteligência artificial é numerosa. Há muitos ramos e diferentes a campos sendo desenvolvidos nas ciências da computação e nas neurociências. Em todos esses campos, a inteligência artificial é um objetivo comum. E há também um forte incentivo comercial. Parte desses recursos deveria ser remanejada para a resolução do problema de como controlar máquinas inteligentes.
 
ÉPOCA – Nos seus trabalhos, o senhor explica que as máquinas superinteligentes não serão dotadas de desejos. Não como os humanos. Então, o que vai motivá-las a, por exemplo, tentar matar pessoas?
Bostrom – Isso vai depender das particularidades da máquina. Uma máquina dotada com esse tipo de inteligência geral será capaz de recorrer a alguns critérios, para julgar as consequências das próprias ações. Ela vai ter um objetivo central, e vai tentar descobrir qual a maneira mais eficiente de alcançar esse objetivo.Um exemplo bobo: digamos que a máquina seja projetada para produzir clipes de papel. Ela pode concluir que a melhor maneira de atingir esse objetivo é eliminar a concorrência humana por recursos. A ideia geral aqui é a de que a inteligência artificial pode ter algum objetivo final genérico e, a partir dele, vai perseguir objetivos menores instrumentais. E esses objetivos podem incluir evoluir a ponto de evitar que os humanos consigam desativar essa máquina antes de ela fazer aquilo para que foi projetada. Então, a IA não vai nos odiar. Na verdade, ela será indiferente a nós. O problema é que suas ações intermediárias poderão ser prejudiciais para as pessoas.

ÉPOCA – A inteligência artificial já consegue realizar atividades complexas hoje em dia. Mas ainda não estamos nem perto da superinteligência. Por que devemos nos preocupar com isso tão cedo?
Bostrom – Acho que não há motivo para ficar alarmados. Isso não vai solucionar nada. O que devemos fazer é desenvolver as pesquisas certas. Para entender melhor como controlar e como desenvolver agentes inteligentes. De modo que, quando descobrirmos como torná-los superinteligentes, também saberemos como torná-los seguros. Essas pesquisas envolvem questões importantes das ciências da computação, da matemática e da filosofia. É com isso que deveriam se ocupar algumas das melhores mentes matemáticas da nossa geração. E, nesse meio tempo, ser simplesmente alarmista é algo que não ajuda.

ÉPOCA – Que benefícios a superinteligência pode trazer para a humanidade?
Bostrom – A esperança é que consigamos desenvolver superinteligência que nos seja benéfica. E há grandes chances de conseguirmos isso. Se formos bem sucedidos, essa será a última invenção que a humanidade precisará desenvolver. Por que, depois disso, a superinteligência será capaz de criar melhor que qualquer inventor humano.E, com isso, todas as invenções que a humanidade poderia criar nos próximos 100 mil anos se tornarão realidade em muito menos tempo. Tente fazer uma espécie de telescópio hipotético para mirar o futuro. Todas as invenções que hoje existem somente em obras de ficção científica – ao menos aquelas que respeitam as leis da física – serão reais. Coisas como retardar o envelhecimento, colonização espacial, conexão neural com uma máquina (como no filme Matrix). Todas essas coisas podem se tornar possíveis pouco depois de desenvolvermos a superinteligência.
O lado positivo é imenso, e é por isso que queremos tanto desenvolver esse tipo de tecnologia.

ÉPOCA – E nós já temos alguma ideia, mesmo que meio remota, de como resolver o problema do controle?
Bostrom – Existem algumas ideias. Nenhuma delas é muito elaborada. Elas surgiram ao longo das últimas décadas, mas nós percebemos que as noções superficiais, as soluções que nos ocorrem rapidamente, não seriam eficientes. Hoje em dia, conseguimos perceber melhor a dificuldade da tarefa. Foram desenhados alguns projetos de pesquisa que, com sorte, nos trarão uma solução. Mas há ainda muito trabalho a ser feito.

ÉPOCA – Não podemos deixar que a tecnologia se encarregue disso?
Bostrom – A superinteligência teria todas as condições para resolver o problema do controle. O ponto é: por que ela escolheria fazer isso. Isso ia requerer que essa máquina se importasse com os resultados da tecnologia de maneira semelhante aos humanos. O importante é garantir que a primeira superinteligência a emergir seja segura. Ela poderia nos ajudar a controlar as que viessem depois. Mas esse é apenas um dos cenários com o qual talvez nos deparemos: um cenários em que teremos de lidar com diversas supertinteligências, com características e objetivos distintos, o que nos obrigaria a pensar em soluções específicas para cada uma.

ÉPOCA – O senhor diz, com certa frequência, que a humanidade pensa pouco nos riscos existenciais que ameçam a vida humana. Por que procurar soluções para esses riscos – alguns, um bocado remotos – é importante?
Bostrom – O que eu acho é que um maior entendimento das coisas que representam riscos para a nossa existência pode nos ajudar a reduzir essas ameaças. E alguns riscos existenciais, como a supertinteligência, requerem que pensemos sobre eles com antecedência. Nós somos quase sete bilhões de humanos no planeta. Não seria ruim que uma meia dúzia de pessoas parasse para pensar sobre a sobrevivência da espécie.

ÉPOCA – Elon Musk é um grande fã do seu trabalho. Mas ele fala da superinteligência como algo “demoníaco”. Assume um tom de catastrofismo. Ele faz bem ao assumir essa posição?
Bostrom – Eu não acho que o catastrofismo ajude. Mas,no caso de Elon Musk, é importante lembrar que ele também injetou dinheiro – US$10 milhões – em pesquisas no campo das ciências da computação que tentam resolver o problema do controle. E, de todo modo, um pouquinho de medo é necessário para motivar as pessoas a fazer o trabalho que precisa ser feito. O importante é sempre manter os benefícios dessas tecnologias em mente, em lugar de simplesmente temê-las.

ÉPOCA – O senhor é filósofo. Por que se interessou por inteligência artificial?
Bostrom – Eu tenho formação em física teórica e neurociências computacional. E achei importante tratar desse tema porque, em dado momento, se tornou claro para mim que, cedo ou tarde, faremos essa transição – criaremos máquinas superinteligentes. E esse deve ser o acontecimento mais importante da história humana.

Nenhum comentário: