"Nunca confie em um computador que você não pode jogar pela janela", disse Steve Wozniak, cofundador da Apple, talvez logo após um momento de fúria com uma máquina. Mas o ditado, que possui tom anedótico, ganha ares sinistros quando é a máquina que tem capacidade de jogar o humano pela janela.
É essa possibilidade que Nick Bostrom, filósofo e professor da Universidade de Oxford, explora no livro "Superintelligence: Paths, Dangers, Strategies" ("Superinteligência: Caminhos, Perigos, Estratégias", ainda sem edição em português), lançado em setembro do ano passado.
Na obra, o estudioso sueco argumenta que é questão de tempo até que nós, humanos, criemos computadores que superem nosso intelecto.
Em um período de décadas, portanto, algumas máquinas terão capacidade intelectual superior à de humanos como Isaac Newton, Charles Darwin e Sigmund Freud. O desafio passa a ser não só controlar como surge essa superinteligência, mas também os caminhos pelos quais se desenvolve.
O livro analisa três aspectos da superinteligência: os caminhos, os perigos e as estratégias. A seguir, um retrato das duas principais seções.
CAMINHOS
As formas de atingir a superinteligência não se limitam ao aprimoramento técnico das máquinas que já existem. E, por mais que pareça contraintuitivo, também não se limitam ao aumento de capacidade dessas máquinas.
É possível superar o nível intelectual humano combinando cérebro e máquina, por exemplo. Para que isso acontecesse, seria preciso que novas técnicas cirúrgicas fossem implementadas.
É possível, também, simular a evolução das espécies —e esticá-la além dos humanos, diz. A seleção gera indivíduos melhores que os da geração anterior. Ao rodar um "algoritmo genético" criaríamos bebês superinteligentes.
Outro modo de atingir a superinteligência é azeitar ligações entre entes com intelecto superior. É familiar: parece com a internet. Mas Bostrom sustenta que a sofisticação necessária para superar a inteligência humana por essa técnica não foi alcançada.
PERIGOS E ESTRATÉGIAS
Se soa catastrofista dizer que as máquinas podem, sim, voltar-se contra os criadores, o livro mostra que a hipótese é lógica. Isso não quer dizer que o fim está próximo e é irremediável —ao menos, não para toda a humanidade.
Toda máquina demanda programação. Porém as superinteligentes, argumenta Bostrom, são capazes de fazer interpretações que seus programadores não imaginaram —é o que ele chama de "criação perversa". No limite, esse problema pode levar à extinção da raça humana.
Outra questão é o que o autor chama de "infraestrutura em profusão", quando a máquina interpreta limites físicos —ou os humanos— como empecilho para o cumprimento de seu objetivo.
"Mas nós seríamos capazes de antever e controlar essas máquinas", retrucaria alguém mais crítico. Ao que Bostrom responde: não, elas perceberiam, são mais inteligentes que nós —e podem dissimular. Parece ficção científica, mas é teoria.
*
SUPERINTELLIGENCE: PATHS, DANGERS, STRATEGIES
AUTOR Nick Bostrom
EDITORA Oxford University Press
QUANTO US$ 9,99 (edição digital)
AVALIAÇÃO Bom