• Tec

    Tuesday, 30-Apr-2024 11:57:32 -03

    Máquinas ficarão mais inteligentes e ameaçarão a humanidade, diz filósofo

    ALEXANDRE ARAGÃO
    DE SÃO PAULO

    06/01/2015 02h00

    "Nunca confie em um computador que você não pode jogar pela janela", disse Steve Wozniak, cofundador da Apple, talvez logo após um momento de fúria com uma máquina. Mas o ditado, que possui tom anedótico, ganha ares sinistros quando é a máquina que tem capacidade de jogar o humano pela janela.

    É essa possibilidade que Nick Bostrom, filósofo e professor da Universidade de Oxford, explora no livro "Superintelligence: Paths, Dangers, Strategies" ("Superinteligência: Caminhos, Perigos, Estratégias", ainda sem edição em português), lançado em setembro do ano passado.

    Na obra, o estudioso sueco argumenta que é questão de tempo até que nós, humanos, criemos computadores que superem nosso intelecto.

    Em um período de décadas, portanto, algumas máquinas terão capacidade intelectual superior à de humanos como Isaac Newton, Charles Darwin e Sigmund Freud. O desafio passa a ser não só controlar como surge essa superinteligência, mas também os caminhos pelos quais se desenvolve.

    O livro analisa três aspectos da superinteligência: os caminhos, os perigos e as estratégias. A seguir, um retrato das duas principais seções.

    CAMINHOS

    As formas de atingir a superinteligência não se limitam ao aprimoramento técnico das máquinas que já existem. E, por mais que pareça contraintuitivo, também não se limitam ao aumento de capacidade dessas máquinas.

    É possível superar o nível intelectual humano combinando cérebro e máquina, por exemplo. Para que isso acontecesse, seria preciso que novas técnicas cirúrgicas fossem implementadas.

    É possível, também, simular a evolução das espécies —e esticá-la além dos humanos, diz. A seleção gera indivíduos melhores que os da geração anterior. Ao rodar um "algoritmo genético" criaríamos bebês superinteligentes.

    Outro modo de atingir a superinteligência é azeitar ligações entre entes com intelecto superior. É familiar: parece com a internet. Mas Bostrom sustenta que a sofisticação necessária para superar a inteligência humana por essa técnica não foi alcançada.

    PERIGOS E ESTRATÉGIAS

    Se soa catastrofista dizer que as máquinas podem, sim, voltar-se contra os criadores, o livro mostra que a hipótese é lógica. Isso não quer dizer que o fim está próximo e é irremediável —ao menos, não para toda a humanidade.

    Toda máquina demanda programação. Porém as superinteligentes, argumenta Bostrom, são capazes de fazer interpretações que seus programadores não imaginaram —é o que ele chama de "criação perversa". No limite, esse problema pode levar à extinção da raça humana.

    Outra questão é o que o autor chama de "infraestrutura em profusão", quando a máquina interpreta limites físicos —ou os humanos— como empecilho para o cumprimento de seu objetivo.

    "Mas nós seríamos capazes de antever e controlar essas máquinas", retrucaria alguém mais crítico. Ao que Bostrom responde: não, elas perceberiam, são mais inteligentes que nós —e podem dissimular. Parece ficção científica, mas é teoria.

    *

    SUPERINTELLIGENCE: PATHS, DANGERS, STRATEGIES

    AUTOR Nick Bostrom
    EDITORA Oxford University Press
    QUANTO US$ 9,99 (edição digital)
    AVALIAÇÃO Bom

    Fale com a Redação - leitor@grupofolha.com.br

    Problemas no aplicativo? - novasplataformas@grupofolha.com.br

    Publicidade

    Folha de S.Paulo 2024