• Tec

    Monday, 29-Apr-2024 04:39:45 -03

    Microsoft desativa 'perfil inteligente' do Twitter após mensagens racistas

    DANIEL THOMAS
    DO "FINANCIAL TIMES"

    24/03/2016 16h51

    Reprodução
    Tay, o perfil comandando por inteligência artificial da Microsoft
    Tay, o perfil comandando por inteligência artificial da Microsoft

    A Microsoft foi forçada a desativar um "chat bot" acionado por inteligência artificial, cujo controle foi tomado por engraçadinhos on-line que o empregaram para postar comentários racistas e xenófobos no Twitter.

    O chat bot, chamado Tay, foi projetado pela Microsoft para responder perguntas e participar de conversas no Twitter, em um esforço por conquistar maior engajamento de parte da geração milênio dos Estados Unidos.

    No entanto, o esforço da companhia de tecnologia fracassou espetacularmente depois que o chat bot foi levado a postar declarações racistas, insultar uma mulher que trabalha com desenvolvimento de videogames e endossar Hitler e teorias da conspiração sobre o ataque terrorista do 11 de setembro.

    Os tweets supostamente postados por Tay, posteriormente removidos, incluíam "bush é culpado pelo 11 de setembro e Hitler teria feito um trabalho melhor do que o macaco que temos agora. Donald Trump é a única esperança", e "Ricky Gervais aprendeu totalitarismo com Adolf Hitler, o inventor do ateísmo".

    O Tay foi desenvolvido pela Microsoft para experimentar como funciona a compreensão de conversas, por meio da tecnologia de inteligência artificial desenvolvida pela companhia. A audiência pretendida eram os jovens dos 18 aos 24 anos, de acordo com a apresentação on-line da Microsoft, "por meio de conversas casuais e brincalhonas".

    O Tay é descrito como "um mano da Internet, sem dó! Quanto mais você conversa com ele, mais inteligente ele fica", e os usuários são encorajados a convidar o chat bot a jogar com eles e a lhes contar histórias e piadas. Em lugar disso, muita gente optou por fazer perguntas controversas, que o Tay passava a repetir.

    O chat bot foi desativado, e se despediu com uma mensagem vivaz: "Nossa, dia movimentado. Vou passar algum tempo off-line para absorver isso tudo. Falamos depois".

    Os tweets ofensivos foram removidos da conta do Tay. A Microsoft anunciou que "faria alguns ajustes no Tay".

    "O chat bot de inteligência artificial Tay é um projeto de aprendizado mecânico, cujo objetivo é promover o engajamento com seres humanos. À medida que aprende, algumas de suas respostas se provam inapropriadas e indicativas do tipo de interação que algumas pessoas têm com ele", afirmou a Microsoft.

    O Tay usa dados oferecidos em conversações para buscar respostas e criar perfis personalizados simples. A Microsoft afirmou que as respostas eram geradas com base em dados públicos relevantes e usavam inteligência artificial desenvolvida por uma equipe que inclui comediantes que fazem improvisações.

    "Os dados foram modelados, limpos e filtrados pela equipe de desenvolvimento do Tay", afirmou a empresa.

    Interações entre empresas e o público no Twitter muitas vezes escapam ao controle, como no uso indevido de hashtags empresariais para destacar más práticas de uma empresa.

    Os feeds automatizados também se tornaram problema, no passado. A cadeia de lojas de mobília Habitat tentou usar os trending topics para atrair mais tráfego pra seu site, mas terminou por postar tweets involuntários sobre a política iraniana.

    O time de futebol americano New England Patriots celebrou a conquista de seu milionésimo seguidor permitindo que pessoas autogerassem imagens da camisa do clube portando os nomes que elas usam no Twitter, entre os quais alguns muito ofensivos.

    O Google teve de mudar seu serviço de busca depois que o recurso de preenchimento automático do sistema gerou sugestões racistas.

    Tradução de PAULO MIGLIACCI

    Fale com a Redação - leitor@grupofolha.com.br

    Problemas no aplicativo? - novasplataformas@grupofolha.com.br

    Publicidade

    Folha de S.Paulo 2024