Lembra alguém que você conhece?
Na quarta, 23/3, a a Microsoft liberou no Twitter um novo bot inteligência artificial (IA) chamado Tay. Ela (sim, era um avatar feminino) foi criada para conversar com as pessoas de forma divertida, descontraída e natural. Mas, em menos de 24 horas, os usuários da rede social a corromperam. E ela passou de uma inocente robozinha para uma racista, transfóbica e desagradável roborrível.
O que aconteceu? Nada muito diferente do que ocorreu com aquele seu colega que mergulhou em alguns perfis da Internet não muito chegados, digamos assim, a esse papo de compaixão.
Ocorre que, como seu colega, Tay foi programada para aprender e evoluir seus métodos de conversação conforme interagia com as pessoas, utilizando uma base de dados filtrada e anônima sobre coisas publicadas na web por pessoas reais. Com isso, ela aprendia a escrever como os usuários do Twitter escrevem e também a ser um pouco “ácida”.
Como a programação tornava possível dizer para ela “repita o que eu digo: blá blá blá”, e ela responder a sua mensagem com o conteúdo que você quisesse, não demorou muito para que ela passasse a tuitar frases de apoio a Hitler e de ódio a judeus, transexuais, feministas, etc.
Ou seja, em pouco mais de 20 horas, ela passou a ser mais um verbete na enciclopédia de tentativas frustradas de inteligência artificial. Foi o tempo da Microsoft perceber o erro cometido e desligá-la.
Na sexta, 25/3, Peter Lee, Corporate VP da Microsoft Research, publicou um post no blog da empresa com o seguinte teor: “Sentimos imensamente pelos ofensivos e prejudiciais, embora não intencionais, tweets da Tay. Ela agora está off-line e pretendemos trazer Tay de volta apenas quando estivermos seguros de que poderemos antecipar intenções maliciosas que conflitem com nossos princípios e valores. Embora tivéssemos nos preparado para muitos tipos de abusos do sistema, não havíamos previsto esse específico ataque. Como resultado, Tay enviou pelo Twitter uma grande quantidade de palavras e imagens não apropriadas e repreensíveis. Assumimos total responsabilidade pelo fato de não prever essa possibilidade.”
Não seria ótimo suspender também seu colega alucinado.
Fontes: Tecmundo, TechCrunch, Adrenaline