Em 23 de março de 2016, a Microsoft lançou Tay no Twitter, um chatbot programado para interagir com os utilizadores imitando a forma como uma adolescente de 19 anos se expressa.
Através da conta @TayandYou 8 , este bot foi programado, nas palavras da empresa, "para armazenar e processar dados das suas conversas com tweeters humanos (...) e refinar a sua linguagem, competências e atitudes milenares para se parecer cada vez mais com uma rapariga perfeita e real".
Não fales com estranhos
No entanto, o final não foi tão feliz: depois de 100.000 tweets e 155.000 seguidores, a conta de Tay foi retirada do ar porque as suas respostas se tinham tornado misóginas, racistas e xenófobas em apenas 16 horas de vida.
"Lamentamos profundamente os tweets involuntariamente ofensivos e ofensivos da Tay, que não representam quem somos ou o que defendemos, nem a forma como concebemos a Tay". Assim começou a declaração de Peter Lee, o então vice-presidente corporativo da Microsoft.
O gigante da tecnologia atribuiu estes comportamentos a um ataque coordenado de utilizadores que, através de padrões repetitivos de comportamento nas respostas, influenciaram as capacidades de conversação da Tay (as suas "vulnerabilidades"). Nunca foi dada uma explicação clara sobre a razão pela qual o bot chegou ao ponto de publicar tweets anti-feministas, tweets sexualmente explícitos, tratar Barack Obama como um "macaco" e negar o Holocausto.
Até à vista, Tay
Este sistema de aprendizagem automática era uma experiência que já tinha sido lançada nas redes sociais chinesas, chamada XiaoIce, em 2014 (ainda em uso na sua sexta geração), que interagia com 40 milhões de utilizadores. A empresa queria esclarecer uma grande preocupação: poderia uma tecnologia tão bem sucedida num ambiente ser tão cativante numa cultura radicalmente diferente? A resposta tornou-se bastante clara.
Poderá o algoritmo interpretar a linguagem de uma forma equivalente à dos seres humanos? A linguagem com que cada sociedade lida vai para além de um simples conjunto de palavras com definições que, combinadas, permitem exprimir ideias. Cada pessoa, em interação com outras, redefine palavras e expressões, dando-lhes uma conotação especial em função do contexto. Uma conotação que não é inocente e que pode atacar, ofender ou estigmatizar.
Até à data, Tay ainda não foi ressuscitada, embora a Microsoft tenha prometido ressuscitá-la quando tiver a certeza de que pode antecipar "más intenções que entrem em conflito com os seus princípios e valores". Vamos continuar à espera que ela aprenda a corrigir os seus actos.
Comentários