Microsoft pediu desculpas para a criação de um chatbot artificialmente inteligente que rapidamente se transformou em um racista que nega holocausto.
Mas ao fazê-lo deixou claro vistas de Tay foram resultado da criação, não a natureza.Tay confirmou o que já sabia: as pessoas na internet pode ser cruel.
Tay, que visa 18-24-year-olds em mídias sociais, foi alvo de um "ataque coordenado por um subgrupo de pessoas" depois de ser lançado no início desta semana.
Dentro de 24 horas Tay estava desativada assim que a equipe poderia fazer "ajustes".
Mas na sexta-feira, chefe de pesquisa da Microsoft, disse que a empresa estava "profundamente arrependido para os tweets ofensivos e prejudiciais não intencionais" e tomou Tay off Twitter para o futuro previsível.
Peter Lee acrescentou: "Tay está agora fora de linha e vamos olhar para trazer Tay volta apenas quando estamos confiantes de que podemos antecipar melhor intenção maliciosa que está em conflito com os nossos princípios e valores."
Tay foi concebido para aprender a partir de interações que tive com pessoas reais em Twitter. Aproveitando a oportunidade, alguns usuários decidiu alimentá-lo racista, de informação ofensiva.
Na China, as pessoas reagiram de forma diferente - uma chatbot semelhante havia sido lançado para os usuários chineses, mas com resultados um pouco melhores.
"Tay não foi a primeira aplicação de inteligência artificial que lançou para o mundo social online", escreveu chefe de pesquisa da Microsoft.
"Na China, a nossa chatbot XiaoIce está sendo usado por cerca de 40 milhões de pessoas, deleitando-se com as suas histórias e conversas.
"O grande experiência com XiaoIce nos levou a perguntar: Será que um AI como este ser tão cativante em um ambiente cultural radicalmente diferente?"
corrompido Tay
O feedback, ao que parece, é que as audiências ocidentais reagem de forma muito diferente quando se apresenta com um chatbot pode influenciar. Muito parecido com o ensino de uma Furby a jurar, a tentação de corromper o bem-intencionado Tay era grande demais para alguns.
Dito isto, o Sr. Lee disse uma vulnerabilidade específica destinada Tay foi capaz de transformar desagradável.
"Embora nós tinha preparado para muitos tipos de abusos do sistema, que tinha feito uma supervisão crítica para este ataque específico.
"Como resultado, Tay twittou descontroladamente palavras e imagens impróprias e repreensíveis. Assumimos total responsabilidade por não ver essa possibilidade antes do tempo."
Ele não entrou em detalhes sobre a natureza precisa da vulnerabilidade.
Sr. Lee disse que a sua equipa vai continuar a trabalhar no AI bots, na esperança de que eles possam interagir sem efeitos colaterais negativos.
"Temos de entrar em cada um com grande cautela e, finalmente, aprender e melhorar, passo a passo, e fazer isso sem ofender as pessoas no processo.
"Nós vamos permanecer firmes em nossos esforços para aprender com isso e outras experiências como nós trabalhar para contribuir para uma Internet que representa o melhor, não o pior, da humanidade."
Na próxima semana, a Microsoft realiza a sua conferência anual de desenvolvedores, construir. A inteligência artificial é esperado para característica fortemente.
Nenhum comentário:
Postar um comentário