Lucidez sintético na Coreia do Sul faz comentários preconceituosos e é desativada

Please enable / Bitte aktiviere JavaScript!
Veuillez activer / Por favor activa el Javascript![ ? ]

Receba os artigos diretamente no seu email


Lucidez sintético na Coreia do Sul faz comentários preconceituosos e é desativada 1



Lucidez sintético na Coreia do Sul faz comentários preconceituosos e é desativada 2

Imagem: Lee Luda/Facebook

Em dezembro do ano pretérito, a startup sul-coreana Scatter Lab lançou um chatbot para conversar com pessoas que se sentiam solitárias. No entanto, a tecnologia logo se mostrou problemática devido ao comportamento homofóbico e discriminatório da robô, além de levantar preocupações sobre privacidade.

Batizada de Lee Luda, a robô foi projetada para simbolizar uma jovem universitária de 20 anos. Por meio da tecnologia de “deep learning”, ela foi treinada com dados coletados do aplicativo Science Love. A instrumento é uma espécie de rede social para casais, que permite que os usuários planejem encontros, compartilhem suas fotos preferidas, além de estudar esses...

relacionamentos. Assim, as respostas da assistente Lee Luda são baseadas no que ela aprendeu com essas informações e históricos de conversas na plataforma.

O problema é que a chatbot fornecia algumas respostas agressivas e ofensivas sobre minorias, conforme denunciado pelos usuários. Ao falar sobre lésbicas, por exemplo, Luda utilizava o termo “nojento” e dizia odiar pessoas trans. Em algumas mensagens, ela ainda afirmava que pessoas com deficiência deveriam se suicidar.

Diante dessa nequice grave, a empresa decidiu suspender o serviço por enquanto, afirmando que os comentários preconceituosos da robô não refletem as ideias da Scatter Lab. Em enviado, a companhia ainda acrescentou que a “Luda é porquê uma IA ainda na puerícia, que começou a conversar com as pessoas há pouco tempo. Ainda há muito a aprender. A Luda vai aprender a julgar o que seria uma resposta melhor e mais apropriada.”

Outro indumentária preocupante na história é que os usuários afirmaram não ter conhecimento de que seus dados estavam alimentando um robô, o que pode caracterizaria uma violação de privacidade. Algumas dessas pessoas, inclusive, afirmam que pretendem entrar com uma ação coletiva contra a empresa pela falta de transparência.

O incidente faz lembrar um caso parecido que ocorreu com a Microsoft em 2016. Na idade, a empresa havia criado uma chatbot chamada Tay para conversar com as pessoas nas redes sociais. O projeto acabou sendo encerrado depois a robô encetar a publicar comentários racistas, antissemitas e sexistas.

[Vice, The Korea Herald]



Fonte