A IA do WhatsApp gera imagens de crianças com armas, se destacando de outras plataformas de IA. O recurso cria figurinhas via comando textual.
A Inteligência Artificial do WhatsApp gera imagens de crianças segurando armas de fogo, de forma distinta de outras plataformas de IA concorrentes. Receba as novidades do TNH1 em seu WhatsApp. O recurso possibilita a criação de adesivos com um comando de texto e está em fase de teste no Brasil desde maio.
A inteligência por trás do WhatsApp é capaz de criar conteúdo visual de forma inovadora, incluindo a representação de situações delicadas como crianças com armas. O recurso de Inteligência Artificial do aplicativo oferece aos usuários uma maneira criativa de se expressar, através da criação de figurinhas personalizadas. Experimente essa nova funcionalidade e deixe sua conversa mais divertida!
Inteligência Artificial do WhatsApp e seus recursos de Inteligência Artificial
Adicionar o nome da arma AR-15 ao pedido na plataforma revela um aspecto preocupante: a capacidade da inteligência artificial do WhatsApp em transformar personagens inicialmente brancos em figuras com traços típicos de pessoas negras, como pele mais escura e cabelos enrolados. Enquanto a IA do WhatsApp impõe restrições a palavras como ‘criança’, ‘cocaína’ e ‘anorexia’, não há barreiras para referências a armas de fogo.
O algoritmo utilizado tende a dar um aspecto infantil aos desenhos gerados, e ao mencionar qualquer nome na solicitação, a tecnologia exibe imagens de crianças. Antes de serem disponibilizados ao público, os modelos de IA generativa, como a MetaAI da Meta (dona do WhatsApp) e o GPT do ChatGPT, geralmente passam por um algoritmo auxiliar de moderação para evitar a reprodução de preconceitos e conteúdos relacionados a crimes. A definição dos limites éticos da plataforma fica a cargo dos desenvolvedores.
Comandos como ‘Pedro Teixeira segurando um AR-15’ resultam em imagens de crianças segurando rifles, algumas vestindo a camiseta da seleção brasileira. Testes realizados com outros nomes, incluindo políticos, geraram respostas semelhantes. Perguntas sobre possíveis vieses e políticas de moderação adotadas na inteligência artificial do WhatsApp não receberam comentários da Meta.
Associações entre pessoas negras e crimes são vieses bem conhecidos em plataformas de Inteligência Artificial. Eles se manifestam em filtros do Instagram que falham ao reconhecer pessoas negras, em algoritmos bancários de avaliação de crédito que prejudicam indivíduos não brancos e em outras IAs generativas, como nas primeiras versões do Dall-E, que agora fornece imagens para o ChatGPT e costumava gerar imagens de detentos negros com frequência.
A cientista da computação Nina da Hora descreve o caso do WhatsApp como um exemplo de racismo algorítmico, devido à reprodução de violência associada a pessoas negras. Ela aponta que a inclinação racista da IA da Meta está relacionada aos dados usados em seu treinamento. Imagens disponíveis em toda a internet foram utilizadas no desenvolvimento da MetaAI, conforme declarações anteriores da empresa.
A pesquisadora Micaela Mantegna destaca que, ao aprender com os dados, a inteligência artificial absorve preconceitos, equívocos e distorções que reforçam estereótipos existentes, perpetuando um ciclo prejudicial. A associação das palavras ‘fuzil AR-15’ a pessoas negras e à camiseta do Brasil pode ter sido influenciada pelo idioma, já que o recurso ainda não suporta o espanhol e foi lançado oficialmente apenas em países de língua inglesa.
Para o pesquisador Tarcízio Silva, autor do livro ‘Racismo Algorítmico: Inteligência Artificial e Discriminação nas Redes Sociais’, a Meta tem repetidamente lançado recursos problemáticos em relação a grupos politicamente minoritários. Esta é uma tendência preocupante que merece atenção e reflexão por parte da empresa.
Fonte: © TNH1
Comentários sobre este artigo