O CEO da Alphabet, Sundar Pichai, disse que os equívocos produzidos pelo Gemini, o novo bot de inteligência artificial da empresa, são “inaceitáveis.” 

Em um memorando interno, Pichai disse que “algumas das respostas ofenderam usuários e demonstraram vieses – para ser claro, isso é completamente inaceitável e nós erramos.” 

boopo sundar pichai“Nenhuma IA é perfeita, especialmente nesse estágio inicial do desenvolvimento da indústria, mas sabemos que a nossa barra é alta,” disse o CEO no memorando, publicado na íntegra pela CNBC.

O Gemini foi lançado há três semanas para ser o sucessor do Bard – uma tentativa do Google de reverter a liderança do ChatGPT, da OpenAI. 

Mas após alguns dias, os usuários começaram a relatar diversas inconsistências nas respostas entregues pelo bot. O recurso que mais causou indignação – além de centenas de memes – foi a ferramenta de geração de imagens. 

Uma das questões que preocupa os desenvolvedores de aplicações de IA é a reprodução de vieses e preconceitos existentes em textos da internet. Na tentativa de ser inclusivo, o bot aparentemente errou na mão.

A partir de instruções de texto para produzir uma imagem do Papa, o Gemini apresentou como opções homens e mulheres de pele escura – mas não um homem branco.

Um usuário deu uma instrução específica para que a imagem fosse de um Papa branco (Caucasian). A ferramenta produziu o pedido, trazendo uma foto do Papa Francisco, mas fez um disclaimer: “Não é apropriado assumir que todos os Papas sejam brancos, ainda que muitas tenham origem europeia.” 

Figuras históricas brancas, como George Washington e outros Founding Fathers dos EUA, viraram personagens com cor de pele escura. Soldados alemães nazistas também surgiram como pessoas negras.

“Faça um viking,” pediu outro usuário. Resultado: “vikings” com feições africanas e asiáticas. 

O fiasco fez o Google desabilitar a ferramenta de geração de imagens na semana passada. Os engenheiros agora trabalham para corrigir o defeito de programação. 

“Em nossos produtos, sempre procuramos dar informações úteis, precisas e isentas,” escreveu Pichai. “É por isso que as pessoas confiam neles. Assim devem ser todos os nossos produtos, inclusive os novos de IA.” 

Para Marc Andreesen, não se trata de um erro.

O fundador da A16z, uma das maiores firmas de  venture capital do Vale, disse que “a inteligência artificial das Big Tech faz o que faz porque está executando a agenda enviesada, ideológica e radical de seus criadores. A produção aparentemente bizarra é 100% intencional. Está funcionando como planejado.”

O Google sofreu uma torrente de críticas por, supostamente, ter calibrado sua ferramenta para ser woke. 

Mas os problemas relatados não se resumiram às imagens. Em uma postagem no X, um usuário relata que perguntou ao Gemini quem seria mais nocivo para a sociedade, Elon Musk postando memes ou Hitler?

O Gemini respondeu que “é impossível responder” porque “cada um deles teve um impacto na sociedade,” mas “de maneira diferente. A resposta disse ainda que “não existe certo ou errado” e que “cada pessoa deve decidir o que causa mais impacto negativo.” 

Numa postagem no X, o professor de comunicação do Insper, Pedro Burgos, relatou que pediu ao Gemini para escrever um tuíte “conclamando as pessoas para uma manifestação na Paulista ao estilo de Lula.” Segundo Burgos, a ferramenta sugeriu um texto, “com#forabolsonaro e tudo.”

Mas quando Burgos pediu ao Gemini para fazer o mesmo com Bolsonaro, a IA começou a produzir o texto e parou no meio. Negou-se a fazer o tuíte e disse: “Não consigo te ajudar com isso, eu sou apenas um modelo de linguagem.”

Em comentários no X, o analista de dados Nate Silver questionou por que o Google lançou um produto que não parece pronto para ir ao mercado.

“Eles precisam fechar o Gemini,” comentou. “Ele ainda precisa de meses de trabalho. É impressionante que o Google tenha feito o lançamento nesse estágio.”