Dois enormes riscos relacionados aos aplicativos de inteligência artificial generativa são as ‘alucinações’ – informações falsas ou enganosas – e as deep fakes, as imagens e vídeos falsos de pessoas reais.
Para combater essas ameaças e ajudar os desenvolvedores a fazer um melhor uso da inteligência artificial, a OpenAI acaba de publicar o seu Model Spec (as especificações técnicas de seus modelos de IA, incluindo o ChatGPT), dando detalhes, pela primeira vez, sobre as regras que balizam o seu comportamento.
É por causa dessas guidelines que muitas vezes o ChatGPT se nega a dar respostas ou produzir os conteúdos solicitados pelos usuários; quase sempre nesses casos, o comando envolve uma pessoa pública. O mesmo ocorre em algumas situações com o DALL-E, o programa de IA que cria imagens, e o Sora, que cria vídeos.
Ao tornar público o Model Spec, a OpenAI deseja que a comunidade de desenvolvedores contribua para aperfeiçoar seus objetivos e guardrails – como são chamadas as ‘barreiras de proteção’ contra a produção de resultados problemáticos.
“É importante que as pessoas sejam capazes de compreender e discutir as escolhas envolvidas na formatação do comportamento do modelo,” a startup disse em seu blog.
A OpenAI anunciou também um detector de deep fakes – uma ferramenta para identificar se a imagem é real ou não.
Segundo a empresa, o software é capaz de responder em 98,8% dos casos se a imagem foi criada pelo DALL-E 3, a versão mais recente, mas com um porém: ele não funciona para rastrear os geradores de imagem da concorrência, como os populares Midjourney e Stability.
A empresa disse que está desenvolvendo ‘marcas d’água’ para que as imagens criadas por IA sejam facilmente reconhecíveis.