Ex-funcionários da OpenAI, a startup que criou o ChatGPT, acusam a empresa de passar por cima de questões éticas e de segurança em sua corrida para liderar o desenvolvimento dos sistemas superpoderosos de inteligência artificial.

O grupo de antigos colaboradores da empresa afirma ainda que a empresa comandada por Sam Altman faz uso de táticas contratuais duras para impedir que os funcionários externem suas preocupações a respeito das ameaças envolvidas nas pesquisas com os novos sistemas de IA.

IMG 1517

A grande fonte de preocupação é a chamada artificial general intellingence, conhecida como AGI na sigla em inglês. É a linguagem que, teoricamente, poderá realizar todas as funções cognitivas dos humanos e até mesmo superá-las – aprendendo e criando coisas novas.

Esse grupo de pesquisadores publicou uma carta intitulada A right to warn about advanced artificial intelligence (Direito de alertar sobre a inteligência artificial avançada). 

Assinam o texto 11 ex-pesquisadores da OpenAI, além de um antigo colaborador da DeepMind, do Google, e outro que foi da Anthropic e hoje está na DeepMind.

Na carta, eles afirmam que a falta de legislação dá “fortes incentivos financeiros para as companhias de IA evitarem uma fiscalização efetiva.”

Entre os riscos apontados estão a disseminação de informações imprecisas, a consolidação das desigualdades existentes e até mesmo “a perda de controle de sistemas de IA autônomos potencialmente resultando na extinção humana.” 

No documento, eles sugerem princípios que deveriam ser observados pela empresa, como o apoio a uma cultura de transparência nas pesquisas e que seja aberta a críticas. 

Daniel Kokotajlo, um ex-pesquisador da divisão de governança da OpenAI, postou um fio no X explicando as razões para ele ter se demitido e contando como a empresa o teria intimidado para que ele não fizesse críticas públicas.

Abaixo, o depoimento do ex-insider:

Em abril, demiti-me da OpenAI depois de perder a confiança de que a empresa se comportaria de forma responsável em sua tentativa de construir inteligência artificial geral – “sistemas de IA que são geralmente mais inteligentes que os humanos”. 

Eu me juntei à empresa com a esperança de que investiríamos muito mais em pesquisas de segurança à medida que nossos sistemas se tornassem mais capazes, mas a OpenAI nunca fez esse pivô. As pessoas começaram a se demitir quando perceberam isso. Não fui o primeiro nem o último a fazê-lo. 

Quando saí, pediram-me que assinasse uma papelada com uma cláusula que me impediria de dizer qualquer coisa crítica sobre a empresa. Ficou claro, pela papelada e minhas comunicações com a OpenAI, que eu perderia todo o equity que tenho da empresa em 60 dias se me recusasse a assinar. 

Minha esposa e eu refletimos muito sobre isso – e decidimos que minha liberdade futura de falar era mais importante do que as ações. Eu disse à OpenAI que não poderia assinar porque não considerava a política ética; eles aceitaram minha decisão e nos separamos. 

Os sistemas que laboratórios como a OpenAI estão construindo têm a capacidade de fazer um bem enorme. Mas se não tivermos cuidado, podem ser desestabilizadores a curto prazo e catastróficos a longo prazo. 

Esses sistemas não são softwares comuns; são redes neurais artificiais que aprendem com grandes quantidades de dados. Existe uma literatura científica em rápido crescimento sobre interpretabilidade, alinhamento e controle, mas esses campos ainda estão na sua infância. 

Há muita coisa que não entendemos sobre como estes sistemas funcionam e se permanecerão alinhados aos interesses humanos à medida que se tornam mais inteligentes e possivelmente ultrapassem a inteligência de nível humano em todas as áreas. 

Enquanto isso, há pouca ou nenhuma supervisão sobre essa tecnologia. Em vez disso, confiamos nas empresas que as constroem para se autogovernar, mesmo quando a busca por lucro e o entusiasmo pela tecnologia as levam a “agir rápido e quebrar coisas.” 

Silenciar pesquisadores e fazê-los temer retaliações é perigoso já que somos hoje as únicas pessoas em posição de alertar o público. 

Aplaudo a OpenAI por prometer mudar essas políticas! 

É preocupante que eles tenham se envolvido nessas táticas de intimidação por tanto tempo e apenas tenham se corrigido sob pressão pública. Também é preocupante que os líderes que assinaram estas políticas afirmem que não as conheciam. 

Devemos ao público, que suportará o peso desses perigos, fazer melhor do que isso. Pessoas razoáveis ​​podem discordar sobre se a AGI acontecerá em breve, mas parece tolice investir tão poucos recursos na preparação. 

Alguns de nós que recentemente nos demitimos da OpenAI decidimos nos unir para pedir um compromisso mais amplo com a transparência por parte dos laboratórios. Você pode ler sobre isso aqui:https://righttowarn.ai.

Aos meus ex-colegas, tenho muito amor e respeito por vocês e espero que continuem pressionando pela transparência internamente. Sintam-se à vontade para entrar em contato comigo se tiverem alguma dúvida ou crítica.