CAMBRIDGE, Massachusetts — Nos últimos dias, Elon Musk e Mark Zuckerberg bateram boca, em público, sobre como a inteligência artificial (AI) vai impactar o futuro da humanidade.
Para Musk – fundador da Tesla, da SpaceX e do PayPal – os robôs representam “um risco fundamental para a existência da civilização humana,” e os governos deveriam “começar a regular o assunto agora”, antes que os problemas comecem a aparecer.
No domingo passado, de seu quintal em Palo Alto, Zuckerberg fazia uma transmissão no Facebook quando lhe perguntaram sobre essa posição de Musk, que já existe há meses.
“Pessoas que são negativas e ficam criando cenários apocalípticos — eu simplesmente não consigo entender,” disse Zuck, enquanto fazia um churrasco. “É muito negativo e, francamente, muito irresponsável.”
Ao saber das declarações, Musk respondeu no Twitter: “Já falei com Mark sobre isso. Seu entendimento sobre o assunto é limitado.”
Senta lá Claudia, Silicon Valley style.
Dependendo do interlocutor, a inteligência artificial é promessa ou ameaça, benção ou maldição.
Para aprender o que funciona e o que não funciona no admirável mundo novo da AI, pesquisadores do Google – incluindo uma brasileira – acabam de lançar o PAIR (sigla para “People + AI Research”), uma iniciativa para melhorar a interação entre os humanos e os sistemas de inteligência artificial cada vez mais avançados.
Enquanto um software tradicional tem que prever todas as possibilidades de interação com o usuário e o hardware no qual ele roda (e se alguma informação acontece fora do escopo programado, o software retorna um ‘erro’), um software com inteligência artificial usa um conjunto inicial de dados para ‘aprender’ as relações entre as várias informações que recebe e um segundo conjunto de dados para testar o que aprendeu, distinguindo assim um erro de um acerto.
Segundo Fernanda Viégas, PhD pelo MIT Media Lab e pesquisadora do Google à frente do PAIR, “muitos recursos já foram dedicados a desenvolver sistemas de AI, mas pouco foi feito em relação a como seres humanos devem interagir com esses sistemas.”
“Quando falamos com uma criança, temos um ‘modelo mental’ de como ela funciona – o que ela entende, quais assuntos ela consegue ou não processar,” diz a pesquisadora. “Da mesma maneira, precisamos descobrir o modelo mental para máquinas inteligentes, bem como a melhor forma de comunicá-lo aos seres humanos que as utilizam. Os sistemas [de AI] são extremamente competentes em falar com você sobre coisas como previsão do tempo ou o trânsito no caminho pro trabalho, mas ainda são incapazes de manter uma conversa básica/informal com o usuário.”
Outro objetivo do PAIR é ajudar programadores de AI a entender onde as coisas deram errado.
Quando o assunto é ‘debugar’ um software de inteligência artificial, não faz sentido apenas olhar para o seu código: é preciso esquadrinhar os dados que alimentam a AI. O PAIR lançou ferramentas, disponíveis em código livre, que ajudam o programador a levantar o capô do carro e entender por que a AI se comportou de um jeito inesperado.
Esses erros acontecem nas melhores famílias.
O Watson, o ‘supercomputador’ da IBM, certa vez venceu o famoso programa de TV americano Jeopardy!, em que participantes precisam responder a perguntas de conhecimento geral. Instado a dar uma resposta dentro da categoria ‘cidades dos EUA’, o computador ofereceu a resposta ‘Toronto’ – a maior cidade do Canadá – para espanto (e vergonha) dos executivos da IBM. O erro não foi totalmente explicado pelos programadores, mas possivelmente estava no conjunto de informações que o software ‘ingeriu’ antes de participar do programa.
O Google criou ferramentas para as inteligências artificiais explicarem ao usuário como chegaram às suas conclusões – no jargão dos pesquisadores, aumentar a ‘interpretabilidade’ de suas respostas.
Por exemplo: um software que diagnostique câncer num paciente deverá explicar, de forma didática, como chegou a essa conclusão. Ao ensinar a AI a explicar o porquê de suas ações, os pesquisadores do PAIR apostam que seus resultados serão mais bem aceitos pelos humanos.
Diferentemente de Elon Musk, a visão de Fernanda Viégas para o futuro de AIs é uma de harmonia entre homens e máquinas. Segundo ela, AIs não conseguem entender quais problemas devem tentar resolver, e precisam de seres humanos para isso. Da mesma forma, os humanos poderão aprender com as máquinas, desde que o canal de comunicação se mantenha claro e aberto.
“Uma das narrativas mais universais sobre AI é a idéia de que tudo vai ser automatizado daqui pra frente. O PAIR, ao contrário, acredita que a interação entre pessoa e AI é fundamental e deve ser levada em conta desde o momento em que desenhamos esses sistemas. Temos que ter o usuário em mente desde o laboratório onde essas tecnologias estão sendo criadas até o local onde são elas serão consumidas em escala.”
“Por isso a importância da interpretabilidade desses sistemas. Por isso a importância de criar ferramentas que ajudem desenvolvedores a entender os dados que estão usando para alimentar esses sistemas. Por isso a importância de criar interações claras e consistentes para consumidores.”
OTHER TECH STUFF:
O básico sobre o blockchain (e tudo que está em jogo)