Algoritmos que usam inteligência artificial estão descobrindo truques inesperados para resolver problemas que surpreendem seus desenvolvedores — mas também levantam preocupações sobre nossa capacidade de controlá-los. Os balões de hélio do Projeto Loon, do Google, tinham como objetivo levar acesso à internet a partes remotas do mundo
Loon via BBC
A equipe do Google olhava perplexa para as telas de seus computadores.
Eles haviam passado vários meses aperfeiçoando um algoritmo desenvolvido para conduzir um balão de hélio não tripulado de Porto Rico ao Peru. Mas algo estava errado.
O balão, controlado por inteligência artificial (IA), continuava desviando da rota.
Salvatore Candido, do agora extinto Projeto Loon, do Google, que tinha como objetivo levar acesso à internet a áreas remotas do planeta por meio de balões, não conseguia explicar a trajetória da aeronave.
SAIBA MAIS:
Alphabet, dona do Google, encerra projeto que usava balões para levar internet a áreas remotas
Suposto balão satélite do Google caiu entre Quaraí e Alegrete, no Rio Grande do Sul, em 2020
Seus colegas assumiram manualmente o controle do sistema e o colocaram de volta na rota.
Só mais tarde eles perceberam o que estava acontecendo. Inesperadamente, a inteligência artificial a bordo do balão havia aprendido a recriar uma antiga técnica de navegação desenvolvida por humanos há séculos, senão milhares de anos.
A técnica envolve conduzir a embarcação em ziguezague contra o vento, de modo que seja possível avançar mais ou menos na direção desejada.
Sob condições climáticas desfavoráveis, os balões autônomos aprenderam a se virar sozinhos. O fato de terem feito isso, de forma espontânea, surpreendeu a todos, inclusive aos pesquisadores que trabalhavam no projeto.
"Rapidamente percebemos que tinham sido mais espertos que a gente, quando o primeiro balão autorizado a executar totalmente essa técnica bateu um recorde de tempo de voo de Porto Rico ao Peru", escreveu Candido em um blog sobre o projeto.
"Nunca me senti tão inteligente e tão burro ao mesmo tempo."
Este é exatamente o tipo de coisa que pode acontecer quando a inteligência artificial é deixada à sua própria sorte.
Diferentemente dos programas de computador tradicionais, as IAs são projetadas para explorar e desenvolver novas abordagens para tarefas sobre as quais seus engenheiros humanos não lhes falaram explicitamente.
Mas enquanto aprendem como fazer essas tarefas, as IAs às vezes apresentam uma abordagem tão inovadora que pode surpreender até mesmo as pessoas que trabalham com esses sistemas o tempo todo.
Isso pode ser algo bom, mas também pode tornar as coisas controladas por inteligência artificial perigosamente imprevisíveis — robôs e carros autônomos podem acabar tomando decisões que colocam os humanos em perigo.
Como é possível para um sistema de inteligência artificial "superar" seus mestres humanos? E será que poderíamos controlar as mentes das máquinas de alguma forma, para garantir que não aconteça nenhum desastre imprevisto?
Na comunidade de IA, há um caso de criatividade que parece ser mais citado do que qualquer outro.
O momento que realmente empolgou as pessoas sobre o que a inteligência artificial pode fazer, diz Mark Riedl, do Instituto de Tecnologia da Geórgia, nos EUA, foi quando o DeepMind, laboratório de IA do Google, mostrou como um sistema de machine learning (aprendizagem automática) dominou o antigo jogo de tabuleiro Go — e depois derrotou um dos melhores jogadores humanos do mundo.
SAIBA MAIS:
AlphaGo, inteligência artificial do Google, vence desafio de go contra melhor jogador do mundo
AlphaGo, inteligência artificial do Google, é aposentada
Balão satélite Loon, da Alphabet.
Loon/Divulgação
"Isso acabou demonstrando que havia novas estratégias ou táticas para contra-atacar um jogador que ninguém realmente havia usado antes — ou pelo menos muitas pessoas não sabiam a respeito", explica Riedl.
E ainda assim, um inocente jogo de Go desperta sentimentos diferentes entre as pessoas.
Riscos
Por um lado, o DeepMind descreveu orgulhosamente as maneiras pelas quais seu sistema, o AlphaGo, foi capaz de "inovar" e revelar novas abordagens para um jogo que os humanos vêm jogando há milênios.
Por outro lado, alguns questionaram se uma inteligência artificial tão inovadora poderia um dia representar um sério risco para os humanos.
"É ridículo pensar que seremos capazes de prever ou gerenciar o pior comportamento das inteligências artificiais quando não podemos, na verdade, imaginar seu possível comportamento", escreveu Jonathan Tapson, da Universidade de Western Sydney, na Austrália, após a vitória histórica do AlphaGo.
É importante lembrar, diz Riedl, que as inteligências artificiais não pensam realmente como os humanos. Suas redes neurais são, de fato, vagamente inspiradas em cérebros de animais, mas podem ser melhor descritas como "dispositivos de exploração".
Quando tentam resolver uma tarefa ou problema, elas não trazem consigo muitas, se é que alguma, ideia preconcebida sobre o mundo em geral. Simplesmente tentam — às vezes, milhões de vezes — encontrar uma solução.
"Nós, humanos, trazemos conosco muita bagagem mental, pensamos nas regras", explica Riedl.
"Os sistemas de inteligência artificial nem sequer entendem as regras, então eles mexem nas coisas de maneira muito aleatória."
Dessa forma, as IAs poderiam ser descritas como o equivalente em silício de pessoas com Síndrome do Sábio (ou de Savant), acrescenta Riedl, citando a condição em que um indivíduo tem uma deficiência mental grave, mas também possui uma habilidade extraordinária, geralmente relacionada à memória.
Uma maneira pela qual as IAs podem nos surpreender envolve sua capacidade de lidar com problemas radicalmente diferentes, mas usando o mesmo sistema básico.
Recentemente, uma ferramenta de machine learning desenvolvida para gerar parágrafos de texto foi requisitada a executar uma função muito diferente: jogar uma partida de xadrez.
O sistema em questão se chama GPT-2 e foi criado pela OpenAI. Treinado por meio de milhões de artigos de notícias online e páginas da web, o GPT-2 é capaz de prever a próxima palavra em uma frase com base nas palavras anteriores.
Uma vez que os movimentos de xadrez podem ser representados em caracteres alfanuméricos, "Be5" para mover um bispo, por exemplo, o desenvolvedor Shawn Presser pensou que se ele treinasse o algoritmo por meio de registros de partidas de xadrez, a ferramenta poderia aprender como jogar ao descobrir sequências desejáveis de movimentos.
Presser treinou o sistema com 2,4 milhões de jogos de xadrez.
"Foi muito bacana ver o mecanismo de xadrez ganhando vida", diz ele.
"Eu não tinha certeza se iria funcionar."
Mas deu certo. Não é tão bom quanto computadores especialmente projetados para xadrez — mas é capaz de jogar partidas difíceis com sucesso.
Segundo Presser, o experimento mostra que o sistema GPT-2 tem muitos recursos inexplorados. Um "sábio" com dom para o xadrez.
Uma versão posterior do mesmo software surpreendeu os web designers quando um desenvolvedor o treinou brevemente para produzir códigos para exibir itens em uma página, como textos e botões.
A inteligência artificial gerou o código apropriado, embora tudo o que tinha para seguir adiante eram descrições simples como "texto em vermelho que diz 'eu te amo' e um botão com 'ok' nele".
Claramente, ela adquiriu a essência básica de web design, mas após um treinamento surpreendentemente curto.
Uma área em que as IAs há muito tempo impressionam é na de videogames.
Há inúmeros casos na comunidade de inteligência artificial sobre coisas surpreendentes que os algoritmos têm feito em ambientes virtuais.
Os algoritmos costumam ser testados e aperfeiçoados, para ver o quão capazes eles realmente são, em espaços semelhantes aos de videogames.
Em 2019, a OpenAI ganhou as manchetes com um vídeo sobre um jogo de pique-esconde jogado por personagens controlados por machine learning.
Para a surpresa dos pesquisadores, aqueles que estavam "procurando" acabaram aprendendo que podiam pular em cima dos itens e "surfá-los" para ter acesso aos recintos onde havia personagens escondidos. Em outras palavras, aprenderam a burlar as regras do jogo a seu favor.
Uma estratégia de tentativa e erro pode resultar em todos os tipos de comportamentos interessantes. Mas nem sempre levam ao sucesso.
Dois anos atrás, Victoria Krakovna, pesquisadora da DeepMind, pediu aos leitores de seu blog que compartilhassem histórias em que as IAs resolveram problemas complicados — mas de maneiras imprevisivelmente inaceitáveis.
A longa lista de exemplos que ela reuniu é fascinante. Entre eles, está um algoritmo de jogo que aprendeu a se matar no final da primeira fase — para evitar morrer na segunda fase. O objetivo de não morrer na segunda fase foi alcançado, mas não de uma forma particularmente impressionante.
Outro algoritmo descobriu que poderia pular de um penhasco em um jogo e levar um oponente consigo para a morte. Isso deu à IA pontos suficientes para ganhar uma vida extra e continuar repetindo essa tática suicida em um loop infinito.
O pesquisador de inteligência artificial de videogame Julian Togelius, da Escola de Engenharia Tandon da Universidade de Nova York, nos EUA, pode explicar o que está acontecendo.
Ele diz que esses são exemplos clássicos de erros de "alocação de recompensa". Quando uma inteligência artificial é solicitada a realizar algo, ela pode descobrir métodos estranhos e inesperados de atingir seu objetivo, onde o fim sempre justifica os meios.
Nós, humanos, raramente adotamos tal postura. Os meios e as regras que preveem como devemos jogar são importantes.
Togelius e seus colegas descobriram que esse viés voltado a objetivos pode ser exposto em sistemas de inteligência artificial quando eles são colocados à prova em condições especiais.
Em experimentos recentes, sua equipe descobriu que uma IA solicitada a investir dinheiro em um banco, correria para um canto próximo do saguão do banco virtual e esperaria para receber um retorno sobre o investimento.
Togelius diz que o algoritmo aprendeu a associar correr para o canto com a obtenção de uma recompensa financeira, embora não houvesse nenhuma relação real entre seu movimento e o quanto era pago.
Isso, segundo ele, é mais ou menos como se a inteligência artificial desenvolvesse uma superstição: "Você recebeu uma recompensa ou punição por algo — mas por que você recebeu?"
Essa é uma das armadilhas do "aprendizado por reforço", em que uma inteligência artificial acaba planejando uma estratégia equivocada com base no que encontra em seu ambiente.
A inteligência artificial não sabe por que teve sucesso, ela só pode basear suas ações em associações aprendidas. Um pouco como as primeiras culturas humanas que começaram a associar rituais a mudanças no clima, por exemplo. Ou os pombos.
Em 1948, um psicólogo americano publicou um artigo descrevendo um experimento incomum em que colocava pombos em gaiolas e os recompensava com comida de forma intermitente.
Os pombos começaram a associar a comida a o que quer que estivessem fazendo na ocasião — seja batendo as asas ou executando movimentos semelhantes a uma dança. Eles então repetiam esses comportamentos, aparentemente na expectativa de que viria uma recompensa a seguir.
Os pombos podem aprender a associar a comida a certos comportamentos, e as IAs podem exibir postura semelhante.
Divulgação CMS
Há uma grande diferença entre as IAs dos jogos testados por Togelius e os animais vivos usados ??pelo psicólogo, mas Togelius sugere que o mesmo fenômeno parece estar em ação: a recompensa se torna erroneamente associada a um comportamento particular.
Embora os pesquisadores de inteligência artificial possam se surpreender com os caminhos trilhados pelos sistemas de machine learning, isso não significa necessariamente que tenham admiração por eles.
"Nunca tive a sensação de que esses agentes pensem por si só", afirma Raia Hadsell, do DeepMind.
Hadsell fez experiências com muitas IAs que encontraram soluções interessantes e inovadoras para problemas não previstos por ela ou seus colegas.
Ela destaca que é exatamente por isso que os pesquisadores procuram aperfeiçoar as IAs em primeiro lugar — para que possam alcançar coisas que os humanos não conseguem por conta própria.
E ela argumenta que os produtos que usam inteligência artificial, como carros autônomos, podem ser rigorosamente testados para garantir que qualquer imprevisibilidade esteja dentro de certos limites aceitáveis.
"Você pode dar garantias razoáveis ??sobre o comportamento com base em evidências empíricas", diz ela.
O tempo dirá se todas as empresas que vendem produtos construídos com inteligência artificial são escrupulosas nesse aspecto.
Mas, ao mesmo tempo, é importante observar que as IAs que demonstram comportamentos inesperados não estão de forma alguma confinadas a ambientes de pesquisa. Elas já estão atuando em produtos comerciais.
No ano passado, um braço robótico que trabalhava em uma fábrica em Berlim, desenvolvido pela empresa americana Covariant, apresentou maneiras inesperadas de classificar os itens à medida que eles passavam em uma esteira rolante.
Apesar de não ter sido especialmente programada para isso, a inteligência artificial que controla o braço aprendeu a mirar no centro dos itens em embalagens transparentes para ajudar a garantir que os pegaria com sucesso todas as vezes.
Como esses objetos podem se confundir quando se sobrepõem, devido ao material transparente, mirar com menos precisão significa que o robô pode não conseguir pegar o item.
"Isso evita a sobreposição de objetos nos cantos e, em vez disso, mira na superfície mais fácil de agarrar", afirma Peter Chen, cofundador e presidente-executivo da Covariant.
"Isso realmente nos surpreendeu."
Em paralelo, Hadsell diz que sua equipe testou recentemente um braço robótico que passa diferentes blocos por meio de orifícios de formatos variados.
A mão do robô era bastante desajeitada, então a inteligência artificial que o controlava aprendeu que, pegando e soltando repetidamente o bloco, poderia colocá-lo na posição certa para então agarrá-lo e passá-lo facilmente pelo orifício apropriado — em vez de tentar manobrá-lo usando a garra.
Tudo isso ilustra uma questão levantada por Jeff Clune, da OpenAI, que recentemente colaborou com pesquisadores do mundo todo para coletar exemplos de IAs que desenvolveram soluções inteligentes para problemas.
Clune diz que a natureza exploratória da inteligência artificial ??é fundamental para seu sucesso futuro.
"Conforme estamos ampliando esses sistemas de inteligência artificial, o que estamos vendo é que as coisas que eles fazem de maneira criativa e impressionante não são mais curiosidades acadêmicas", afirma.
Como as IAs encontram formas melhores de diagnosticar doenças ou entregar suprimentos de emergência, elas até salvam vidas graças à sua capacidade de encontrar novas maneiras de resolver velhos problemas, acrescenta Clune.
Mas ele acredita que aqueles que desenvolvem tais sistemas precisam ser abertos e honestos sobre sua natureza imprevisível, para ajudar a população a entender como a inteligência artificial funciona.
Afinal, é uma faca de dois gumes — a promessa e a ameaça da inteligência artificial fazem parte do mesmo pacote. O que será que elas vão inventar a seguir?