As falhas da inteligência artificial generativa do Google

  • Categoria do post:JOTA

“Igualmente importante é que já é hora de parar de tratar a inovação como um fim em si mesma, independentemente de qual propósito ela alcance ou de quais interesses promova. Em vez disso, precisamos desenvolver uma compreensão muito mais matizada de como as narrativas sobre a inovação são construídas e conduzidas por investidores, empresas dominantes e outros agentes poderosos. Só então será possível debater o papel da IA em nossas sociedades.” (Max von Thon)[1]

Em maio deste ano, o Google incorporou inteligência artificial generativa a seu mecanismo de buscas. Em poucos dias, já era claro que o sistema apresentava várias falhas, alucinações e bizarrices.

Dentre os erros mais divulgados pela imprensa, estão as sugestões de utilizar cola em pizza, comer uma pedra por dia, beber pelo menos dois litros de urina para se livrar mais rapidamente de pedras nos rins, correr com tesouras em prol de benefícios cardiovasculares, deixar cães em carros fechados em lugares quentes, dentre outros. Foi noticiada até sugestão de suicídio para quem se disse com depressão.

Como fica claro em artigo de Rhiannon Willians, publicado no MIT Technology Review[2] (“Why Google’s AI Overviews gets things wrong”), a maior parte dos LLMs (Large Language Models) simplesmente predizem a próxima palavra, o que os torna fluentes, porém aptos a inventar coisas. Como as palavras são escolhidas com base em cálculos estatísticos – e não com base na verdade – isso pode dar ensejo a inúmeras alucinações.

Esse é o ponto fraco de tais sistemas, pois relevância não se confunde com correção, assim como linguagem fluente não se confunde com informação correta. Aliás, em tais sistemas, quanto mais específico for um tópico, maior a chance de desinformação, o que é particularmente preocupante nas searas médicas, científicas e educacionais.

Segundo Willians, o próprio Google reconhece que não tem como diferenciar informações corretas das brincadeiras, o que mostra que o problema não é propriamente do mau treinamento de dados. Daí a conclusão do autor de que, na medida em que a probabilidade é usada para gerar textos palavras por palavras, a alucinação será sempre um risco.

Além de não conseguirem diferenciar piadas e brincadeiras de informações sérias, tais modelos também não conseguem hierarquizar adequadamente as fontes de informação a partir da sua credibilidade. Assim, quando lidam com informações conflitantes, não sabem como responder e podem inclusive combinar informações para criar uma resposta que será incorreta.

Isso mostra que a busca do conhecimento e de informações confiáveis decorre de uma complexa atividade que envolve, dentre outras etapas, a seleção de fontes e a contextualização e interpretação da informação, o que as máquinas (ainda) não conseguem fazer.

Ao que parece, várias das bizarrices apresentadas pelo sistema do Google decorrem de tais características. Pelo que se apurou, diante da pergunta “How many rocks should I eat each day?”, a máquina respondeu “According to UC Berkley geologists, people should eat at least one small rock per day” com base em informação constante em artigo de humor, enquanto a ideia de adicionar cola ao molho da pizza teria sido extraída de um comentário do Reddit.

Todas essas circunstâncias, ainda mais quando observadas em uma ferramenta desenvolvida por uma big tech como o Google, refletem os riscos em se disponibilizar livremente esse tipo de tecnologia sem qualquer controle ou regulação.

Afinal, diante do poderio de tais empresas e da ausência de concorrência, há poucos incentivos para investir espontaneamente em cuidados e salvaguardas, tal como concluiu Max von Thun em interessante artigo publicado no jornal Valor Econômico[3]:

“O Google recebeu críticas generalizadas – e com razão – por lançar uma tecnologia que é claramente inapropriada para uso e pode causar danos aos usuários. Mas poucos pararam para se perguntar por que a gigante foi capaz de ser tão descarada. A resposta é simples. Nas palavras da presidente da Comissão Federal do Comércio, Lina Khan, ele é ‘grande demais para se importar’. O Google controla cerca de 90% do mercado de buscas na internet e enfrenta pouca pressão de concorrentes. Ele pode lançar um produto que não seja confiável ou seguro sem medo de perder clientes para rivais”.

O artigo prossegue mostrando que poder de mercado dessa magnitude simplesmente não gera incentivos para manter a qualidade dos serviços ofertados ou tomar medidas para prevenir riscos excessivos ou danos aos usuários. Não é sem razão que o mecanismo de buscas deteriorou e cada vez mais apresenta anúncios e spams ao invés de resultados orgânicos, o que deu ensejo ao termo “enshitification” – emporcalhamento dos serviços – ou “shitovation” – aclamação do emporcalhamento.

Trata-se de conduta atribuível não apenas ao Google, mas a todas as big techs, até porque não há propriamente rivalidade entre elas, como também aponta Max von Thun[4]:

“Pode parecer que as Big Techs competem entre si, mas isso quase sempre é uma miragem. Na verdade, cada empresa tenta aprofundar a blindagem em torno da sua esfera de influência e o resultado é uma coexistência tensa, mas em grande parte estática. E nos casos raros de competição direta, como entre a Microsoft e o Google na área de buscas, a participação de mercado segue praticamente inalterada”.

Diante desse cenário, não é surpresa que todo esse ecossistema tem alimentado o que o autor chama de “implantação perigosa e perdulária de tecnologias não testadas”.

O recente exemplo do Google é, portanto, mais um a nos mostrar que não serão as soluções de mercado e as iniciativas espontâneas das empresas que irão nos proteger diante dos riscos e danos que podem ser gerados pela inteligência artificial. Embora seja importante incentivar a concorrência no setor de inovação, é necessária e urgente a regulação da IA, a fim de encontrar um equilíbrio entre os incentivos à inovação e a indispensável proteção dos que serão afetados por ela.

[1] THUN, Max von. A culpa das big techs pelos delírios da IA. Poder de mercado não dá às empresas incentivos para manter a qualidade. Valor Econômico. Edição de 01.08.2024.

[2] https://www.technologyreview.com/2024/05/31/1093019/why-are-googles-ai-overviews-results-so-bad/

[3] Op.cit.

[4] Op.cit.