O cenário regulatório sobre inteligência artificial (IA) no Brasil e no mundo tem direcionado pouca atenção à dimensão ecológica da IA, às exigências energéticas, à produção de carbono e às emissões de gases estufa gerado pelo setor de tecnologia da informação e comunicação da computação. Em que pese a inteligência artificial tenha um grande potencial para contribuir para a mitigação das mudanças climáticas, precisamos falar sobre a demanda de energia que essa tecnologia requer para sua elaboração, desenvolvimento e execução.
A título exemplificativo, as metodologias para treinamento de redes neurais utilizam quantidade expressiva de dados e a eficiência da precisão desses modelos dependem da disponibilidade de grandes recursos computacionais, elevado consumo de energia, sendo muito custosos devido à pegada de carbono necessária para abastecer o hardware de processamento de tensores. Considerando que a evolução da inteligência artificial aumentou cerca de trezentas mil vezes entre os anos de 2012 e 2018[1], o impacto ambiental e os efeitos climáticos das operações devem ser objeto de atenção no cenário regulatório.
Nessa senda, a Assembleia Geral das Nações Unidas definiu metas mundiais, um plano de ação para as pessoas, para o planeta e para a prosperidade, em 2015, reforçando que a mudança climática é um dos maiores desafios da atualidade e seus efeitos negativos minam a capacidade de todos os países de alcançar o desenvolvimento sustentável. Dentre os Objetivos de Desenvolvimento Sustentável a serem atingidos até 2030, elenca-se o de garantir acesso à energia barata, confiável, sustentável e renovável para todos (ODS 7), assegurar padrões de produção e de consumo sustentáveis (ODS 12) e tomar medidas urgentes para combater a mudança climática e seus impactos (ODS 13).
Na União Europeia, o Conselho Europeu aprovou em 2019 o Pacto Ecológico Europeu, cujo objetivo primordial é o alcance da neutralidade climática da União Europeia até 2050 e que as políticas que envolvam clima, energia e transporte sejam capazes de reduzir as emissões líquidas de gases com efeito de estufa em, pelo menos, 55 % até 2030. Esse cenário desperta atenção de pesquisadores e investigações sobre os efeitos climáticos da inteligência artificial.
Em relatório preparado pelo Secretariado da OCDE[2], com auxílio do grupo de especialistas da sobre IA, computação e clima, avaliou-se o ciclo de vida da IA, sendo este composto pelas seguintes etapas:
Planejamento e projeto;
Coleta e processamento de dados;
Construção e utilização de modelos;
Verificação e validação do modelo;
Implantação;
Operação e monitoramento do sistema.
Os impactos ambientais da operação da computação de IA estão principalmente relacionados ao consumo de energia, às emissões de gases de efeito estufa (GEE) e ao consumo de água, que podem ocorrer quando um sistema de IA é desenvolvido, como por meio de treinamento, e implantação, por exemplo, através da aplicação de modelos de IA para fazer previsões, recomendações ou decisões.
O relatório aponta que a pegada de carbono operacional da computação de IA está diretamente relacionada ao seu consumo de energia, muitas vezes proveniente de fontes de energia não renováveis, e que a indústria global de TIC (incluindo hardware e televisores) é responsável por 1,8 a 2,8% das emissões globais de GEE o que, em 2020, representou 700 toneladas métricas de CO2.
Não obstante tais evidências, a proposta original do AI Act foi tímica quanto as questões de sustentabilidade ambiental, inserindo a temática no título IX (Códigos de Conduta), dispondo que a Comissão e o Comitê incentivam e facilitam a elaboração de códigos de conduta destinados a promover a aplicação voluntária aos sistemas de IA de requisitos relacionados, por exemplo, com a sustentabilidade ambiental (art. 69.2) e no título XII (disposições finais), onde estabelece que, no prazo de três anos após a data de aplicação do regulamento e posteriormente de quatro em quatro anos, a Comissão avalia o impacto e a eficácia dos códigos de conduta (art. 84.4).
É curioso observar que, a despeito da mudança climática já ser uma realidade, com impacto destrutivo na atualidade, não se observa uma maior atenção, em termos regulatórios, com os impactos ambientais das novas tecnologias, especialmente da IA que apresenta um crescimento exponencial. As referências genéricas contidas no AI Act sobre sustentabilidade ambiental, reforçam a necessidade de traduzir a sustentabilidade em ações concretas e efetivas para que a elaboração e desenvolvimento de IA não maximizem as alterações climáticas, ao revés, sirvam para alcançar os objetivos do desenvolvimento sustentável.
Mais recentemente, começou-se a admitir políticas regulatórias de corregulação, sustentabilidade by design, regulações que envolvem restrições ao treinamento de modelos de IA e o estabelecimento de limites máximos de consumo de energia. A corregulação abrange uma vasta gama de diferentes abordagens regulamentares que envolvem a cooperação entre a regulação estatal e a autorregulação, de modo que o Estado, por um lado, fornece um quadro jurídico que permite a criação, operacionalização e aplicação de regras, e, órgãos autônomos, por outro lado, criam regras e as administram, às vezes por meio de estruturas ou mecanismos conjuntos[3]. Essa abordagem regulatória foi introduzida no GDPR (art. 40), no AI Act (art. 69) e na LGPD (art. 50).
Uma vantagem comumente apontada é que, através dos códigos de conduta, aproveita-se o conhecimento e a experiência distribuídos dos vários intervenientes envolvidos na concepção, desenvolvimento e implementação de sistemas de IA, além de promover a inovação e a flexibilidade, permitindo soluções personalizadas que são adaptadas a contextos e setores específicos, podem aumentar a confiança e internalizar o compromisso da indústria na abordagem dos desafios éticos e sociais colocados pela inteligência artificial[4].
A estratégia regulatória da sustentabilidade by design, inspirada no data protection by design, visa incorporar considerações ambientais na concepção e implementação de modelos e práticas de machine learning e tem como ferramenta principal a avaliação de impacto de sustentabilidade, que deve avaliar emissões de GEE e consumo de água que são os principais riscos que já se materializam durante o treinamento dos modelos antes da sua implantação.
Assim, durante a fase de modelagem, os desenvolvedores devem comparar diferentes tipos de modelos (por exemplo, regressão linear versus aprendizado profundo) não apenas com relação ao seu desempenho, mas também à sua pegada climática estimada[5].
No que concerne às políticas que estabelecem restrições ao treinamento de modelos de IA, discute-se a inserção de obrigações para que os desenvolvedores de IA conduzam treinamento apenas em instalações que obtêm uma certa percentagem da sua energia a partir de fontes renováveis, por exemplo, realizando treinamentos em regiões com maior possibilidade de produção fotovoltaica de energia, porém, deve-se considerar que, comumente, essas regiões possuem temperaturas elevadas, o que exigiria maior demanda de água para o resfriamento. Estratégias como essas, estabelecem regras como limite mínimo necessário de utilização de energia renovável no treinamento da inteligência artificial[6].
Por fim, observa-se a instituição de limites máximos de consumo de energia, formulados em função do setor e do caso de uso específico em que o modelo é implantado, de modo que o legislador define certas classes de utilidade social com base nos benefícios sociais esperados do aproveitamento da IA numa determinada área, estabelecendo os limites de consumo energético, de emissão de gases estufa, levando em conta o quão valioso e benéfico é o sistema de inteligência artificial para a sociedade, e, assim, determinando os custos climáticos permitidos[7].
[1]STRUBELL, Emma; GANESH, Ananya; MCCALLUM, Andrew. Energy and Policy Considerations for Modern Deep Learning. Research. Proceedings of the AAAI Conference on Artificial Intelligence, 34(09), 13693-13696, 2020.
[2] OECD. Measuring the environmental impacts of artificial intelligence compute and applications: The AI footprint. OECD Digital Economy Papers, No. 341, OECD Publishing, Paris, 2022, p. 23.
[3] UNESCO. Internet for Trust – Towards Guidelines for Regulating Digital Platforms for Information as a Public Good, Paris, 2023. Disponível em https://unesdoc.unesco.org/ark:/48223/pf0000384031.locale=en. Acesso em 28 nov 2023.
[4] HACKER, Philipp. Sustainable AI Regulation. June 1, 2023. http://dx.doi.org/10.2139/ssrn.4467684.
[5] HACKER, Philipp. The European AI Liability Directives– Critique of a Half-Hearted Approach and Lessons for the Future. Computer Law & Security Review, V 51, Nov,2023, p.65.
[6] HAITES, Erik. Carbon taxes and greenhouse gas emissions trading systems: what have we learned? Climate Policy , 2018.
[7] HACKER, Philipp. Sustainable AI Regulation. June 1, 2023, p. 27.