forma imprevisível. Por outro lado, o armazenamento e processamento de dados por
sistemas de IA, se não for efetuado de forma cuidadosa e segura, pode expor informação
sensível a partes não autorizadas, tanto internas como externas às organizações, com
os problemas que daí podem advir.
Os dados relacionados com o clima devem ser geridos com a devida diligência. Os dados
devem ser adquiridos, processados e disseminados de uma forma que preserve a
confiança, mas respeitando adequadamente a privacidade e a segurança. Alguns dados
pertinentes relativos às aplicações climáticas podem ser significativamente sensíveis em
relação a questões de privacidade. Existe a preocupação de que o acesso ou a gestão
irresponsável de dados em projetos de IA relacionados com o clima possa corroer a
confiança na IA em setores específicos. Além disso, os ecossistemas de dados abertos
devem ser estruturados de forma a honrar as necessidades e os interesses das
comunidades das quais os dados têm origem, especialmente aquelas que foram
historicamente desfavorecidas ou menorizadas. E para isto, a aplicação de normas e
regras de cibersegurança é fundamental.
Importará ainda referir que a recolha de dados relevantes para o clima é diferenciada.
Isto porque a recolha de dados e a sua subsequente disponibilidade para algoritmos de
IA estão predominantemente concentradas naquilo que agora se chama o Norte Global
(Amiri & al, 2024). Assim, seria relevante que organizações internacionais considerassem
facilitar o desenvolvimento de processos de recolha de dados nos países de baixo
rendimento e no Sul Global, de modo a melhorar a distribuição geográfica dos dados.
Inteligência Artificial e riscos
Utilizar a IA traz riscos como preconceito, invasão de privacidade, vulnerabilidades de
segurança, preocupações de segurança e aumento das emissões de gases com efeito de
estufa (ICEF, 2023). Relativamente aos riscos relacionados com preconceitos no emprego
de IA para mitigações climáticas, estes envolvem o favorecimento de grupos específicos
devido a disparidades na acessibilidade dos dados. Os riscos relacionados com a
privacidade incluem violações ilegais de dados de terceiros, a identificação de pessoas e
questões de vigilância. Podem surgir vulnerabilidades de segurança à medida que os
sistemas de IA alargam a superfície de ataque aos cibercriminosos, para além do que
está presente nas aplicações de software tradicionais. Os riscos de segurança podem ser
significativos quando os sistemas de IA apresentam avarias ou produzem resultados
imprevistos. As emissões de gases com efeito de estufa provenientes de processos
computacionais de IA são atualmente mínimas — substancialmente abaixo de 1% do
total global. São necessários procedimentos de recolha e avaliação de dados melhorados
para gerar uma estimativa mais precisa e com maior confiança. As projeções de emissões
e integridade dos dados de treino, que, em última análise, determinam as capacidades de um modelo. Estes
dados de formação podem ter origem em diversas fontes, entre elas a internet, bases de dados
governamentais, académicas ou empresariais e de fornecedores de dados externos. Os atores mal-
intencionados podem modificar subtil ou significativamente o comportamento de um modelo introduzindo
pontos de dados imprecisos ou enviesados (dados envenenados) nos conjuntos de dados de treino. A
adulteração de dados através de envenenamento pode resultar numa classificação incorreta dos dados,
diminuindo assim a utilidade e a precisão dos sistemas de IA e de ML. Além disso, estes ataques podem
representar ameaças significativas à cibersegurança, particularmente em setores como a saúde e os veículos
autónomos (https://www.ibm.com/think/topics/data-poisoning).