Por Wendel Santos, Head de Tecnologia da Informação (TI) do Grupo Recovery
Não é novidade para ninguém que a Inteligência Artificial (IA) domina hoje o setor de tecnologias emergentes para melhorar a vida dos humanos com o aumento da produtividade ao automatizar funções. E o que também não é mais inédito é a reflexão em torno dos possíveis impactos que o uso massivo de tal inovação pode provocar na sociedade. Nesse contexto, têm surgido medidas regulatórias, como é o caso do Projeto de Lei n. 2.338/2023, apresentado pelo Senador Rodrigo Pacheco (PSD/MG), com diretrizes para um uso responsável da IA no Brasil.
A partir da minha jornada de mais de 25 anos no setor de Tecnologia da Informação (TI) e, nos últimos tempos, imerso no mercado de finanças, não tenho dúvidas sobre a necessidade de uma regulamentação - mesmo porque não sabemos até onde as pessoas vão chegar usando IA. A grande maioria, a priori, está bem-intencionada em sua utilização, mas, tem quem use para o mal, como em deepfakes, promovendo desinformação. Sem regulamentação, não existe uma forma específica de punir esse último grupo.
No geral, o Projeto de Lei que trata da regulamentação possui fundamentos predominantemente voltados para a proteção do indivíduo, tal como não discriminação, respeito aos direitos humanos, entre outros, que são essenciais para o desenvolvimento de uma sociedade igualitária.
Um dos desafios deste Projeto de Lei é justamente regulamentar uma tecnologia que está, de certa forma, no início da sua curva de adoção pelo mercado e, a depender da rigidez das regras, pode dificultar seu uso de forma massiva.
Por exemplo, o projeto considera tornar explícitas as regras e decisões tomadas pelos algoritmos de IA, entretanto, os algoritmos de aprendizado de máquina, muito usados em IA tem baixo nível de explicabilidade, ou seja, não é possível saber com exatidão toda a lógica percorrida.
Medidas de governança que exigem armazenamento de histórico de informações podem exigir investimentos que precisam ser levados em consideração quando se analisa o retorno do uso de IA versus os investimentos necessários para se manter alinhado às regulamentações.
No mercado financeiro é comum utilizar algoritmos para auxiliar as decisões em operações de tomada de risco, especialmente nas que envolvem a concessão de crédito. Neste aspecto, o Projeto de Lei classifica tais sistemas como sendo de alto risco e determina práticas de governança que poderão exigir desde documentação detalhada do processo e do sistema, até requisitos de formação da equipe que irão manter tal sistema em operação, exigindo que seja uma equipe inclusiva sob a ótica da diversidade.
É importante considerar que o Projeto de Lei precisa prever também medidas contra o uso indevido de IA por pessoas mal intencionadas. O mercado financeiro, que é alvo constante de fraudes e possui diversas funções de atendimento ao cliente automatizadas para ganhar agilidade, pode sofrer golpes por meio de agentes de IA que, ao simular ser um cliente real, podem conseguir interagir com seus sistemas.
Isto exigirá um trabalho intenso e muito investimento das instituições financeiras para se manter um passo à frente dos fraudadores e usar a própria IA para se proteger da IA mal-intencionada, como por exemplo nos atendimentos por voz, reconhecer padrões de fala e seres humanos e conseguir identificar quando uma chamada é originada por um robô de IA.
Tendo em vista a amplitude de aplicações de IA e seu impacto na sociedade, não ter uma regulamentação é um convite ao caos, entretanto regras muito rígidas implementadas de forma abrupta podem desacelerar a adoção desta tecnologia por empresas que ainda estão buscando conhecimento sobre como e onde usar.
Imagem: https://pt.vecteezy.com/foto/13364434-pilha-de-moedas-da-tailandia-na-mesa-de-madeira-preta-com-grafico-de-lucro-crescimento-sucesso-negocios-financas-marketing-conceito-e-design-de-comercio-eletronico