Por Filippo Di Cesare, CEO Latam (Brasil e Argentina) da Engineering
A iniciativa de criação do Marco Legal para uso da Inteligência Artificial no Brasil, que foi aprovado no final de setembro pela Câmara dos Deputados e agora está em validação pelo Senado Federal, torna-se pouco efetiva diante da sua natureza principio lógica. Isso porque a ausência de normativos pode trazer pouco embasamento aos casos, que tendem a ampliar cada vez mais se levarmos em consideração que a IA é o futuro.
Vemos que essa tecnologia passa por um momento de evolução exponencial e criar normas representaria um risco de a Lei ficar defasada e superada antes mesmo de aprovada. Sob esta ótica, fica claro que fixar uma regulamentação com o detalhamento necessário quando a tecnologia segue em constante evolução não é viável. Por isso, neste momento, faz sentido a discussão permanecer no aspecto principiológico para não limitar a inovação local.
De qualquer forma, devemos tratar o potencial dessa tecnologia de forma abrangente, como uma alavanca a ser estimulada para ampliar a competitividade no País. Ou seja, quanto mais acessível, mais projetos serão criados e, consequentemente, todo o ecossistema em torno dessa tecnologia se desenvolverá. Neste sentido, o olhar do governo para esta frente é uma oportunidade para discutir um verdadeiro plano nacional de IA, que visará a segurança jurídica, a promoção de investimentos e a cooperação entre universidades e empresas.
Nesta esteira, é necessário considerar os investimentos em pesquisa e desenvolvimento, assim como na formação de mão de obra especializada para suprir às demandas de profissionais que vão lidar com a IA - lembrando que as máquinas tiram o homem de atividades para fazer melhor, mas ao mesmo tempo cria oportunidades.
Por isso, é importante que o Marco Legal da IA não se limite a iniciativas de um risco a ser gerenciado. Isso porque, se entrarmos no detalhamento de como essa tecnologia funciona e como o Marco Legal pretende regular as atividades, podemos ter um embate quando relacionarmos a IA à transparência das empresas, por exemplo, no que tange a aspectos discriminatórios raciais, de gênero e de orientação sexual. Os critérios usados pelo algoritmo para a tomada das decisões são, sim, imputados pelo operador de AI, mas sempre há parâmetros baseados em padrões que são aprendidos de forma autônoma, ou seja, não há julgamento moral.
Nesse sentido, ainda que haja transparência e mesmo que o agente de IA possa sempre controlar e normalizar periodicamente os algoritmos "intencionais", há decisões que não podem ser interpretadas, pois há problemas técnicos em dizer quais parâmetros o algoritmo aprendeu para determinar uma tomada de decisões. Se o critério de interpretação do Marco Legal da IA tiver uma exigência rígida, a Inteligência Artificial deixará de aproveitar seu máximo potencial.
A expansão da IA tem provocado discussões em torno dos direitos humanos, da privacidade e proteção dos dados e do mercado de trabalho. O tema é complexo e um regimento permanente sobre a tecnologia requer um nível de detalhamento mais extenso do que está sendo inicialmente apresentado nas propostas atuais em tramitação no Congresso. O foco do Marco Legal da IA, portanto, não pode ser apenas ligado às questões éticas e regulatórias. É preciso ir além: é hora de fomentar um plano nacional de IA, envolvendo empresas, instituições de ensino e o poder público.