Algoritmos avançados transformam a forma como informações pessoais são captadas e analisadas
A expansão acelerada da Inteligência Artificial (IA) tem transformado profundamente a forma como dados pessoais são coletados, processados e utilizados. Para o Prof. dr. Flávio Souza, coordenador e cofundador do Ânima Lab Hub e professor dos cursos de Engenharia e Tecnologias da Una, esse cenário exige atenção redobrada de usuários, empresas e formuladores de políticas públicas, especialmente diante de riscos crescentes relacionados à privacidade e ao uso indevido de informações.
Segundo o professor, as pessoas têm se tornado mais conscientes sobre o valor e a sensibilidade de seus dados, em parte pela existência da Lei Geral de Proteção de Dados (LGPD). No entanto, ele alerta que ainda há pouca leitura e compreensão dos termos de uso de plataformas digitais, especialmente das IAs generativas gratuitas. “Se você não paga pela qualidade, você paga pela privacidade. Muitas dessas ferramentas deixam explícito que os dados inseridos podem ser utilizados sem qualquer garantia de sigilo, o que acende um alerta para usuários e organizações”, afirma.
Para Flávio Souza, os riscos de privacidade aumentam à medida que a IA passa a aprender, replicar e redistribuir informações sem que o usuário tenha controle sobre isso. Dados sensíveis, como estratégias empresariais, informações de saúde e segredos industriais, são especialmente vulneráveis. “O grande problema é a IA aprender seus dados e começar a replicá-los para outras pessoas”, explica. O risco se multiplica quando se trata de ambientes corporativos, tornando ainda mais urgente o estabelecimento de protocolos de segurança.
A LGPD estabelece que os titulares devem ter acesso aos seus dados e poder solicitar sua exclusão. Entretanto, quando o assunto envolve inteligência artificial, surge um desafio estrutural: a IA não armazena dados de forma tradicional, ela aprende com eles. “Matematicamente, ela aprende o dado. Isso torna mais complexa a aplicação da lei”, destaca Souza. Por isso, debates sobre regulamentação específica para IA avançam no Brasil e no mundo, buscando definir responsabilidades sobre recomendações, treinamentos e uso de dados.
Para ele, o ponto mais crítico é o momento anterior ao uso da IA: o cuidado na coleta e no tratamento de informações. Empresas precisam reforçar políticas internas para garantir que dados não sejam inseridos em sistemas de IA sem o devido controle ou consentimento. “A transparência sobre processos automatizados e o consentimento claro do usuário são pilares essenciais no novo ecossistema digital. Para que isso seja garantido, as organizações devem comunicar de forma objetiva como as informações são utilizadas por sistemas de IA, além de oferecer mecanismos simples para que o usuário controle sua privacidade”, pontua.
O especialista também destaca que a exposição a vazamentos aumenta significativamente quando IAs generativas são utilizadas sem conhecimento dos riscos. Minimizar esses impactos exige conscientização contínua dos usuários e políticas firmes dentro das empresas. “É responsabilidade do funcionário utilizar corretamente esses dados frente a qualquer tecnologia, inclusive a IA”, reforça.
O professor observa que o futuro da privacidade digital será marcado por regulamentações mais robustas, discussões sobre vieses algorítmicos e ações contra disseminação de fake news. Com o avanço das IAs, cresce também a urgência de proteger aquilo que hoje se tornou um dos maiores patrimônios das pessoas: seus dados. “As consequências recaem sobre nós, seres humanos. A escolha final será sempre nossa”, conclui Souza.
Imagem: Divulgação/ Pexels