Por Lucas Mirabella, CEO e fundador da Eudalia
Atualmente, o uso de inteligência artificial (IA) e modelos de linguagem de grande porte (LLMs) passou a ser tratado como uma realidade urgente em negócios de diversos setores. No entanto, quando se fala em IA no contexto de dados sensíveis, que são amplamente utilizados nos setores de saúde e financeiro, a implementação exige mais que inovação e entusiasmo tecnológico, pois tem como obrigatoriedade o compromisso de assegurar a privacidade de cada pessoa e mitigar riscos indesejáveis para todos os envolvidos.
Segundo uma pesquisa da Deloitte, 58% das empresas nacionais já integram IA na rotina. Como também aponta um estudo do Traffic Analytics elaborado pela Semruch, o Brasil é o quarto país que mais acessa o ChatGPT no mundo e, apenas em janeiro deste ano, registrou 123 milhões de acessos na plataforma, impulsionado pelo crescente interesse pela tecnologia e o potencial de aplicação. Na área da saúde, por exemplo, o valor desses dados é incomparável, mas a responsabilidade de protegê-los é igualmente importante, uma vez que históricos médicos, resultados de exames e prescrições dos pacientes são informações extremamente sensíveis e protegidas por regulamentações rigorosas, como a Lei Geral de Proteção de Dados (LGPD).
Diariamente, as empresas lidam com uma massa de dados que cresce de forma exponencial e, muitas vezes, em formatos não estruturados. Na área financeira, por exemplo, há dados de extrato e histórico de transações, contratos e até mesmo de atendimento ao cliente, normalmente em formato de áudio ou texto. Nesse cenário, há um enorme desafio que requer ações específicas e automatizadas para evitar riscos de exposição ou uso indevido de informações pessoais.
Quando integrada a soluções específicas, a inteligência artificial permite não apenas a análise desses dados, mas também a estruturação para insights valiosos. Contudo, é essencial que a construção dessa base seja completamente segura. No Brasil, a fornecedora de proteção NordVPN constatou que o país liderou o ranking de dados vazados em 2023. Portanto, ferramentas que garantem o anonimato e a privacidade dos indivíduos são investimentos fundamentais para diminuir danos irreparáveis à confiança da população, evitando consequências legais.
Pensando nisso, nasce uma abordagem conhecida como "privacy by design", que pode ser definida como a integração da privacidade em cada etapa da implementação de soluções tecnológicas. Esse conceito foi introduzido com a premissa de que a integridade das informações pessoais não deve ser um "acréscimo" ao processo, mas uma camada inicial que se mantém até o fim.
Para as empresas, adotar essa aplicação significa pensar em privacidade desde a concepção das ferramentas, garantindo que dados sensíveis sejam anonimizados automaticamente antes de qualquer movimentação em sistemas de IA. No Brasil, onde a LGPD é bastante rígida sobre o uso e armazenamento de informações, o "privacy by design" é um passo indispensável para o uso de soluções inovadoras sem comprometer a proteção dos usuários.
Esse movimento de integração é extremamente útil para diversos setores, pois, apesar de a inteligência artificial exigir sistemas robustos de segurança, a implementação sempre trará vantagens competitivas para as empresas, além de fomentar a experiência dos usuários. Dessa forma, organizações que investem no recurso com privacidade, envolvendo anonimização e uso de dados sintéticos, por exemplo, ficam livres para explorar o potencial dos dados, gerar insights assertivos e criar relatórios sem abrir mão da proteção dos clientes finais.
A confiança é o ativo mais valioso em qualquer relação de negócios. Especialmente na saúde, que diariamente manipula números sensíveis, a adoção de tecnologias aplicadas à integridade de dados pode promover não só um diferencial de mercado, mas a oportunidade de liderar o caminho para uma cultura de inovação responsável.
Imagem: Divulgação.