Mais de 1 em cada 4 empresas proibiram o uso de GenAI devido a riscos de privacidade e segurança de dados, de acordo com novo estudo da Cisco

Mais de 1 em cada 4 empresas proibiram o uso de GenAI devido a riscos de privacidade e segurança de dados, de acordo com novo estudo da Cisco

A Cisco lança seu Data Privacy Benchmark Study (estudo comparativo de privacidade de dados) de 2024, uma análise anual das principais questões de privacidade e seu impacto nos negócios. Antecipando o Dia Internacional da Privacidade de Dados, as conclusões destacam as crescentes preocupações de privacidade com GenAI, os desafios de confiança enfrentados pelas organizações em relação à utilização da IA e os retornos atraentes do investimento em privacidade. Com base nas respostas de 2.600 profissionais de privacidade e segurança em 12 regiões geográficas, a sétima edição do Benchmark mostra que a privacidade é muito mais do que uma questão de conformidade regulatória.

Aumento das preocupações com privacidade com a inteligência artificial generativa

“As organizações veem a GenAI como uma tecnologia fundamentalmente diferente, com novos desafios a considerar”, afirma Dev Stahlkopf, Cisco Chief Legal Officer. “Mais de 90% dos entrevistados acreditam que a IA requer novas técnicas para gerenciar dados e riscos. É aqui que uma governança ponderada é importante. Preservar a confiança do cliente depende disso.”

Figura 1: Dados globais do estudo
 

Entre as principais preocupações, as empresas pesquisadas em todo mundo citaram as ameaças aos direitos legais e de propriedade intelectual de uma organização (69%) e o risco de divulgação de informações ao público ou aos concorrentes (68%). Entre as empresas brasileiras, a principal preocupação é relacionada a resultados incorretos (65%), seguida pelo risco de divulgação ao público ou concorrentes (62%).
 

A maioria das organizações no Brasil está ciente desses riscos e está implementando controles para limitar a exposição: 59% estabeleceram limitações para a inserção de dados, 60% têm limites sobre quais ferramentas de GenAI podem ser usadas pelos funcionários e 11% disseram que sua organização baniu temporária e totalmente os aplicativos de GenAI. No entanto, muitos indivíduos inseriram informações que poderiam ser problemáticas, incluindo informações de funcionários (45%) ou informações não públicas sobre a empresa (58%).
 

Progresso lento em IA e transparência

“Atualmente, os consumidores brasileiros estão preocupados com a utilização da IA que envolve os seus dados e, no entanto, 90% das organizações reconhecem que precisam fazer mais para garantir aos seus clientes que os seus dados estão sendo utilizados apenas para fins pretendidos e legítimos na IA”, destaca Marcia Muniz, diretora jurídica da Cisco para América Latina e Canadá.
 

As prioridades das organizações para desenvolver a confiança dos seus clientes diferem das prioridades dos indivíduos. A pesquisa de privacidade de dados, divulgada no ano passado, revelou que os consumidores identificaram como suas principais prioridades obter informações claras sobre como exatamente os seus dados estão sendo utilizados e não ter os seus dados vendidos para fins de marketing. Quando perguntadas sobre a mesma questão, as empresas brasileiras identificaram que as suas principais prioridades são cumprir as leis de privacidade (26%) e evitar violações de dados (26%). Isso sugere que seria útil dar mais atenção à transparência – especialmente em aplicativos de IA aonde pode ser difícil compreender como os algoritmos tomam as suas decisões.
 

Privacidade e Confiança: o papel das certificações externas e leis

As organizações reconhecem a necessidade de tranquilizar os seus clientes sobre como os seus dados estão sendo utilizados.
 

96% dos entrevistados no Brasil disseram que seus clientes não comprariam deles se não protegessem os dados adequadamente. "Os consumidores estão procurando evidências concretas de que a organização é confiável. A privacidade está ligada diretamente à confiança e fidelidade do cliente. Isto é ainda mais verdadeiro na era da IA, onde o investimento na privacidade posiciona melhor as organizações para aproveitarem a IA de forma ética e responsável”, destaca Márcia Muniz.

Apesar dos custos e exigências que as leis de privacidade podem impor às organizações, 85% dos entrevistados no Brasil disseram que as leis de privacidade foram positivas para elas, e apenas 3% disseram que o impacto foi negativo. Uma forte regulamentação de privacidade aumenta a confiança dos consumidores nas organizações com as quais escolhem compartilhar os seus dados.
 

Além disso, muitos governos e organizações estão implementando requisitos de localização de dados para manter determinados dados dentro do país ou região. Embora a maioria das empresas do Brasil (82%) acredite que os seus dados seriam inerentemente mais seguros se armazenados localmente, 80% também afirmaram que um fornecedor global, operando em grande escala, pode proteger melhor os seus dados em comparação com um fornecedor local.
 

Privacidade: um investimento valioso

Nos últimos cinco anos, os gastos com privacidade mais do que duplicaram, os benefícios registaram uma tendência de aumento e os retornos permaneceram fortes. Este ano, 95% dos entrevistados indicaram que os benefícios da privacidade superam os seus custos, e as organizações, em média, afirmam obter benefícios com privacidade de 1,6 vezes sobre os seus gastos, sendo 1,8 vezes para as empresas da Brasil. Além disso, 80% das empresas no mundo (83% no Brasil) indicaram obter benefícios significativos de “Fidelidade e Confiança” com os seus investimentos em privacidade, e este número é ainda maior (92%) para as organizações mais maduras em termos de privacidade.
 

Figura 2: dados globais do estudo
 

Em 2023, as grandes organizações (com mais de 10 mil funcionários) aumentaram os seus gastos com privacidade entre 7% e 8% desde o ano passado. No entanto, as organizações menores registaram um investimento mais baixo, por exemplo, as empresas com 50-249 funcionários, diminuíram o seu investimento em privacidade em 25%, em média.

Share This Post

Post Comment