KPMG lista 5 medidas para proteger a privacidade em IA

KPMG lista 5 medidas para proteger a privacidade em IA

O desenvolvimento simultâneo dos padrões globais de Inteligência Artificial (IA) e estruturas de IA responsáveis moldarão o futuro da IA, diz o estudo “Privacy in the new world of AI” publicado pela KPMG. O material evidencia as implicações da generalização da adoção da IA quanto à privacidade. Também busca entender o que isso representa para as empresas e descreve as principais etapas que as organizações podem fazer para usar a inteligência artificial com segurança. São medidas que visam mitigar os riscos para as instituições aproveitarem a tecnologia de forma que consigam proteger a privacidade dos indivíduos.

“Existem alguns cuidados que devem ser observados na hora da implementação de projetos de IA nas instituições, a fim de reduzir as chances de vazamento de informações sensíveis e proteger os dados dos consumidores, garantindo assim a preservação da privacidade dos envolvidos”, afirma Leandro Augusto, sócio-líder de Cyber Security & Privacy da KPMG no Brasil e na América do Sul.

De acordo com o estudo, existem 5 medidas-chave que auxiliam nessa proteção à privacidade:

1. Entenda o seu ambiente regulatório e adote uma estratégia de privacidade de IA: é importante identificar quais sãos as normas regulatórias que dizem respeito ao setor da empresa. Com esse conhecimento será mais viável definir quais políticas de privacidade em IA você implementará na sua organização. Essa base de referência para o uso de IA deve ser feita a modo de satisfazer diferentes regimes, pensando, inclusive, na simplificação do desenvolvimento das atividades relacionadas a ela.

2. Incorpore avaliações da Privacidade por Projeto aos seus projetos de IA: já no momento de idealização é importante analisar o impacto que ele terá sobre a privacidade e as questões que envolvem o compliance. Isso pode ser feito usando a Avaliação Sistemática do Impacto sobre a Privacidade (PIA) ou com a Avaliação do Impacto da Proteção de Dados (DPIA). Isso vale também para empresas que acreditam utilizar apenas dados não pessoais ou anônimos. Para uma avaliação mais completa recomenda-se inserir nessa parte do projeto uma modelagem das ameaças à segurança e a privacidade e, se necessário, uma consulta das partes interessadas. Todas essas questões devem ser observadas e mantidas por todo o tempo de uso da IA no projeto.

3. Avalie os riscos à privacidade de IA: ao mesmo tempo que fizer uso da PIA ou DPIA, ou em seguida, é importante avaliar os riscos à privacidade de IA. É o momento de assegurar que o projeto está contemplando as principais normas, práticas e principalmente os códigos de conduta que tornam operantes os requisitos. Isto vale tanto ao desenvolvedor quanto ao cliente que está solicitando um projeto de IA na sua instituição. Para clientes é muito importante solicitar do prestador desse serviço a documentação de suporte da PIA ou DPIA. Já existem países em que a legislação exige essas avaliações e no Brasil estamos caminhando para a regulação do uso destes dados.

4. Realize análise independente do seu sistema de IA: uma empresa Externa validará se o trabalho de criação e implementação do projeto foram baseados com toda a segurança e protocolos vigentes para IA. É extremamente recomendado aos desenvolvedores de sistema de IA para que seus clientes estejam assegurados junto aos órgãos reguladores e às boas práticas existentes.

5. Respeite os direitos e as escolhas por meio de explicabilidade e transparência em relação a inputs e outputs de dados: é necessário que as empresas que usam IA em projetos de tomadas de decisões estejam aptas a responder quais são os moldes que guiam a inteligência nessa prática. A explicação deve trazer clareza quanto aos métodos usados para que a IA tenha feito uma decisão, recomendação ou previsão. Uma boa forma de fazer isso é por meio de fluxos de trabalho que documentem, identifiquem e expliquem as maneiras que os dados foram utilizados com relação ao usuário final e as possibilidades de contestação dessa decisão.

“Quando as empresas permanecem atualizadas sobre as práticas de segurança na adoção da IA para a privacidade e antecipam-se aos possíveis riscos conseguem aproveitar melhor o potencial da tecnologia e ao mesmo tempo protegem a privacidade dos usuários”, diz Ricardo Santana, Sócio-líder de Data & Analytics da KPMG no Brasil.

O conteúdo está disponível na íntegra no link: Privacy in the new world of AI - KPMG Global

Share This Post

Post Comment