Como as empresas devem pensar na compensação aos usuários pelo uso de dados privados?

Como as empresas devem pensar na compensação aos usuários pelo uso de dados privados?

Professor da Duke Fuqua Business School projetou um mecanismo de aquisição de dados que maximiza a utilidade das plataformas, ao mesmo tempo em que compensa os usuários preocupados com a privacidade

O aumento da inteligência artificial com o desenvolvimento do aprendizado automatizado está intensificando a demanda por dados de usuários de aplicativos e dispositivos inteligentes, bem como empresas, consumidores e até pacientes.

“À medida que as tecnologias ávidas por dados se tornam vez mais eficientes, cresce a demanda por estratégias que incentivem o compartilhamento de informações sem perder de vista a proteção da privacidade dos usuários”, afirma Ali Makhdoumi, professor associado de ciências da decisão na Fuqua School of Business, escola de negócios da Duke University (EUA).

Em um novo artigo para o periódico Operations Research, escrito em parceria com Alireza Fallah, da Universidade da Califórnia, Azarakhsh Malekian, da Universidade de Toronto, e Asuman Ozdaglar, do Instituto de Tecnologia de Massachusetts, o professor argumenta que a solução pode estar em projetar um mecanismo que avalie a sensibilidade de cada usuário à privacidade, compensando-o pelos dados pessoais cedidos.

"Em muitas aplicações de aprendizado de máquina, tratamos os dados como informações compartilhadas", disse Makhdoumi. "No entanto, geralmente, os dados são fornecidos por indivíduos que têm suas próprias preocupações e ponderações pessoais quanto à privacidade. Então, a pergunta é: como devemos compensar esses usuários preocupados com a própria privacidade? Mas, antes de responder, precisamos entender como garantir essa mesma privacidade."

Em sua pesquisa, Makhdoumi e os coautores desenvolveram um novo sistema de aquisição de dados que considera a sensibilidade à privacidade dos usuários e atribui um valor a ela, determinando o mecanismo de incentivo ideal.

Ao estipular tanto um preço para a perda de privacidade dos usuários quanto a utilidade do serviço, o mecanismo fornece a maneira ideal para a coleta de dados, ao mesmo tempo em que compensa os usuários por compartilharem suas informações pessoais.

"Já existem empresas que pagam aos usuários por seus dados", disse ele.

Ruídos que impõe aleatoriedade aos dados coletados

Durante o trabalho, os pesquisadores utilizam o conceito da “privacidade diferencial”, uma abordagem amplamente adotada na indústria de tecnologia.

Essa perspectiva envolve adicionar certos “ruídos” aos dados, de forma que, a partir da implementação de um determinado nível de randomização, as informações se tornarão menos reveladoras sobre a pessoa que as está compartilhando, explicou.

Como exemplo hipotético, o professor mencionou uma empresa qualquer que esteja consultando registros hospitalares para estipular a porcentagem de pessoas em determinado código postal que têm uma condição médica sensível.

"Digamos que o resultado demonstra que 20% das pessoas têm essa condição", disse Makhdoumi. "Para manter a privacidade, o hospital adiciona ruído à média real, de modo que a resposta à consulta apresente que a porcentagem de pessoas com essa condição gira em torno de algum número aleatório entre 10% e 30%."

Privacidade disponibilizada entre local e central

Ele também comentou que a privacidade, atualmente, é disponibilizada localmente ou de maneira centralizada.

No ambiente local, as informações são randomizadas diretamente no dispositivo do usuário, antes de serem compartilhados com a entidade que os processará. Um exemplo desse método pode ser observado nas configurações de privacidade da Apple, conforme destacado em campanha da empresa. "O que acontece no seu iPhone, fica no seu iPhone".

No sistema centralizado, os usuários compartilham os dados brutos com as empresas, que então adicionam ruído aos resultados.

O sistema local produz estatísticas menos precisas em análises de negócios ou de outros tipos, disse Makhdoumi, porque os dados são colocados em aleatoriedade antes de serem analisados.

"As informações são fornecidas pelas pessoas", disse ele. "Então a pergunta natural é: como devo compensá-las pelo uso de dados e pela perda de privacidade?"

As pessoas têm diferentes níveis de preocupação com a privacidade digital e valorizam de diferentes perspectivas a utilidade que obtêm do serviço que as plataformas oferecem.

Por exemplo, em um ambiente médico, os usuários podem decidir que os benefícios sociais da pesquisa científica justificam alguma perda de privacidade, explicou o professor.

Em diferentes ambientes, como redes sociais ou até mesmo em estudos governamentais, as pessoas podem ter diferentes preocupações intrínsecas com esse mesmo tema.

A pesquisa também mostra que é mais eficiente para as plataformas coletarem dados de forma centralizada, por proporcionar um cenário que garante resultados mais precisos para análises de negócios.

Lidando com Preocupações de Privacidade

"Tecnologias como IA e o aprendizado de máquina se inseriram na sociedade antes que legisladores e o público pudessem pensar sobre como essas ferramentas lidam com informações privadas," disse Makhdoumi.

À medida que as plataformas aprendem detalhes sobre preferências e características dos usuários, há o risco de que estes dados sejam utilizados para possibilitar a discriminação de preços e outras manipulações que são úteis a elas, mas prejudiciais aos usuários, explicou ele.

"Por exemplo, se descobrirem a situação financeira das pessoas, podem, inicialmente, oferecer empréstimos com juros baixos e depois aumentá-los com o tempo", destacou.

O professor comentou ainda que estudos empíricos indicaram que algumas empresas conseguem prever quando os consumidores estão mais vulneráveis e, nesse momento, direcionam produtos específicos a eles, justamente na ocasião em podem se sentir mais atraídos.

"Dependendo do seu status, elas (as empresas) podem lhe oferecer algo que pareça atraente, mas que, a longo prazo, pode prejudicá-lo," alertou.

Makhdoumi afirmou que esta pesquisa é um primeiro passo para lidar com a questão do mercado de informações e privacidade, trazendo a possibilidade de compreensão sobre quais são os benefícios e os prejuízos de diferentes arquiteturas de dados para plataformas, usuários e a sociedade como um todo.

"Ainda temos um longo caminho a percorrer para entender os prejuízos sociais da coleta virtual de informações”, concluiu ele.

Share This Post

Post Comment