O uso ético da Inteligência Artificial por empresas que produzem tecnologias

O uso ético da Inteligência Artificial por empresas que produzem tecnologias

Ainda não existem legislações sobre o uso da inteligência artificial, mas há esforços para definir um estatuto ético do uso da tecnologia - inclusive no Brasil

A inteligência artificial (IA) já está presente em tudo. Diversos setores recorrem aos algoritmos para realizar ações antes executadas por seres humanos e até as indicações que encontramos no perfil da Netflix são baseadas nessa tecnologia. Ela aprende com a gente, inclusive nossos gostos e escolhas. É o que chamamos de Machine Learning. Como qualquer ferramenta criada e alimentada pelo humano, a IA não é imune aos erros e com a disseminação vieram questionamentos sobre seu uso ético.

Toda tecnologia pode ser utilizada para o bem ou para o mal. A missão da sociedade em geral, e do setor de contact center, para garantir o bom uso da IA, é criar e respeitar mecanismos de controle que impeçam os robôs e algoritmos de carregar preconceitos ou agir de maneira antiética. Além disso, garantir a transparência da base de dados que alimenta esses sistemas automatizados e dos critérios que a IA utiliza sobre eles para tomar decisões também faz parte da missão.

Não vai haver mais relação consumidor-empresa sem intermediação da IA, mas é importante destacar que a automação do atendimento ao consumidor não vem para acabar com o atendimento humano. Será substituído tudo aquilo que é trivial e mecânico, mas a compreensão, criatividade e o bom relacionamento são fatores humanos que não podem ser copiados pelos robôs.

Legislações
Ainda não existem regras ou legislações específicas sobre o assunto, mas alguns esforços estão sendo feitos para incentivar e definir um estatuto ético do uso de IA por empresas que produzem as tecnologias.

A União Europeia (UE) deu o primeiro passo ao lançar, em 2019, um documento de "Orientações Éticas para uma IA de confiança". Como ponto de partida para uma série de ações, a entidade estipulou sete diretrizes para que uma IA seja confiável. Destaco três delas como principais e onde os esforços do setor estão mais concentrados: agência e supervisão humana; privacidade e governança de dados; e diversidade e não discriminação. O intuito da UE é transformar essa abordagem no início de uma discussão global, não restrita apenas aos países membros do bloco.

A discussão ética sobre o uso de inteligência artificial no Brasil ainda está bastante embrionária, mas já temos um projeto de lei (21/2020, do deputado Eduardo Bismarck) em discussão no congresso e as empresas se adaptam ao cenário.

Autonomia
A AI deve promover sociedades mais igualitárias, garantindo direitos fundamentais em vez de reduzir a autonomia humana. Para atingir esse objetivo, essas plataformas devem permitir que pessoas possam intervir em seu funcionamento, respeitando a agência e supervisão humana.

A tecnologia deve garantir ainda que os cidadãos tenham pleno acesso a seus dados pessoais, ainda mais em situações em que essas informações possam ser usadas para prejudicá-los ou gerar decisões discriminatórias contra eles. Um sistema inteligente deve ser construído ainda considerando que as pessoas têm níveis diferentes de habilidades e necessidade, garantindo que seu uso seja acessível para todos.

 

[author] [author_image timthumb='on']https://docmanagement.com.br/wp-content/uploads/2020/05/Resende-1-scaled.jpg[/author_image] [author_info]Alexandre Resende

Diretor de tecnologia da informação da Sercom[/author_info] [/author]

Share This Post

Post Comment