Nesta semana tivemos oportunidade de discorrer sobre o perfil e os requisitos de formação do cientista de dados , no painel sobre a formação de talentos coordenado pela Rede de Ciência de Dados & Inteligência Artificial do Rio de Janeiro, no contexto do RioInfo 2018.

Na ocasião, em complementação às discussões a respeito da ciência de dados centrada no negócio e dos requisitos de formação do cientista de dados para desempenhar o seu papel, tratamos das questões de ética e responsabilidade social que devem ser considerados no âmbito da sua atuação (e dos demais profissionais ligados ao desenvolvimento das aplicações de big data e dainteligência artificial) :

1. qual deve ser o limite quanto à coleta e utilização dos dados do cidadão?

2. como chegar a um design das soluções voltadas ao uso de dados e à construção de sistemas inteligentes e autônomos eticamente alinhados com a preservação do sigilo e do direito à privacidade das pessoas?

3. como minimizar os efeitos para a sociedade do jobless growth, o desemprego estrutural que oferece amplas oportunidades para alguns em detrimento de uma imensa maioria de pessoas que não tem possibilidade de se reciclar e de migrar para empregos alternativos?

4. como dar transparência aos algoritmos inteligentes que têm influência na nossa vida e nos destinos da sociedade?

5. como contribuir para os ajustes éticos que se fazem necessários para prevenir o desenvolvimento de aplicações que violam princípios internacionais de direitos humanos?

Photo: John Kobal Foundation / Getty Images

A este respeito cabe ressaltar matéria recém publicada no jornal inglês The Guardian sobre questões éticas ligadas a aplicações de inteligência artificial envolvendo o Google.

A empresa foi subcontratada pelo Pentágono para desenvolver aplicativos de inteligência artificial de apoio aos combates de guerra.

O fato foi descoberto pela mídia e mais de 3.000 funcionários da empresa se manifestaram contra o projeto, o que a levou a anunciar sete princípios éticosrelacionados ao desenvolvimento da inteligência artificial pela empresa:

1. trazer benefícios para a sociedade;

2. evitar a criação e a afirmação de ideias e comportamentos injustos e tendenciosos;

3. ser criada e testada para garantir segurança;

4. ser responsável com os usuários;

5. ser projetadas de acordo com princípios de privacidade;

6. observar padrões elevados de excelência científica;

7. estar disponível para outras pessoas, para utilizações que respeitem os princípios acima.

Ainda segundo o The Guardian, "os princípios éticos do Google para o uso da inteligência artificial são pouco mais que uma cortina de fumaça, mas mostram que muitos engenheiros estão preocupados com os possíveis usos da tecnologia que estão desenvolvendo."

Concluindo, o artigo postula que obviamente não se pode esperar que todas as empresas, e ainda menos todos os profissionais envolvidos com a tecnologia da informação, mostrem este tipo de preocupação com ajustes éticos.

Casos emblemáticos como o do Google, dados o porte e a relevância da empresa, abrem oportunidades para pressões éticas consistentes e para a atribuição de responsabilidade aos seres humanos sobre os efeitos do que desenvolvem, e não a objetos inanimados como os algoritmos.

Entendemos então que, ao falar sobre ciência de dados e inteligência artificial, cabe discutir estes temas com uma visão ampliada, contemplando não somente os aspectos de qualificação técnica e de métodos para aplicação das tecnologias, mas também as questões relacionadas a ética e responsabilidade social das empresas e dos profissionais envolvidos.

 

Newton Fleury

Autor, consultor e professor com foco em inovação e estratégia, processos de negócio, gestão da informação e do conhecimento e tecnologias de apoio à gestão.