Nesta semana tivemos oportunidade de discorrer sobre o perfil e os requisitos de formação do cientista de dados , no painel sobre a formação de talentos coordenado pela Rede de Ciência de Dados & Inteligência Artificial do Rio de Janeiro, no contexto do RioInfo 2018.
Na ocasião, em complementação às discussões a respeito da ciência de dados centrada no negócio e dos requisitos de formação do cientista de dados para desempenhar o seu papel, tratamos das questões de ética e responsabilidade social que devem ser considerados no âmbito da sua atuação (e dos demais profissionais ligados ao desenvolvimento das aplicações de big data e dainteligência artificial) :
1. qual deve ser o limite quanto à coleta e utilização dos dados do cidadão?
2. como chegar a um design das soluções voltadas ao uso de dados e à construção de sistemas inteligentes e autônomos eticamente alinhados com a preservação do sigilo e do direito à privacidade das pessoas?
3. como minimizar os efeitos para a sociedade do jobless growth, o desemprego estrutural que oferece amplas oportunidades para alguns em detrimento de uma imensa maioria de pessoas que não tem possibilidade de se reciclar e de migrar para empregos alternativos?
4. como dar transparência aos algoritmos inteligentes que têm influência na nossa vida e nos destinos da sociedade?
5. como contribuir para os ajustes éticos que se fazem necessários para prevenir o desenvolvimento de aplicações que violam princípios internacionais de direitos humanos?
A este respeito cabe ressaltar matéria recém publicada no jornal inglês The Guardian sobre questões éticas ligadas a aplicações de inteligência artificial envolvendo o Google.
A empresa foi subcontratada pelo Pentágono para desenvolver aplicativos de inteligência artificial de apoio aos combates de guerra.
O fato foi descoberto pela mídia e mais de 3.000 funcionários da empresa se manifestaram contra o projeto, o que a levou a anunciar sete princípios éticosrelacionados ao desenvolvimento da inteligência artificial pela empresa:
1. trazer benefícios para a sociedade;
2. evitar a criação e a afirmação de ideias e comportamentos injustos e tendenciosos;
3. ser criada e testada para garantir segurança;
4. ser responsável com os usuários;
5. ser projetadas de acordo com princípios de privacidade;
6. observar padrões elevados de excelência científica;
7. estar disponível para outras pessoas, para utilizações que respeitem os princípios acima.
Ainda segundo o The Guardian, "os princípios éticos do Google para o uso da inteligência artificial são pouco mais que uma cortina de fumaça, mas mostram que muitos engenheiros estão preocupados com os possíveis usos da tecnologia que estão desenvolvendo."
Concluindo, o artigo postula que obviamente não se pode esperar que todas as empresas, e ainda menos todos os profissionais envolvidos com a tecnologia da informação, mostrem este tipo de preocupação com ajustes éticos.
Casos emblemáticos como o do Google, dados o porte e a relevância da empresa, abrem oportunidades para pressões éticas consistentes e para a atribuição de responsabilidade aos seres humanos sobre os efeitos do que desenvolvem, e não a objetos inanimados como os algoritmos.
Entendemos então que, ao falar sobre ciência de dados e inteligência artificial, cabe discutir estes temas com uma visão ampliada, contemplando não somente os aspectos de qualificação técnica e de métodos para aplicação das tecnologias, mas também as questões relacionadas a ética e responsabilidade social das empresas e dos profissionais envolvidos.
[author] [author_image timthumb='on']https://docmanagement.com.br/wp-content/uploads/2017/02/newton-thumbnail.jpg[/author_image] [author_info]Newton Fleury
Autor, consultor e professor com foco em inovação e estratégia, processos de negócio, gestão da informação e do conhecimento e tecnologias de apoio à gestão.[/author_info] [/author]