Relatório da Microsoft fornece ainda mais transparência sobre esforços em inteligência artificial responsável

Relatório da Microsoft fornece ainda mais transparência sobre esforços em inteligência artificial responsável

Acreditamos que temos a obrigação de compartilhar nossas práticas responsáveis de IA com o público. Este relatório nos permite registrar e publicar nossas práticas de amadurecimento, refletir sobre o que aprendemos, traçar nossas metas, assumir responsabilidades e ganhar a confiança do público.

Por Brad Smith, Vice Chair & President; Natasha Crampton, Chief Responsible AI Officer

Em 2016, nosso presidente e CEO, Satya Nadella, nos colocou em um caminho bem definido de adotar uma abordagem baseada em princípios e centrada no ser humano para nossos investimentos em inteligência artificial (IA). Desde então, temos trabalhado arduamente na construção de produtos que se alinham com nossos valores. À medida que projetamos, construímos e lançamos produtos de IA, seis valores – transparência, responsabilidade, justiça, inclusão, confiabilidade, segurança e privacidade – continuam sendo nossa base e atuam como guias do nosso trabalho diário.

Para avançar em nossas práticas de transparência, em julho de 2023, nos comprometemos a publicar um relatório anual sobre nosso programa de “IA Responsável”, dando um passo além dos Compromissos Voluntários da Casa Branca com os quais nós e outras empresas líderes de IA estamos de acordo. Este é o nosso relatório inaugural para cumprir esse compromisso. Temos o prazer de publicá-lo no nosso primeiro ano trazendo produtos e experiências de IA generativa para criadores, organizações sem fins lucrativos, governos e empresas em todo o mundo.

Como uma companhia na vanguarda da pesquisa e tecnologia de IA, estamos comprometidos em compartilhar nossos aprendizados com o público à medida em que elas evoluem. Este relatório nos permite dividir nossas práticas de amadurecimento, refletir sobre o que aprendemos, traçar nossas metas, responsabilizar-nos e ganhar a confiança do público. Estamos inovando em IA Responsável há oito anos e, à medida que evoluímos nosso programa, aprendemos com nosso passado para melhorar continuamente. Levamos muito a sério nossa responsabilidade de ir além de proteger nossa própria expertise, mas também de contribuir para o crescente corpus de conhecimento público, expandir o acesso a recursos e promover a transparência em IA nos setores público, privado e sem fins lucrativos.

Neste relatório anual inaugural, fornecemos informações sobre como construímos aplicativos que usam IA generativa; tomamos decisões e supervisionamos a implantação desses aplicativos. Como apoiamos nossos clientes à medida que eles constroem seus próprios aplicativos generativos e, com isso, aprendemos, evoluímos e crescemos como uma comunidade de IA responsável. Primeiro, fornecemos insights sobre nosso processo de desenvolvimento, explorando como mapeamos, medimos e gerenciamos riscos de IA generativa. Em seguida, oferecemos estudos de caso para ilustrar como aplicamos nossas políticas e processos a distribuições de IA generativa. Também compartilhamos detalhes sobre como capacitamos nossos clientes conforme eles criam seus próprios aplicativos de IA de forma responsável. Por fim, destacamos como o crescimento de nossa comunidade de IA responsável, nossos esforços para democratizar os benefícios da IA e nosso trabalho para facilitar a pesquisa de IA beneficiam a sociedade em geral.

Não há linha de chegada para IA responsável. E embora este relatório não tenha todas as respostas, estamos comprometidos em compartilhar nossos aprendizados com antecedência e frequência, além de nos envolver em um diálogo robusto em torno de práticas responsáveis de IA. Convidamos as organizações públicas, privadas, sem fins lucrativos e órgãos governamentais a usar este primeiro relatório de transparência para acelerar o incrível momento em IA responsável que já estamos vendo em todo o mundo.

Clique aqui para ler o relatório completo.

Share This Post

Post Comment