Por Eduardo Leite, Diretor de Produtos da Person no Brasil
Esse pode ser seu trigésimo artigo sobre Inteligência Artificial apenas neste ano. Ou dependendo do nível de fascínio – ou preocupação – já tenha superado três dígitos na quantidade de conteúdo lido e assimilado sobre o tema. Fato é que depois do frisson que começou pelos impressionantes números de usuários do ChatGPT, seguido por eventos como CES e SXSW, não falamos de outra coisa. E talvez tenhamos chegado a um novo estágio desse debate, agora com ânimos menos exaltados e mais “pé no chão”.
Quem não esteve acompanhando e aplicando de perto os recursos da IA em empresas com base tecnológica certamente se desconectou desse mundo, hoje considerado irreversível. Atuando na maior empresa de aprendizagem do mundo, comigo não foi diferente. Já não imaginamos qualquer solução sem a AI. Ela é capaz de engajar e customizar uma jornada de aprendizado de forma sem precedentes na nossa história. É uma aliada do professor, ajuda-o a entender a diversidade de seus alunos e a agir ao menor sinal de desengajamento.
Porém, desde o princípio, entendemos que se render ao potencial da tecnologia sem uma análise crítica e ética, a oportunidade se torna risco tão potencial quanto seus efeitos positivos. E apenas aplicar diretrizes de compliance não é suficiente. Esperar por regras de algo ainda desconhecido, muito menos regulado por governos e mecanismos supranacionais – que não são suficientemente velozes para acompanhar as mudanças – é operar no escuro.
Uma grande preocupação na seara da educação é o aumento da desigualdade social e questões de equidade e inclusão. Precisamos partir da premissa de que a tecnologia presente nos produtos e ferramentas à disposição de professores e alunos precisa funcionar em diferentes modelos de aparelhos eletrônicos. Não podemos operar apenas para uma bolha quando se trata de educação. É fundamental ampliar a acessibilidade da tecnologia para o maior número de pessoas.
Introduzir idiomas nativos na aprendizagem de línguas, para facilitar o processo, também é uma preocupação, além do cuidado em incluir pessoas com deficiências no aprendizado sob o auxílio da IA. Redução do tempo de fala, narrar o ocorrido, seleção de cores, são algumas das medidas que estão sendo estudadas para mitigar problemas de acesso e inclusão.
Mas antes de tudo isso, é preciso dar um passo atrás e definir quais serão os valores que acompanharão cada empresa em sua jornada com a IA. É uma espécie de marco regulatório para que nós, profissionais envolvidos diretamente com essa transformação e decisores de negócio, entendamos nossos limites e desafios. Não poderemos esperar de agentes externos, é preciso se autoregular. Incluo aqui, no caso de uma edu tech e media tech, questões sobre segurança da informação; cuidados com relação a ameaças ao usuário, especialmente infantil, e protocolos de ação em caso de emergências e questões de saúde mental.
Vamos a um exemplo concreto. No caso do aplicativo de aprendizagem de idiomas Mondly, uma marca Pearson, os códigos-fonte e prompts da tecnologia de IA em desenvolvimento são programadas para evitar assuntos polêmicos e de risco. Eles também são à prova de invasões – ou seja – não é possível que usuários externos invadam os códigos da ferramenta e tomem o controle.
Essa governança da AI nas empresas pode ter diferentes estruturas e metodologias. Seja qual foi o caminho, ela será essencial para a companhia que reconhece o poder de transformação da tecnologia, mas se compromete a aplicá-la de forma responsável e alinhada aos valores do negócio. Para tanto, é preciso se pautar por regras internas que vão gerar comandos técnicos na prática.
Concluo esse enésimo artigo sobre IA exaltando – assim como outros colegas que já discorreram sobre o tema – o humano por trás das tecnologias. Ele é primordial para que tudo o que temos exaltado funcione de maneira benéfica e sustentável. Desde que, claro, seja um cidadão, uma empresa, um governo ou uma instituição consciente e crítica sobre o que ainda não está bem resolvido na sociedade.