A aprovação de uma patente da Meta para um sistema de inteligência artificial capaz de simular interações humanas a partir do histórico digital de usuários traz novos contornos para um debate que já impacta decisões reais de produto: até onde empresas devem ir no uso de dados para criar experiências automatizadas. O tema ganha escala em um cenário em que 72% das empresas já utilizam IA em ao menos uma função de negócio, segundo a McKinsey & Company.
Renato Asse, fundador da Comunidade Sem Codar, maior escola de No Code e Inteligência Artificial da América Latina, traz uma análise acerca do assunto. Embora a big tech tenha afirmado que não pretende implementar a tecnologia, a concessão da patente evidencia um avanço técnico que pressiona empresas a revisarem práticas de desenvolvimento, especialmente no uso de dados sensíveis e na criação de sistemas capazes de simular comportamento humano.
A discussão se intensifica à medida que o mercado cresce em ritmo acelerado. Projeções da Bloomberg Intelligence indicam que a IA generativa pode movimentar mais de US$ 1,3 trilhão até 2032. No Brasil, onde mais de 150 milhões de pessoas utilizam redes sociais, de acordo com a DataReportal, o volume de dados disponíveis amplia tanto o potencial de inovação quanto os riscos associados ao uso dessas informações.
Para Asse, o caso expõe um ponto de inflexão no mercado. Segundo ele, a discussão não deve se limitar à tecnologia em si, mas à forma como ela é aplicada. “A capacidade de replicar interações humanas em escala já é uma realidade técnica. O desafio agora é definir limites claros. Nem tudo que pode ser construído deve ser levado adiante sem critérios”, afirma.
O especialista destaca que a possibilidade de simular a identidade de usuários, inclusive após períodos de inatividade ou morte, levanta questões críticas sobre consentimento, privacidade e direitos sobre dados digitais. “Estamos falando de identidade digital. Isso exige autorização explícita, regras claras de uso e, principalmente, transparência com o usuário sobre como essas interações são geradas”, explica.
A baixa confiança da população no uso da tecnologia reforça a necessidade de atenção. Relatório da KPMG aponta que apenas 27% das pessoas confiam que empresas utilizam inteligência artificial de forma responsável, o que coloca governança e ética no centro das estratégias de produto.
No Brasil, o tema também avança no campo regulatório. O PL 2338/2023, em discussão no Congresso, propõe diretrizes para o desenvolvimento e uso de IA, reforçando a necessidade de mecanismos de controle, auditoria e responsabilização.
Diante desse cenário, Asse defende que empresas, especialmente startups em fase de crescimento, adotem uma abordagem estruturada desde o início. Entre os pontos críticos estão a implementação de governança de dados, definição clara de consentimento, estabelecimento de limites técnicos e éticos no design dos sistemas e transparência sobre o funcionamento das soluções. “Empresas que ignoram esses fatores correm riscos que vão além da regulação. A confiança do usuário passa a ser um ativo central. Quem não tratar isso como prioridade pode comprometer não só o produto, mas a própria marca”, conclui.
Imagem: divulgação.