Grok: IA de Elon Musk está bloqueada em 29% das empresas

Grok: IA de Elon Musk está bloqueada em 29% das empresas

Enquanto a IA de Musk enfrenta barreiras e declínio no uso corporativo, o ChatGPT domina 82% das empresas

Nos últimos meses, a inteligência artificial generativa Grok, desenvolvida pela xAI de Elon Musk, experimentou um crescimento significativo dentro das empresas. No entanto, também encontrou uma barreira: 29% das organizações estabeleceram políticas para bloquear o uso do chatbot, segundo pesquisa do Netskope Threat Labs. 

O lançamento do Grok-3 em fevereiro de 2025 gerou grande expectativa e impulsionou sua popularidade, com adoção em 23% das empresas. Apesar desse avanço inicial, a plataforma não conseguiu manter o ritmo de crescimento no ambiente corporativo, caindo para o uso por menos de 4 em cada 1.000 (0,4%) usuários ao final de maio. Comparado ao líder do setor, ChatGPT, que está presente em 82% das empresas, Grok ainda enfrenta desafios de aceitação. 

"As organizações costumam adotar uma postura cautelosa em relação a novas aplicações de IA, restringindo seu uso até que as equipes de governança e segurança de IA concluam as análises e possam recomendar controles mais detalhados", explica Ray Canzanese, diretor do Netskope Threat Labs, que completa. "Bloquear novas aplicações é uma estratégia comum, e estamos vendo isso acontecer com o Grok, o chatbot de IA de Elon Musk. O número de organizações que bloqueiam aplicações continua a aumentar (29%), enquanto o número de organizações que o utilizam (24%) se estabilizou e o número de usuários está diminuindo". 

Esse tipo de abordagem "bloquear primeiro, perguntar depois" levou ao declínio de outras soluções, como o chinês DeepSeek, por exemplo. Contudo, medidas alternativas de controle para uso do Grok têm ganhado espaço. Pelo menos 61% das empresas optam por políticas menos rígidas para aplicações de GenAI, como restrição de uso para determinados grupos de usuários ou sistemas de orientação em tempo real que direcionam profissionais para ferramentas aprovadas. 

"A adoção empresarial de aplicações de IA generativa depende de diversos fatores, incluindo integração com soluções de grandes fornecedores, pioneirismo no setor e resolução de desafios específicos do ambiente corporativo. O sucesso do Grok poderá depender diretamente do impacto do X (antigo Twitter) no mercado corporativo nos próximos meses", acrescenta Canzanese. 

Recomendações

O Netskope Threat Labs recomenda que você tenha uma política para bloquear novas aplicações genAI quando forem lançados, a fim de ganhar tempo suficiente para revisões de segurança e governança de IA. Após a revisão, as empresas devem implementar políticas para restringir cada aplicação aos seus casos de uso aprovados. Três padrões comuns são:

  • Use o treinamento de usuários em tempo real da Netskope para lembrar os usuários da política da empresa sempre que interagirem com uma aplicação não aprovado ou com uma aplicação com um caso de uso específico;
  • Restrinja o uso de uma aplicação apenas aos grupos de usuários que tenham um caso de uso comercial válido;
  • Use as políticas de Data Loss Prevention (DLP) da Netskope para garantir que nenhuma informação sensível (como dados regulamentados, propriedade intelectual, código-fonte ou segredos) seja enviada a aplicações não aprovadas.

Atualmente, o Netskope Threat Labs rastreia 564 aplicações de IA generativa, permitindo uma visão detalhada sobre tendências, riscos e padrões de uso no ambiente corporativo. Seu último relatório sobre IA Generativa, publicado em abril de 2025, oferece insights valiosos sobre a adoção e utilização de aplicações em nuvem e IA entre milhares de empresas e milhões de usuários globalmente por meio da excepcional visibilidade no tráfego de nuvem e IA via Netskope One Plataform, a maior nuvem privada do mundo.  

Imagem: https://br.freepik.com/vetores-gratis/fundo-gradiente-do-cerebro_45184678.htm#fromView=search&page=2&position=1&uuid=96722963-7d90-4979-b1a9-c7d9998c751e&query=IA+GEN

Share This Post

Post Comment