A OpenAI anunciou nesta terça-feira o bloqueio de diversas contas do ChatGPT suspeitas de ter ligação com agentes do governo chinês que buscavam auxílio no desenvolvimento de ferramentas de vigilância em massa. Segundo o relatório de inteligência de ameaças da empresa sediada em San Francisco, esses usuários pediram instruções para criar sistemas capazes de rastrear populações minoritárias e monitorar atividades em plataformas sociais, marcando uma escalada na disputa global por domínio em inteligência artificial.
De acordo com Ben Nimmo, investigador principal da equipe de segurança da OpenAI, as contas banidas apresentavam solicitações de alto risco, incluindo a elaboração de um “Modelo de Alerta de Entrada Relacionada a Uigures de Alto Risco”, projetado para analisar reservas de transporte, registros de bancos de dados policiais e outras fontes de dados governamentais para identificar e rastrear indivíduos classificados como “relacionados a uigures e de alto risco”. A prática se insere em preocupações crescentes sobre o uso de IA generativa para fins autoritários e violações de direitos humanos.
Ferramentas de Vigilância Governamental Miram as Redes Sociais

O relatório também aponta que outros usuários buscavam ajuda para construir uma ferramenta de monitoramento de mídias sociais capaz de varrer plataformas como X, Facebook, Instagram, Reddit, TikTok e YouTube em busca de “discurso extremista” ou conteúdo político, étnico ou religioso. O material de apoio incluía roteiros para automação de coleta de dados, categorização de perfis e geração de relatórios, com o suposto objetivo de orientar a ação de um cliente governamental.
Embora a OpenAI não tenha confirmado de forma independente se as entidades chinesas já implantaram tais sistemas, a empresa reiterou que “essas contas pareciam operadas por operadores individuais, e não por grandes organizações institucionais”. Nimmo observou que “é raro ter um retrato tão claro de como atores autoritários começam a integrar IA generativa em operações de vigilância em massa”.
Padrão Mais Amplo de Uso Indevido de IA
Além dos casos relacionados à China, a OpenAI revelou ter banido contas vinculadas a grupos criminosos de língua russa que utilizaram o ChatGPT para desenvolver malwares, como trojans de acesso remoto e ladrões de credenciais. Desde o início dos relatórios públicos de ameaças em fevereiro de 2024, mais de 40 redes criminosas foram interrompidas pela empresa. Apesar disso, a OpenAI afirmou que “não há evidências de que nossos modelos tenham fornecido capacidades ofensivas inéditas a esses agentes”.
Esses bloqueios fazem parte de um esforço contínuo da OpenAI para monitorar abusos e ajustar políticas de uso. A companhia mantém uma equipe dedicada de inteligência de ameaças que analisa logs de conversação e sinais de uso malicioso, acionando medidas de mitigação, como o banimento de contas e a atualização de filtros de segurança.
Reação e Contexto Geopolítico
A Embaixada da China em Washington repudiou as alegações, classificando-as como “infundadas” e afirmando que Pequim desenvolve um sistema de governança de IA que “equilibra inovação e segurança” com regras rígidas de proteção de dados. Analistas, porém, destacam que o uso de IA para vigilância e controle de minorias já era documentado em relatórios de direitos humanos antes das iniciativas de OpenAI, mas a escalada no uso de modelos de linguagem marca nova fase de sofisticação.
A divulgação dos bloqueios ocorre após a OpenAI atingir avaliação de US$ 500 bilhões em rodada de investimento secundário, consolidando-se como a startup mais valiosa do mundo. Com mais de 800 milhões de usuários semanais no ChatGPT, a empresa enfrenta pressão para garantir que seu produto não seja usado para violar liberdades civis.

