Helena* conta que às vezes gasta uma hora ou mais por dia para modificar ou refazer completamente um texto simples. "Travessão é proibidaço. Gerúndio, figuras de linguagem também, mas às vezes o problema é uma vírgula ou uma palavra que eu tenho que trocar", afirma.
Há mais de seis meses ela trabalha em uma empresa de marketing de conteúdo que submete os materiais produzidos pelos redatores ao ZeroGPT, um detector de inteligência artificial. Ela aponta que, mesmo quando o texto é totalmente autoral, o detector indica que seu trabalho tinha alguma porcentagem de IA.
No primeiro mês na empresa, disse que ficou constrangida quando os superiores enviaram um relatório sobre seu desempenho apontando que os textos estavam indicando presença acima de 20% de IA, que é o teto considerado aceitável pela empresa. "Eu pensava que, se meus textos não começassem a dar 0% no ZeroGPT, eles iam me substituir. Foi a partir daí que eu passei a empobrecer meu texto", diz.
É ✷ importante ✷ porque...
- Ferramentas de detecção de IA não são confiáveis;
- Falta de regulamentação gera lacunas sobre implicações legais e possíveis abusos;
- PL 2338/2023, que trata do fomento e uso ético e responsável da IA, está em discussão na Câmara dos Deputados após aprovação do Senado
A redatora compartilhou com o Núcleo uma cartilha que recebeu assim que foi contratada e nela havia a indicação expressa de submissão ao detector.
Ao contrário de Helena, que sabia desde a contratação, Mirela* só descobriu que seu texto passou por um detector de IA ao ser confrontada pelo seu supervisor direto no site esportivo que trabalhou por cerca de dois anos. O episódio ocorreu quase um ano após o boom do ChatGPT.
"Eu tive que me virar para reescrever tudo", lembra. "Tive que dobrar meu tempo de produção para um texto simples. Quando o choque passou, eu fiquei extremamente ofendida de ter sido acusada de usar IA".
Segundo ela, os supervisores não informavam qual seria o detector utilizado, mas a porcentagem permitida estaria em torno de 2,5% de presença de IA. "Os textos que a gente fazia eram muito padronizados, com muitas estatísticas e não tinha espaço para ser mais criativo ou escrever de formas diferentes", diz.
Depois dessa chamada de atenção, Mirela relata que teve de refazer notas para o site várias vezes com receio de demissão, já que era contratada como Pessoa Jurídica (PJ) e não teria os mesmos direitos de uma pessoa com vínculo CLT.
Hoje, ela ocupa outro cargo em uma empresa diferente. Helena continua trabalhando no mesmo local e ambas entrevistadas decidiram não contestar a identificação de IA, mesmo se sentindo injustiçadas.
Desabafos sobre o impacto de detectores de IA, como os de Helena e Mirela, não são difíceis de achar em redes sociais. Submeter ao detector algum texto do chefe ou de professor, no caso de universitários, ou alguma produção publicada muito antes do surgimento do ChatGPT que indicava, equivocadamente, percentual de IA foram algumas formas descritas de contestar a eficácia da ferramenta.
Gosta de entender melhor a tecnologia?
Ajude o Núcleo a continuar publicando análises críticas, assine por R$10 e receba vantagens exclusivas.
A angústia surge em meio ao uso desenfreado de chatbots que prometem até 98% de precisão, como o ZeroGPT, na suposta identificação de inteligência artificial em textos.
"Cria-se um cenário de crise de confiança", afirma André Fernandes, diretor-executivo do Instituto de Pesquisa em Direito e Tecnologia do Recife (IP.rec). "Isso é provocado, por um lado, pelo lançamento de uma tecnologia na forma de um produto, que é o ChatGPT, sem a devida reflexão ética e sem os devidos parâmetros regulatórios, e de outro lado de uma perspectiva de 'vamos reagir com terrorismo e punição'".
Pesquisa do Comitê Gestor da Internet no Brasil (CGI.br) e do Centro Regional de Estudos para o Desenvolvimento da Sociedade da Informação (Cetic.br) estima que 22% de um total de mais de 65 mil empresas brasileiras utilizaram algum tipo de tecnologia de IA para mineração de texto e análise da linguagem escrita em 2024.

Em geral, as Big Techs treinam seus modelos em inglês, os quais são incorporados para outros bancos de dados de determinadas línguas. Esses bancos, por sua vez, são limitados e não abarcam toda a diversidade linguística presente em determinado país, por exemplo.
"Esses modelos tendem, a partir do treinamento, a ser muito rigorosos com a sintática [o papel de cada palavra na construção da frase], o que torna o texto dos detectores e dos chatbots mais encaixotados. É uma questão estatística", explica Fernandes.
Coordenador do Programa de Pós-Graduação em Linguística da Universidade Federal de Juiz de Fora (UFJF), Tiago Torrent também aponta que "preconceitos que são comuns numa determinada língua, numa determinada cultura, acabam sendo transpostos para outra língua, para outra cultura, em que eles não estavam presentes".
A pesquisa não abordou uso de detectores de inteligência artificial, mas identificou que os docentes gastavam muito mais tempo para revisar, corrigir e até reformular completamente os resultados gerados por chatbots, ou seja, tiveram retrabalho. As queixas iam desde a falta de diversidade de repertório da IA, por conta das referências preponderantemente estadunidenses, a vieses e limitações dos recursos tecnológicos. Por outro lado, a desconfiança fez com que os professores ficassem mais criteriosos com o uso das informações.
Torrent aponta que a IA está mudando a maneira de escrever e o uso não deveria ser "demonizado", pois as ferramentas podem auxiliar a edição, a revisão e a reformulação de um texto.
"O jornalista chega com o texto, apresenta para o editor dele. O editor diz 'vou passar um detector de IA'. E aí ele acha que aquilo foi produzido por IA em algum nível e diz para refazer. Bom, mas isso não deveria ser uma forma de avaliação, porque a primeira avaliação é ler o texto. O texto está bom? Existe uma checagem de fato? Ele foi checado? Ele está correto? Honestamente, a questão deveria ser que o jornalista pode ter feito uso de um assistente de IA para poder melhorar o texto?", questiona.
Por outro lado, ele destaca que a IA não tem responsabilidade autoral, há debate sobre como as empresas usam produções existentes para treiná-la, mas a verificação das informações e do conteúdo produzido é humana e esse trabalho não pode ser terceirizado para uma ferramenta.
Por isso, ele defende que, além da regulamentação sobre o uso das ferramentas, haja um acompanhamento e orientação sobre os riscos, limitações e benefícios. "As pessoas não estão totalmente informadas a respeito", alerta.
André Fernandes, do IP.rec, também destaca que essas ferramentas acabam criando "sub-mercados", tanto das próprias plataformas que disponibilizam os detectores quanto outros serviços a fim de burlar a identificação de IA.
"Essas ferramentas seguem a mesma lógica de plataformas em geral, de produtos da economia da informação. Elas são lançadas gratuitas e depois se transformam no que a gente chama de freemium, ou seja, tem um pedaço gratuito, mas para fazer análises mais profundas você precisa pagar. Essa ferramenta se converte naturalmente em um produto, de modo que os melhores efeitos e as melhores técnicas só são aplicadas para aquelas pessoas que pagam", explica.
Um dos lançamentos recentes foi a versão paga da Grammarly, que disponibilizou nove agentes de IA como assistentes de escrita para estudantes, sendo um deles o detector de inteligência artificial.
Posso ser obrigada(o) a usar detector de IA no trabalho?
O país ainda não dispõe de uma regulamentação sobre o uso de ferramentas de inteligência artificial generativa. Está em fase de audiências na Câmara dos Deputados o PL 2338/2023, que foi aprovado pelo Senado em dez.2024 e trata do fomento e uso ético e responsável de IA. A casa criou uma comissão especial para discutir o assunto.
O Núcleo questionou o Ministério do Trabalho e Emprego (MTE) se no Plano Brasileiro de Inteligência Artificial (PBIA) haveria previsões relacionadas ao campo trabalhista para além da geração de empregos, mas a pasta não retornou.
Por conta dessa lacuna, a advogada empresarial Stephanie Christine de Almeida explica que as empresas podem adotar esses instrumentos de detecção de IA se quiserem.
Porém, ela ressalta a necessidade de transparência. "A empresa tem que ter uma política interna relacionada à IA, assinada por todos os colaboradores, para que eles tenham ciência disso e do que acontece quando, por exemplo, um texto indica detecção de IA, apesar de essas ferramentas indicarem nos termos de uso que não são totalmente confiáveis", afirma.
Por outro lado, há previsões em lei que não dependem da IA para ter implicações trabalhistas. "O chefe pode pedir para o trabalhador refazer o texto, porém, tudo depende da forma que vai pedir para refazer", alerta. "Ele não pode ser grosso, tratar mal, humilhar a pessoa, gerar um constrangimento, seja individual ou na frente de outros colaboradores, porque pode configurar um assédio moral".
Almeida também indica que é possível fazer uma denúncia ao Ministério Público do Trabalho para apurar se o ambiente de trabalho está sendo tóxico, gerando pressão psicológica ou adoecendo os trabalhadores.
Em caso de a pessoa ser punida de alguma maneira ou demitida por conta do uso de detector de IA, os entrevistados recomendam acionar a Justiça.
"Se a gente seguir na lógica de 'vai usando [a IA] primeiro e depois a gente vai resolvendo', a tendência é gerar uma série de danos, é gerar processos judiciais, é gerar injustiças como possível demissão e cerceamento do trabalho", aponta André Fernandes, do IP.rec.
Reportagem Jeniffer Mendonça
Arte Aleksandra Ramos
Edição Alexandre Orrico
*Os nomes das entrevistadas e das empresas foram omitidos a pedido por receio de represálias.