Deixando de lado todo o hype e o alarmismo, é fácil ver um espaço para a inteligência artificial no jornalismo — o problema é que o que, quando e como ainda não foram completamente revelados.
Uma pesquisa recente com mais de 3.000 jornalistas de vários países mostrou que apenas cerca de 5%
estão usando ferramentas de IA generativa (Gemini, ChatGPT, Claude, LLaMa e outros) regularmente, enquanto 28%
as utilizam em alguma capacidade. Esse número é impressionantemente baixo, dado a escala do que essas ferramentas podem fazer para ajudar.
Isso nos diz que os jornalistas ainda não encontraram uma rotina diária para esse tipo de recurso, ou simplesmente não os acham úteis o suficiente no momento para seus próprios propósitos. Afinal, dá muito trabalho, muita tentativa e erro para eventualmente encontrar o equilíbrio certo para incluir novas ferramentas em uma rotina.
Mas o problema principal não é que os jornalistas individualmente não estejam vendo novas ferramentas de IA como algo valioso – a maioria dos jornalistas vê –, mas sim que organizações estão demorando muito, como um grupo, para concatenar os elementos que farão deste recurso uma parte intrínseca das redações como um todo — revisão de texto, resumo automático, classificação de dados, visualização de dados e muitas outras coisas. (Observe que eu não disse “criação de conteúdo”).
Há muitos projetos e experimentos, claro, mas poucos produtos realmente centrados no jornalismo. Organizações jornalísticas estão, neste momento, aderindo a políticas e projetos de grandes empresas de tecnologia, enquanto tentam navegar pela paisagem sem atritos desnecessários (bem, talvez não o New York Times), conhecendo o campo e as regras.
Ao mesmo tempo, muitos setores diferentes têm investido dinheiro em soluções alimentadas por IA, deixando as organizações de mídia como compradoras de tecnologias baseadas em assinatura que, de certa forma, ajudaram a criar (fornecendo dados de treinamento de alta qualidade para os novos modelos de linguagem).
Toda essa dinâmica coloca os jornalistas em uma posição muito sensível: à medida que as empresas começam a implementar produtos e programas para redações (como a iniciativa do Google de trazer uma ferramenta de IA que escreve artigos), o mercado se torna cada vez menor para as organizações de notícias desenvolverem suas próprias ferramentas, para atender a suas próprias necessidades e interesses, gerando sua própria receita.
O acordo da OpenAI com organizações locais de notícias nos EUA e grandes grupos de mídia na Europa adiciona mais complexidade a essa equação, especialmente porque envolve dinheiro.
É um passo adiante em uma boa direção e sinaliza o valor do conteúdo jornalístico. E, com certeza, se empresas de tecnologia com bolsos fundos quiserem enviar dinheiro em nossa direção, devemos aceitar. Mas isso também mantém as organizações de notícias na órbita de empresas de tecnologia – e todos lembramos do destino de veículos que dependiam exclusivamente do Facebook, Google e outras plataformas como seu modelo de negócios, um grande lembrete de que precisamos de ferramentas e métodos inovadores que nós mesmos criarmos.
Jornalistas fazem reportagens sobre os aspectos técnicos mais novos da IA, sobre quantos parâmetros e janelas de contexto ela agora possui. Escrevem sobre regulamentação e como os parlamentos ao redor do mundo estão abordando essa questão. Publicam análises complexas que explicam e avaliam a opacidade dos direitos autorais e o treinamento de novos modelos de linguagem de grande escala. E ainda assim, o próprio uso de capacidades de IA por eles é, no mínimo, básico.
Há, compreensivelmente, medo entre profissionais da mídia de que inteligência artificial possa tomar seus empregos. Ferramentas como a que o Google está promovendo trazem mais ansiedade ainda. Isso significa que é ainda mais importante que as organizações de notícias se unam para criar algo próprio.
A Associated Press tem feito um trabalho muito interessante com IA no último ano, especialmente em torno da verificação de fatos. O New York Times também está avançando. Precisamos de mais iniciativas como essas, e não apenas das grandes organizações de notícias, mas de toda a indústria.
Os jornalistas precisam entender, no final, que a IA é um recurso, uma ferramenta e que precisa de humanos por trás dela. Ela pode nos ajudar com coisas menores, lidando com tarefas repetitivas que consomem tempo. Pode também corrigir completamente erros de digitação e outros erros bobos que nossos olhos cansados não conseguem identificar.
Mas, por melhores que essas ferramentas sejam agora, seu trabalho é empilhar palavra após palavra com base em parâmetros estatísticos — eles são incapazes de criar conhecimento, apenas de replicá-lo. É necessário o julgamento humano por trás para ser realmente eficaz. Duvido que essa situação mude em breve, especialmente em vista de regulamentações e avaliações de risco que estão por vir.
Este é, sem dúvida, um campo difícil de atravessar, mas um que as redações, sem dúvida, precisam se aventurar.