Mídia

Como são as políticas e diretrizes de IA das redações

Conheça as determinações de jornais, revistas, agências de notícias e entidades para IA e GenAI

i 5 de janeiro de 2026 - 6h03

O uso de IA pelas redações: quais são as políticas de jornais, revistas, agências de notícias e entidades jornalísticas para o uso de IA e de GenAI pelas equipes editoriais? (Crédito: ProStockStudio/Shutterstock)

O uso de IA pelas redações: quais são as políticas de jornais, revistas, agências de notícias e entidades jornalísticas para o uso de IA e de GenAI pelas equipes editoriais? (Crédito: ProStockStudio/Shutterstock)

Quais são as políticas e diretrizes de uso de IA nas redações?

A Folha de S.Paulo, o Estadão e o Grupo Globo estão entre os veículos que já têm diretrizes há algum tempo sobre o uso de inteligência artificial (IA) e de IA generativa (GenAI) pelas equipes editoriais.

Com mais ou menos detalhes, as redações usam IA e GenAI de diversas formas.

Abaixo, um resumo das possibilidades de aplicações e diretrizes de IA e GenAI em algumas redações brasileiras.

IA das redações no Grupo Globo

A política da empresa encoraja testes e uso da tecnologia como um meio para aprimorar a qualidade do jornalismo e estabelece compromissos de supervisão humana, transparência e respeito a direitos autorais.

O Grupo Globo atualizou em agosto de 2024 os princípios editoriais para incluir orientações sobre o uso de IA na produção jornalística em todas as suas redações.

As orientações estabelecem que o uso de IA nas redações do Grupo Globo deve ter supervisão humana; ser transparente com o público; e respeitar os direitos autorais próprios e de terceiros.

As políticas definem, ainda, parâmetros para lidar com a tecnologia nas diversas etapas do processo de produção jornalística,da apuração à entrega para o público.

A elaboração de orientações sobre o uso de IA no jornalismo feita pelo Grupo Globo acompanha movimento global.

O Grupo ressalta que veículos como os jornais The New York Times e The Guardian, as redes de televisão PBS (EUA) e CBC (Canadá) e as agências de notícias Associated Press (AP), France Presse (FP) e Reuters divulgaram seus próprios documentos sobre o tema.

IA nas redações do Estadão

Ainda em 2023, com atualizações posteriores, o Estadão definiu a política de uso de ferramentas de IA por seus jornalistas.

A política de uso de ferramentas de IA pelo Grupo Estado foi uma das primeiras do tipo entre veículos brasileiros e segue tendência global.

Segundo o Estadão, jornais, revistas, agências de notícias e associações, como AP, Reuters, The Telegraph e Wired, publicaram, na époica, documentos com diretrizes de como usar esses recursos.

O Grupo abrange o jornal O Estado de S. Paulo, a Agência Estado e a Rádio Eldorado.

A política de IA do Grupo Estado estabelece regras e permissões para a produção de conteúdo editorial, em resposta ao crescimento na popularidade de serviços de GenAI como ChatGPT/OpenAI e o Gemini/Google.

As regras determinam que dados empresariais do Grupo Estado, segredos de negócios, bases de dados proprietárias e furos jornalísticos não devem ser base para ferramentas de IA.

A governança de dados é também uma das maiores preocupações de empresas desde o avanço de GenAI e casos de vazamento de informações já foram registrados.

IA nas redações da Folha e do UOL

Já o Grupo Folha, que inclui a Folha de S.Paulo e o UOL, tem o verbete “inteligência artificial” descrito no Manual de Redação na parte sobre a conduta dos profissionais da empresa.

Assim, o Manual explica que:

“Profissionais da Folha podem utilizar aplicações de IA em seu trabalho. A ferramenta não substitui o julgamento humano nem exime o jornalista de responsabilidade pelo resultado final, mas, se bem empregada, oferece diversas oportunidades para aumentar a eficiência da Redação, desde a concepção de uma pauta até a apresentação final da apuração, passando pela escrita de mensagens para fontes e pela coleta e/ou análise de grandes volumes de dados, entre outras possibilidades.”

O Manual explica que a revisão humana é recomendável em qualquer uma dessas situações e é obrigatória nos conteúdos voltados à publicação, sejam parciais ou integrais.

Portanto, espera-se, com isso, evitar as chamadas alucinações (erros factuais), plágios e vieses.

E ressalta que exceções a essa regra só podem ser feitas co mautorização da Secretaria de Redação, que levará em conta o tipo de conteúdo publicável e o grau de precisão da ferramenta, bem como suas limitações, eventuais preconceitos e questões relativas a direitos autorais, entre outros fatores.

Imagens segundo manual da Folha

No caso de imagens, segundo o Manual, o uso de IA pode se dar apenas para ilustrações.

Conteúdos cuja produção envolva IA e que imitem fotografias não podem ser publicados pela Folha, a menos que o fotorrealismo em si seja objeto da notícia.

Nesse caso, a autoria da imagem deve ter a informação com destaque.

A Direção de Redação estimula os profissionais da Folha a utilizarem a IA para automatizar tarefas repetitivas, sejam para o público ou não, de forma que os jornalistas tenham mais tempo para dedicar a apurações de fôlego.

Assim, é recomendável, diz o Manual, realizar análises frequentes sobre o desempenho das automações, aponta.

Associação de Jornalismo Digital (Ajor)

A entidade elaborou o Guia de Inteligência Artificial para Jornalistas.

O guia destaca pontos essenciais na elaboração de política de IA:

–  Transparência: o leitor deve ter a informação de quando e como a IA é usada pela organização.

Por isso, é preciso sinalizar de forma direta e facilmente visível conteúdos cuja geração é por IA, sejam textos, áudios ou imagens.

– Ética: as diretrizes devem garantir que o uso de IA respeita valores básicos do jornalismo, como veracidade e precisão, o que torna a supervisão humana de conteúdos com criação por ferramentas algo inegociável.

Assim, a tecnologia funciona como apoio ao trabalho jornalístico, e não como substituta do profissional. Isso garante que eventuais alucinações da IA não terão impacto sobre o conteúdo que será objeto de consumo pelo leitor.

– Uso responsável: definir quais dados podem ser processados pela IA a fim de garantir que modelos de linguagem não perpetuem estereótipos ou desinformação.

– Limites: especificar quais usos têm impedimento pela organização.

Riscos e pontos de atenção

Portanto, alerta para riscos e pontos de atenção:

– Falta de precisão e “alucinação”: as ferramentas de IA geram respostas mais prováveis de acordo com os treinamentos que receberam.

Por isso, podem oferecer informações que, a princípio, parecem factuais, mas não são.

É diferente de um erro simples, já que a IA pode “inventar” livros, dados e até eventos para responder a perguntas de forma convincente.

Dessa forma, importante fazer checagem rigorosa das respostas das ferramentas.

–  Viés e preconceito: com treino com grandes volumes de dados existentes, a IA pode reproduzir preconceitos de raça, gênero e classe, estereótipos e padrões que reforçam a desigualdade social e violam princípios dos direitos humanos.

Se esse treinamento inclui  imagens e textos que associam certas profissões a gêneros específicos, a ferramenta perpetuará esse estereótipo.

No jornalismo, esses vieses podem contaminar a forma como se contam as histórias com impacto direto no conteúdo.

Portanto, plíticas de regulação que incluem, por exemplo, auditorias sobre as bases de dados usadas nos treinamentos de IA são fundamentais para mitigar esse risco.

Dependência da tecnologia

– Dependência excessiva da tecnologia: a GenAI não pode ser vista como um substituto do profissional sob o risco de levar organizações a depender de ferramentas que são controladas por plataformas, ou seja, passíveis de mudanças que podem alterar seu funcionamento e seu custo.

– Colonialismo de dados: é importante ter em vista que as plataformas de IA são desenvolvidas no Norte Global e, por isso, a dependência delas pode aprofundar desigualdades e limitar a autonomia de veículos do Sul Global.

Dessa forma, com dados de países desenvolvidos, a IA pode ser usada para promover agendas e narrativas que não refletem os interesses do Sul.

Nesse sentido, é essencial a busca por soluções alternativas e o desenvolvimento de ferramentas próprias, além do investimento na formação de profissionais em tecnologia.

– Homogeneização de conteúdos: tendo em vista que as ferramentas são alimentadas a partir de dados já existentes, as respostas tendem a ser de criatividade limitada, com estruturas simplistas e conteúdos previsíveis.

O Tempo

O jornal O Tempo, de Minas Gerais, diz que sempre teve em seus princípios evoluir e adotar tecnologias emergentes que apoiam sua missão, jornalismo e equipe.

“Quando utilizarmos inteligências artificiais, será com o intuito de buscar a madeira como podem melhorar a qualidade de nosso trabalho, ajudando jornalistas a destrinchar grandes conjuntos de dados, auxiliando colegas com correções ou sugestões, ou até mesmo produzindo conteúdos que se findam neles mesmos, mas trazem um valor significativo ao leitor que deseja ser informado de forma rápida e transparente”, estabelece.

Para o veículo, o uso de GenAI não implica, em hipótese alguma, a renúncia aos direitos sobre o próprio conteúdo original.

Criação de notícias

Assim, o uso de IA para fins de criação integral ou parcial de notícias, conteúdos, produtos e serviços é permitido em O Tempo desde que cumpridas as condições a seguir:

– revisão humana;

– uso de ferramentas restrito àquelas ferramentas que tiverem sido previamente avaliadas e validadas pelos editores executivos da empresa;

– transparência: ao utilizar ferramentas de IA na criação ou edição de conteúdos, tal fato deverá ser obrigatoriamente indicado ao leitor .

“Tais condições são as matrizes de nossa política de IA”, aponta o jornal.

Que, de fato, destaca que essa política será revisada de forma semestral ou em períodos mais curtos se as inovações tecnológicas ou as necessidades assim o demandarem.

“Assim que for atualizada, será informado ao leitor esse processo, a fim de garantir a transparência necessária para sua confiabilidade e existência”, diz o veículo.

Agência Pública

A Agência Pública afirma que, “como outras organizações jornalísticas, temos experimentado o uso de IA para facilitar processos necessários e desenvolver novos produtos. Definimos alguns critérios para o uso de IA que deixam claros os limites do que consideramos usos éticos da ferramenta.”

De fato, para a Pública, a IA é ferramenta de apoio ao trabalho jornalístico que jamais substituirá jornalistas, programadores, ilustradores, narradores ou designers.

“Nossa política de uso vem da consolidação de discussões internas e reúne diretrizes e princípios que vamos adotar quanto ao uso de IA. Que será atualizada sempre que houver alguma mudança nos nossos processos ou em nosso entendimento”, diz.

Assim, a Pública afirma que:

– as ferramentas de IA usadas para auxílio em reportagens serão apenas para uso interno e não para serem um produto final;

– a equipe utiliza ferramentas que usam IA para reportagens de dados complexas, incluindo análise de redes e grandes bases de dados;

– Outros usos que ajudem na apuração de reportagens podem ser feitos por IA em tarefas como análise de dados, resumos, identificação de padrões;

– Nunca será feito uso de IA preditiva como fonte de informação a ser publicada sem checagem;

– Não consideramos GenAI uma fonte primária de informação e seu uso como tal é proibido.