Redes sociais populares como Instagram e Facebook estão exibindo anúncios polêmicos que promovem aplicativos com supostas ferramentas de inteligência artificial para remover roupas de fotos sem consentimento, criando imagens íntimas falsas. Descubra como essas plataformas estão lidando com essa prática controversa e os riscos associados à geração de nudes falsos facilitada por novas tecnologias de IA.
De acordo com os registros na Biblioteca de Anúncios da Meta, desde dezembro de 2023, cerca de 1.400 anúncios circularam globalmente no Instagram e no Facebook, com aproximadamente 150 deles no Brasil. Esses anúncios prometem aplicativos que podem “tirar a roupa” de pessoas em fotos, gerando simulações de nudez não consentida.
Embora as plataformas tenham políticas que proíbem nudez, exceto em contextos específicos como arte e protesto, cerca de 15% desses anúncios foram removidos. No entanto, novos continuam surgindo, desafiando os esforços da Meta para manter um ambiente seguro em suas redes sociais.
Além de representar uma violação de privacidade e consentimento, essa prática tem implicações preocupantes, pois facilita a criação e disseminação de imagens íntimas falsas. Casos recentes envolvendo estudantes vítimas de montagens de nudes com IA ressaltam os danos potenciais dessa tecnologia quando mal utilizada. Continue lendo para entender melhor os desdobramentos desse problema crescente e as medidas que estão sendo tomadas.
Subtítulos para o post “Instagram e Facebook exibem anúncios de apps para desnudar pessoas”:
Redes sociais exibem anúncios de apps para criar nudes falsos
O Instagram e o Facebook estão mostrando anúncios de aplicativos que prometem tirar a roupa de mulheres em fotos. Os responsáveis pelas supostas ferramentas de manipulação de imagens pagam para aparecerem em espaços publicitários das plataformas da Meta.
Meta veicula mais de 1.400 anúncios prometendo ferramentas de IA para tirar roupa
Apesar de proibirem nudez, as duas redes sociais veicularam desde dezembro de 2023, cerca de 1.400 anúncios em todo o mundo – sendo 150 no Brasil – de apps que supostamente criam nudes sem o consentimento de quem aparece na foto. Do total, cerca de 15% foram derrubados pelas plataformas.
Aplicativos pagam para aparecer em espaços publicitários do Instagram e Facebook
Os registros estão na Biblioteca de Anúncios da Meta, em que a dona das duas plataformas exibe um histórico de campanhas publicitárias que circularam em seus serviços. Não há informações públicas sobre quanto tempo os anúncios ficaram no ar até serem removidos e quanto eles custaram.
Apps prometem remover roupas de fotos sem consentimento
Ainda que não levem a aplicativos realmente capazes de criar nudes falsos, os anúncios atraem quem busca formas de fazer imagens íntimas de terceiros sem consentimento. A prática tem sido facilitada com novas ferramentas que usam inteligência artificial de forma mal-intencionada.
Cerca de 15% dos anúncios foram removidos pelas plataformas
Dos cerca de 1.400 anúncios veiculados no Instagram e no Facebook desde dezembro de 2023 com a frase “any clothing delete” (“deletar qualquer roupa”, em inglês), 211 (15%) foram removidos pelas plataformas.
Biblioteca de Anúncios da Meta registra histórico das campanhas
A Biblioteca de Anúncios da Meta, em que a dona das duas plataformas exibe um histórico de campanhas publicitárias que circularam em seus serviços, registra os anúncios de apps para criar nudes falsos.
Aplicativo testado pelo g1 funciona como namorada virtual
O g1 testou um dos aplicativos promovidos no anúncio, mas, na verdade, ele oferece uma espécie de ChatGPT que funciona como uma namorada virtual. O usuário pode criar um perfil e interagir com a personagem por meio de mensagens.
Meta alega usar IA e equipes para remover conteúdo contra regras
A Meta disse que usa inteligência artificial e equipes humanas para remover conteúdo que viole suas regras. A empresa também disse que removeu anúncios apontados pelo g1, ainda que outros tenham sido criados desde então.
Anúncios mostram simulações de mulheres nuas geradas por IA
As campanhas costumam mostrar duas imagens aparentemente geradas por IA, em que a primeira mostra a simulação de uma mulher vestida e a segunda, como ela ficaria sem roupa (a imagem é coberta com textos do anúncio para dificultar a moderação).
Apps promovidos nem sempre oferecem recursos anunciados
Parte dos anúncios direcionam usuários para aplicativos hospedados nas Play Store e na App Store – nas lojas, alguns desses apps prometem recursos para criar imagens com IA, mas não citam a possibilidade de remover roupas de fotos.
Prática de criar nudes falsos facilitada por novas ferramentas de IA
A prática de criar imagens íntimas sem consentimento tem sido facilitada com novas ferramentas que usam inteligência artificial de forma mal-intencionada.
Casos de montagens de fotos nuas de estudantes com IA
Em novembro de 2023, mais de 20 alunas de colégios do Rio de Janeiro foram vítimas de montagens de fotos nuas criadas com IA. Um caso semelhante aconteceu quatro meses depois no Rio Grande do Sul.
Meta tem regras contra nudez em suas plataformas
As diretrizes do Instagram e do Facebook orientam a não publicarem nudez em suas contas e pedem que o usuário “publique fotos e vídeos apropriados para um público variado”.
Exceções para nudez em contextos artísticos e de protesto
Pelas regras da rede social, há exceções que permitem nudez em fotos no contexto de pinturas e esculturas, amamentação, parto, em situações ligadas à saúde ou como um ato de protesto, por exemplo.
Meta diz aprimorar esforços para manter plataformas seguras
A Meta disse ao g1 que está sempre aprimorando seus esforços para manter suas redes sociais seguras. Veja a íntegra da nota da empresa.
Redes sociais exibem anúncios de apps para criar nudes falsos
O Instagram e o Facebook estão mostrando anúncios de aplicativos que prometem tirar a roupa de mulheres em fotos. Os responsáveis pelas supostas ferramentas de manipulação de imagens pagam para aparecerem em espaços publicitários das plataformas da Meta.
Apesar de proibirem nudez (saiba mais abaixo), as duas redes sociais veicularam desde dezembro de 2023, cerca de 1.400 anúncios em todo o mundo – sendo 150 no Brasil – de apps que supostamente criam nudes sem o consentimento de quem aparece na foto. Do total, cerca de 15% foram derrubados pelas plataformas.
Os registros estão na Biblioteca de Anúncios da Meta, em que a dona das duas plataformas exibe um histórico de campanhas publicitárias que circularam em seus serviços. Não há informações públicas sobre quanto tempo os anúncios ficaram no ar até serem removidos e quanto eles custaram.
O g1 testou um dos aplicativos promovidos no anúncio, mas, na verdade, ele oferece uma espécie de ChatGPT que funciona como uma namorada virtual. O usuário pode criar um perfil e interagir com a personagem por meio de mensagens.
Detalhes sobre os anúncios
- as campanhas costumam mostrar duas imagens aparentemente geradas por IA, em que a primeira mostra a simulação de uma mulher vestida e a segunda, como ela ficaria sem roupa (a imagem é coberta com textos do anúncio para dificultar a moderação);
- parte dos anúncios direcionam usuários para aplicativos hospedados nas Play Store e na App Store – nas lojas, alguns desses apps prometem recursos para criar imagens com IA, mas não citam a possibilidade de remover roupas de fotos;
- cerca de 1.400 anúncios circularam no Instagram e no Facebook desde dezembro de 2023 com a frase “any clothing delete” (“deletar qualquer roupa”, em inglês), e 211 (15%) foram removidos pelas plataformas;
- no Brasil, cerca de 150 anúncios seguiram esse padrão.
A Biblioteca de Anúncios da Meta não oferece recursos para calcular o alcance total, o público-alvo e o valor pago para veicular os 1.400 anúncios, que usam diferentes fotos de mulheres geradas por serviços de inteligência artificial.
Mas o alcance não se limita às campanhas que incluem a expressão “deletar qualquer roupa”. Anúncios semelhantes com termos como “undress” ou “nudify” (“despir” em inglês) também foram veiculados nas duas redes, segundo o site de notícias sobre tecnologia 404 Media.
O site diz que alguns apps promovidos no Instagram e no Facebook não funcionam da forma como são anunciados, mas que um deles chega a convidar usuários a pagarem uma assinatura de US$ 30 (cerca de R$ 150) para ter acesso aos supostos recursos.
Riscos e casos reais
Ainda que não levem a aplicativos realmente capazes de criar nudes falsos, os anúncios atraem quem busca formas de fazer imagens íntimas de terceiros sem consentimento. A prática tem sido facilitada com novas ferramentas que usam inteligência artificial de forma mal-intencionada.
Em novembro de 2023, mais de 20 alunas de colégios do Rio de Janeiro foram vítimas de montagens de fotos nuas criadas com IA. Os suspeitos são alunos que teriam usado um aplicativo para fazer as adulterações e disparado as imagens em aplicativos de mensagens. Um caso semelhante aconteceu quatro meses depois no Rio Grande do Sul.
Meta veicula mais de 1.400 anúncios prometendo ferramentas de IA para tirar roupa
O Instagram e o Facebook estão mostrando anúncios de aplicativos que prometem tirar a roupa de mulheres em fotos. Os responsáveis pelas supostas ferramentas de manipulação de imagens pagam para aparecerem em espaços publicitários das plataformas da Meta.
Apesar de proibirem nudez (saiba mais abaixo), as duas redes sociais veicularam desde dezembro de 2023, cerca de 1.400 anúncios em todo o mundo – sendo 150 no Brasil – de apps que supostamente criam nudes sem o consentimento de quem aparece na foto. Do total, cerca de 15% foram derrubados pelas plataformas.
Os registros estão na Biblioteca de Anúncios da Meta, em que a dona das duas plataformas exibe um histórico de campanhas publicitárias que circularam em seus serviços. Não há informações públicas sobre quanto tempo os anúncios ficaram no ar até serem removidos e quanto eles custaram.
A Meta disse que usa inteligência artificial e equipes humanas para remover conteúdo que viole suas regras (veja a nota ao final). A empresa também disse que removeu anúncios apontados pelo g1, ainda que outros tenham sido criados desde então.
Sobre os anúncios de geradores de nudes
- As campanhas costumam mostrar duas imagens aparentemente geradas por IA, em que a primeira mostra a simulação de uma mulher vestida e a segunda, como ela ficaria sem roupa (a imagem é coberta com textos do anúncio para dificultar a moderação);
- Parte dos anúncios direcionam usuários para aplicativos hospedados nas Play Store e na App Store – nas lojas, alguns desses apps prometem recursos para criar imagens com IA, mas não citam a possibilidade de remover roupas de fotos;
- Cerca de 1.400 anúncios circularam no Instagram e no Facebook desde dezembro de 2023 com a frase “any clothing delete” (“deletar qualquer roupa”, em inglês), e 211 (15%) foram removidos pelas plataformas;
- No Brasil, cerca de 150 anúncios seguiram esse padrão.
Aplicativos pagam para aparecer em espaços publicitários do Instagram e Facebook
O Instagram e o Facebook estão mostrando anúncios de aplicativos que prometem tirar a roupa de mulheres em fotos. Os responsáveis pelas supostas ferramentas de manipulação de imagens pagam para aparecerem em espaços publicitários das plataformas da Meta.
Os registros estão na Biblioteca de Anúncios da Meta, em que a dona das duas plataformas exibe um histórico de campanhas publicitárias que circularam em seus serviços. Não há informações públicas sobre quanto tempo os anúncios ficaram no ar até serem removidos e quanto eles custaram.
A Meta disse que usa inteligência artificial e equipes humanas para remover conteúdo que viole suas regras (veja a nota ao final). A empresa também disse que removeu anúncios apontados pelo g1, ainda que outros tenham sido criados desde então.
Mais detalhes
- 🖼️ as campanhas costumam mostrar duas imagens aparentemente geradas por IA, em que a primeira mostra a simulação de uma mulher vestida e a segunda, como ela ficaria sem roupa (a imagem é coberta com textos do anúncio para dificultar a moderação);
- 📱 parte dos anúncios direcionam usuários para aplicativos hospedados nas Play Store e na App Store – nas lojas, alguns desses apps prometem recursos para criar imagens com IA, mas não citam a possibilidade de remover roupas de fotos;
Apps prometem remover roupas de fotos sem consentimento
Os responsáveis pelas supostas ferramentas de manipulação de imagens pagam para aparecerem em espaços publicitários das plataformas da Meta. Apesar de proibirem nudez, o Instagram e o Facebook veicularam desde dezembro de 2023, cerca de 1.400 anúncios em todo o mundo – sendo 150 no Brasil – de apps que supostamente criam nudes sem o consentimento de quem aparece na foto.
Parte dos anúncios direcionam usuários para aplicativos hospedados nas Play Store e na App Store – nas lojas, alguns desses apps prometem recursos para criar imagens com IA, mas não citam a possibilidade de remover roupas de fotos.
Ainda que não levem a aplicativos realmente capazes de criar nudes falsos, os anúncios atraem quem busca formas de fazer imagens íntimas de terceiros sem consentimento. A prática tem sido facilitada com novas ferramentas que usam inteligência artificial de forma mal-intencionada.
Em novembro de 2023, mais de 20 alunas de colégios do Rio de Janeiro foram vítimas de montagens de fotos nuas criadas com IA. Os suspeitos são alunos que teriam usado um aplicativo para fazer as adulterações e disparado as imagens em aplicativos de mensagens. Um caso semelhante aconteceu quatro meses depois no Rio Grande do Sul.
Cerca de 15% dos anúncios foram removidos pelas plataformas
Apesar de proibirem nudez, as redes sociais Instagram e Facebook veicularam desde dezembro de 2023, cerca de 1.400 anúncios em todo o mundo – sendo 150 no Brasil – de apps que supostamente criam nudes sem o consentimento de quem aparece na foto. Do total, cerca de 15% foram derrubados pelas plataformas.
Os registros estão na Biblioteca de Anúncios da Meta, em que a dona das duas plataformas exibe um histórico de campanhas publicitárias que circularam em seus serviços. Não há informações públicas sobre quanto tempo os anúncios ficaram no ar até serem removidos e quanto eles custaram.
A Meta disse que usa inteligência artificial e equipes humanas para remover conteúdo que viole suas regras. A empresa também disse que removeu anúncios apontados pelo g1, ainda que outros tenham sido criados desde então.
Cerca de 1.400 anúncios circularam no Instagram e no Facebook desde dezembro de 2023 com a frase “any clothing delete” (“deletar qualquer roupa”, em inglês), e 211 (15%) foram removidos pelas plataformas. No Brasil, cerca de 150 anúncios seguiram esse padrão.
Ainda que não levem a aplicativos realmente capazes de criar nudes falsos, os anúncios atraem quem busca formas de fazer imagens íntimas de terceiros sem consentimento. A prática tem sido facilitada com novas ferramentas que usam inteligência artificial de forma mal-intencionada.
Biblioteca de Anúncios da Meta registra histórico das campanhas
A Biblioteca de Anúncios da Meta não oferece recursos para calcular o alcance total, o público-alvo e o valor pago para veicular os 1.400 anúncios, que usam diferentes fotos de mulheres geradas por serviços de inteligência artificial.
Mas o alcance não se limita às campanhas que incluem a expressão “deletar qualquer roupa”. Anúncios semelhantes com termos como “undress” ou “nudify” (“despir” em inglês) também foram veiculados nas duas redes, segundo o site de notícias sobre tecnologia 404 Media.
O site diz que alguns apps promovidos no Instagram e no Facebook não funcionam da forma como são anunciados, mas que um deles chega a convidar usuários a pagarem uma assinatura de US$ 30 (cerca de R$ 150) para ter acesso aos supostos recursos.
Ainda que não levem a aplicativos realmente capazes de criar nudes falsos, os anúncios atraem quem busca formas de fazer imagens íntimas de terceiros sem consentimento. A prática tem sido facilitada com novas ferramentas que usam inteligência artificial de forma mal-intencionada.
Aplicativo testado pelo g1 funciona como namorada virtual
O g1 testou um dos aplicativos promovidos nos anúncios, mas, na verdade, ele oferece uma espécie de ChatGPT que funciona como uma namorada virtual. O usuário pode criar um perfil e interagir com a personagem por meio de mensagens.
Apesar da promessa de remover roupas de fotos, o app em questão não parece ter essa funcionalidade. Em vez disso, ele fornece uma experiência de conversa com uma inteligência artificial que simula ser uma namorada.
O aplicativo permite customizar o nome, a aparência e até a personalidade da “namorada virtual”. O usuário então pode trocar mensagens de texto com ela, como se estivesse conversando com um chatbot personalizado.
Embora o conceito de namorada virtual possa ser controverso, o aplicativo testado não parece cumprir a proposta divulgada nos anúncios de remover roupas de fotografias sem consentimento. Aparentemente, a descrição enganosa era apenas uma isca para atrair downloads.
Esse tipo de experiência destoa das preocupações sobre a criação de nudes falsos, que tem sido facilitada por ferramentas de inteligência artificial mal intencionadas. No entanto, o aplicativo em si não demonstrou oferecer recursos para manipular imagens íntimas.
Meta alega usar IA e equipes para remover conteúdo contra regras
A Meta disse que usa inteligência artificial e equipes humanas para remover conteúdo que viole suas regras. A empresa afirma que removeu os anúncios apontados pelo g1, embora outros possam ter sido criados desde então.
A Meta afirma revisar conteúdo por meio da combinação de tecnologia de inteligência artificial e equipes humanas. Essas equipes ajudam a detectar, analisar e remover conteúdos que violem as políticas do Facebook, Instagram e os padrões de publicidade.
A empresa diz que está sempre aprimorando seus esforços para manter suas plataformas seguras. Ela também incentiva as pessoas a denunciarem conteúdos e contas que acreditem violar as políticas, através das ferramentas disponíveis nos aplicativos.
Apesar dos esforços alegados pela Meta, o g1 encontrou cerca de 1.400 anúncios no Instagram e no Facebook promovendo supostas ferramentas para criar nudes falsos sem consentimento. Cerca de 15% desses anúncios foram removidos pelas plataformas.
Os anúncios em questão costumam mostrar imagens geradas por IA, simulando mulheres vestidas e depois sem roupa. Alguns direcionam para aplicativos que prometem recursos para criar imagens com IA, mas não citam a possibilidade de remover roupas de fotos.
Anúncios mostram simulações de mulheres nuas geradas por IA
As campanhas costumam mostrar duas imagens aparentemente geradas por IA, em que a primeira mostra a simulação de uma mulher vestida e a segunda, como ela ficaria sem roupa.
A imagem da mulher nua é coberta com textos do anúncio para dificultar a moderação.
Esses anúncios atraem quem busca formas de fazer imagens íntimas de terceiros sem consentimento, prática que tem sido facilitada com novas ferramentas que usam inteligência artificial de forma mal-intencionada.
Meta alega remover anúncios que violam regras
A Meta disse que remove os anúncios apontados pela reportagem por violarem suas políticas.
A empresa afirma utilizar uma combinação de tecnologia de IA e equipes humanas para detectar, analisar e remover conteúdos que violem suas diretrizes.
No entanto, novos anúncios semelhantes continuam sendo criados e veiculados nas redes sociais da empresa.
Apps promovidos nem sempre oferecem recursos anunciados
Apesar de prometidos nos anúncios, alguns aplicativos promovidos no Instagram e Facebook não oferecem as ferramentas capazes de remover roupas de fotos sem consentimento.
Um dos apps promovidos e testado pelo g1 funciona apenas como uma espécie de ChatGPT em forma de namorada virtual, diferente do recurso anunciado.
Segundo o site de tecnologia 404 Media, parte desses aplicativos sequer funcionam como anunciados nas campanhas publicitárias das redes sociais.
Porém, mesmo sem entregar as supostas ferramentas para criar nudes falsos, os anúncios ainda atraem usuários interessados nesse tipo de conteúdo não consentido.
Enquanto algumas campanhas levam a apps que não cumprem o prometido, outras convidam a pagar uma assinatura de US$ 30 (cerca de R$ 150) para supostamente desbloquear os recursos de remoção de roupas, segundo o 404 Media.
Prática de criar nudes falsos facilitada por novas ferramentas de IA
A prática de criar imagens falsas com pessoas nuas sem consentimento tem sido facilitada por novas ferramentas que utilizam inteligência artificial de forma mal-intencionada. Em novembro de 2023, mais de 20 alunas de colégios do Rio de Janeiro foram vítimas de montagens de fotos nuas criadas com IA. Os suspeitos são alunos que teriam usado um aplicativo para fazer as adulterações e disparado as imagens em aplicativos de mensagens.
Um caso semelhante aconteceu quatro meses depois no Rio Grande do Sul. Apesar de proibirem nudez, o Instagram e o Facebook veicularam desde dezembro de 2023 cerca de 1.400 anúncios em todo o mundo – sendo 150 no Brasil – de apps que supostamente criam nudes sem o consentimento de quem aparece na foto. Do total, cerca de 15% foram derrubados pelas plataformas.
Os registros estão na Biblioteca de Anúncios da Meta, onde a dona das duas plataformas exibe um histórico de campanhas publicitárias que circularam em seus serviços. Não há informações públicas sobre quanto tempo os anúncios ficaram no ar até serem removidos e quanto eles custaram.
As campanhas costumam mostrar duas imagens aparentemente geradas por IA, em que a primeira mostra a simulação de uma mulher vestida e a segunda, como ela ficaria sem roupa (a imagem é coberta com textos do anúncio para dificultar a moderação). Parte dos anúncios direcionam usuários para aplicativos hospedados nas lojas Play Store e App Store que prometem recursos para criar imagens com IA, mas não citam a possibilidade de remover roupas de fotos.
Casos de montagens de fotos nuas de estudantes com IA
Em novembro de 2023, mais de 20 alunas de colégios do Rio de Janeiro foram vítimas de montagens de fotos nuas criadas com IA. Os suspeitos são alunos que teriam usado um aplicativo para fazer as adulterações e disparado as imagens em aplicativos de mensagens.
Um caso semelhante aconteceu quatro meses depois no Rio Grande do Sul. A prática de criar nudes falsos tem sido facilitada com novas ferramentas que usam inteligência artificial de forma mal-intencionada.
Apesar de proibirem nudez, as redes sociais Instagram e Facebook veicularam cerca de 1.400 anúncios em todo o mundo – sendo 150 no Brasil – de apps que supostamente criam nudes sem o consentimento de quem aparece na foto.
Os anúncios atraem quem busca formas de fazer imagens íntimas de terceiros sem consentimento. Parte deles promove aplicativos hospedados nas lojas de aplicativos, que prometem recursos para criar imagens com IA, mas não citam a possibilidade de remover roupas de fotos.
Alcance dos anúncios
A Biblioteca de Anúncios da Meta não oferece recursos para calcular o alcance total e o valor pago para veicular os 1.400 anúncios que usam fotos de mulheres geradas por IA. Cerca de 15% desses anúncios foram removidos pelas plataformas.
Meta tem regras contra nudez em suas plataformas
A Meta, empresa dona do Instagram e Facebook, estabelece regras que proíbem a publicação de conteúdo com nudez em suas plataformas. As diretrizes orientam os usuários a não postarem fotos e vídeos que contenham nudez, visando manter um ambiente apropriado para diversos públicos.
No entanto, é permitida a exibição de nudez em contextos específicos, como obras de arte, amamentação, cenas de parto ou em situações relacionadas à saúde. A nudez também é aceita quando retratada como forma de protesto.
Apesar das restrições, as plataformas da Meta veicularam cerca de 1.400 anúncios desde dezembro de 2023 promovendo aplicativos que supostamente criam imagens de nudez sem consentimento. Aproximadamente 15% desses anúncios foram removidos por violarem as políticas da empresa.
Em resposta ao g1, a Meta afirmou que utiliza uma combinação de inteligência artificial e equipes humanas para detectar e remover conteúdo que viole suas regras. A empresa também incentiva os usuários a denunciarem violações por meio das ferramentas disponíveis nos aplicativos.
Esforços contínuos para manter plataformas seguras
A Meta ressaltou que está constantemente aprimorando seus esforços para manter o Instagram e o Facebook como plataformas seguras para os usuários. A empresa busca prevenir a disseminação de conteúdo inadequado, como a exibição de nudez não autorizada.
Exceções para nudez em contextos artísticos e de protesto
As diretrizes do Instagram e do Facebook permitem a publicação de nudez em determinados contextos, como arte, fotografia e protestos. As plataformas reconhecem que há momentos em que as pessoas podem querer compartilhar imagens de nudez de natureza artística ou criativa.
De acordo com as regras, são permitidas fotos e vídeos que contenham nudez em situações como pinturas e esculturas, cenas de amamentação e parto, casos relacionados à saúde ou como forma de protesto.
No entanto, a nudez fora desses contextos específicos é proibida nas redes sociais da Meta, que orientam os usuários a “publicar fotos e vídeos apropriados para um público variado”.
As exceções para nudez artística e de protesto permitem que imagens relevantes nessas categorias sejam compartilhadas sem violar as políticas das plataformas. A Meta utiliza uma combinação de tecnologia de inteligência artificial e revisão humana para moderar o conteúdo e aplicar suas diretrizes.
Meta diz aprimorar esforços para manter plataformas seguras
A Meta afirma estar constantemente aprimorando seus esforços para manter o Instagram e o Facebook seguros. A empresa utiliza uma combinação de inteligência artificial e equipes humanas para detectar, analisar e remover conteúdos que violem suas políticas.
De acordo com a Meta, as ferramentas de moderação buscam identificar e remover publicações que vão contra os Padrões da Comunidade do Facebook, as Diretrizes da Comunidade do Instagram e os Padrões de Publicidade da empresa.
Em resposta ao g1, um porta-voz da Meta disse que a companhia removeu os anúncios apontados na reportagem por violarem suas políticas. A empresa incentiva os usuários a denunciarem conteúdos e contas que acreditem violar suas regras por meio das ferramentas disponíveis nos aplicativos.
As diretrizes da Meta proíbem a publicação de nudez, com exceções em contextos artísticos, de protesto e outros casos específicos. No entanto, aplicativos promovidos por anúncios nas plataformas prometiam ferramentas para criar nudes falsos sem consentimento das pessoas retratadas.