domingo, 17 de agosto de 2025

Adultização de crianças é responsabilidade dos pais

Fizemos uma experiência nas redes sociais: como são os algoritmos e a ‘adultização’ das crianças?

Reportagem criou contas para ver direcionamento de conteúdos e encontrou manifestações de pedófilos; Instagram e TikTok dizem ter políticas de segurança para menores

A denúncia do youtuber Felca sobre a “adultização” de crianças nas redes sociais revelou o perigo por trás da fórmula secreta de distribuição de conteúdos pelo algoritmo das plataformas. Entre os casos extremos, está o do influenciador Hytalo Santos, preso esta semana sob acusação de lucrar com vídeos de exploração sexual infantil. Mas também há conteúdos aparentemente inocentes de crianças, muitas vezes publicados por mães e pais, que se tornam ponto de encontro de pedófilos e outros criminosos.

Para entender mais sobre esse mecanismo, a reportagem criou três perfis fictícios no Instagram e no TikTok. As contas e as interações foram observadas por quatro dias, em períodos de 30 minutos ou mais.

Pesquisadores no mundo todo destacam o risco do design das redes, que entregam conteúdos de olho na fidelização do usuário. Há estudos que mostram mais engajamento de vídeos com conteúdos extremistas, polêmicos e que tenham crianças.

Entre as consequências para a sociedade, estão a viralização de conteúdos com menores de idade, o acesso a materiais impróprios ou criminosos, danos à saúde mental e o “efeito bolha”, que limita o acesso a pontos de vista diferentes.

Procurados, a Meta, proprietária do Instagram, e o TikTok, não detalham os critérios dos algoritmos, dizem ter políticas rígidas para segurança de usuários menores e que removem conteúdos impróprios (leia mais abaixo). Já Hytalo Santos nega as acusações de exploração sexual infantil.

O experimento feito pelo Estadão envolveu criar contas com os seguintes perfis:

Perfil 1 - Homem adulto, de 55 anos, que no período observado só curtiu conteúdos que tivessem crianças, clicou para assistir e demonstrou interesse nesses vídeos, seguiu influenciadores mirins e ignorou qualquer outro tipo de material

Perfil 2 - Foi dividido em dois, um perfil de um adolescente de 15 anos e outro de um adulto, de 55 anos, ambos com interesse em futebol. Assim como no anterior, só eram curtidos, seguidos e assistidos conteúdos sobre esse esporte.

Perfil 3 - Também se divide em dois, um perfil de uma adolescente de 13 anos e outro de uma mulher adulta. O interesse era o mesmo: beleza, dietas, bem-estar.

O que vimos nas redes

Nos primeiros minutos de interação no TikTok, o algoritmo entendeu que o perfil 1 se interessava apenas por vídeos de crianças e adolescentes, restringindo o conteúdo a isso. Com cerca de 10 minutos na plataforma, a reportagem já encontrou nos comentários desses vídeos diversas mensagens que, segundo especialistas, estão relacionadas à pedofilia.

Elas aparecem em códigos como: "cambio" (troca, em espanhol) ou "quien cambio" (quer trocar?), "exchange" (troca, em inglês) e ainda "CP" (child porn, pornografia infantil, em inglês). A reportagem também encontrou o termo “trade” (troca, em inglês), mencionado pela denúncia de Felca.




O Estadão mostrou as mensagens a duas especialistas, que confirmaram que essas interações são pedidos de troca de materiais (fotos ou vídeos) com conteúdo de abuso sexual infantil.

Segundo Michele Prado, pesquisadora do Núcleo de Prevenção à Violência Extrema do Ministério Público do Rio Grande do Sul, os criminosos usam o espaço para se conhecer e, então, trocar ou vender materiais de pedofilia em outros ambientes virtuais

O Estadão encaminhou ao TikTok os conteúdos encontrados e a empresa os removeu da plataforma horas depois. Disse ainda ser “prioridade máxima” a segurança dos jovens.

“Se tivermos conhecimento de que um titular de conta tem violação grave ou cometeu infração sexual contra uma pessoa jovem, baniremos a conta e quaisquer outras contas dessa pessoa”, diz a política da plataforma

As mensagens relacionadas à pedofilia foram vistas em todos os dias e horários em que a reportagem acessou o perfil, sem dificuldade. Aparecem em vídeos caseiros e nada erotizados, de crianças em um barco, nadando em piscina, fazendo ginástica. E também em outros de meninas dançando de forma sensualizada.

Em todos os casos, eram crianças pequenas, que aparentam menos de 10 anos. Os vídeos estão em perfis das próprias crianças, de mães ou pais, no Brasil e no exterior.

Em geral, são vídeos que podem ser considerados como conteúdo viralizado porque têm mais de 100 mil curtidas e centenas ou milhares de comentários — a maioria, de elogios à aparência das meninas, alguns com conotação sexual.

‘Acham graça de ver criança dançando música inapropriada’
“Há banalização na cultura de achar graça em ver criança dançando música inapropriada. Mas é nossa responsabilidade de adulto dizer que ela não pode fazer isso e ainda não expor esse tipo de conteúdo”, diz a psicóloga Laís Flores, autora de um guia para escolas de proteção à criança e ao adolescente.

Segundo pesquisa do Pew Research Center, organização americana que estuda mídia e tecnologia, vídeos com crianças têm três vezes mais visualizações do que outros conteúdos. Canais no YouTube que produzem ao menos um vídeo com criança têm média de 1,8 milhão de inscritos, ante 1,2 milhão naqueles que não produzem. Esse volume maior facilita a monetização e o interesse das marcas em fazer anúncios no perfil.

Mesmo se não são vídeos adultizados ou com interesse publicitário, a psicóloga defende cuidado. “Pais, de modo geral, consideram seus filhos os mais bonitos e inteligentes. Por isso, muitas vezes, querem que todos vejam, mas não se dimensiona o risco.”

Ela e outros especialistas alertam que os pais precisam considerar que a criança não tem maturidade para decidir sobre postagens e isso pode afetar seu desenvolvimento e sua saúde mental no futuro.

Mas há também a preocupação crescente de não só responsabilizar as famílias e deixar claro que muitos dos problemas vêm do design das redes — de como os conteúdos são distribuídos pelos algoritmos.

O projeto de lei 2628/2022 prevê a proteção da criança e do adolescente nas redes, com obrigação das big techs de moderarem conteúdos com crianças e para crianças. Impede ainda a rolagem infinita, contas de menores de idade e exige ferramentas de supervisão parental mais claras. Depois da aprovação no Senado, a previsão é de que seja votado nesta semana na Câmara em regime de urgência.

“Claro que as famílias têm responsabilidades de proteger suas crianças, mas a população é muito desigual, falta literacia digital para entender o problema”, diz a coordenadora de programas do Instituto Alana, Maria Mello, que apoia o projeto de lei.

Depois da denúncia de Felca, mais de 60 projetos foram protocolados na Câmara sobre o assunto e o governo federal também prometeu uma lei sobre regulação de redes, que incluiria mecanismos de proteção de menores.

Os perfis dos usuários que enviaram mensagens relacionadas à pedofilia no monitoramento da reportagem, na maioria das vezes, não tinham nome definido e eram contas privadas. O Estadão também denunciou as contas por meio do canal da plataforma.

Em alguns vídeos, já foi possível notar usuários marcando o perfil de Felca ao se deparar com as mensagens de possíveis pedófilos, como uma forma de denúncia. Algumas das mensagens tinham ainda a palavra “Telegram”, o que pode indicar que o usuário tem canal na plataforma Telegram de pedofilia, segundo especialistas.

Procurada, a empresa diz estar comprometida “em impedir que material de abuso sexual infantil apareça em sua plataforma e aplica rigorosa política de tolerância zero”. Informou ainda que já removeu mais de 400 mil canais suspeitos.

No Instagram, a reportagem notou que o algoritmo mostrou logo nos primeiros minutos só conteúdo com crianças, direcionando tanto o feed quanto os reels apenas para este tema. Não encontrou, porém, comentários relacionados à pedofilia.

Na busca por dieta, canais de ajuda

No perfil 3, que buscava conteúdos de beleza e dieta, os algoritmos logo no primeiro dia entenderam o interesse e restringiram os conteúdos ao tema no Instagram e no TikTok. Os vídeos que apareceram para as contas da adolescente e da adulta foram similares.

Quando o perfil adulto pesquisou “Ozempic” (remédio usado para emagrecer) no Instagram, a plataforma indicou um canal de ajuda, que contém mensagens sobre resistir à pressão do autojulgamento e a valorizar o próprio corpo.

No TikTok, ajuda semelhante foi oferecida ao se pesquisar “anorexia”. A mensagem dizia: “você não está sozinho” e falava que era importante conversar sobre imagem corporal, alimentação e exercícios.

No entanto, na busca com a palavra “maquiagem” no perfil adolescente, o primeiro vídeo sugerido era de uma criança ensinando como passar o contorno no rosto para parecer mais magra.

Futebol e machismo

O perfil 2 foi rapidamente identificado no TikTok e no Instagram como um amante do futebol nas interações do primeiro dia. Logo após a criação da conta, a reportagem passou a seguir perfis ligados a esporte e a curtir conteúdos sobre o tema.

No perfil criado em uma conta específica para adolescentes (no Instagram) ou apenas informando no cadastro a idade de 15 anos (no TikTok), no primeiro dia viam-se apenas vídeos de passes e gols. Mas, a partir do segundo dia de monitoramento, em ambos surgiram conteúdos machistas, homofóbicos ou de mulheres sexualizadas.

Um deles mencionava os “sons que somente homens de verdade conhecem”, como o do churrasco e da cerveja abrindo. Outro dizia que as mulheres só precisam “não comer desesperadamente” para serem atraentes.

Também apareceram diversos vídeos de mulheres em poses ou danças erotizadas. Esses temas seguiram sugeridos mesmo sem a reportagem curtir ou demonstrar interesse nesse conteúdo.

O perfil adulto recebeu na primeira meia hora de monitoramento do TikTok muito futebol, mas também vídeos de sexualização de mulheres e alguns feitos com inteligência artificial de violência contra animais. No segundo dia, havia conteúdos sobre sexo.

O TikTok informa que suas políticas “não permitem que menores acessem uma série de conteúdos, incluindo aqueles que contenham beijos íntimos, enquadramento ou comportamento sexualizado” e ainda com “exposição significativa do corpo ou seminudez” de jovens.

A Meta afirma que as contas para adolescente “têm, por padrão, as configurações mais restritivas” com “controle de conteúdo sensível” nas abas Explorar e Reels. E diz recomendar conteúdos “relevantes e valiosas” para cada usuário e evitar “recomendar conteúdo que possa ser inadequado para visualizadores mais jovens”.

No início do ano, Mark Zuckerberg, fundador da Meta, anunciou que diminuiria as equipes de moderação de conteúdo da empresa, deixando a cargo dos usuários a avaliação de eventuais problemas.

Como funcionam os algoritmos?

Especialista em monitoramento de redes sociais, Pedro Barciela diz que as plataformas usam os dados que o usuário fornece por curtidas, comentários e tempo que assiste a um vídeo, para criar “personas”. É como se as pessoas fossem todas divididas em caixinhas pelos seus interesses, comportamentos e desejos de consumo.

“O algoritmo conclui que usuários que veem muito futebol, em geral, podem ter comportamento mais machista ou homofóbico”, diz. Outras pesquisas já mostraram resultados semelhantes ao monitorar o interesse pelo esporte.

Assim, a plataforma passa a entregar esse conteúdo que sabe que o usuário gosta em busca de fidelização, para mantê-lo mais tempo na rede. Além do risco do vício pela liberação constante de dopamina no cérebro, o neurotransmissor ligado a sensações de prazer, há interesse comercial.

“A venda de anúncios das plataformas para empresas será mais eficiente porque ela sabe exatamente o interesse de cada usuário”, afirma Barciela.

“Quando se coloca a criança ou o adolescente nesse lugar, trilha um caminho pra ele. Se ele gosta mais de Matemática e menos de Português, aparece conteúdo de Matemática apenas. E começa a moldar a criança numa idade muito tenra para o que será nos próximos 20 anos”, afirma Catarina Fugulin, advogada e uma das representantes do Movimento Desconecta.

O PL 2628/2022, que a entidade apoia, proíbe que as plataformas reúnam dados de interesses de menores de idade e os use com fins publicitários.

O professor da Escola Superior de Propaganda e Marketing (ESPM) João Finamor cita diferenças entre as plataformas nos critérios para relevância do conteúdo. O TikTok, de 2016, já foi construído com machine learning (aprendizado de máquina) e considera tempo de tela, comentários, compartilhamento e curtidas para definir que um vídeo é engajador. “Não importa a quantidade de seguidores. Pode ter só dois e um vídeo com 100 mil visualizações.”

Já o Instagram surgiu em 2010 como rede social, em que os relacionamentos eram importantes. Aos poucos, se tornou uma plataforma de vídeos, mas a quantidade de seguidores ainda é relevante para o conteúdo ganhar engajamento.

“É um design para você ficar preso”, afirma o professor, e completa: “tudo que é polarizado gera entrega maior”. “A misoginia, por exemplo. Tem pessoas que param pra ver porque concordam e os outros vão lá criticar. O algoritmo não separa positivo e negativo: tudo é engajamento.”

Reportagem de Renata Cafardo no Estadão. Colaboraram Beatriz Herminio, Pedro Duarte, Mariana Cury e Isabela Moya

https://www.estadao.com.br/educacao/fizemos-uma-experiencia-nas-redes-sociais-como-sao-os-algoritmos-e-a-adultizacao-das-criancas/

Nenhum comentário:

Postar um comentário