Uma investigação realizada pelo Business Insider revela que o algoritmo do aplicativo do Instagram dedicado ao formato vídeo, o IGTV, mostrou aos usuários vídeos de pedofilia e mutilação digital.
A publicação norte-americana monitorou o IGTV durante um total de três semanas e concluiu que foram necessários cinco dias para que os vídeos fossem retirados do ar.
Segundo a publicação norte-americana, o IGTV foi monitorado de duas formas diferentes: através de uma conta pessoal e de uma conta configurada como se pertencesse a uma criança com a idade mínima de 13 anos. Durante os dias que o app foi analisado, um vídeo de uma criança tirando a roupa foi sugerido à conta configurada como pertencendo ao menor de idade. Este foi apenas um dos vídeos encontrados pelo Business Insider.
Os referidos vídeos foram reportados ao Instagram através das ferramentas incluídas no IGTV mas, ainda assim, permaneceram ativos durante os cinco dias seguintes. Foi só depois da área de comunicação da empresa ter sido contactada que os vídeos foram eliminados. No entanto, as contas responsáveis pelo carregamento continuam em atividade.
“Nos preocupamos profundamente em manter todo o Instagram – incluindo o IGTV – um local seguro para os mais jovens se aproximaram das pessoas e interesses que lhes sejam próximos”, pode ler-se no comunicado emitido por uma representante do Instagram. A mesma representante assegurou que a rede social toma “medidas para monitorar proativamente potenciais violações das diretrizes da comunidade” e que tem colaboradores “que trabalham 24 horas durante todos os dias para remover qualquer coisa que as viole”.