A Meta, empresa dona do Facebook, do WhatsApp e do Instagram, vai lançar um novo recurso de segurança no Instagram para proteger usuários menores de idade. Usando recursos de inteligência artificial, a plataforma vai borrar imagens de nudez em mensagens que são trocadas. A ideia é proteger os adolescentes de abusos e golpes sexuais por meio do aplicativo.
A partir do momento que a proteção estiver habilitada, quem receber uma foto contendo nudez também verá uma mensagem que orienta o usuário a não se sentir pressionado a responder – haverá a opção para bloqueio e denunciar o remetente. Isso porque, de acordo com a Meta, o recurso é projetado não apenas para proteger as pessoas de verem nudez indesejada em suas mensagens diretas, mas também para protegê-las de golpistas que podem enviar nudes para enganar e chantagear as pessoas.
O recurso entra em teste a partir de maio de forma gradual, mas a expectativa é que esteja disponível para todos os usuários em alguns meses. Ele será habilitado automaticamente para usuários adolescentes, identificados pela informação de aniversário em suas contas no Instagram. Usuários maiores de idade também poderão usar a ferramenta. Nesse caso, no entanto, terão de ativá-la nas configurações do aplicativo.
Nenhum comentário:
Postar um comentário