Avançar para o conteúdo

Veja os nossos programas de parceiros

Reconhecemos o valor das parcerias com organizações para identificar e combater danos online. Do Toolkit de segurança infantil ao Programa de denúncias prioritárias, saiba mais sobre alguns dos programas de parceiros voluntários que operamos na Google e no YouTube.

Programa de moderadores prioritários

Priorizar as denúncias dos parceiros

O nosso Programa de denúncias prioritárias oferece canais para que as organizações participantes nos notifiquem de problemas potencialmente prejudiciais nos nossos produtos e serviços que violem as nossas políticas e regras da comunidade. Normalmente, as entidades parceiras têm acesso a:

  • Um canal de admissão dedicado usado para nos informar de potenciais violações de políticas que são revistas com prioridade.
  • Discussões e feedback contínuos sobre as políticas de conteúdos da Google e do YouTube.

Uma equipa diversificada reúne-se em torno de um membro da equipa que tem um ficheiro aberto e revê o respetivo conteúdo.
Uma equipa diversificada reúne-se em torno de um membro da equipa que tem um ficheiro aberto e revê o respetivo conteúdo.
Priorizar as denúncias dos parceiros

O nosso Programa de denúncias prioritárias oferece canais para que as organizações participantes nos notifiquem de problemas potencialmente prejudiciais nos nossos produtos e serviços que violem as nossas políticas e regras da comunidade. Normalmente, as entidades parceiras têm acesso a:

  • Um canal de admissão dedicado usado para nos informar de potenciais violações de políticas que são revistas com prioridade.
  • Discussões e feedback contínuos sobre as políticas de conteúdos da Google e do YouTube.

Uma ilustração que usa pontos e barras de progresso para indicar o processo de revisão dos diferentes moderadores de denúncias prioritárias.
O nosso processo de revisão

Os nossos moderadores reveem as denúncias dos moderadores de denúncias prioritárias de acordo com as nossas políticas e regras da comunidade. Os problemas denunciados pelos moderadores de denúncias prioritárias não são automaticamente removidos nem sujeitos a qualquer tratamento político diferente, e os mesmos padrões aplicam-se às denúncias dos utilizadores. No entanto, devido ao seu elevado nível de confiança e experiência, as nossas equipas dão prioridade às denúncias dos moderadores de denúncias prioritárias para revisão.

Uma ilustração que usa pontos e barras de progresso para indicar o processo de revisão dos diferentes moderadores de denúncias prioritárias.
O nosso processo de revisão

Os nossos moderadores reveem as denúncias dos moderadores de denúncias prioritárias de acordo com as nossas políticas e regras da comunidade. Os problemas denunciados pelos moderadores de denúncias prioritárias não são automaticamente removidos nem sujeitos a qualquer tratamento político diferente, e os mesmos padrões aplicam-se às denúncias dos utilizadores. No entanto, devido ao seu elevado nível de confiança e experiência, as nossas equipas dão prioridade às denúncias dos moderadores de denúncias prioritárias para revisão.

Colaborar com organizações especializadas

O nosso programa é mais adequado para organizações como ONGs e organismos governamentais com uma experiência identificada no reconhecimento e combate a danos online em, pelo menos, uma área política. Também analisamos se uma organização tem capacidade para apresentar pedidos e o seu entusiasmo para trabalhar em conjunto nestes problemas. Esperamos que os moderadores de denúncias sejam objetivos nas denúncias e que respeitem devidamente os direitos humanos.

Uma colagem constituída por um ícone de trabalho em equipa, uma reunião de equipa e duas pessoas em frente a um quadro de tarefas a colaborar.
Uma colagem constituída por um ícone de trabalho em equipa, uma reunião de equipa e duas pessoas em frente a um quadro de tarefas a colaborar.
Colaborar com organizações especializadas

O nosso programa é mais adequado para organizações como ONGs e organismos governamentais com uma experiência identificada no reconhecimento e combate a danos online em, pelo menos, uma área política. Também analisamos se uma organização tem capacidade para apresentar pedidos e o seu entusiasmo para trabalhar em conjunto nestes problemas. Esperamos que os moderadores de denúncias sejam objetivos nas denúncias e que respeitem devidamente os direitos humanos.

Moderadores de confiança da DSA

O nosso Programa de denúncias prioritárias voluntário é independente de quaisquer canais de denúncia de conteúdos prioritários e legalmente exigidos, tais como os requisitos do Moderador de confiança da DSA.

O artigo 22 da DSA, embora esteja de acordo com os nossos esforços de parceria voluntária, exige que seja dada prioridade a avisos válidos sobre conteúdos alegadamente ilegais enviados por entidades às quais foi atribuído o estatuto de Moderador de confiança pelo coordenador de serviços digitais (DSC) do Estado-Membro em que estão estabelecidas. Se o seu coordenador de serviços digitais lhe concedeu o estatuto de Moderador de confiança da DSA, pode aceder aos materiais de integração aqui.

O toolkit de segurança infantil

Uma ilustração de logótipos de empresas bem conhecidas em órbita de um ícone de API de segurança infantil no centro.
Equipar os outros com tecnologias para combater o abuso

O Google e o YouTube desenvolveram o toolkit de segurança infantil para ajudar as organizações a protegerem as crianças. No centro encontram-se duas API: a API de segurança do conteúdo e a CSAI Match. Oferecemos ambas gratuitamente a parceiros elegíveis. Os nossos parceiros utilizam estas tecnologias para processar milhares de milhões de ficheiros todos os anos, o que lhes permite avaliar milhões de imagens e vídeos em busca de comportamento abusivo e estabelecer prioridades para analisar os conteúdos mais preocupantes.

Uma ilustração de logótipos de empresas bem conhecidas em órbita de um ícone de API de segurança infantil no centro.
Equipar os outros com tecnologias para combater o abuso

O Google e o YouTube desenvolveram o toolkit de segurança infantil para ajudar as organizações a protegerem as crianças. No centro encontram-se duas API: a API de segurança do conteúdo e a CSAI Match. Oferecemos ambas gratuitamente a parceiros elegíveis. Os nossos parceiros utilizam estas tecnologias para processar milhares de milhões de ficheiros todos os anos, o que lhes permite avaliar milhões de imagens e vídeos em busca de comportamento abusivo e estabelecer prioridades para analisar os conteúdos mais preocupantes.

Envie um pedido para o toolkit de segurança infantil

As organizações industriais e da sociedade civil que procuram proteger a sua plataforma contra o abuso podem enviar um pedido de acesso ao toolkit de segurança infantil. Iremos determinar se a sua organização cumpre os critérios e responder-lhe em conformidade.

Leia os testemunhos dos nossos parceiros