;(function() { window.createMeasureObserver = (measureName) => { var markPrefix = `_uol-measure-${measureName}-${new Date().getTime()}`; performance.mark(`${markPrefix}-start`); return { end: function() { performance.mark(`${markPrefix}-end`); performance.measure(`uol-measure-${measureName}`, `${markPrefix}-start`, `${markPrefix}-end`); performance.clearMarks(`${markPrefix}-start`); performance.clearMarks(`${markPrefix}-end`); } } }; /** * Gerenciador de eventos */ window.gevent = { stack: [], RUN_ONCE: true, on: function(name, callback, once) { this.stack.push([name, callback, !!once]); }, emit: function(name, args) { for (var i = this.stack.length, item; i--;) { item = this.stack[i]; if (item[0] === name) { item[1](args); if (item[2]) { this.stack.splice(i, 1); } } } } }; var runningSearch = false; var hadAnEvent = true; var elementsToWatch = window.elementsToWatch = new Map(); var innerHeight = window.innerHeight; // timestamp da última rodada do requestAnimationFrame // É usado para limitar a procura por elementos visíveis. var lastAnimationTS = 0; // verifica se elemento está no viewport do usuário var isElementInViewport = function(el) { var rect = el.getBoundingClientRect(); var clientHeight = window.innerHeight || document.documentElement.clientHeight; // renderizando antes, evitando troca de conteúdo visível no chartbeat-related-content if(el.className.includes('related-content-front')) return true; // garante que usa ao mínimo 280px de margem para fazer o lazyload var margin = clientHeight + Math.max(280, clientHeight * 0.2); // se a base do componente está acima da altura da tela do usuário, está oculto if(rect.bottom < 0 && rect.bottom > margin * -1) { return false; } // se o topo do elemento está abaixo da altura da tela do usuário, está oculto if(rect.top > margin) { return false; } // se a posição do topo é negativa, verifica se a altura dele ainda // compensa o que já foi scrollado if(rect.top < 0 && rect.height + rect.top < 0) { return false; } return true; }; var asynxNextFreeTime = () => { return new Promise((resolve) => { if(window.requestIdleCallback) { window.requestIdleCallback(resolve, { timeout: 5000, }); } else { window.requestAnimationFrame(resolve); } }); }; var asyncValidateIfElIsInViewPort = function(promise, el) { return promise.then(() => { if(el) { if(isElementInViewport(el) == true) { const cb = elementsToWatch.get(el); // remove da lista para não ser disparado novamente elementsToWatch.delete(el); cb(); } } }).then(asynxNextFreeTime); }; // inicia o fluxo de procura de elementos procurados var look = function() { if(window.requestIdleCallback) { window.requestIdleCallback(findByVisibleElements, { timeout: 5000, }); } else { window.requestAnimationFrame(findByVisibleElements); } }; var findByVisibleElements = function(ts) { var elapsedSinceLast = ts - lastAnimationTS; // se não teve nenhum evento que possa alterar a página if(hadAnEvent == false) { return look(); } if(elementsToWatch.size == 0) { return look(); } if(runningSearch == true) { return look(); } // procura por elementos visíveis apenas 5x/seg if(elapsedSinceLast < 1000/5) { return look(); } // atualiza o último ts lastAnimationTS = ts; // reseta status de scroll para não entrar novamente aqui hadAnEvent = false; // indica que está rodando a procura por elementos no viewport runningSearch = true; const done = Array.from(elementsToWatch.keys()).reduce(asyncValidateIfElIsInViewPort, Promise.resolve()); // obtém todos os elementos que podem ter view contabilizados //elementsToWatch.forEach(function(cb, el) { // if(isElementInViewport(el) == true) { // // remove da lista para não ser disparado novamente // elementsToWatch.delete(el); // cb(el); // } //}); done.then(function() { runningSearch = false; }); // reinicia o fluxo de procura look(); }; /** * Quando o elemento `el` entrar no viewport (-20%), cb será disparado. */ window.lazyload = function(el, cb) { if(el.nodeType != Node.ELEMENT_NODE) { throw new Error("element parameter should be a Element Node"); } if(typeof cb !== 'function') { throw new Error("callback parameter should be a Function"); } elementsToWatch.set(el, cb); } var setEvent = function() { hadAnEvent = true; }; window.addEventListener('scroll', setEvent, { capture: true, ive: true }); window.addEventListener('click', setEvent, { ive: true }); window.addEventListener('resize', setEvent, { ive: true }); window.addEventListener('load', setEvent, { once: true, ive: true }); window.addEventListener('DOMContentLoaded', setEvent, { once: true, ive: true }); window.gevent.on('allJSLoadedAndCreated', setEvent, window.gevent.RUN_ONCE); // inicia a validação look(); })();
  • AssineUOL
Topo

Instagram e Facebook notificarão quem posta conteúdo de ódio em português

Reuters
Imagem: Reuters

Guilherme Tagiaroli

De Tilt, em São Paulo

09/11/2021 15h31Atualizada em 09/11/2021 16h13

Sem tempo, irmão

  • Meta testa sistema de notificação de conteúdo de ódio em português
  • Atualmente, Facebook e Instagram em inglês contam com tais avisos
  • Empresa também trabalha em implementar recurso em espanhol e árabe
  • Objetivo é educar e desencorajar publicações com discurso hostil, como bullying e assédio

Facebook e Instagram arão a notificar as pessoas que postam conteúdos de ódio em língua portuguesa. O anúncio foi feito pela Meta (companhia controladora das redes sociais) nesta terça-feira (9) durante conferência para jornalistas sobre os padrões de comunidade de suas redes sociais. Apesar do anúncio, não foi especificado quando que os brasileiros arão a visualizar tais avisos.

Esse processo de notificação já aparece para internautas de língua inglesa do Facebook e do Instagram, e agora a companhia faz um movimento para expandir a funcionalidade para outras idiomas. Além do português, a Meta diz realizar testes em espanhol e árabe.

O que muda?

Na prática, as pessoas poderão ver notificações com alertas como: "este post pode conter linguagem racista e é contra as regras da comunidade", diz um exemplo exibido pela rede social escrito em língua inglesa. "Se você publicá-lo, ele poderá ser ocultado para outras pessoas. Caso este comportamento continue, sua conta poderá ser excluída".

Aviso em inglês notifica quando postagem vai contra políticas do Facebook e Instagram; companhia planeja implementar avisos em português - Reprodução/Meta - Reprodução/Meta
Aviso em inglês notifica quando postagem vai contra políticas do Facebook e Instagram; companhia planeja implementar avisos em português
Imagem: Reprodução/Meta

Além deste exemplo de notificação sobre racismo, as políticas de aviso também devem, promete a Meta, "educar e desencorajar as pessoas a postar algo que possa incluir discurso hostil, como bullying e assédio".

Anúncio após polêmicas

Ainda que a melhoria de moderação de conteúdo em outras línguas seja uma medida encorajada pelo conselho de supervisão do Facebook, um grupo de especialistas independentes que auxiliam a rede na criação de políticas para melhorar a plataforma, a iniciativa é anunciada em meio ao Facebook Papers, nome que ficou conhecido uma série de reportagens e denúncias baseadas em documentos internos da rede social vazados pela ex-funcionária s Haugen.

Em um dos arquivos internos, por exemplo, é citado que o Brasil é um dos países que mais precisam de moderação de conteúdo, ao lado de Índia e Estados Unidos, o que demonstra que a empresa já estava de olho na questão.

Contudo, o documento vazado do Facebook reforça que o idioma é uma das grandes barreiras da rede social: países grandes acabam recebendo muita atenção e investimento, enquanto países como Mianmar e Etiópia — que atravessam conflitos políticos e sociais — não contam com classificadores de conteúdo, facilitando a disseminação de desinformação e discurso de ódio.

Empresa diz que reduziu discurso de ódio graças à IA

Em conferência para jornalistas, a companhia também deu detalhes dos seus esforços de moderação de conteúdo no terceiro trimestre, especificando porcentagens de conteúdos problemáticos por rede social.

Um dos destaques é a redução de discurso de ódio. No segundo trimestre eram 0,05% contra 0,03% nos últimos três meses.

Outro ponto importante diz respeito ao bullying no Instagram, uma métrica nova divulgada pela controladora das redes sociais. No terceiro trimestre, houve de cinco a seis visualizações desse tipo de conteúdo em 10 mil visualizações (entre 0,05% - 0,06% visualizações).

Importante ressaltar que essas métricas dizem respeito a conteúdos removidos pelas redes, sem a necessidade de um usuário reportar. Portanto, as informações dizem respeito a um subgrupo de uma categoria, pois nem sempre um sistema automatizado consegue distinguir o que é bullying ou não, por exemplo.

A companhia atribui a baixa porcentagem de conteúdos problemáticos a seus sistemas de inteligência artificial.

Ao todo, a Meta diz ter equipes globais de revisão em mais de 70 idiomas e tecnologias de inteligências artificial para checar discurso de ódio em mais de 50 línguas. Além disso, tem realizado investimentos específicos em países em situação de conflito.

Abaixo, o detalhamento de prevalência de discursos problemáticos por rede social:

  • Discurso de ódio

Facebook: 0,03% - três visualizações a cada 10 mil visualizações de conteúdo;

Instagram: 0,02% - duas visualizações a cada 10 mil visualizações de conteúdo.

  • Violência e incitação

Facebook: 0,04% - 0,05% - quatro a cinco visualizações a cada 10 mil visualizações de conteúdo;

Instagram: 0,02% - duas visualizações a cada 10 mil visualizações de conteúdo.

  • Bullying e assédio

Facebook: 0,14% - 0,15% - 14 a 15 visualizações desse conteúdo em 10 mil visualizações;

Instagram: 0,05% - 0,06% - cinco a seis visualizações desse conteúdo em 10 mil visualizações.