;(function() { window.createMeasureObserver = (measureName) => { var markPrefix = `_uol-measure-${measureName}-${new Date().getTime()}`; performance.mark(`${markPrefix}-start`); return { end: function() { performance.mark(`${markPrefix}-end`); performance.measure(`uol-measure-${measureName}`, `${markPrefix}-start`, `${markPrefix}-end`); performance.clearMarks(`${markPrefix}-start`); performance.clearMarks(`${markPrefix}-end`); } } }; /** * Gerenciador de eventos */ window.gevent = { stack: [], RUN_ONCE: true, on: function(name, callback, once) { this.stack.push([name, callback, !!once]); }, emit: function(name, args) { for (var i = this.stack.length, item; i--;) { item = this.stack[i]; if (item[0] === name) { item[1](args); if (item[2]) { this.stack.splice(i, 1); } } } } }; var runningSearch = false; var hadAnEvent = true; var elementsToWatch = window.elementsToWatch = new Map(); var innerHeight = window.innerHeight; // timestamp da última rodada do requestAnimationFrame // É usado para limitar a procura por elementos visíveis. var lastAnimationTS = 0; // verifica se elemento está no viewport do usuário var isElementInViewport = function(el) { var rect = el.getBoundingClientRect(); var clientHeight = window.innerHeight || document.documentElement.clientHeight; // renderizando antes, evitando troca de conteúdo visível no chartbeat-related-content if(el.className.includes('related-content-front')) return true; // garante que usa ao mínimo 280px de margem para fazer o lazyload var margin = clientHeight + Math.max(280, clientHeight * 0.2); // se a base do componente está acima da altura da tela do usuário, está oculto if(rect.bottom < 0 && rect.bottom > margin * -1) { return false; } // se o topo do elemento está abaixo da altura da tela do usuário, está oculto if(rect.top > margin) { return false; } // se a posição do topo é negativa, verifica se a altura dele ainda // compensa o que já foi scrollado if(rect.top < 0 && rect.height + rect.top < 0) { return false; } return true; }; var asynxNextFreeTime = () => { return new Promise((resolve) => { if(window.requestIdleCallback) { window.requestIdleCallback(resolve, { timeout: 5000, }); } else { window.requestAnimationFrame(resolve); } }); }; var asyncValidateIfElIsInViewPort = function(promise, el) { return promise.then(() => { if(el) { if(isElementInViewport(el) == true) { const cb = elementsToWatch.get(el); // remove da lista para não ser disparado novamente elementsToWatch.delete(el); cb(); } } }).then(asynxNextFreeTime); }; // inicia o fluxo de procura de elementos procurados var look = function() { if(window.requestIdleCallback) { window.requestIdleCallback(findByVisibleElements, { timeout: 5000, }); } else { window.requestAnimationFrame(findByVisibleElements); } }; var findByVisibleElements = function(ts) { var elapsedSinceLast = ts - lastAnimationTS; // se não teve nenhum evento que possa alterar a página if(hadAnEvent == false) { return look(); } if(elementsToWatch.size == 0) { return look(); } if(runningSearch == true) { return look(); } // procura por elementos visíveis apenas 5x/seg if(elapsedSinceLast < 1000/5) { return look(); } // atualiza o último ts lastAnimationTS = ts; // reseta status de scroll para não entrar novamente aqui hadAnEvent = false; // indica que está rodando a procura por elementos no viewport runningSearch = true; const done = Array.from(elementsToWatch.keys()).reduce(asyncValidateIfElIsInViewPort, Promise.resolve()); // obtém todos os elementos que podem ter view contabilizados //elementsToWatch.forEach(function(cb, el) { // if(isElementInViewport(el) == true) { // // remove da lista para não ser disparado novamente // elementsToWatch.delete(el); // cb(el); // } //}); done.then(function() { runningSearch = false; }); // reinicia o fluxo de procura look(); }; /** * Quando o elemento `el` entrar no viewport (-20%), cb será disparado. */ window.lazyload = function(el, cb) { if(el.nodeType != Node.ELEMENT_NODE) { throw new Error("element parameter should be a Element Node"); } if(typeof cb !== 'function') { throw new Error("callback parameter should be a Function"); } elementsToWatch.set(el, cb); } var setEvent = function() { hadAnEvent = true; }; window.addEventListener('scroll', setEvent, { capture: true, ive: true }); window.addEventListener('click', setEvent, { ive: true }); window.addEventListener('resize', setEvent, { ive: true }); window.addEventListener('load', setEvent, { once: true, ive: true }); window.addEventListener('DOMContentLoaded', setEvent, { once: true, ive: true }); window.gevent.on('allJSLoadedAndCreated', setEvent, window.gevent.RUN_ONCE); // inicia a validação look(); })();
  • AssineUOL
Topo

Estudantes criam programa que converte Libras em texto

Divulgação
Imagem: Divulgação

Ana Prado

Colaboração para Ecoa, de São Paulo

26/05/2021 06h00

O jovem Luciano dos Anjos Oliveira, de 18 anos, sempre teve vontade de desenvolver softwares para ajudar as pessoas. Esse interesse está relacionado à sua própria vivência e às dificuldades que enfrenta para se comunicar. "Nasci com lábio leporino e isso afeta minha fala. Por conta disso, percebi a dificuldade que pessoas com deficiência - seja ela cognitiva ou comunicativa - enfrentam para viver em sociedade. Por isso, acredito na inclusão social de todos", explica.

Essa foi uma das principais razões que o levaram a entrar no curso de Desenvolvimento de Sistemas da Escola Técnica Estadual (Etec) Lauro Gomes, de São Bernardo do Campo, no ABC Paulista. Segundo o site do processo seletivo das Etecs, essa formação prepara profissionais para projetar e construir sistemas de informação, além de trabalhar com ambientes de desenvolvimento e linguagens de programação.

Quando chegou a hora de fazer o trabalho de conclusão de curso (TCC), Luciano viu aí a chance de colocar seu propósito em prática. Junto com os colegas de classe Vinícius Luciano Navarrete da Silva e Fabrício Holanda de Almeida, ele desenvolveu o Software de Reconhecimento de Sinais, que converte a Língua Brasileira de Sinais (Libras) em texto.

Tecnologia inovadora

O grupo usou sistemas de machine learning (ou aprendizado de máquina) e uma biblioteca de código aberto desenvolvido pelo Google chamada MediaPipe. A partir daí, eles desenvolveram uma aplicação capaz de reconhecer gestos e sinais de mão, rosto e corpo e relacioná-los com a palavra correspondente em texto.

Para isso, foi necessário processar mais de 20 mil vídeos, entre alguns que foram gravados pelos próprios estudantes e outros do Youtube. Os movimentos presentes nos vídeos foram convertidos para coordenadas, que então foram usadas por eles para construir um modelo de rede neural.

Segundo Luciano, é assim que o software é capaz de identificar movimentos por meio de pontos de referência e gerar uma palavra a partir deles. Hoje, o programa já conta com uma biblioteca de 100 sinais reconhecíveis.

O processo tem sido longo, e o grupo chegou a trabalhar 18 horas por dia nas semanas que antecederam a entrega do TCC. "Começamos a pensar no projeto em 2019, e somente em 2020 iniciamos a programação", conta o aluno, acrescentando que o trabalho ainda não está finalizado.

Como se o desafio de trabalhar com tecnologias novas não fosse grande o bastante, a pandemia representou um obstáculo ainda maior. "Esse modelo de rede neural exige muito tempo para ser construído, e tivemos grandes dificuldades porque isso exige um computador potente e focado em inteligência artificial, algo que só eu tinha no grupo", explica Luciano. Por isso, ele ficou responsável pelo desenvolvimento do software enquanto o restante da equipe cuidou da parte de análise e design.

Os alunos também contaram com o apoio de orientadores. Um deles, o professor Cleiton Fabiano Patricio, explica que o projeto é baseado em uma tecnologia não apenas complexa, mas ainda muito nova. "Trabalhar com programação de inteligência artificial exige muita dedicação e foco para que se possa entender toda a arquitetura dela", diz.

O trabalho se destacou na escola e fora dela: ficou em primeiro lugar na feira 1º Feira Científica STEAM (Ciência, Tecnologia, Engenharia, Arte e Matemática) do Grande ABC e em nono na votação popular da 19ª Feira Brasileira de Ciências e Engenharia - Febrace (para a qual o grupo fez o vídeo abaixo). Eles também receberam convite para participar de outras feiras ainda este ano.

Próximos os

Hoje, o grupo está trabalhando para ampliar a base de dados e aprimorar a programação dos sinais, além de incluir a tradução automática de Libras para texto e áudio em português e em outros idiomas.

Eles também pretendem criar um aplicativo para que a solução esteja disponível para ser usada pelo público no dia a dia. "Conseguimos alcançar muitas pessoas com a nossa proposta, mas ainda queremos chegar mais longe", defende Luciano. "Muita gente não tem conhecimento de Libras, e falta ibilidade para os surdos e mudos em hospitais, metrôs e nas empresas. Com esse projeto, será possível levar mais facilidade de comunicação a todos esses lugares".