;(function() { window.createMeasureObserver = (measureName) => { var markPrefix = `_uol-measure-${measureName}-${new Date().getTime()}`; performance.mark(`${markPrefix}-start`); return { end: function() { performance.mark(`${markPrefix}-end`); performance.measure(`uol-measure-${measureName}`, `${markPrefix}-start`, `${markPrefix}-end`); performance.clearMarks(`${markPrefix}-start`); performance.clearMarks(`${markPrefix}-end`); } } }; /** * Gerenciador de eventos */ window.gevent = { stack: [], RUN_ONCE: true, on: function(name, callback, once) { this.stack.push([name, callback, !!once]); }, emit: function(name, args) { for (var i = this.stack.length, item; i--;) { item = this.stack[i]; if (item[0] === name) { item[1](args); if (item[2]) { this.stack.splice(i, 1); } } } } }; var runningSearch = false; var hadAnEvent = true; var elementsToWatch = window.elementsToWatch = new Map(); var innerHeight = window.innerHeight; // timestamp da última rodada do requestAnimationFrame // É usado para limitar a procura por elementos visíveis. var lastAnimationTS = 0; // verifica se elemento está no viewport do usuário var isElementInViewport = function(el) { var rect = el.getBoundingClientRect(); var clientHeight = window.innerHeight || document.documentElement.clientHeight; // renderizando antes, evitando troca de conteúdo visível no chartbeat-related-content if(el.className.includes('related-content-front')) return true; // garante que usa ao mínimo 280px de margem para fazer o lazyload var margin = clientHeight + Math.max(280, clientHeight * 0.2); // se a base do componente está acima da altura da tela do usuário, está oculto if(rect.bottom < 0 && rect.bottom > margin * -1) { return false; } // se o topo do elemento está abaixo da altura da tela do usuário, está oculto if(rect.top > margin) { return false; } // se a posição do topo é negativa, verifica se a altura dele ainda // compensa o que já foi scrollado if(rect.top < 0 && rect.height + rect.top < 0) { return false; } return true; }; var asynxNextFreeTime = () => { return new Promise((resolve) => { if(window.requestIdleCallback) { window.requestIdleCallback(resolve, { timeout: 5000, }); } else { window.requestAnimationFrame(resolve); } }); }; var asyncValidateIfElIsInViewPort = function(promise, el) { return promise.then(() => { if(el) { if(isElementInViewport(el) == true) { const cb = elementsToWatch.get(el); // remove da lista para não ser disparado novamente elementsToWatch.delete(el); cb(); } } }).then(asynxNextFreeTime); }; // inicia o fluxo de procura de elementos procurados var look = function() { if(window.requestIdleCallback) { window.requestIdleCallback(findByVisibleElements, { timeout: 5000, }); } else { window.requestAnimationFrame(findByVisibleElements); } }; var findByVisibleElements = function(ts) { var elapsedSinceLast = ts - lastAnimationTS; // se não teve nenhum evento que possa alterar a página if(hadAnEvent == false) { return look(); } if(elementsToWatch.size == 0) { return look(); } if(runningSearch == true) { return look(); } // procura por elementos visíveis apenas 5x/seg if(elapsedSinceLast < 1000/5) { return look(); } // atualiza o último ts lastAnimationTS = ts; // reseta status de scroll para não entrar novamente aqui hadAnEvent = false; // indica que está rodando a procura por elementos no viewport runningSearch = true; const done = Array.from(elementsToWatch.keys()).reduce(asyncValidateIfElIsInViewPort, Promise.resolve()); // obtém todos os elementos que podem ter view contabilizados //elementsToWatch.forEach(function(cb, el) { // if(isElementInViewport(el) == true) { // // remove da lista para não ser disparado novamente // elementsToWatch.delete(el); // cb(el); // } //}); done.then(function() { runningSearch = false; }); // reinicia o fluxo de procura look(); }; /** * Quando o elemento `el` entrar no viewport (-20%), cb será disparado. */ window.lazyload = function(el, cb) { if(el.nodeType != Node.ELEMENT_NODE) { throw new Error("element parameter should be a Element Node"); } if(typeof cb !== 'function') { throw new Error("callback parameter should be a Function"); } elementsToWatch.set(el, cb); } var setEvent = function() { hadAnEvent = true; }; window.addEventListener('scroll', setEvent, { capture: true, ive: true }); window.addEventListener('click', setEvent, { ive: true }); window.addEventListener('resize', setEvent, { ive: true }); window.addEventListener('load', setEvent, { once: true, ive: true }); window.addEventListener('DOMContentLoaded', setEvent, { once: true, ive: true }); window.gevent.on('allJSLoadedAndCreated', setEvent, window.gevent.RUN_ONCE); // inicia a validação look(); })();
  • AssineUOL
Topo

Seu cachorro pode obedecer melhor a um robô do que a você mesmo

Cão atende a comando de robô durante experimento realizado nos EUA - Social Robotics Lab/Yale University
Cão atende a comando de robô durante experimento realizado nos EUA Imagem: Social Robotics Lab/Yale University

Thiago Varella

Colaboração para Tilt

17/05/2020 04h00

Faça um teste: se o seu cachorro obedece aos seus comandos, grave um áudio com uma ordem e deixe-o ouvir. Muito provavelmente, seu cãozinho irá ignorar completamente a gravação, mesmo tendo a sua voz. Mas será que os cães obedecem ordens de robôs?

Uma pesquisa feita por cientistas do Laboratório de Robótica Social da Universidade de Yale, nos EUA, aponta que sim, dependendo do robô.

No experimento, 34 cachorros tiveram de responder a comandos dados por uma caixa de som ou pelo robô humanoide Nao, da SoftBank Robotics. Na mesma sala, também ficaram um pesquisador e o cuidador do cão.

Parte dos cachorros teve de responder ao robô e outra parte à caixa de som. O comando dado foi simplesmente dizer o nome do cãozinho. Depois, tanto o Nao quanto a caixa de som conversaram um pouco com o cuidador do animal e, em seguida, o pet recebeu uma guloseima e a ordem de se sentar.

O experimento mostrou que os cães prestaram mais atenção no robô do que na caixa de som. No total, 60% das vezes que o robô deu uma ordem, os cachorros obedeceram, mesmo confusos, contra 20% da caixa de som.

A ideia da pesquisa era apenas mostrar se os cachorros responderiam de alguma forma a robôs sociais. Os pesquisadores não quiseram ver quais fatores influenciaram nisso. Também não está claro a que os cães responderam.

A pesquisadora Meiying Qin, que liderou o estudo, acredita que os cães percebem o robô como um agente, já que tem um corpo e é capaz de interagir de maneira visual e sonora. Pode ser que o fato de o robô ser humanoide tenha ajudado nessa interação com os cães.

O próximo o da pesquisa é descobrir mais detalhes dessa relação entre animais e robôs sociais. Isso pode ser útil até para entender como essas máquinas podem afetar o comportamento de humanos.