Mão robótica hábil manipula milhares de objetos com facilidade

Com apenas um ano de idade, um bebê é mais hábil do que um robô. Claro, as máquinas podem fazer mais do que apenas pegar e largar objetos, mas ainda não chegamos lá no que diz respeito a replicar uma atração natural em direção à manipulação exploratória ou sofisticada. 

A empresa de inteligência artificial OpenAI fez uma tentativa com Dactyl (que significa “dedo”, da palavra grega “daktylos”), usando sua mão de robô humanóide para resolver um cubo de Rubik com software que é um passo em direção a uma IA mais geral, e um passo (longe) da mentalidade comum de tarefa única. A DeepMind criou o “RGB-Stacking ”, um sistema baseado em visão que desafia um robô a aprender como pegar itens e empilhá-los. 

O desenvolvimento da mão

Cientistas do Laboratório de Ciência da Computação e Inteligência Artificial do MIT (CSAIL), na busca sempre presente de fazer com que as máquinas reproduzam as habilidades humanas, criaram uma estrutura mais ampliada: um sistema que pode reorientar mais de 2.000 objetos diferentes, com a mão robótica voltada tanto para cima quanto para baixo.

Essa capacidade de manipular qualquer coisa, de um copo a uma lata de atum e uma caixa pode ajudar a mão a escolher e posicionar objetos de formas e locais específicos – e até mesmo generalizar para objetos invisíveis. 

Este hábil “trabalho manual” – que geralmente é limitado a tarefas únicas e posições verticais – pode ser um trunfo para acelerar a logística e a fabricação, ajudando com demandas comuns, como embalar objetos em slots para kits ou manipular habilmente uma ampla gama de ferramentas. A equipe usou uma mão antropomórfica simulada com 24 graus de liberdade e mostrou evidências de que o sistema poderia ser transferido para um sistema robótico real no futuro. 

Mão
Utilizar um smartphone da mesma maneira que os humanos utilizam ainda é uma tarefa complicada para um robô.

“Na indústria, uma pinça de mandíbula paralela é mais comumente usada, em parte devido à sua simplicidade no controle, mas é fisicamente incapaz de lidar com muitas ferramentas que vemos na vida diária”, diz Tao Chen, estudante de doutorado do MIT CSAIL, membro do MIT Improbable AI Lab e o pesquisador líder do projeto.

“Até mesmo usar um alicate é difícil porque ele não consegue mover uma alça para frente e para trás com destreza. Nosso sistema permitirá que uma mão com vários dedos manipule habilmente essas ferramentas, o que abre uma nova área para aplicações de robótica.”

Este tipo de reorientação de objetos “na mão” tem sido um problema desafiador na robótica, devido ao grande número de motores a serem controlados e à frequente mudança no estado de contato entre os dedos e os objetos. E com mais de 2.000 objetos, o modelo teve muito a aprender. 

O problema se torna ainda mais complicado quando a mão está voltada para baixo. O robô não só precisa manipular o objeto, mas também contornar a gravidade para que ele não caia. 

Como funciona o modelo

A equipe descobriu que uma abordagem simples pode resolver problemas complexos. Eles usaram um algoritmo de aprendizagem por reforço sem modelo (o que significa que o sistema tem que descobrir funções de valor a partir de interações com o ambiente) com aprendizagem profunda e algo chamado método de treinamento “professor-aluno”. 

Para que isso funcione, a rede de “professores” é treinada em informações sobre o objeto e o robô que estão facilmente disponíveis na simulação, mas não no mundo real, como a localização da ponta dos dedos ou a velocidade do objeto. Para garantir que os robôs possam trabalhar fora da simulação, o conhecimento do “professor” é aplicado em observações que podem ser adquiridas no mundo real, como imagens de profundidade capturadas por câmeras, pose de objeto e posições conjuntas do robô.

Eles também usaram um “currículo de gravidade”, onde o robô primeiro aprende a habilidade em um ambiente de gravidade zero e, em seguida, adapta lentamente o controlador à condição de gravidade normal, o que, ao levar as coisas neste ritmo, realmente melhorou o desempenho geral. 

Mão
No desenvolvimento do modelo foram utilizados algoritmos de machine learning.

Embora aparentemente contra-intuitivo, um único controlador (conhecido como cérebro do robô) poderia reorientar um grande número de objetos que nunca tinha visto antes, e sem nenhum conhecimento de forma. 

“Inicialmente pensamos que os algoritmos de percepção visual para inferir a forma enquanto o robô manipula o objeto seriam o principal desafio”, diz o professor Pulkit Agrawal do MIT, autor do artigo sobre a pesquisa. “Ao contrário, nossos resultados mostram que é possível aprender estratégias de controle robustas que são agnósticas. Isso sugere que a percepção visual pode ser muito menos importante para a manipulação do que estamos acostumados a pensar, e estratégias de processamento perceptual mais simples podem ser suficientes.” 

Muitos objetos pequenos e circulares (maçãs, bolas de tênis, bolinhas de gude) tiveram cerca de 100% de taxas de sucesso quando reorientados com a mão voltada para cima e para baixo, com as taxas de sucesso mais baixas, sem surpresa, para objetos mais complexos, como uma colher, um chave de fenda, ou tesoura, chegando perto de 30%. 

Além de trazer o sistema para o campo, uma vez que as taxas de sucesso variam com a forma do objeto, no futuro, a equipe observa que treinar o modelo com base nas formas dos objetos pode melhorar o desempenho. Esse processo levará tempo, no entanto, as possibilidades para o sistema são inúmeras. Para saber mais, leia a matéria completa no site.

Continue aprendendo sobre o mundo da Indústria 4.0 e suas principais novidades, leia nosso site.

categoria(s):

Marcus Figueiredo

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima