Pipelines alimentados por simulação adaptam dados de treinamento para robôs hábeis
Motion Design INSIDER
A PhysicsGen pode multiplicar algumas dezenas de demonstrações de realidade virtual em quase 3.000 simulações por máquina para companheiros mecânicos, como braços e mãos robóticas. (Imagem:Desenhado por Alex Shipps/MIT CSAIL, usando fotos dos pesquisadores)
Quando ChatGPT ou Gemini dão o que parece ser uma resposta de especialista às suas perguntas candentes, você pode não perceber em quanta informação ele depende para dar essa resposta. Tal como outros modelos populares de inteligência artificial generativa (IA), estes chatbots dependem de sistemas de backbone chamados modelos básicos que treinam em milhares de milhões, ou mesmo triliões, de pontos de dados.
Na mesma linha, os engenheiros esperam construir modelos básicos que treinem uma série de robôs em novas habilidades, como pegar, mover e colocar objetos em locais como casas e fábricas. O problema é que é difícil coletar e transferir dados instrucionais entre sistemas robóticos. Você poderia ensinar seu sistema teleoperando o hardware passo a passo usando tecnologia como realidade virtual (VR), mas isso pode ser demorado. O treinamento em vídeos da Internet é menos instrutivo, uma vez que os clipes não fornecem instruções passo a passo de tarefas especializadas para robôs específicos.
Uma abordagem baseada em simulação chamada “PhysicsGen” do Laboratório de Ciência da Computação e Inteligência Artificial do MIT (CSAIL) e do Instituto de Robótica e IA personaliza dados de treinamento de robôs para ajudá-los a encontrar os movimentos mais eficientes para uma tarefa. O sistema pode multiplicar algumas dezenas de demonstrações de VR em quase 3.000 simulações por máquina. Essas instruções de alta qualidade são então mapeadas para as configurações precisas de companheiros mecânicos, como braços e mãos robóticas.
PhysicsGen cria dados que se generalizam para robôs e condições específicas por meio de um processo de três etapas. Primeiro, um fone de ouvido VR rastreia como os humanos manipulam objetos como blocos usando as mãos. Essas interações são mapeadas ao mesmo tempo em um simulador de física 3D, visualizando os pontos-chave de nossas mãos como pequenas esferas que espelham nossos gestos. Por exemplo, se você virar um brinquedo, verá formas 3D representando diferentes partes de suas mãos girando uma versão virtual desse objeto.
O pipeline então remapeia esses pontos para um modelo 3D da configuração de uma máquina específica (como um braço robótico), movendo-os para as “juntas” precisas onde um sistema gira e gira. Finalmente, o PhysicsGen usa otimização de trajetória – essencialmente simulando os movimentos mais eficientes para completar uma tarefa – para que o robô conheça as melhores maneiras de fazer coisas como reposicionar uma caixa.
Cada simulação é um ponto de dados de treinamento detalhado que orienta o robô pelas possíveis maneiras de manusear objetos. Quando implementada numa política (o plano de acção que o robô segue), a máquina tem uma variedade de formas de abordar uma tarefa e pode experimentar diferentes movimentos se um deles não funcionar.
“Estamos criando dados específicos de robôs sem a necessidade de humanos para regravar demonstrações especializadas para cada máquina”, disse Lujie Yang, Ph.D. estudante de engenharia elétrica e ciência da computação e afiliado do CSAIL, autor principal de um novo artigo que apresenta o projeto. “Estamos ampliando os dados de forma autônoma e eficiente, tornando as instruções de tarefas úteis para uma gama mais ampla de máquinas.”
A geração de tantas trajetórias instrucionais para robôs poderia eventualmente ajudar os engenheiros a construir um enorme conjunto de dados para guiar máquinas como braços robóticos e mãos hábeis. Por exemplo, o pipeline pode ajudar dois braços robóticos a colaborar na recolha de itens do armazém e na sua colocação nas caixas certas para entregas. O sistema também pode orientar dois robôs para trabalharem juntos em tarefas domésticas como guardar xícaras.
O potencial do PhysicsGen também se estende à conversão de dados projetados para robôs mais antigos ou ambientes diferentes em instruções úteis para novas máquinas. “Apesar de serem coletados para um tipo específico de robô, podemos reviver esses conjuntos de dados anteriores para torná-los mais úteis em geral”, disse Yang. A PhysicsGen transformou apenas 24 demonstrações humanas em milhares de simulações, ajudando robôs digitais e do mundo real a reorientar objetos.
Yang e seus colegas testaram seu pipeline pela primeira vez em um experimento virtual em que uma mão robótica flutuante precisava girar um bloco até uma posição alvo. O robô digital executou a tarefa com uma taxa de precisão de 81%, treinando no enorme conjunto de dados da PhysicsGen, uma melhoria de 60% em relação a uma linha de base que só aprendeu com demonstrações humanas.
Os pesquisadores também descobriram que o PhysicsGen poderia melhorar a forma como os braços robóticos virtuais colaboram para manipular objetos. Seu sistema criou dados de treinamento extras que ajudaram dois pares de robôs a realizar tarefas com sucesso até 30% mais frequentemente do que uma linha de base puramente ensinada por humanos.
Numa experiência com um par de braços robóticos do mundo real, os investigadores observaram melhorias semelhantes à medida que as máquinas se uniam para virar uma grande caixa para a posição designada. Quando os robôs se desviaram da trajetória pretendida ou manipularam incorretamente o objeto, eles conseguiram se recuperar no meio da tarefa referenciando trajetórias alternativas em sua biblioteca de dados instrucionais.
O autor sênior Russ Tedrake, que é Professor de Engenharia Elétrica e Ciência da Computação, Aeronáutica e Astronáutica e Engenharia Mecânica da Toyota no MIT, disse que esta técnica de geração de dados guiada por imitação combina os pontos fortes da demonstração humana com o poder dos algoritmos de planejamento de movimento do robô.
“Mesmo uma única demonstração de um ser humano pode tornar o problema de planejamento de movimento muito mais fácil”, disse Tedrake, que também é vice-presidente sênior de grandes modelos de comportamento no Toyota Research Institute e investigador principal do CSAIL. “No futuro, talvez os modelos básicos sejam capazes de fornecer essas informações, e esse tipo de técnica de geração de dados fornecerá uma espécie de receita pós-treinamento para esse modelo.”
Em breve, o PhysicsGen poderá ser estendido para uma nova fronteira:diversificar as tarefas que uma máquina pode executar. “Gostaríamos de usar o PhysicsGen para ensinar um robô a despejar água quando ele só foi treinado para guardar pratos, por exemplo”, diz Yang. “Nosso pipeline não gera apenas movimentos dinamicamente viáveis para tarefas familiares; ele também tem o potencial de criar uma biblioteca diversificada de interações físicas que acreditamos que podem servir como blocos de construção para a realização de tarefas inteiramente novas que um ser humano ainda não demonstrou.”
A criação de muitos dados de treinamento amplamente aplicáveis pode eventualmente ajudar a construir um modelo básico para robôs, embora os pesquisadores do MIT alertem que este é um objetivo um tanto distante. A equipe liderada pelo CSAIL está investigando como a PhysicsGen pode aproveitar recursos vastos e não estruturados – como vídeos da Internet – como sementes para simulação. O objetivo:transformar o conteúdo visual do dia a dia em dados ricos e prontos para robôs que possam ensinar as máquinas a realizar tarefas que ninguém lhes mostrou explicitamente.
Yang e seus colegas também pretendem tornar o PhysicsGen ainda mais útil para robôs com diversas formas e configurações no futuro. Para que isso aconteça, eles planejam aproveitar conjuntos de dados com demonstrações de robôs reais, capturando como as articulações robóticas se movem em vez das humanas.
Os pesquisadores também planejam incorporar o aprendizado por reforço, onde um sistema de IA aprende por tentativa e erro, para fazer com que a PhysicsGen expanda seu conjunto de dados além dos exemplos fornecidos por humanos. Eles podem aumentar seu pipeline com técnicas avançadas de percepção para ajudar um robô a perceber e interpretar visualmente seu ambiente, permitindo que a máquina analise e se adapte às complexidades do mundo físico.
Por enquanto, PhysicsGen mostra como a IA pode nos ajudar a ensinar diferentes robôs a manipular objetos dentro da mesma categoria, especialmente os rígidos. O pipeline poderá em breve ajudar os robôs a encontrar as melhores maneiras de manusear itens macios (como frutas) e deformáveis (como argila), mas essas interações ainda não são fáceis de simular.
Fonte
Sensor
- Válvulas pneumáticas mais inteligentes aprimoram os sistemas de automação
- Micro-PLCs poderosos aprimoram equipamentos e sistemas de teste
- O revolucionário transistor Hardy melhora o monitoramento da segurança do reator nuclear
- Construção de telescópio gigante vista através de uma lente industrial
- Gerenciamento preciso de fluxo de líquido:guia de cálculo de orifício para operações industriais confiáveis
- Qualidade 4.0:como as redes de sensores IoT sem fio estão remodelando a fabricação
- Domine os usos de fontes de alimentação CC programáveis:automatize testes e controle de precisão
- Microfone detecta turbulência a centenas de quilômetros de distância
- Ambarella visa detecção inteligente de bordas com nova câmera SoC
- Sistema inovador de detecção de formato e contato aumenta a segurança de robôs contínuos