Estudantes de engenharia da Universidade do Texas A&M criaram um robô quadrúpede equipado com inteligência artificial capaz de interpretar o ambiente, memorizar rotas e responder a comandos de voz de forma semelhante ao raciocínio humano. O objetivo é melhorar o desempenho em operações de busca e salvamento em situações de desastre, onde mapas e sinais de GPS são frequentemente inexistentes ou imprecisos.
Liderados pelos estudantes Sandun Vitharana (mestrado em tecnologia de engenharia) e Sanjaya Mallikarachchi (doutorado em engenharia interdisciplinar), o projeto integra câmeras, algoritmos avançados e um modelo de linguagem multimodal (MLLM) personalizado que combina imagens e linguagem para análise situacional e tomada de decisão.
Leia mais:
- Robôs cuidadores ganham força no Japão para enfrentar crise de demência
- Robô humanoide dá novo passo para ser integrado na agricultura vertical na Malásia
- Vídeo: robô humanoide surpreende ao correr quase como um humano
Como funciona o sistema de navegação
O coração do robô é um sistema de navegação baseado em memória acionado por um MLLM, que interpreta entradas visuais e escolhe rotas ideais. Diferente de métodos tradicionais que dependem apenas de marcadores ou sensores simples, essa abordagem permite ao robô recordar caminhos já percorridos e evitar explorações redundantes. Além disso, ela conta com sistemas computacionais mais complexos que equipam diferentes fontes sensoriais.
Todavia, navegar em locais imprevisíveis e não estruturados, como espaços remotos e lugares onde ocorreram desastres ainda é um grande desafio na exploração autônoma.
O modelo também combina capacidades reativas — como desviar de obstáculos — com planejamento deliberado de trajeto, conferindo ao robô uma habilidade de decisão que se aproxima da humana. Segundo os desenvolvedores, essa arquitetura híbrida deve se tornar referência para futuros sistemas robóticos com comportamentos similares aos humanos.
Aplicações potenciais
Embora o foco principal seja missões de resgate, o potencial de uso dessa tecnologia vai além de cenários de emergência. Hospitais e grandes armazéns, por exemplo, poderiam incorporar esses robôs para otimizar rotas internas e auxiliar na logística. Outras aplicações em ambientes de alto risco, como exploração de minas ou reconhecimento em áreas perigosas, também estão sendo consideradas.
O sistema de navegação avançado pode ainda beneficiar pessoas com deficiência visual e ampliar as fronteiras da interação entre humanos e máquinas, ao permitir uma comunicação mais natural e eficiente com o robô.
Visão dos pesquisadores e próximos passos
O projeto contou com orientação do professor assistente Isuru Godage, que segundo o portal TechXplore, ressaltou a importância de colocar modelos de linguagem multimodal diretamente no robô (“na borda”), agilizando sua capacidade de tomada de decisão sem depender de processamento remoto.
“O cerne da nossa visão é implantar o MLLM na borda , o que proporciona ao nosso cão robô a consciência situacional imediata e de alto nível, além da inteligência emocional, antes impossíveis”, comentou Godage.
“Isso permite que o sistema preencha a lacuna de interação entre humanos e máquinas de forma integrada. Nosso objetivo é garantir que essa tecnologia não seja apenas uma ferramenta, mas uma parceira verdadeiramente empática, tornando-a o sistema mais sofisticado e pronto para resposta a emergências em qualquer ambiente não mapeado”, completou.
A equipe apresentou os avanços recentemente na 22ª Conferência Internacional sobre Robôs Ubíquos, onde demonstrou a integração do MLLM com sensores e controles adaptativos. A pesquisa foi publicada nos anais do evento.
O post Robô-cão com IA combina visão, memória e tomada de decisão para missões de resgate apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2025/12/12/ciencia-e-espaco/robo-cao-com-ia-combina-visao-memoria-e-tomada-de-decisao-para-missoes-de-resgate/
