공을 감지하고 차는 휴머노이드 로봇, 입자 테키온과 엣지 임펄스로 실현되다¶
원제목: ROS 2 Pick-and-Kick with Particle Tachyon and Edge Impulse - Hackster.io
핵심 요약
- 휴머노이드 로봇이 엣지 AI 가속기를 활용해 실시간으로 공을 감지하고 킥하는 기술이 시연되었음.
- ROS 2와 Edge Impulse, YOLO-Pro 모델의 통합으로 복잡한 로봇 제어가 효율화되었음.
- Particle Tachyon과 Qualcomm AI Engine의 결합으로 기존 대비 향상된 성능과 빠른 추론 속도를 보여줌.
상세 내용¶
본 프로젝트는 입자 테키온(Particle Tachyon)과 퀄컴 AI 가속기를 탑재한 휴머노이드 로봇을 통해 공을 실시간으로 감지하고 킥하는 자율적인 능력을 선보입니다. 이 로봇은 Edge Impulse에서 학습된 YOLO-Pro 모델을 사용하여 빠르고 정확한 공 인식을 가능하게 합니다. Perception(인지), Decision-Making(의사 결정), Motion Control(동작 제어) 기능을 Seamless하게 통합하기 위해 ROS 2(Robot Operating System 2)가 핵심적인 역할을 수행합니다. 특히, 퀄컴 AI 가속기에 최적화된 YOLO-Pro 모델은 엣지 컴퓨팅 환경에서 실시간 공 탐지를 높은 정확도로 구현합니다. 시스템은 시각적 입력을 처리하고, 움직임 궤적을 계획하며, 자율적으로 정밀한 킥 동작을 실행합니다. 이 혁신적인 시스템은 embodied AI(체화된 인공지능), 엣지 컴퓨팅, 그리고 로봇 공학의 시너지를 통해 역동적이고 실제적인 과제를 해결하는 능력을 보여줍니다.
하드웨어 구성에서 핵심은 퀄컴 Dragonwing QCM6490 SoC를 탑재한 Particle Tachyon입니다. 이 SoC는 옥타코어 Qualcomm Kryo CPU, Qualcomm Adreno 643 GPU, 그리고 12 TOPS의 AI 연산 능력을 갖춘 Qualcomm Hexagon 770 DSP를 포함하고 있습니다. 로봇으로는 24개의 시리얼 버스 서보와 머리에 장착된 640x480 해상도의 USB 카메라를 갖춘 HiWonder AiNex Biped Humanoid 로봇을 선택했습니다. 이 로봇에는 원래 Raspberry Pi 4가 사전 설치되어 있었으나, 이를 Particle Tachyon으로 교체했습니다.
Particle Tachyon과 퀄컴 AI 가속기를 선택한 이유는 동적인 환경에서 빠른 반응 속도가 요구되는 공 탐지를 위한 신속한 추론 능력을 확보하기 위함입니다. Particle Tachyon은 Raspberry Pi 4와 동일한 폼팩터를 공유하지만, USB 및 LAN 커넥터를 5G 안테나로 대체했습니다. 기존 Raspberry Pi 4를 Particle Tachyon으로 교체하는 과정은 매우 직관적이었습니다. 로봇의 후면 커버를 제거하고 컨트롤러 엣과 Raspberry Pi 4를 나사로 분리한 후, 4개의 육각 스탠드오프를 사용하여 Particle Tachyon을 장착했습니다. 이후 로봇 컨트롤러 엣을 Particle Tachyon의 40핀 헤더에 연결하고 나사로 고정하는 방식으로 작업이 완료되었습니다.
로봇 컨트롤러 엣은 24개의 시리얼 버스 서보와 연결되며, 11.1V, 3500mAh LiPo 배터리로부터 Particle Tachyon(40핀 헤더의 5V 전원 핀을 통해) 및 서보에 전력을 공급합니다. Particle Tachyon의 전력 소비량을 5G, USB 웹캠, AI 가속기 실행 시점에 맞춰 측정한 결과, 일반적으로 800mA 미만을 유지했으며 최고 1.2A까지 도달하는 순간적인 피크를 보였습니다. Particle Tachyon 설정을 위해서는 developer.particle.io/tachyon/setup/install-setup에서 제공하는 가이드라인을 따랐으며, 완료 후 WiFi를 통한 헤드리스 모드 SSH 접속이 가능했습니다. 헤드리스 모드를 선택한 이유는 로봇에 직접 탑재될 예정이라 데스크톱 인터페이스가 필요하지 않았기 때문입니다.
HiWonder AiNex 드라이버 및 SDK는 ROS 1 Noetic에 의존하는데, 이는 2025년 5월 31일에 지원이 종료됩니다. 또한, Python 3.8 기반의 Kinematics 라이브러리는 Ubuntu 20.04에서는 문제없이 작동하지만, 더 최신 Python 버전을 사용하는 Ubuntu 22.04 또는 24.04와의 호환성 문제가 있었습니다. 다행히 Particle Tachyon은 Ubuntu 20.04를 네이티브로 지원합니다. ROS 2 Humble 및 Jazzy는 Ubuntu 20.04에서 APT로는 설치가 어렵지만, ROS 2 Humble은 소스 컴파일을 통해 설치가 가능합니다. 따라서 Particle Tachyon과 Ubuntu 20.04 조합은 ROS 2 Humble과 AiNex Kinematics 라이브러리를 사용하기에 최적의 선택이었습니다. 더불어 RPI.GPIO 라이브러리가 Particle Tachyon에서 지원되지 않아 Adafruit Blinka로 대체했으며, 이는 libgpiod를 사용하여 GPIO 기능을 구현하여 Particle Tachyon과 호환됩니다. 기존 ROS 1 코드는 모두 ROS 2로 재작성 및 포팅되었습니다.
편집자 노트¶
이번 프로젝트는 휴머노이드 로봇이 단순히 정해진 동작을 수행하는 것을 넘어, 실시간으로 주변 환경을 인지하고 능동적으로 반응하는 '지능형 로봇'의 가능성을 보여준다는 점에서 주목할 만합니다. 특히, 공을 정확히 감지하고 '킥'하는 능력은 로봇이 복잡하고 동적인 환경에서 실제적인 임무를 수행할 수 있음을 시사합니다. 이는 가정용 로봇, 산업 현장의 자동화 로봇, 그리고 미래의 엔터테인먼트 로봇 등 다양한 분야에 혁신적인 변화를 가져올 수 있습니다.
이 프로젝트의 핵심은 '엣지 AI'와 'ROS 2'라는 두 가지 최신 기술의 성공적인 융합입니다. 엣지 AI는 데이터를 중앙 서버로 보내지 않고 로봇 자체에서 실시간으로 분석하는 기술로, 빠른 반응 속도가 필수적인 로봇에게 매우 중요합니다. 퀄컴의 AI 가속기는 이러한 엣지 AI 연산 능력을 극대화하여, 복잡한 영상 인식 모델인 YOLO-Pro를 로봇 내에서 효율적으로 구동할 수 있게 합니다. 여기에 로봇 개발의 표준 플랫폼인 ROS 2를 도입함으로써, 카메라 센서, AI 모델, 그리고 로봇의 움직임을 제어하는 다양한 소프트웨어 구성 요소들을 유기적으로 연결하고 관리할 수 있게 된 것입니다. 이러한 통합은 로봇 개발 과정을 훨씬 효율적으로 만들고, 더 복잡하고 정교한 기능 구현을 가능하게 합니다.