Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | |||||
| 3 | 4 | 5 | 6 | 7 | 8 | 9 |
| 10 | 11 | 12 | 13 | 14 | 15 | 16 |
| 17 | 18 | 19 | 20 | 21 | 22 | 23 |
| 24 | 25 | 26 | 27 | 28 | 29 | 30 |
| 31 |
Tags
- 우분투 크롬 설치
- moveit2
- OpenClip
- ubuntu 24.04
- Ubuntu Chrome 설치
- 24.04 Chrome 설치
- 와이파이 어댑터가 없습니다
- 감속기
- RTX5080
- teleop
- 24.04
- ROS2
- 전기차 구성
- remote development
- SO-ARM101 카메라
- docker
- remote ssh
- numpy
- SO-arm101
- 아이작심
- SO-arm
- vlm
- 24.04LTS
- vscode 가상환경 만들기
- smolVLA
- lerobot
- isaac-sim
- teleoperation
- VLA
- sm120
Archives
- Today
- Total
찹쌀이네 공부 공간
[VLA] SO-ARM 101 Smol-VLA 구현해보기 본문
SO-ARM 101로 Smol-VLA를 구현해보기 위해 첫째 아들이 갖고 노는 빨간 블럭을 옮기는 데이터셋을 tele-operation으로 만들었다.
참고로, 각 관절 값을 카메라뷰와 함께 확인하는 코드는 아래와 같다.
lerobot-teleoperate \
--robot.type=so101_follower \
--robot.port=/dev/ttyACM1 \
--robot.id=my_awesome_follower_arm \
--robot.cameras="front:
type: opencv
index_or_path: 0
width: 640
height: 480
fps: 30" \
--teleop.type=so101_leader \
--teleop.port=/dev/ttyACM0 \
--teleop.id=my_awesome_leader_arm \
--display_data=true

데이터셋을 모으는 코드는 아래와 같다.
lerobot-record \
--robot.type=so101_follower \
--robot.port=/dev/ttyACM1 \
--robot.id=so101_follower \
--teleop.type=so101_leader \
--teleop.port=/dev/ttyACM0 \
--teleop.id=so101_leader \
--robot.cameras="front:
type: opencv
index_or_path: 0
width: 640
height: 480
fps: 30" \
--dataset.repo_id=local/so101_dataset_251224 \
--dataset.single_task="Pick up the red block and place it on the transparent box." \
--dataset.num_episodes=30 \
--dataset.episode_time_s=11 \
--dataset.reset_time_s=3 \
--dataset.video=true \
--dataset.push_to_hub=false \
--display.data = true
위 명령어 실행 시, 아래와 같이 카메라와 각 관절 값까지 Display해준다.
Display 명령어는 위 명령어 중 --display.data = true 이다.
Train 명령어는 아래와 같다.
lerobot-train \
--policy.type=smolvla \
--dataset.repo_id=local/so101_dataset_251224 \
--dataset.video_backend=pyav \
--policy.device=cuda \
--output_dir=outputs/smolvla_so101_pick_place_v1 \
--batch_size=16 \
--steps=8000 \
--save_freq=1000 \
--policy.push_to_hub=false
Inference 명령어는 아래와 같다.
lerobot-record \
--robot.type=so101_follower \
--robot.port=/dev/ttyACM1 \
--robot.id=so101_follower \
--robot.cameras="front:
type: opencv
index_or_path: 0
width: 640
height: 480
fps: 30" \
--dataset.repo_id=local/eval_so101_pick_place \
--dataset.single_task="Pick up the red block and place it on the transparent box." \
--dataset.num_episodes=1 \
--dataset.episode_time_s=10 \
--dataset.reset_time_s=2 \
--dataset.video=true \
--dataset.push_to_hub=false \
--display_data=true \
--policy.path=outputs/smolvla_so101_pick_place_v1/checkpoints/last/pretrained_model \
--policy.device=cuda


다음엔 multi cam(Front cam, Gripper cam)으로 시도할 예정이고, 각 경량 VLA 모델마다 차이점과 성능 비교도 해보려고 한다.
끝.
'Vision Language Action, VLA' 카테고리의 다른 글
| [ROS2] Moveit2 설치 및 실행 (0) | 2026.03.23 |
|---|---|
| [issac sim] 설치 방법 (0) | 2026.02.15 |
| [VLA] SO-ARM101 Camera 연결 테스트 (0) | 2025.12.17 |
| [VLA] SO-ARM101 캘리브레이션 (0) | 2025.12.02 |
| [VLA] SO-ARM 101 로봇팔 조립 (0) | 2025.12.01 |