Intel RealSense 카메라의 HandDetect 기능을 테스트 해 봤습니다.

 

한손으로 손을 쥐었을때 3D Model 을 회전 시키고,

 

양손일때는 손을 쥐었을때는 깊이를 감지해 3D 모델을 밀거나 당기는 예제를 만들어 봤습니다.

 

 

동작 방식을 테스트 하기 위해 다양한 모드를 넣었는데요. 


스켈리톤 모드에서 Label 체크를 하지 않았을때는 Depth 맵 전체가 나옵니다.

Label 체크를 했을때는 손만 나오게 됩니다. 


커서 모드에서 Depth 라벨을 체크하지 않았다면 손을 쥐었을대 3D 모델을 회전시킵니다.

Depth 라벨을 체크 했다면 손을 폈을때 회전 시키고 손을 쥐었을때 손의 깊이에 따라 3D 모델을 당기거나 미는 효과를 줍니다. 


Kinect 보다 섬세하고 자연스러운 컨트롤이 가능합니다.

 

다만 20cm 에서 150m 정도의 깊이만 감지 할 수 있다는점과, 


보다 먼 거리에서는 얼굴, 손, 등의 인식도 잘 안된다는것이 아쉽습니다.


테스트 결과 1.5m ~ 3 m 까지는 불안정하지만 얼굴이나 손은 인식 했던것 같습니다. 

 

보다 먼 거리를 테스트 할 수 있는 RealSense 시리즈 기기도 있지만 수중에 재고가 없어 테스트 해보지는 못했습니다.

 

 

왼손인지 오른손인지, 손을 쥐었는지 폈는지, 몇번째 손가락인지 등등의 자세한 내용 까지고 감지가 가능했습니다.

 

깊이 지각 기능을 더하면 동영상과 같은 재미있는 인터렉션이 가능합니다. 간단한 게임 정도는 금방 만들겠네요.


git: https://github.com/acidkay9731/BLOG_RS_HandTracking

+ Recent posts