embedded/자율주행 로봇 프로젝트

depth & design

crab. 2021. 9. 14. 07:38

우선 yolo미니 프로젝트를 위한 데이터를 만들기 위해 적절한 사진을 골라내는 것은 조원분들이 잘 진행해주시기로 하였고

 

나는 하드웨어디자인에 집중하기로 하였다.

 

그중에서도 제일 시급한 게 뎁스 카메라의 위치 여부였는데 이 카메라가 어디 달리느냐에 따라 우리가 학습시킬 데이터의 구도가 달라지기 때문이다. 

 

우선 강사님의 말을따라 뎁스 카메라를 윈도에서 작동시켜보기로 했다.

 

전에는 젯슨나노에서 실패했고 이제는 윈도가 안 익숙해서 어려울 줄 알았는데...

 

예상외로 너무 잘 풀렸다..

이걸 성공하고 추가로 강사님께서 파이썬 예제코드가 있다고 하셔서 찾고 그걸 돌려보는데 아니 또 잘 풀린다...

왜 잘 풀리는 거지... 심지어 이 윈도-뎁스 설치 과정을 진행하면서 새롭게 찾은 젯슨 계열에 뎁스 설치 과정을 다시 진행해보니 

잘 풀린다...

 

저번에는 몇 시간을 투자해도 안되던 것이 이번에는 잘된다...

 

알게 된 그때 잘못한 점은 오히려 최신 버전으로 설치하지 않았다는 점 아무래도 인텔에서 새로 지원하는 기능이

 

구버전에서는 호환되지 않아 그런 것이다.

 

이렇게 문제를 다 해결하니 그다음에는 이 뎁스 카메라를 이용해 화각을 측정하고 카메라의 위치를 결정해야 했다.

 

이 디자인에는 원래 autocad를 쓰는 게 맞겠지만 autocad는 너무 어렵다는 글을 본 적이 있어서 비교적 쉬운 tinkercad를 사용했다.

실제 d435i의 화각을 공식 홈페이지에서 찾아서 그대로 해봤는데 이 과정들을 진행하면서 느낀 것은 카메라의 화각이 생각보다 훨씬 좁다는 것과 우리의 눈이 생각보다 훨씬 고사양이라는 점이다. 

 

조원들과 많은 토의 끝에 카메라를 전방 하단부 보드를 놓으려고 했던 곳에 달기로 하고 늦었으니 다음에 계속 진행하기로 결정했다.

'embedded > 자율주행 로봇 프로젝트' 카테고리의 다른 글

프로젝트 발표 영상  (0) 2022.01.10
회사와 협업  (0) 2021.09.14