You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
nose를 빼면 joint_num, flip pair등 여러 고쳐야할것들이 많습니다. 그냥 evalation joint set에서 nose를 빼는것이 더 좋아보입니다. 그리고 갖고계신 데이터 셋이 어떻게 생긴지 모르겠지만 H36M train/test하면 train/test set domain gap이 거의 없어서 성능이 좋고 다른 데이터 셋에 train하고 H36M test하시면 domain gap이 있어서 성능이 안좋을수있습니다. 세세한것까지 제가 디버깅을 해드릴수는없으니 디버깅을 먼저 해보시길 권장드립니다
아 그렇군요 답변 감사합니다. 한 개만 더 여쭤볼게요, 제가 학습시킬 때 사용한 sample datasets이 현재 subject 별로 나눠진 것이 아니라 그냥 한 폴더에 다양한 액션의 사진이 섞여있는 형태인데요 이것이 subject별로 나눠서 error를 도출하는 human36을 이용한 test에서 문제가 될 수도 있을까요..?!
개인적인 dataset으로 트레이닝 시킨 모델에
human36을 넣어 테스트 시켰을 때 발생한 오류의 원인이 조인트 갯수가 달라서임을 알고
코드를 수정해서 테스트를 시켰고 성공은 했습니다.
그런데 결과가 원했던 것보다 좋지 않은데,
제가 고친 코드들 이외에 더 손을 봐야할 부분이 있는 걸까요..?
위 사진과 같이,
process_world_coordinate 함수에서 9번 인덱스에 해당하는 nose만 빼고
그 다음 ground truth부터 joint_cam에 저장되도록 코드를 고쳤고요,(현재 joint_num = 17)
human36.py의 __init__부분에서도 nose에 대한 정보를 뺐습니다.
개인적으로 갖고 있는 dataset의 image 품질이 그렇게 좋지는 않은데, 그것 때문일까요..?
아니면 코드상 놓친 부분이 있을지 궁금합니다..
The text was updated successfully, but these errors were encountered: