KT 에이블스쿨 : 5차 미니프로젝트 (5일차) - 조원 얼굴인식 라벨링
5차 (2) 미니프로젝트
5일차 : 24.04.30 (화)
어제 만든 유명인 얼굴인식 모델의 가중치로
조원들 얼굴을 인식 모델을 만들었다.
수집한 사진은 조원당 100장 이상정도고, epochs는 15정도였는데도 mAP가 0.9 이상으로 성능이 아주 좋았다 !
데이터 수집 및 라벨링
roboflow로도 데이터라벨링을 할 수는 있는데
팀원들의 이미지랑 labels 파일을 합치기 위해서는 로컬에서 작업하는게 좋을 것 같아서
각자 로컬에서 작업하고, 구글 드라이브에 업로드했다.
각자 수집한 얼굴사진의 개수는 100장 이상정도!
train, test 비율은 8:2 정도로 나누었다.
Train (80) | Test (20) | |
Sangjae | 93 | 25 |
Givaek | 80 | 20 |
Seungyeon | 112 | 13 |
Hanna | 80 | 20 |
Juchan | 80 | 20 |
Goeun | 92 | 23 |
Not_member | - | - |
오전동안은 데이터 수집 - 데이터 라벨링했다.
모델링
얼굴인식 모델링을 만드는것은 3번째라 그런지, 얼마 걸리지 않았다.
한시간 안으로 걸린것같다.
어제 epochs 150까지 돌린 best.pt 모델을 사용해서
추가학습으로 우리 조원 얼굴 사진으로 epochs 15정도만 더 돌렸다.
성능은 너무 좋았다....
어제 유명인 얼굴인식에서는 낮고도 낮았는데, 왜이렇게 잘나온지는 모르겠다.
알다가도 모르겠는 딥러닝의 히든레이어 ㅎ,,
F1 곡선, PR 곡선을 보면 기백씨가 0.995로 상당히 높게 나왔다.
수집한 이미지를 확인해보니, 한곳에서 다 각도로 위아래왼오 전부 찍으셔서 그런게 아닐까 추측한다
성능이 높게 잘나와서 조원들 얼굴인식은 잘됐다 ㅎ
뿌듯 ^-----^
아래 PR 곡선은 전날 유명인을 인식하는 모델
epochs를 100번 돌렸을때 이정도였는데, 우리 조원 얼굴 인식에서는 낮은 epochs로도 성능이 더 잘나왔다
발표시간
- 유명인 얼굴 인식 : 모델링 1
얼굴에 대한 디텍션, 사람 얼굴인지 아닌지를 찾기 위한 모델링을 한 것
- 기본적으로 쓰던 yolov8n.pt 말고, yolov8s.pt / yolov8n.pt 다른 모델을 사용했을때 더 성능이 좋게나옴
- yolov8s.pt 를 사용 + 파라미터( epochs:200, patience : 30, seed =1, pretrained =false )
early stopping에 의해 epochs 130에서 정지됨
- 어그노테이션을 하는 이유는 ?
다양성을 늘려서 과적합이 되지 않게 하기 위함
일반적인 상황에서의 성능을 높이기 위해 다양성을 높이는것
- 유명인 인식 모델링(모델1)에서는 전부 서양인이기에 동양인 (검은 머리)를 예측 잘 못한다.
6명 중 한명만 금발이면, 그사람의 예측률이 높은데
나머지가 다 흑발이면 구분이 어려움
성능지표
- PR 곡선
Recall 에 따른 Precision의 변화량
그래프 아래 면적이 AP (average precision)
- mAP
개별 클래스(객체)에 대한 AP의 평균이 mAP
그래프 아래 면적 최댓값은 1
높으면 높을수록 해당 모델의 성능이 좋은 것임
- 객체인식 : 클래스 분류 + 회귀 (바운딩박스 regression)
강사님의 의도
- 유명인 얼굴 데이터셋만을 이용해 얼굴 영역에 대해 잘 추론하는 모델을 만드는 것
- 위의 모델을 이용해 (맞춤화된) 조원 얼굴을 인식하는 모델을 만드는것
- 얼굴 데이터셋이 정말로 얼굴 인식 모델을 만드는데 도움이 되었을까 ?
--> MS COCO로 학습된 모델을 바로 썼어도 똑같이 성능이 나오지 않았을까 ?
내일 발표자료 작성할 내용
- (모델1)
추가학습 시키면 map가 줄어드는 문제 : 왜인지 ? ?
모델1의 성능과 달리 조원얼굴에서는 적은 epochs으로도 학습성능이 아주 좋았던것 : 왜 ?
- (모델2)
각자 라벨링할때 바운딩박스를 설정하는 범위가 다른 문제
모델링 성능비교 : (1) 모델1의 전이학습, (2) 사전학습X, (3) yolov8n에서 모델링
어노테이션을 하면 달라지나 ?
반 전체의 얼굴을 넣었을때 인식하는 가
댓글
댓글 쓰기