본문 바로가기

Computer Vision4

[Yolo] Exception: For an ML Program, extension must be .mlpackage (not .mlmodel) 에러 해결법 CoreML: export failure ❌ 8.9s: For an ML Program, extension must be .mlpackage (not .mlmodel). Please see https://coremltools.readme.io/docs/unified-conversion-api#target-conversion-formats to see the difference between neuralnetwork and mlprogram model types. 혹은 Traceback (most recent call last): File "export.py", line 863, in main(opt) File "export.py", line 858, in main run(**vars(opt)) File .. 2023. 10. 25.
생체 인식 국제 표준 용어 정리 검증(verify) : 바이오인식 정보를 이용하여 신원을 확인할 때, 당사자가 식별자을 제시하면 식별자에 해당하는 저장된 바이오인식 특징정보와 입력된 바이오인식 특징정보를 일 대 일 비교하여 확인하는 것. Precision, Recall, Accuracy 파트와 비슷하나 생체인식 쪽 용어는 조금 다르다. (참고) True Positive(TP) : 실제 True를 True로 예측 (정답) Positive를 True로 예측(정답) False Positive(FP) : 실제 False를 True로 예측 (오답) Negative를 True로 예측(오답) False Negative(FN) : 실제 True를 False로 예측 (오답) Positive를 False로 예측(오답) True Negative(TN) :.. 2023. 10. 18.
Vision Transformer(ViT) 공부 및 간단 구현 예제 Vision Transformer (ViT)는 이미지 처리 분야에서 사용되는 트랜스포머 아키텍처에 기반한 모델. 2020년에 Google Research에서 "AN IMAGE IS WORTH 16X16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE"이라는 논문을 통해 소개되었습니다. ViT는 주로 자연어 처리에서 매우 성공적이었던 트랜스포머를 이미지 인식에 적용하는 혁신적인 접근법을 제시합니다. ViT의 핵심 아이디어 및 구조는 다음과 같습니다: 이미지 패치: 이미지를 여러 개의 고정 크기 패치로 나눕니다. 예를 들어, 224x224 크기의 이미지를 16x16 크기의 패치로 나누면 14x14=196개의 패치가 생성됩니다. 패치 임베딩: 각 패치를 벡터로 평탄화.. 2023. 8. 20.
ResNet 구조를 이용한 AutoEncoder 구현 & 리뷰 Autoencoder(오토인코더) 란? 오토인코더는 딥러닝에서 주로 사용되는 비지도 학습 방법 중 하나입니다. 기본적인 아이디어는 입력 데이터를 압축하여 낮은 차원의 표현으로 만든 뒤, 그 압축된 표현을 사용하여 다시 원래의 입력 데이터를 재구성하는 것입니다. 이해하기 쉽게 예시를 들어보면, 시험공부를 위해 교재를 요약본을 만든다라고 생각해봅시다. 교재(원본이미지) 를 요약해서 만든 아래 중간 사진이 압축된 낮은 차원인 것이고. 이를 가지고 누가 다시 원래의 교재로 복구한다라고 생각해보시면 편하실 것 같습니다. 오토인코더는 주로 두 부분으로 나뉩니다 1. 인코더 (Encoder): 입력 데이터를 받아 압축된 표현 (latent representation 또는 코드)으로 변환합니다. 2. 디코더 (Deco.. 2023. 8. 16.
728x90