분류 전체보기
-
[Segmentation] DeconvNet, SegNet, FC DenseNet, DeepLab, DilatedNetComputer Vision & AI/Computer Vision 2024. 2. 22. 17:55
2024.02.10 - [Computer Vision & AI/Computer Vision] - Semantic Segmentation - FCN Semantic Segmentation - FCN FCN Fully Convolutional Network end-to-end 딥러닝 모델의 기본인 FCN https://www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Long_Fully_Convolutional_Networks_2015_CVPR_paper.pdf end-to-end 딥러닝 모델 입력부터 출력까지 프 venypark.tistory.com FCN의 한계 객체의 크기가 크거나 작은 경우 예측을 잘 못함 큰 객체 - 유리창에 비친 자전거가 자전거..
-
[논문리뷰] Depth Anything : Unleashing the Power of Large-Scale Unlabeled DataComputer Vision & AI/논문리뷰 2024. 2. 21. 02:31
github : https://github.com/LiheYoung/Depth-Anything Keyword : Semantic-Assisted Perception, Depth estimation, unlabeled image Depth Anything은 강건한 단안 카메라 depth estimation 기술이다. 어떤 환경의 이미지에서도 가능하게 하기 위해서, 62M의 매우 큰 언라벨드 데이터를 사용하였고, automatic하게 annotation하였다. 그 결과 일반화 에러를 줄였다. 데이터 증강 툴을 사용했고, 사전 학습된 인코더로 이전의 풍부한 정보를 상속받는다. depth 추론 영역에서 SOTA를 달성했다. labeled와 unlabeled 이미지를 모두 사용한다. Monocular Depth ..
-
[부스트캠프 AI tech] 15주차 주간회고 (02/13~02/16)개발자노트/네이버 부스트캠프 AI 2024. 2. 16. 18:56
💗한 주의 평가 연휴의 후유증은 대단했다! 최종 프로젝트를 본격적으로 시작했다. 막막했지만 이번주 모더레이팅을 잘 해서 기초를 잘 잡아놓은 것 같아 뿌듯하다 ㅎㅎ 📖주간 학습 내용 2024.02.10 - [Computer Vision & AI/Computer Vision] - Semantic Segmentation - FCN Semantic Segmentation - FCN FCN Fully Convolutional Network end-to-end 딥러닝 모델의 기본인 FCN https://www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Long_Fully_Convolutional_Networks_2015_CVPR_paper.pdf end-to-e..
-
[Semantic Segmentation] FCNComputer Vision & AI/Computer Vision 2024. 2. 10. 17:44
FCN Fully Convolutional Network end-to-end 딥러닝 모델의 기본인 FCN https://www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Long_Fully_Convolutional_Networks_2015_CVPR_paper.pdf end-to-end 딥러닝 모델 입력부터 출력까지 프로세스를 하나의 모델로 구현한 것 특징 VGG 네트워크 backbone을 그대로 사용 VGG 네트워크의 FC Layer (nn.Linear)를 Convolution으로 대체함 Transposed Convolution을 이용해서 Pixel Wise prediction을 수행함 VGG 3x3의 convolution을 깊게 쌓아서 적은 파라미터..
-
[부스트캠프 AI tech] 13주차 주간회고 (01/29~02/02)개발자노트/네이버 부스트캠프 AI 2024. 2. 2. 20:41
💗한 주의 평가 일주일이 길다면 길었고 짧다면 짧았다. 많은 것을 했다. 대회 관련해서는 좋은 방법을 빠르게 찾아서 시간을 아낄 수 있었다. 화요일은 오프라인 모임을 하고 멘토님과 식사를 했다. 오프에서 뵈어서 너무 반갑고 좋았다. 운영진분을 인터뷰 하는 진귀한 경험도 해봤다 ㅎㅎ.. 목요일은 멘토링으로 면접 스터디를 봤는데 힘들지만 정말 좋은 경험이었다. 내 자신에게 충격을 받았다 (ㅋㅋ...) 최종 프로젝트 주제가 정해져서 진행되고 있다. 잘 진행될 수 있길!! 📖주간 학습 내용 Data Centric 이론 OCR 대회 진행 데이터 증강 EAST 모델 공부 최종 프로젝트 주제 정하기 면접 스터디 Keep - 면접 스터디를 통해 나를 보다 멘토링 시간에 면접 스터디를 진행했는데, 준비하면서 너무 마음이..
-
[부스트캠프 AI tech] 12주차 주간회고 (01/22~01/26)개발자노트/네이버 부스트캠프 AI 2024. 1. 26. 20:47
💗한 주의 평가 OCR을 처음 경험해봤다. 문서 이미지가 이전에 경험해 본 이미지들과 특징이 달라서 초반에는 뭘 해야할지 헤메었다. 일단 대회의 기본 세팅을 해놓고 베이스 코드로 학습을 진행했는데 기본 세팅만으로 F1 score 0.8이 넘었다. 추론 결과를 시각화해서 살펴보니 무엇이 문제인지, 성능을 높이려면 어떤 문제에 포커스를 맞춰야 하는지 알 수 있었다. 그리고 팀원들과 즐겁게 회의하면서 진행해서 좋았다. Annotation 가이드를 정할 때 정말 다양한 케이스가 많아서 룰을 정하는 것이 쉽지 않았다. 또 룰은 정했더라도 이것을 가이드 문서로써 언어로 알아듣기 쉽게 표현하는 것도 어려웠다. 예시 이미지를 첨부하면 이해에 많은 도움이 된다. 개발자로서 문서 표현 능력 또한 중요한 것을 다시금 실감하..
-
대회가 끝났지만 DINO에 미련남아서 학습한 후기개발자노트/네이버 부스트캠프 AI 2024. 1. 23. 11:43
대회 마감 이틀전 DINO를 만났지만 backbone을 swinL로 하니 batch size를 1로 해야 겨우 CUDA out of memory 없이 돌았다. 어제 밤에 돌리고 약 14시간 정도만에 학습이 완료되었는데 제출하려고 하니 제출버튼이 비활성화 되었다. 하지만 제출을 못하더라도 눈으로라도 확인한 결과가 굉장했다! DINO가 배터리를 굉장히 잘 잡는다. 아래 그래프에서도 확인 가능하다. 실험 그래프 다른 모델들과 다르게 학습하면서 점점 우상향 하는 그래프는 아니고 심지어 하향하는 것처럼 보이기도 한다. 그러나 왼쪽의 y축 값을 보면 mAP 50의 값이 0.75~0.77사이로 큰 폭으로 감소하지는 않는다. 다른 클래스들의 결과도 상당하다. 다른 모델들과 비교하면 차이가 확실히 보인다. small은 ..
-
데이터 제작의 중요성을 알아보자Computer Vision & AI/AI 2024. 1. 23. 11:11
서비스향 AI 모델 개발 과정 Project Setup - 모델 요구사항 (처리 시간, 정확도, 서빙 방식, 장비 사양 등) Data Preparation - 데이터셋 준비 (종류, 수량, 정답 라벨) Model Training - 모델 학습 및 디버깅 (요구사항 달성) Deploying - 설치 및 유지보수 (모니터링, 이슈 해결) Data centric : 모델은 고정하고 데이터를 변경해서 성능 올리기 Model centric : 데이터는 고정하고 모델을 변경해서 성능 올리기 첫 릴리즈까지는 50,50 사용 중인 모델의 성능 개선 시에는 80,20정도 데이터 관련 업무가 왜 이렇게 많을까? 왜 어려울까? 1.어떻게 하면 좋을지 알려져 있지 않음 출판되는 논문의 비율도 데이터 관련 : 모델 = 1: 9..
-
재활용 쓰레기 분류를 위한 Object Detection 대회 회고Computer Vision & AI/Computer Vision 2024. 1. 23. 00:53
경험의 누적과 발전 지난 첫 대회의 경험을 통해 이번에는 빠르게 서버 구축을 할 수 있었다. 딥러닝 경진 대회에서 어떤 과정이 필요한지 큰 흐름을 알기 때문에 이번에는 그런 기법들을 왜 사용해야 하는지, 그게 뭔지를 하나하나 확인하면서 공부하고 기록하면서 진행했다. 왜 validation set을 고정으로 하는게 중요한지, 앙상블이 어떤 매커니즘으로 되는지, 딥러닝 학습이 어떤 구조로 돌아가는지, 이해를 기반으로 작업했다. 지난번에는 제대로 못 쓴 git issue, PR도 제대로 사용했다. wandb도 이번에 제대로 사용했고 팀 실험 전체를 함께 관리했다. mmdetection의 docs 페이지에서 직접 검색해가며 라이브러리를 사용했다. 나의 실험에 맞게 custom 하는 방법을 터득했다. Object..
-
Software 1.0 vs Software 2.0Programming/Computer Science 2024. 1. 22. 18:42
Software 1.0과 Software 2.0 소프트웨어 개발 및 딥러닝 분야에서 사용되는 용어 전통적인 소프트웨어 개발 방법과 딥러닝을 비교하여 설명하는 데 사용 Software 1.0 전통적인 소프트웨어 개발 방법 Top-down 방식 장점 : 명시적이고 직관적임 단점 : 복잡하고 다양한 규칙 처리하기에 어려움 SW 1.0 개발과정 문제정의 큰 문제를 작은 문제의 집합으로 분해 개별 문제 별로 알고리즘 설계 솔루션들을 합쳐 하나의 시스템으로 이미지 인식 기술도 처음에는 SW 1.0식으로 개발되었음. 전신이 보이는 경우, 팔이 보이는 경우, 얼굴이 보는 경우, ..... 이런식으로 케이스별로 분해. 예) DPM 그러나 한계가 있었고 이에 대한 해결책으로 Software 2.0이 등장함. SW 2.0에..