목록AI (7)
:)

https://arxiv.org/pdf/2004.10934v1.pdf main goal : designing a fast operating speed of an object detector in production systems and optimization for parallel computations 1080Ti, 2080Ti 사용 단일 GPU에 적합 BOF, BOS 기법 적용 Object detection models backbone(입력 이미지를 feature map으로 변형) VGG ResNet ResNeXt DenseNet head(Backbone에서 추출한 feature map의 location 작업) - 두 종류로 구분 one-stage object detector : Dense Predi..

Perception 기술 분류 다양한 특징을 가지는 센서 사용 센서의 고유한 특징을 활용하여, 종합적인 정보를 추정. Detection Vision, LiDAR, RADAR 등 다양한 센서를 활용하여 주행 환경에 존재하는 특정 Object 검출 Vision 기반의 2D Image Object Detection, LiDar or RADAR를 활용한 3D Point Cloud Object Detection등이 있음. 최근 Vision 기반의 3D Object Detection을 검출하려는 다양한 노력이 있음.(속도, 속력을 추정하기 위해 3d를 사용) Tracking Tracking은 검출한 객체의 고유한 ID를 부여하고, 해당 객체가 동일한 객체임을 추적하는 기술 다중 객체를 추적하는 Multiple Ob..

Architecture Darknet-53(backborn) : 앞단의 feature map이 뒤에 더해지는 방식. input image에 대한 geometrical, object의 정보들을 직접 forward하면서 Feature map이 생성됨 앞단에서 뽑힌 feature map이 중간중간 더해지면서 정보를 섞어준다. 중간단계 79번째에서 grid를 만들면서 output을 내고 91번째 layer에서 convolution 몇번 타고 grid를 만들면서 output을 내고 마지막 단계에서 객체를 예측할 수 있게 feature map 생성 단계별로 뽑아서 객체를 prediction 하기 때문에 이전 모델보다 장점이 있음 Prepare data Annotation labeling format Yolo lab..

Object classification : What is the object in an image Object localization : What and where is the "single" object in an image Object detection : What and where is the "multiple" object in an image Classification Classifier -> output : class_score [K, N] K : The number of predicted objects N : The number of class Object localization Regressor -> output : [K + 4] X, Y, W, H : bounding box에 대한 정보를..

weight를 학습하고 갱신하는 과정을 어떤 방법을 쓰느냐에 따라 다르다. 딥러닝에는 Gradient descent method를 방법을 사용 각각의 loss term의 미분 값을 구한 다음 곱해나가면서 기울기 값을 가지고 경사 하강법을 사용해 weight 업데이트하면서 loss 값을 줄이는 방법으로 모델을 학습 SGD - 일반적으로 많이 사용 기존 방법은 train db가 100장이 있으면 100장에 대한 iteration forward 돌고 각각의 loss 값을 구해 loss 값에 대한 미분 값을 구해서 한 번에 갱신. 100개 데이터를 다 본 뒤에 100개 데이터에 나온 loss 값을 통해서 gradient를 계산하고 계산한 값을 한 번에 갱신 100번을 보는 동안 weight를 갱신할 수 없음. ..

CNN (Convolution Neural Networks) 이미지 처리에 특화된 네트워크 convolution Convolutional matrix (3X3, 5X5) 입력 이미지의 기하학적인 정보들을 커널 연산으로 정보를 추출 stride convolution kernel이 sliding window 방식으로 갈때 그 간격 커질수록 연산량이 줄어듬. padding boundary 외곽에 zero value를 넣어줌. input 이미지를 인위적으로 늘려줌. for문을 여러번 사용해 합성곱을 연산할 수 있음.(sliding window) sliding window convolution 방식 -> 연산량이 효율적이지 않음. -> IM2COL & GEMM GPU 연산에선 효율적임.(공간 복잡도는 늘어나나 시..
정보이론 정보이론과 확률통계는 많은 교차점을 가짐 확률 통계는 기계학습의 기초적인 근간 제공 해당 확률 분포 추정 확률 분포 간의 유사성 정량화 정보이론 관점에서도 기계학습을 접근 가능 불확실성을 정량화 하여 정보이론 방법을 기계학습에 활용한 예 엔트로피, 교차 엔트로피, KL 발산(상대 엔트로피) 정보이론 : 사건이 지닌 정보를 정량화 할 수 있나? 정보이론의 기본 원리 -> 확률이 작을수록 많은 정보 자주 발생하는 사건보다 잘 일어나지 않는 사건의 정보량이 많음 자기정보(self information) : 사건(메시지) e의 정보량 h(e)= -logP(e) 예) 동전에서 앞면이 나오는 사건의 정보량의 -log2(1/2)=1 이고, 1이 나오는 사건의 정보량은 -log2(1/6)=2.58 후자의 사건..