openCV super-resolution
By Imagination is more important than knowledge (지식보다 상상) | 2022년 10월 10일 |
OpenCV super-resolution Super Resolution in OpenCV (learnopencv.com) EDSR Super-resolution benchmarking ---------------------------------------------------------------------------------------------------------------------import cv2import matplotlib.pyplot as plt img1 = img.imread( ''C:/Users/Inho Lee/testAI/data/denoising2/2021.08.09/line/Line 50x_001.tif'')# img1=img1[0:target_height,0:tar
가장 쉬운 autoencoder(자동암호기)를 이용한 차원 축소
By Imagination is more important than knowledge (지식보다 상상) | 2022년 3월 16일 |
가장 쉬운 autoencoder(자동암호기)를 이용한 차원 축소https://en.wikipedia.org/wiki/Autoencoder 자동암호기 (autoencoder, AE)의 용도:data denoisingdimensionality reductionimage recognition anomaly detection semantic segmentationrecommendation engines If linear activations are used, or only a single sigmoid hidden layer, then the optimal solution to an autoencoder is strongly related to principal component analysis (PCA).
Machine Learning in a Year
By 두얼굴의 북극곰님의 이글루입니다 | 2016년 12월 30일 |
이 글은 Per Harald Borgen 이 쓴 Machine Learning in a Year 이라는 글을 제가 번역한 것입니다.원문 링크 :#.dcvsc8a49 Machine Learning in a Year1년안에 머신 러닝 마스터하기From being a total ml noob to start using it at work머신러닝 초급자가 직업으로 사용하기까지. 이것은 제가 작년에 쓴 MachineLearning in a Week 기사로서, 제가 어떻게 5일 간의 수업으로 머신 러닝을 시작하게 됐는지에 대한 이야기입니다. 매우 효과적이었던 소개 이후, 저는 여유 시간에 학습을 계속했으며, 거의 1 년 후에 Xeneta에서 영업 리드를 인증하기 위해 다양한 ml 및 자연 언어
가장 쉬운 랜덤 포레스트 (Random forest)
By Imagination is more important than knowledge (지식보다 상상) | 2020년 1월 19일 |
가장 쉬운 랜덤 포레스트 (Random forest)scikit-learn에서 제공하는 다양한 분류, 회귀 방법들이 있다. 확장성 있는 방법으로서 결정 나무(decision tree)를 사용하는 방법이 독특하다. 일종의 '스무고개'라고 볼 수 있다. 나아가, 나무를 여러 개 사용하는 방법이 개발되어 있다. bootstrap aggregating(bagging)이라는 방법의 하나로 random forest가 있다. 이것은 bootstraping을 사용한다. 즉, 중복을 허용하는 resampling을 시도한다. 따라서, 우리는 다수의 결정 나무들을 가지게 된다. 이를 숲이라고 한다. 임의로 resampling을 했기 때문에 random forest라고 이름을 붙였다. 다시 말해서 기존의 주어진 데이터를 분해해서