[c/ c++]1,2,3 더하기-2가지 방법
By 별일없는 범고래님의 이글루입니다 | 2018년 6월 27일 |
백준 알고리즘의 1,2,3 더하기 문제이다. dynamic을 이용하여 풀었다.이 문제를 풀땐 점화식을 세우고 그 점화식을 통해 문제를 해결해야한다. N이라는 숫자를 만들려면 N = ? + ? + ? + .... + ? + 1 로 만드는 방법 1. N = N-1 + 1N = ? + ? + ? + .... + ? + 2 로 만드는 방법 2. N = N-2 + 2N = ? + ? + ? + .... + ? + 3 로 만드는 방법 3. N = N-3 + 3 3가지가 존재한다. f(N)을 N으로 만드는 개수라고 할때, f(N) = f(N-1) + f(N-2) + f(N-3)으로 나타낼 수 있다. 다음은 topdown을 이용해서 풀어본 코드. [c++] - topdown123456789101112131415
anaconda, 파이썬 설치와 딥러닝 준비 [keras --> tf.keras]
By Imagination is more important than knowledge (지식보다 상상) | 2020년 11월 15일 |
아나콘다? 아나콘다는 패키지 관리와 디플로이를 단순케 할 목적으로 과학 계산을 위해 파이썬과 R 프로그래밍 언어의 자유-오픈 소스 배포판이다. 패키지 버전들은 패키지 관리 시스템 conda를 통해 관리된다. 아나콘다 배포판은 1300만 명 이상의 사용자들이 사용하며 윈도우, 리눅스, macOS에 적합한 1,400개 이상의 유명 데이터 과학 패키지가 포함되어 있다. anaconda, 파이썬 설치와 딥러닝 준비 [keras --> tf.keras] 아나콘다에 텐서플로를 설치하면 곧바로 딥러닝을 시작할 수 있다. Tensorflow 2.0으로 새롭게 시작하는 tensorflow keras --> tf.keras 파이썬 실행환경 구축, 딥러닝 환경구축:anaconda 설치 [32bi
image data, CNN, and Bayesian optimization [keras, tensorflow]
By Imagination is more important than knowledge (지식보다 상상) | 2021년 2월 25일 |
CNN 모델의 초월 매개변수를 베이지안 옵티마이제이션으로 처리하기 GitHub - dtakao-lab/Nagao2020: Robust Classification of Cell Cycle Phase and Biological Feature Extraction by Image-Based Deep Learninghttps://github.com/dtakao-lab/Nagao2020 LightGBM의 초월 매개변수들을 최적화하는 것이 때때로 중요할 수 있다.Imagination is more important than knowledge (지식보다 상상) : 가장 쉬운 LightGBM 모델 [분류, 회귀] (egloos.com)http://incredible.egloos.com/7479081 이 때, 통상, 베
vanishing gradient problem
By Imagination is more important than knowledge (지식보다 상상) | 2021년 11월 19일 |
vanishing gradient problemVisualizing the vanishing gradient problem (machinelearningmastery.com) 인공신경망의 성공, 즉, deep learning의 성공은 바로 vanishing gradient problem을 해결한 것에서 시작한다. 즉, 역전파 방법에서의 혁신이 이루어졌기 때문이다. 컴퓨터의 발전이 이것을 이루어 낸 것이 아니다. 매우 많은 수의 hidden layer들이 있을 때, 기울기가 감소하는 문제는 무엇인가? 이것은 학습을 진행하는데 어려움을 이야기 하는 것이다. 학습의 방향이 전달되지 않는 현상을 의미한다. 분명이 가중치를 변경시켜야하는 방향을 알고 있지만, 실제로 가중치를 바꾸지 못하는 현상을 말한다. 다시