'deeplearning4j'에 해당되는 글 7건

08. Logistic Regression :: 2017/11/10 17:01

Logistic Regression


(로지스틱 회귀 : 독립변수의 선형 결합을 이용하여 사건의 발생 가능성을 예측하는데 사용디는 통계 기법, 확률 모델. 로지스틱 회귀의 목적은 일반적인 회귀 분석의 목표와 동일하게 종속 변수와 독립 변수간의 관계를 구체적인 함수로 나타내어 향후 예측 모델에 사용하는 것이다.)

많은 레이어를 가진 심층 신경 네트워크(deep neural network)에서 마지막 레이어는 특별한 역할을 갖는다. 레이블이 지정된 입력을 처리할 때, 마지막 출력 레이어는 가장 가능성 있는 레이블을 적용하여 각 예제를 분류한다. 출력 레이어의 각 노드는 하나의 레이블을 나타내고, 노드는 이전 레이어의 입력과 파라미터로부터 수신한 신호의 강도에 따라 켜지거나 꺼진다.

각 출력 노드는 입력 변수가 레이블을 가질 가지가 있거나 없기 때문에 이진 출력값 0과 1의 2개의 가능한 결과를 생성한다. 어쨌든, 약간의 잉태같은 것은 없다.

레이블이 지정된 데이터로 작업하는 신경망(neural network)은 2진 출력을 생성하지만, 신경망이 받는 입력은 종종 연속적이다. 즉, 네트워크가 입력으로 수신하는 신호는 값들의 범위에 걸쳐 이어져 있고 해결하고자 하는 문제에 따라 많은 수의 메트릭(기준)을 포함하고 있다.

예를 들어, 추천 엔진은 광고를 게재할 것인지 아닌지에 대해 2진 결정을 내려야만 한다. 그러나, 그 결정의 기반이 되는 입력은 지난 주 얼마나 많은 고객이 Amazon에서 시간을 보냈는지, 혹은 고객이 해당 사이트를 얼마나 자주 방문했는지를 포함하고 있다.

따라서 출력 레이어는 기저귀에 67.59달러를 썼고, 웹 사이트에 15회 방문했다는 것과 같은 신호를 0과 1 사이에서 압축을 해야만 한다. 즉, 주어진 입력이 레이블이 붙여져야 하는지 아닌지의 확률을 계산해야 한다.

지속적인 신호를 이진 출력으로 변환하는데 사용하는 메커니즘을 로지스틱 회귀라고 한다. 불행하게도 로지스틱 회귀라는 이름은 대부분의 사람들이 친숙한 선형 의미에서의 회귀 분석보다는 분류를 위해 사용된다. 입력값들의 집합이 레이블에 일치할 확률을 계산한다.

사용자 삽입 이미지






이 작은 수식을 살펴보자.

확률로 표시되는 연속되는 입력의 경우, 음의 확률같은 것이 없기 때문에 양의 결과를 출력해야만 한다. 그래서 출력이 0보다 커야 하기 때문에 분모는 e의 지수가 된다. 이제 e의 지수와 분수 1/1 사이의 관계를 고려해 보자. 알다시피 1은 확률의 결과가 터무니없지 않고는 넘어갈 수 없는 한도이다. (120%로 확신한다.)

레이블을 작동시키는 입력값 x가 증가함에 따라 x에 대한 e의 표현은 0으로 줄어들어서 분수 1/1이나 100%로 남게 된다. 이것은 (언제고 상당히 접근하는 것이 아니라) 레이블에 적용되는 절대 확실성에 도달함을 의미한다. 출력과 음의 상관관계가 있는 입력은 e의 지수에 음수 부호로 뒤집힌 값을 가지게 되고, 음수 신호가 커지면 x에 대한 e의 양이 커져서 전체 분수는 0에 가까워지게 된다.

이제 x를 지수로 갖는 것보다 모든 가중치와 해당 입력값들의 곱을 합한 것, 즉 네트워크를 통과하는 모든 신호를 상상해 보자. 그것이 신경망 분류기(neural network classfier)의 출력 레이어에서 로지스틱 회귀 레이어로 반영되는 것이다.

이 레이어를 사용하면, 위에는 예를 1로 레이블을 지정하고, 아래에는 표시하지 않는 임계값을 결정하여 설정할 수 있다. 원하는 대로 임계값을 다르게 설정할 수 있다. 오류를 어느 쪽에 적용할 것인지에 따라 낮은 임계값은 거짓 양성(false positive:통계상 실제로는 음성인데 검사 결과는 양성이라고 나오는 것, 위양성 혹은 거짓 정보)을 증기시키고, 높은 임계값은 거짓 음성(false negative:통계상 실제로는 양성인데 검사 결과는 음성이라고 나오는 것. 2종 오류. 거짓 양성보다 오탐 비용이 커짐.)을 증가시킨다.


2017/11/10 17:01 2017/11/10 17:01
Trackback Address :: http://www.yongbi.net/trackback/793
[로그인][오픈아이디란?]
오픈아이디로만 댓글을 남길 수 있습니다
Name
Password
Homepage

Secret

07. Activation Functions :: 2017/11/10 16:59

Activation Functions
(활성화 함수 or 출력 함수(transfer functions))

활성화 함수는 노드에서 입력값에 기반하여 어떤 출력값을 생성할지를 결정한다. Sigmoid 활성화 함수가 가장 대중적이며, ReLU가 현재 가장 많이 사용되고 있다. DeepLearning4J에서 활성화 함수는 layer level에 설정되고, 해당 레이어의 모든 뉴런들에 적용된다.

지원되는 활성화 함수는 다음과 같다.
- CUBE
- ELU
- HARDSIGMOID
- HARDTANH
- IDENTITY
- LEAKYRELU
- RATIONALTANH
- RELU
- RRELU
- SIGMOID
- SOFTMAX
- SOFTPLUS
- SOFTSIGN
- TANH

다음과 같이 활성화 함수를 설정할 수 있다.

layer(2, new OutputLayer.Builder(LossFunctions.LossFunction.NEGATIVELOGLIKELIHOOD).activation(Activation.SOFTMAX)

Custom layers, activation functions and loss functions

Deeplearning4j 는 Custom Layer, 활성화 함수(activation functions), 손실 함수(loss functions)를 지원한다.

2017/11/10 16:59 2017/11/10 16:59
Trackback Address :: http://www.yongbi.net/trackback/792
[로그인][오픈아이디란?]
오픈아이디로만 댓글을 남길 수 있습니다
Name
Password
Homepage

Secret

06. Example : Feedforward Networks - Gradient Descent :: 2017/11/10 14:43

Gradient Descent (기울기 하강)

오류가 발생하는 경우에 따라 가중치를 조정하는 데 일반적으로 사용되는 최적화 함수를 "기울기 하강"이라고 부른다.

기울기는 "slope(경사)"의 다른 말이며, 특정 기간 동안 늘어난 비율, 시간 변화에 따른 자금의 변화 등과 같이 일반적인 x-y 그래프의 형태에서는 2개의 변수가 서로 어떻게 연관되어 있는지를 나타낸다. 이와 같이 특별한 경우에, 기울기는 네트워크의 오류와 단일 가중치 사이의 관계를 설명하기도 한다. 예를 들면, 가중치가 조정됨에 따라 오류가 어떻게 변화되는지를 설명할 수 있다.

더 좋은 점을 찍기 위해서, 어느 가중치가 가장 적은 오류를 만드는가? 어느 것이 입력 데이터에 포함되어 있는 신호를 정확하게 설명하고, 올바른 Classification(분류)로 변환하는가? 어느 것이 입력 이미지에서 "코"를 듣고, 프라이팬이 아닌 얼굴로 표시되어야 함을 알 수 있는가?

신경 네트워크(Neural Network)는 학습할 때, 천천히 많은 가중치를 조정하여 신호를 의미하는 바에 정확하게 맵핑할 수 있다. 네트워크 오류와 그 각각의 가중치 사이의 관계는 가중치의 미세한 변화가 오류의 미세한 변화를 야기시키는 정도를 측정하는 미분값(dE/dw)이다.

각 가중치는 많은 변형을 내포하고 있는 심층 네트워크(deep network)의 한가지 요소일 뿐이다. 가중치의 신호는 활성화를 거쳐서 여러 레이어로 합쳐진다. 따라서 미적분학의 Chain Rule(연쇄법칙)을 사용하여 네트워크의 활성화와 출력값들을 되짚어 계산하고, 결과적으로 문제에 맞는 가중치와 전체적인 오류에 대한 관계에 도달한다.

미적분학에서 Chain Rule(연쇄법칙)은 다음과 같다.

사용자 삽입 이미지




전방향 네트워크에서, 네트워크의 오류와 단일 가중치 사이의 관계는 다음과 같이 보일 것이다.

사용자 삽입 이미지






즉, 어느 가중치가 전달되느냐에 따라 세번째 변수(활성화:activation)에 의해 영향을 받는 두 변수(오류:Error, 가중치:weight)가 주어지면 활성화의 변화가 오류에 얼마나 영향을 미치는지를 먼저 계산하여 가중치의 변화가 오류의 변화에 얼마나 영향을 미치는지를 계산할 수 있고, 가중치의 변화가 활성화의 변화에 얼마나 영향을 미치는지를 계산할 수 있다.

Deep Learning에서 학습의 본질은 더 이상 오류를 줄일 수 없을 때까지 오류를 만들어내는 응답에 있는 모델의 가중치를 조절하는 것에 불과하다.

Updaters
(Model의 weight(parameter)를 update할 때 사용하는 Gradient Descent 방법의 알고리즘)

DL4J에서는 다음과 같은 Updater를 지원한다.
- ADADELTA
- ADAGRAD
- ADAM
- NESTEROVS
- NONE
- RMSPROP
- SGD
- CONJUGATE GRADIENT
- HESSIAN FREE
- LBFGS
- LINE GRADIENT DESCENT

Updaters에 대한 JavaDoc는 DeepLearning4J JavaDoc의 일부로 https://deeplearning4j.org/doc/org/deeplearning4j/nn/conf/Updater.html 에서 이용할 수 있다.

2017/11/10 14:43 2017/11/10 14:43
Trackback Address :: http://www.yongbi.net/trackback/791
[로그인][오픈아이디란?]
오픈아이디로만 댓글을 남길 수 있습니다
Name
Password
Homepage

Secret

04. Key Concepts of Deep Neural Networks :: 2017/05/11 15:43

Key Concepts of Deep Neural Networks
(Deep Neural Network의 핵심 개념)

Deep-Learning Network는 흔히 있는 단일 은닉 레이어(single hidden layer)와는 깊이에서 구별된다. 즉, 패턴 인식의 여러 과정에서 데이터가 통과하는 노드 레이어의 숫자에서 구별된다.

전통적인 머신러닝에서는 하나의 입력과 하나의 출력, 그 사이의 최소한 하나의 숨겨진 레이어로 이루어진 얕은 그물망을 사용한다. 3개 이상의 레이어(입력과 출력을 포함하여)는 "Deep" Learning의 자격을 갖는다.따라서, deep은 하나 이상의 숨겨진 레이어를 의미하는 엄격하게 정의된 기술적인 용어이다.

Deep-Learning 네트워크에서, 노드의 각 레이어는 이전 레이어의 출력값을 근거로 고유한 일련의 특징을 학습한다. 신경망(neural net)으로 진화할수록 노드에서는 더 복잡한 특징들을 인식할 수 있고, 앞의 레이어로부터 특징들을 취합하여 재조합할 수 있다.


사용자 삽입 이미지

이것은 복잡도와 추상성이 증가하는 계층 구조인 Feature Hierarchy(특징 계층)이라고 알려져 있다. 이것을 통해 deep-learning network는 비선형 함수를 통과하는 수십억개의 파라미터를 가진 매우 크고, 고차원의 데이터들을 처리할 수 있다.

무엇보다도, 이러한 그물망은 세상에 압도적으로 존재하는 라벨이 붙여지지 않고, 구조화되어 있지 않은 데이터내에 잠재되어 있는 구조를 발견할 수 있다. 구조화되어 있지 않은 데이터는 다른 말로 하면, 사진, 텍스트, 비디오, 오디오와 같은 원시 미디어이다. 그러므로, deep learning으로 가장 잘 해결할 수 있는 문제점 중 하나는 세상에 있는 원시 미디어, 라벨이 붙여져 있지 않은 미디어를 처리하고 클러스터링하여, 관계형 데이터베이스 내에 있는 사람이 구성하지 않은 데이터에 대한 유사성과 이상을 식별하거나 이름을 붙이는 것이다.

예를 들어, deep learning은 수백만 개의 이미지를 가지고 한 귀퉁이의 고양이, 다른 모퉁이의 고양이, 모든 할머니 사진들 중에 3분의 1 정도의 유사성에 따라 클러스터를 구성할 수 있다. 이것은 소위 스마트 포토 앨범의 기반이 된다.

이제 같은 아이디어를 다른 데이터 타입에 적용해 보자. Deep learning은 이메일이나 뉴스 기사와 같은 원시 텍스트를 클러스터링할 수 있다. (cluser:조밀하게 모아서 무리 짓는 것) 벡터 공간의 한쪽 귀퉁이에 짜증내는 불평으로 가득찬 이메을을 모아놓고, 다른 편에는 만족하는 고객들 혹은 스팸봇이 보낸 메시지들을 모아놓을 수 있다. 이것은 다양한 메시지 필터의 기본이다. 그리고 CRM(Customer Relationship Management)에서 사용될 수 있다. 음성 메시지에도 동일하게 적용된다. 시간에 따라서 데이터는 정상적이고 건강한 행동과 비정상적이고 위험한 행동 중심으로 데이터를 모을 수 있다. 시간에 따른 데이터가 스마트폰에서 생성된다면, 사용자의 건강과 습관에 대한 insight(통찰)를 제공해 줄 것이다. 데이터가 자동차부품(autopart)에서 생성된다면, 치명적인 고장을 예방하는데 사용될 수 있다.

Deep-learning network는 대부분의 전통적인 머신러닝 알고리즘과는 다르게 사람의 개입없이 자동으로 특징을 추출한다. 주어진 특징 추출은 데이터 사이언티스트들이 수년에 걸쳐 이루어낼 수 있는 작업이므로, deep learning은 전문가 수가 제한되어 있다는 애로 사항을 회피할 수 있는 방법이다. 근본적으로 확장하지 않고도, 규모가 작은 데이터 사이언스 팀의 능력을 보강할 수 있다.

라벨이 붙여지지 않은 데이터로 학습하는 경우, deep network내의 각 노드 레이어는 샘플에서 뽑아낸 입력 데이터를 반복적으로 재구성하도록 시도하고, 네트워크의 추측과 입력 데이터 자체의 확률 분포 사이의 차이를 최소화하려고 함으로써 자동으로 특징을 학습한다. 예를 들면, 제한된 볼츠만 머신(Boltzmann Machine)은 이러한 방식으로 소위 재구성 데이터를 생성한다.

이 과정에서, 이러한 네트워크는 어떤 관련있는 특징들과 최적의 결과 사이에 상관관계를 인식하는 학습을 한다. 네트워크는 전체적으로 재구성되었든지, 라벨이 붙여진 데이터든지 상관없이, 특징을 가진 신호와 그런 특징들이 설명하는 것 사이를 연결한다.

라벨이 붙여진 데이터(분류된 데이터)로 학습한 Deep-learning network는 비정형 데이터에도 적용될 수 있기 때문에 머신러닝 보다 훨씬 더 많은 입력 데이터에 접근할 수 있다. 고성능을 위한 방법이다. 더 많은 데이터를 학습할수록, 더 정확해질 것이다. (많은 데이터로 학습한 적합하지 않은 알고리즘은 적은 데이터로 학습한 훌륭한 알로리즘보다 더 나은 결과를 낼 수 있다.) 라벨이 붙어 있지 않은 막대한 양의 데이터를 처리하고 학습한 deep-learning의 능력은 이전 알고리즘에 비해 차별화된 이점을 제공한다.

Deep-learning network는 출력 레이어에서 종료된다 : 특정 결과나 라벨에 가능성을 지정하는 기호(logistic), softmax(??), 분류사(classifier:어떤 의미 그룹에 속하는지를 보여주는 접사나 단어) 우리는 이것을 예측적이다라고 하지만, 포괄적인 의미에서의 예측을 의미한다. 예를 들어, 이미지형태로 원시 데이터가 주어진다면, deep-learning network는 입력데이터가 90%로 사람을 나타낸다고 결정할 수 있다.

2017/05/11 15:43 2017/05/11 15:43
Trackback Address :: http://www.yongbi.net/trackback/789
[로그인][오픈아이디란?]
오픈아이디로만 댓글을 남길 수 있습니다
Name
Password
Homepage

Secret

03. Neural Network Elements :: 2017/05/11 11:32


Neural Network Elements
(신경망 요소들)

Deep Learning은 "스택화된 신경 네트워크"(stacked neural network)에 사용하는 이름이다. 곧, 여러 개의 계층(layer)으로 이루어진 네트워크이다.

계층(layer)들은 노드(node)들로 구성되어 있다. 노드(node)는 충분한 자극에 접했을 때 작동하는 인간의 뇌 신경 세포를 막연히 본따서 만들어진, 단지 계산이 일어나는 장소일 뿐이다. 노드는 데이터 입력값과 일련의 계수나 가중치를 조합하여 입력값을 증폭하거나 감쇠하기 때문에 학습을 시도하는 작업 알고리즘에 입력값을 할당하는 것이 중요하다. (예를 들면, 오류 없이 데이터 분류하는데 가장 도움이 되는 입력값은 무엇인가?) 이렇게 가중치가 적용된 입력값들이 합해지고, 그 합은 소위 Activation Function(활성화 함수)라고 불리는 노드를 통과하게 된다. 그리하여 신호가 최종 결과, 즉, 분류 활동에 영향을 주기 위해 네트워크를 통과하여 무엇을 확대하는지 결정하게 된다.

하나의 노드가 어떻게 동작하는지에 대한 다이어그램이 있다.


사용자 삽입 이미지

노드 계층(node layer)은 입력값이 네트워크를 통해 공급되는 경우, 켜고 꺼지는 뉴런과 같은 스위치의 행이다. 데이터를 받은 초기 입력 계층으로부터 시작하여, 각 계층의 출력값은 동시에 그 다음 계층의 입력값이 된다.

사용자 삽입 이미지

입력값의 특성과 조정할 수 있는 가중치의 조합은 네트워크가 입력값을 분류하고 클러스터링하는데 고려하는 특성에 중요도를 지정하는 방법이다.

2017/05/11 11:32 2017/05/11 11:32
Trackback Address :: http://www.yongbi.net/trackback/788
[로그인][오픈아이디란?]
오픈아이디로만 댓글을 남길 수 있습니다
Name
Password
Homepage

Secret