본문 바로가기

728x90

Development/Machine Learning

(2)
[Machine Learning] Gradients 위키백과에 따르면, Gradient란 벡터 미적분학에서 스칼라장의 최대의 증가율을 나타내는 벡터장을 뜻한다고 한다. 기울기를 나타내는 벡터장을 화살표로 표시할 때 화살표의 방향은 증가율이 최대가 되는 방향이며, 화살표의 크기는 증가율이 최대일 때의 증가율 크기를 나타낸다. 하지만, 이게 문과인 나로써는 이해할 수 없어 좀 더 쉬운 설명을 찾기로 했다. 벡터 미적분학에서, 스칼라 값을 가지는 미분 가능한 함수 f가 여러 변수에 의해서 정의된다고 하자. 그것에 대한 Gradient는 벡터 장 또는 더욱 단순하게 벡터 값으로 이루어진 함수이다. 이것의 값은 포인트 p에 대한 벡터 값으로, 이것의 구성요소는 포인트 p에서 f에 대한 편미분이다. 즉, 아래와 같다. Gradient에 대한 기하학적인 예제는 다음과..
[Machine Learning] Voting Classifier Voting Classifier는 "다수결 분류"를 뜻하는 것으로, 두 가지 방법으로 분류할 수 있습니다. 1. Hard Voting Classifier 여러 모델을 생성하고 그 성과(결과)를 비교합니다. 이 때 classifier의 결과들을 집계하여 가장 많은 표를 얻는 클래스를 최종 예측값으로 정하는 것을 Hard Voting Classifier라고 합니다. 위와 같이 최종 결과를 1로 예측한 모델이 1개, 0으로 예측한 모델이 2개이므로 Hard Voting Classifier의 최종 결과(예측)은 0이 됩니다. 2. Soft Voting Classifier 앙상블에 사용되는 모든 분류기가 클래스의 확률을 예측할 수 있을 때 사용됩니다. 각 분류기의 예측을 평균 내어 확률이 가장 높은 클래스로 예측..

728x90