본문 바로가기
728x90

Artificial Intelligence/Deep Leaning17

Training Neural Networks(뉴럴 네트워크 훈련) 뉴럴 네트워크 훈련 과정의 마지막 단계로 손실 함수를 최소화하여 네트워크를 개선하는 방법에 대해 설명하도록 하겠습니다. 왼쪽 그래프는 손실 함수 그래프로 네트워크의 성능을 나타낸다. 곡선의 최저점은 우리가 찾고자 하는 최소 손실이다. (good learning rate) 오른쪽 그래프는 적당한 손실함수의 형태를 보인다. 위아래 진동하는 이유는 배치 사이즈가 너무 낮기 때문이다. 모든 데이터에 대하여 손실 함수(오차)가 향상할 것이기 때문이다.(비용 감소) - W*는 이 최소 손실을 달성하는 네트워크의 가중치 벡터이다. - 훈련 데이터 전체에 걸쳐 평균 손실을 최소화하려고 한다. 이는 즉, 네트워크가 모든 데이터 포인트에서 작은 오류를 만드는 것이 가장 좋다는 것을 의미한다. 정리 - 훈련 데이터 전체에 .. 2023. 12. 31.
Applying Neural Networks(신경망 적용) 신경망 적용의 예 내가 이 수업을 통과할 수 있을까?라는 문제이다. x1 = 수강하는 강의 수 x2 = 최종 프로젝트에 소요된 시간 초록색점은 Pass 빨강색점은 Fail 여기서 나는 수강하는 강의의 수가 4개이고 최종 프로젝트에 소요되는 시간은 5시간이다. 과연 이 수업을 통과할 수 있는지 신경망을 이용해서 결과를 찾아보자 다층 퍼셉트론의 신경망 구조를 사용해서 문제를 풀어보자 Predicted: 0.1 : 신경망이 예측한 값으로는 0.1이라고 했는데, 이 경우는 수업에 통과할 가능성이 10%라고 예측하는 것이다. Actual: 1 : 실제 값을 나타낸 것으로 수업 결과는 통과를 의미한다. 따라서, 신경망이 이 수업에 통과할 가능성이 낮다고 예측했지만, 실제 결과는 통과였다는 것을 보여줍니다. 왜 그런.. 2023. 12. 30.
Building Neural Networks with Perceptrons(퍼셉트론을 이용한 신경망 구축) 다중 출력 퍼셉트론 입력 데이터에 대한 여러 개의 출력을 생성하는 인공 신경망이다. 위의 이미지에서는 입력층은 3개 은닉층은 2개의 뉴런으로 구성되어 있으며, 각 뉴런은 3개의 가중치와 1개의 편향을 가지고 있다. 출력층은 2개의 출력 신호를 가지고 있다. z1, z2는 은닉층의 출력 신호이고 y1, y2는 출력층의 출력신호이다. 공식은 z1 = w1x1 + w2x2 + w3x3 + b1 z2 = w4x1 + w5x2 + w6x3 + b2 y1 = g(z1) y2 = g(z2) w1~6은 가중치를 나타냄 b1,b2는 편향을 나타냄 - 편향이란? 쉽게 설명드리자면 가중치 앞에 붙는 부호를 나타낸다. 가중치가 양수이면, 입력 신호가 뉴런의 출력에 더 큰 영향을 미치고 가중치가 음수이면, 입력 신호가 뉴런의 .. 2023. 12. 22.
The Perceptron(퍼셉트론) Importance of Activation Functions 활성화 기능의 중요성 활성화 함수의 목적은 네트워크에 비선형성을 도입하는 것이다. 만약 우리가 녹색과 빨간색 점을 구별하기 위해 신경망을 구축하기를 원한다면 어떨까? 사진의 왼쪽 선형 활성화 함수는 입력 신호의 가중합은 선형 함수이고 오른쪽은 비선형성은 활성화 함수는 비선형 함수이다. 선형성은 퍼셉트론이 선형 분류기임을 의미한다. 즉, 퍼셉트론은 입력 신호의 관계를 선형적으로 학습할 수 있다. 비선형은 퍼셉트론이 복잡한 관계를 학습할 수 있도록 한다. - 원을 뉴런 또는 노드라고 부른다. - 입력 신호가 뉴런에 보내질 때는 각각 고유한 가중치가 곱해진다. - 뉴런에서 전달받은 신호의 총합이 임계값를 넘을 때만 1을 출력한다. 이미지의 좌표 부.. 2023. 12. 21.
Why Deep Learning? (딥러닝이란?) Why Deep Learning? Hand engineered features are time consuming, brittle, and not scalable in practice 수작업으로 설계된 기능은 시간이 많이 걸리고 부서지기 쉬우며 실제로는 확장할 수 없음 Can we learn the underlying features directly from data? 데이터에서 기본 기능을 직접 학습할 수 있는가? Low Level Features: Lines & Edges (선과 경계) Mid Level Features: Eyes & Nose & Ears (코와 눈) High Level Features: Facial Structure (얼굴들) The Perceptron The structural bu.. 2023. 12. 18.
728x90