일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- AP Computer Science A
- 블록체인
- 알파폴드
- 생물정보학
- 파이썬
- 오류역전파
- bioinformatics
- 서열정렬
- 인공지능 수학
- Java
- 결정트리
- 딥러닝
- AP
- 인공신경망
- 시그모이드
- COVID
- BLaST
- 바이오인포매틱스
- CNN
- 캐글
- Kaggle
- ncbi
- SVM
- 생명정보학
- 자바
- MERS
- 바이오파이썬
- 인공지능
- 행렬
- 이항분포
- Today
- Total
데이터 과학
인공신경망 학습순서 본문
인공지능을 처음 접할 때 무엇부터 공부를 해야 할 때는 인공신경망부터 해야 할까요?
공부를 해보니 인공신경망은 알고리즘적인 내용이 많아서 빅데이터 통계학이나 데이터마이닝을 먼저 해 보는 것이 좋습니다. 관련 서적이나 인터넷 검색으로 기본적인 내용을 조금 공부해야 합니다.
통계학에서 베이지안 이론은 과거와 현재에도 인공지능 이론중에 하나로 사용하고 있습니다.
이 블로그에서도 베이지안 이론을 소개하고 있습니다.
베이즈 정리
두 확률 변수의 사전 확률(Prior Probability)과 사후 확률(Posterior Prob.)의 관계를 나타내는 정리입니다. 사전 확률을 기반으로 사후 확률을 구할 수 있는 방법으로 베이즈 정리를 사용하는데 조건부
tsyoon.tistory.com
오래전에 나온 은닉 마르코프 모델 이론도 현재 인공지능 이론입니다. 아래 블로그 내용 참고해서 읽어보세요.
은닉 마르코프 모델
안드레이 마르코프(Andrey Andreyevich Markov; 1856-1922)는 1906년에 발표된 논문에서 마르코프 체인이라는 용어를 사용하면서 연쇄법칙을 이용한 확률기반 이론을 마련하였습니다. 현재 가장 많이 사용
tsyoon.tistory.com
데이터 마이닝은 데이터 분석에 있어서 중요한 내용입니다. 데이터를 어떻게 어떤 방식으로 분석을 할까에 대한 논의가 많은 내용인데 교재들이 많이 있습니다. 온라인 강좌도 많이 있으며 좋은 교재도 많습니다.
http://www.kocw.net/home/cview.do?mty=p&kemId=1094729
http://contents.kocw.or.kr/KOCW/document/2016/chungbuk/chowanseop/10.pdf
인공신경망은 최근에 인공지능 수학이라는 교육과정으로 하나의 분야가 있습니다. 선형대수, 함수, 행렬, 통계학과 미분까지 그 영역을 포함하고 있는데 고교 교육과정에서는 미분 내용이 빠져 있습니다. 미분 없이는 변화율에 대한 설명이 어려울 텐데 이럴 때면 Calculus 교재를 참고해야 합니다.
인공지능과 수학
최근에 인공지능이 많이 알려지기 시작하면서 인공지능 이론에서 나오는 수학에 대한 관심이 높아졌습니다. 고교 교육과정에도 인공지능 수학이라는 과목이 있을 정도이며 인공지능과 수학에
tsyoon.tistory.com
인공신경망을 학습하려면 퍼셉트론과 멀티레이어 퍼셉트론을 공부해야 합니다. 오류역전파 이전에 나온 이론으로 인공신경망을 구성하는 연결주의 이론의 근간을 이루는 고전적인 이론입니다.
멀티레이어 퍼셉트론
멀티레이어 퍼셉트론(Multilayer Perceptron, MLP)은 현재 딥러닝의 시작이고, XOR Problem을 해결 했던 알고리즘입니다. 이후에, 오류역전파(error - Back Propagetion)이 나오면서 알고리즘의 완성도가 높아졌습
tsyoon.tistory.com
멀티레이어 퍼셉트론을 일반화 하려면 가중치(웨이트) 값을 학습을 통해 만들어 내야 합니다. 이에 대한 이론이 필요합니다. 룸멜하트와 제프리 힌튼이 만들어 낸 오류역전파(error-Backpropagation) 이론이 인공신경망의 대세를 결정 지은 이론입니다.
이에 대해 학습을 하려면 기본적인 교재는 있어야 합니다. 인터넷 검색만 해도 가능한 정도의 이론입니다.
https://fliphtml5.com/hkuy/bwrx/%EC%8B%A0%EA%B2%BD%EB%A7%9D_%EC%B2%AB%EA%B1%B8%EC%9D%8C/
신경망 첫걸음
신경망 첫걸음
fliphtml5.com
오류역전파에 대한 기본적인 내용은 아래 블로그에 정리를 해놨습니다.
행렬, 판별함수에서의 발산, 가중치 적용과 손실함수에서 계산, 시그모이드에 대한 미분과 변화율 적용과 이에 대한 경사하강법의 의미에 대해 알고 있으면 오류역전파는 어렵지 않게 이해할 수 있습니다.
오류역전파의 간단한 원리
인공 신경망에서의 오류역전파는 입력과 은닉층(Hidden layer)의 연산의 결과와 활성화 함수(activate function)의 발산으로 구성되어 있다. 1. 입력값과 은닉층의 연산의 결과 2. 연산의 결과에 대한 활
tsyoon.tistory.com
오류역전파에 대한 이해가 어느정도 되었으면 이를 프로그래밍 한 소스를 보면 더 이해하기가 쉽습니다.
코랩에서 실행하기 쉽게 만들어 놓았으며 간단하게 XOR문제를 해결할 수 있는 방법을 올려놨습니다.
오류역전파 예제
오류역전파 예제에 대한 이야기입니다. colab에서 실행이 가능합니다. colab 링크는 다음과 같습니다. https://colab.research.google.com/ Google Colaboratory colab.research.google.com colab 설치하고 사용하는 방법은
tsyoon.tistory.com
이제 어느 정도 정리가 되었으면 인공신경망에서 사용되는 수학이론과 이를 적용하는 사례에 대해 정리해 봅시다.
그리고, MNIST 예제를 가지고 한번 글씨체 인식이라는 분야에 적용 사례를 공부 해 봅시다.
MNIST 예제
이번에는 MNIST 예제를 찾아서 공부해 봅시다. 구글에 MNIST 예제로 검색을 하면 많은 예제들이 나옵니다.텐서플로우를 이용하는 예제도 있고, 파이썬 라이브러리를 활용한 예제도 있습니다.
tsyoon.tistory.com
MNIST에 대한 이해가 되었으면 이를 확장하여 텐서플로우에서의 MNIST를 공부하면 됩니다.
Fashion MNIST
딥러닝을 공부할 때 가장 먼저 만나게 되는 예제가 MNIST 입니다. MNIST는 뉴욕대의 Recunn 교수가 필기체 인식을 위한 알고리즘 개선을 위해 연구하는 분야로 Modified National Institute of Standards and Technol
tsyoon.tistory.com
텐서플로우를 학습하고 난 이후에는 CNN 이론을 정리하면서 이미지 분류에 대해 인공신경망의 역할에 대해 이해해 봅시다.
케라스 CNN을 이용한 개와 고양이 분류
이번 내용은 Keras에서 CNN 알고리즘으로 개와 고양이를 분류하는 내용입니다. 이미지 학습에 대한 기본은 MNIST (Modified National Institute of Standards and Technology database)입니다. 뉴욕대 얀 르쿤 교수의 NIS
tsyoon.tistory.com
'인공지능 > 기초 인공신경망' 카테고리의 다른 글
2024 노벨 물리학상, 노벨 화학상 (1) | 2024.10.10 |
---|---|
인공지능 읽어볼 책 - 생각하는 기계 (0) | 2024.07.21 |
인공신경망에서 함수 (1) | 2024.03.31 |
손실함수와 역전파 (0) | 2023.05.22 |
chatGPT 원리 (0) | 2023.05.17 |