본문 바로가기

코딩 학원(국비지원)

104일차 코딩학원 (신경망과 활성화함수)

반응형

6/21 공부 내용 정리

1. 신경망, 인공신경망은 뉴런 작용을 모방했다.

 - 신경망은 GPU처럼 병렬성(parallelism)이 뛰어나다. 

 - 문자인식, 음성인식, 영상인식, 자연어 처리 등에 이용된다. 

 

2. 결국 인공지능의 발명, 인공지능의 신경망 생성의 궁극적인 목표는 인간대신 학습하는 것임. 인간은 늘 한계를 뛰어넘고자 욕망함. 그 결과 선형구조만 분석할 수 있던 인공지능은 비선형구조도 분석할 수 있는 기술을 갖추게 됐다. 

 

3. GPU의 개발, 기능향상으로 딥러닝 전성시대가 열렸다. GPU에는 여러가지 코어가 내장되어 있다. 이것은 동시에 여러 개의 간단한 계산을 수행해서 그래픽 속도를 높인다. NVidia는 2006년부터 프로그래머들이 gpu를 사용하여 쉽게 코딩할 수 있도록 CUDA라고 불리는 라이브러리를 무료로 제공하고 있다. 

 

4. 이미지넷 대회에서 GPU를 사용한 알고리즘으로 우승한 이후 인공지능 학습이 획기적으로 혁신됨. 

 

5. 사람의 이미지 인식 정확도는 5%인데 컴퓨터는 97.7%임... 이미 연산 및 계산능력은 인간보다 뛰어난 상태다. 

 

6. 어차피 인간은 인공지능을 못 이긴다. 이세돌이 은퇴한 이유는 승리에 대한 희망이 사라졌기 때문이다. 그러나 전반적으로 A.I. 를 뛰어넘기는 힘들 것이다. 그럼 어떤 결론이 나오는가? 인공지능과 공존. 인공지능을 이용해서 능률을 올리는 수밖에 없다. 

 

7. sciview로 어떻게 보지? figure 창만 계속 뜨네... 알고 싶다. 아마도 내 파이참이 community 버전이라서 그런 것 같다. figure창으로도 그래프를 겹쳐서 그릴 수 있긴 하다. 

 

8. 케라스를 사용한다는데? keras가 무엇일까? 케라스로 인공신경망을 작성한다. 

 

9 . 구글 트렌드를 사용하면 시간 흐름에 따른 관심도 변화 + 데이터 비교를 할 수 있다. tensorflow, keras, pytorch를 비교해 보면 keras의 점유율이 가장 높고 그 뒤를 pytorch가 따르고 있다. 

구글트렌드 tensorflow, keras, pytorch

10.  손실 함수는 모델의 예측과 실제 값 사이의 차이를 계산하여 모델이 얼마나 잘 작동하는지를 측정하는 '측량 도구'다. 

 

실습하기

11. 학습 수행 및 모델 테스트 

Sequential 모델

 

12. 활성화(Activiation) 함수 종류.

ReLU함수가 많이 쓰인다고 한다.  ReLU 함수는 비교적 최근에 개발된 활성화 함수로 양의 출력값은 그대로 두는 대신 음의 출력값들을 모두 0으로 바꾸어 버린다. 최근의 신경망 모델들은 ReLU를 사용하는 경우가 많으며, 다른 활성화 함수들에 비해 일반적으로 좋은 성능을 보인다고 알려져 있다.

Softmax는 분류형 네트워크 모델의 마지막 층에 사용되는 출력함수다.

 

 

 

반응형