일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 토큰화
- Selenium
- 유투브크롤링
- 활성화함수
- CountVectorizer
- 딥러닝
- 크롤링
- 광주국비지원학원
- sellenium
- python
- 댓글분석
- 파이썬
- 자바
- 인공지능
- 셀리니움
- tfidf
- 광주인공지능학원
- permisision부여
- servlet
- DataFrame
- 과대적합
- 과대적합제어
- jsp
- 데이터프레임
- 인공지능학원
- 스마트인재개발원
- 머신러닝
- iris붓꽃
- 웹크롤링
- relu
Archives
- Today
- Total
목록광주국비지원학원 (1)
+ Hello +

import numpy as np import matplotlib.pyplot as plt 1. 활성화 함수 - 신경망은 선형회귀와 달리 한 계층의 신호를 다음 계층으로 그대로 전달하지 않고 비선형적인 활성화 함수를 거친 후에 전달한다 -> 신경망을 모방하여 사람처럼 사고하는 인공지능 기술을 구현하기 위함 - 입력에 일정 값을 곱해서 출력값을 결정하는 것(실제 신경망의 동작을 모방) - 종류 : step function, sigmoid, tanh, relu 1) step function : 계단함수 - 0보다 크면 1이고 그렇지 않으면 0인 함수 def step_function(x): return np.array(x>0, dtype =np.int) x =np.arange(-5.0, 5.0, 0.1) y=..
+ 스마트인재개발원 +
2021. 8. 1. 16:35