반응형

머신러닝,딥러닝 68

numpy 8. array op 9. comparisons

Numerical Python - Numpy 학습 목표 이번 강의에서는 파이썬의 과학 계산용 패키지인 numpy 의 여러 특징과 기능, 코드를 작성하는 방법 등을 배웁니다. numpy ndarray Handling shape Indexing Slicing Creation function Operation functions array operations Comparisons (이 글 범위) Boolean Index Fancy Index numpy data i/o 강의 영상 Numerial Python - numpy Data handling section https://blog.naver.com/boostcamp_official/222345119688 부스트캠프 AI Tech 2기 자가 진단 문항 부스트캠프..

numpy 필기 6. creation 7. operation functions

Numerical Python - Numpy 학습 목표 이번 강의에서는 파이썬의 과학 계산용 패키지인 numpy 의 여러 특징과 기능, 코드를 작성하는 방법 등을 배웁니다. numpy ndarray Handling shape Indexing Slicing Creation function Operation functions (이 글 범위) array operations Comparisons Boolean Index Fancy Index numpy data i/o 강의 영상 Numerial Python - numpy Data handling section https://blog.naver.com/boostcamp_official/222345119688 부스트캠프 AI Tech 2기 자가 진단 문항 부스트캠프..

numpy 공부 필기 3. handling space 4. index 5. slice

Numerical Python - Numpy 학습 목표 이번 강의에서는 파이썬의 과학 계산용 패키지인 numpy 의 여러 특징과 기능, 코드를 작성하는 방법 등을 배웁니다. numpy ndarray Handling shape Indexing Slicing (이 글 범위) Creation function Operation functions array operations Comparisons Boolean Index Fancy Index numpy data i/o 강의 영상 Numerial Python - numpy Data handling section https://blog.naver.com/boostcamp_official/222345119688 부스트캠프 AI Tech 2기 자가 진단 문항 부스트캠프..

numpy 공부 필기 1. numpy 2. ndarray

Numerical Python - Numpy 학습 목표 이번 강의에서는 파이썬의 과학 계산용 패키지인 numpy 의 여러 특징과 기능, 코드를 작성하는 방법 등을 배웁니다. numpy ndarray (이 글 범위) Handling shape Indexing Slicing Creation function Operation functions array operations Comparisons Boolean Index Fancy Index numpy data i/o 강의 영상 Numerial Python - numpy Data handling section https://blog.naver.com/boostcamp_official/222345119688 부스트캠프 AI Tech 2기 자가 진단 문항 부스트캠프..

lec12 NN의 꽃 RNN 이야기

sequence data we dont understand one word only. we understand based on previous words and this word but NN CNN cannot do this 그래서 이전의 계산이 영향을 미치는 구조를 고민 실제로는 이렇게 구현했다고 보면 된다 이전의 연산이 영향을 미친다 Recurrent Neural Network 계산 어떻게 해? state H 를 계산하기 위해 old state , x input vector 을 function에 넣는다 여기서 사람들이 이렇게 하나의 그림으로 표현하는 이유는 function이 동일하기 때문이다. 가장 기초적인 연산 방법은 wx 을 이용해서 구현하는 것 w *h + w x 각각의 weight을 곱하고 더..

lec11 CNN basics tensorflow

conv 5*5 -> subsampling 2*2 feature extraction 과정임 마지막으로 classification CNN이 ct image 분석 수상했던 결과 주어진 이미지 데이터 움직이고 여러개의 값 나온걸 pooling 한다 간단한 이미지를 우선 생각해보자 2*2*1 필터 stride 1 이런 과정 거치면 2*2 결과가 나온다. 텐서플로에서는 알아서 나온다. 우선 토이 이미지를 만듬 앞의 값은 n = 1 하나의 이미지 3 * 3 시각화 weight 정할 때 필터 크기 2 *2 * 1 * 1 앞 1은 color 뒤 1 은 필터 그리고 첫번째 필터부터 다 더한 값 number로 저장 텐서플로로 어떻게 구현하냐? 이렇게 시각화 하기 위해서 출력 그럼 12 16 24 28이 나온다. 3*3 으..

lec11 ConvNet 의 conv 레이어 만들기

convoutional network 고양이 실험에서 착안 뉴런이 작용하는 거 각각 담당하는게 있어 보임 각 이미지를 레이어 만들어냄 relu pool 을 계속 겹쳐 만듬 한 레이어로부터 단계적으로 어떻게 일어나는지 이야기해보도록 하겠음 이미ㅈ를 우선 이렇게 벽이 만들어짐 고양이 실현에서 우선 이미지 한 부분을 처리하려고 한다. 이 작은 블락을 필터라고 한다. 필터 크기는 우리가 정의할 수 있다. 현재는 5*5 저 빨간 블락은 궁극적으로 한 값을 만들어낸다. 한개의 값으로 어떻게 만들어낼 수 있는가? 우리가 예전부터 사용했던 wx + b를 이용해서 만든다 w가 뭐냐? weight 지 하나의 숫자로 만들어낸다. relu로 하면 relu한거 똑같은 필터를 가지고 다른 블락도 본다. 같은 값으로 모든 블락을 ..

lec10 xsigmoid 보다 ReLU가 더 좋아

activation function이라고 부른다. 어떤 값 이상일 때 activate하기 때문에 NN for XOR 이렇게 순차적으로 읽게 했었다. lets go deep & wide 그림으로 그리면 이렇게 나오죠 (오른쪽 박스 세개) input ------- > output layer 안은 hidden layer이라고 한다. 입력 아웃풋에서는 보이지 않으므로 9단으로 해볼까? 2->5 이렇게 시작하는데 꼭 5개여야 하는거 아닌거 알지? 텐서보드로 하면 잘 나온다. 엥 0.5가 나온다. 이 문제가 바로 tensorboard cost & accruacy 왜 이 문제가 발생할까? backpropagation 2~3단 정도에서는 오케이지만 우리가 9~10단이면 못 해결한다. 저번에 배웠던 backpropaga..

lec09 XOR 문제 딥러닝으로 풀기

우선 0 0 을 넣었다. 주어진 weight 5 5 와 bias 8 로 계산해보자. 첫번쨰 보라색은 계산 시 -8이 된다. sigmoid(-8) 해보면 대략 0이 된다. 두번째 그린색 -7 -7에 입력시 0+ 3이니까 3이 된다. sigmoid(3) 하면 1 이 된다. y값 0 1 을 집어 넣으면 -11 -11 -11 + 6 = -5 위 결과로 나온다. 다음으로는 x값이 각각 0 1 인 경우. 계산해보면 + 6 또 다음으로 1 0 계속 계산하면 나온다. 결국 XOR 값이 나오게 되는 것 그림으로 간략하게 표현하면 이렇게 되겠지 이 때 can you find another w and b for the XOR ? weight은 이차원 배열이 되고 bias는 두개 늘어진다. 이해를 돕기 위해 코드도 제시 ho..

lec08 tensor manipulation(reshape, stack, zip, one_hot ..)

tensor manipulation 1차원 array t = np.array([0,1,2,]) pp.print(t) print(t.ndim) print(t.shape) 2차원 array pp.print(t) print(t.ndim) print(t.shape) shape rank axis t = tf.constant(1,2,3,4) tf.shape(t).eval() rank 1 4 t = tf.const 1,2 3, 4 tf.shape(t).eval() rank 2 2, 2 t = tf.constant ( ~~) [[[[-> rank : 4 shape ( ? ? ? ?) 4, 3, 2, 1, 순서대로 채워넣는다 axis = 0 가장 바깥 [] axis = -1 가장 안쪽 [] or 이 경우 axis = 3..

반응형