.
블로그 로고

코딩영어

구독자 100만이 넘는 미국의 sentdex사 교육과정 유튜브 원본 동영상에서 2분 LC training 학습분량을 뽑아내 열번정도 먼저 반복학습한 후엔 원본 비디오의 영어가 쉽게 LC가 되어 실습까지 마칠 수 있게 된다는 것이 저희 학습법이 찾아낸 원리입니다. 페이스북 페이지 '코딩영어 특강' https://www.facebook.com/iBooth.net/
블로그"코딩영어"에 대한 검색결과1250건
  • [비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..

    [4:33 - 6:56] 근데 이 퀀텀 컴퓨팅, 퀀텀 프로그래밍이 어떻게 유용하게 쓰일 수 있다는 걸까? 어떻게 써먹지? 뭐 직업이라도 갖다 줄 수 있다는 걸까? 여기에 답한다는 건 잘못된 태도가 아닐까? 우린 퀀텀 컴퓨팅이 당신에게 무얼 가져다 줄 지를 보지말고, 내가 그걸 어떻게 써먹을 지를 보아야하지 않을까? 내직업에서 그걸 어떻게 써먹을 지를 찾아봐야지 않을까? 이 놈을 갖고선 과연 내가 무얼 해낼 수 있을까에 촛점을 맞추는 것이 올바른 태도일테다. 그건 지난 세월 50년대, 60년대, 좀 논쟁은 있겠지만 70년대, 80년대에 지금 널리 활용되고 있는 classical computers로 무엇을 할 수 있었던지를 돌아보면 답을 유추해볼 수 있지 않.......
    코딩영어|2020-11-28 08:13 am|추천

    추천

  • [비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..

    [4:33 - 6:56] 근데 이 퀀텀 컴퓨팅, 퀀텀 프로그래밍이 어떻게 유용하게 쓰일 수 있다는 걸까? 어떻게 써먹지? 뭐 직업이라도 갖다 줄 수 있다는 걸까? 여기에 답한다는 건 잘못된 태도가 아닐까? 우린 퀀텀 컴퓨팅이 당신에게 무얼 가져다 줄 지를 보지말고, 내가 그걸 어떻게 써먹을 지를 보아야하지 않을까? 내직업에서 그걸 어떻게 써먹을 지를 찾아봐야지 않을까? 이 놈을 갖고선 과연 내가 무얼 해낼 수 있을까에 촛점을 맞추는 것이 올바른 태도일테다. 그건 지난 세월 50년대, 60년대, 좀 논쟁은 있겠지만 70년대, 80년대에 지금 널리 활용되고 있는 classical computers로 무엇을 할 수 있었던지를 돌아보면 답을 유추해볼 수 있지 않.......
    코딩영어|2020-11-28 08:13 am|추천

    추천

  • [비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..

    [4:33 - 6:56] 근데 이 퀀텀 컴퓨팅, 퀀텀 프로그래밍이 어떻게 유용하게 쓰일 수 있다는 걸까? 어떻게 써먹지? 뭐 직업이라도 갖다 줄 수 있다는 걸까? 여기에 답한다는 건 잘못된 태도가 아닐까? 우린 퀀텀 컴퓨팅이 당신에게 무얼 가져다 줄 지를 보지말고, 내가 그걸 어떻게 써먹을 지를 보아야하지 않을까? 내직업에서 그걸 어떻게 써먹을 지를 찾아봐야지 않을까? 이 놈을 갖고선 과연 내가 무얼 해낼 수 있을까에 촛점을 맞추는 것이 올바른 태도일테다. 그건 지난 세월 50년대, 60년대, 좀 논쟁은 있겠지만 70년대, 80년대에 지금 널리 활용되고 있는 classical computers로 무엇을 할 수 있었던지를 돌아보면 답을 유추해볼 수 있지 않.......
    코딩영어|2020-11-28 08:13 am|추천

    추천

  • [비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..

    8:38 - 11:22 발췌 부분을 직역해봅니다. ReLU function의 무엇이 그리 좋은가? Linear랑 아주 가깝다 그러나 제로에서 깎는 기능이 있어서, 이게 Sigmoid와 같이 파워풀해지는 거다. 아주 빠르게 작동되게 한다. 쿨. 근데 왜 작동된다는 걸까? ReLU function을 하나의 뉴런으로부터 시작해 들여다 보자. 우린 무엇이 input으로 들어오던 그 weight를 증가시켜서 이 뉴런의 모든 센스들을 강하게 할 수 있다. 우린 이 function을 수평으로 움직여서 bias를 조정해 이 뉴런이 activate 해야하는 지점을 상쇄할 수 있다. 만일 우리가 weight를 무효화해야 한다면, ReLU function이 미끄러지듯 떨어지면서는 대신에 어느 지점에서 input이 activate .......
    코딩영어|2020-11-26 07:19 am|추천

    추천

  • [비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..

    8:38 - 11:22 발췌 부분을 직역해봅니다. ReLU function의 무엇이 그리 좋은가? Linear랑 아주 가깝다 그러나 제로에서 깎는 기능이 있어서, 이게 Sigmoid와 같이 파워풀해지는 거다. 아주 빠르게 작동되게 한다. 쿨. 근데 왜 작동된다는 걸까? ReLU function을 하나의 뉴런으로부터 시작해 들여다 보자. 우린 무엇이 input으로 들어오던 그 weight를 증가시켜서 이 뉴런의 모든 센스들을 강하게 할 수 있다. 우린 이 function을 수평으로 움직여서 bias를 조정해 이 뉴런이 activate 해야하는 지점을 상쇄할 수 있다. 만일 우리가 weight를 무효화해야 한다면, ReLU function이 미끄러지듯 떨어지면서는 대신에 어느 지점에서 input이 activate .......
    코딩영어|2020-11-26 07:19 am|추천

    추천

  • [비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..

    8:38 - 11:22 발췌 부분을 직역해봅니다. ReLU function의 무엇이 그리 좋은가? Linear랑 아주 가깝다 그러나 제로에서 깎는 기능이 있어서, 이게 Sigmoid와 같이 파워풀해지는 거다. 아주 빠르게 작동되게 한다. 쿨. 근데 왜 작동된다는 걸까? ReLU function을 하나의 뉴런으로부터 시작해 들여다 보자. 우린 무엇이 input으로 들어오던 그 weight를 증가시켜서 이 뉴런의 모든 센스들을 강하게 할 수 있다. 우린 이 function을 수평으로 움직여서 bias를 조정해 이 뉴런이 activate 해야하는 지점을 상쇄할 수 있다. 만일 우리가 weight를 무효화해야 한다면, ReLU function이 미끄러지듯 떨어지면서는 대신에 어느 지점에서 input이 activate .......
    코딩영어|2020-11-26 07:19 am|추천

    추천

  • [비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..

    Batch는 왜 하죠? for generalization purpose! 변동성이 많은 적은 샘플로는 우린 정확한 prediction이 어렵다. 어느 정도의 샘플 사이즈가 필요하고, 일반적으로 batch size = 32 일 때 model이 generalized가 잘 되어 나온다 한다. 암튼 우린 현실에선 batch size를 고려한 input 즉, matrix 형태로 설계하고선 작업한다. 이 땐 input[ ] x weight[ ] 를 했을 때 weight[ ] 에다 transpose를 해줘야 matrix product 계산식이 워킹한다. 안그럼 계속 shape error가 난다. output = np.dot(inputs, np.array(weights).T) + biases 앞에서 weight, input 순이었던 것이 다시 바뀐 것에 주목. 실습에선 layer를 하나 더 만들어내고선 그.......
    코딩영어|2020-11-21 08:31 am|추천

    추천

  • [비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..

    Batch는 왜 하죠? for generalization purpose! 변동성이 많은 적은 샘플로는 우린 정확한 prediction이 어렵다. 어느 정도의 샘플 사이즈가 필요하고, 일반적으로 batch size = 32 일 때 model이 generalized가 잘 되어 나온다 한다. 암튼 우린 현실에선 batch size를 고려한 input 즉, matrix 형태로 설계하고선 작업한다. 이 땐 input[ ] x weight[ ] 를 했을 때 weight[ ] 에다 transpose를 해줘야 matrix product 계산식이 워킹한다. 안그럼 계속 shape error가 난다. output = np.dot(inputs, np.array(weights).T) + biases 앞에서 weight, input 순이었던 것이 다시 바뀐 것에 주목. 실습에선 layer를 하나 더 만들어내고선 그.......
    코딩영어|2020-11-21 08:31 am|추천

    추천

  • [비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..

    Batch는 왜 하죠? for generalization purpose! 변동성이 많은 적은 샘플로는 우린 정확한 prediction이 어렵다. 어느 정도의 샘플 사이즈가 필요하고, 일반적으로 batch size = 32 일 때 model이 generalized가 잘 되어 나온다 한다. 암튼 우린 현실에선 batch size를 고려한 input 즉, matrix 형태로 설계하고선 작업한다. 이 땐 input[ ] x weight[ ] 를 했을 때 weight[ ] 에다 transpose를 해줘야 matrix product 계산식이 워킹한다. 안그럼 계속 shape error가 난다. output = np.dot(inputs, np.array(weights).T) + biases 앞에서 weight, input 순이었던 것이 다시 바뀐 것에 주목. 실습에선 layer를 하나 더 만들어내고선 그.......
    코딩영어|2020-11-21 08:31 am|추천

    추천

  • [비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..

    딥러닝에선 neuron을 중심으로 계산을 하기 때문에 이런 input이 vector고 weight가 matrix인 경우, weight, input 순으로 놓고선 dot product를 해야 한다. 그래야 앞 layer에서 넘어오는 각 input 별로 각기 다른 vector, matrix로 구성된 weight의 반영이 가능해진다. 이걸 계산 가능케 해주는 기능이 numpy엔 있는데 그걸 Dot Product라 한다. output = np.dot(weights, inputs) + biases 이렇게 하면 각 input vector 별로 weight matrix가 반영 되어 수식 계산이 나온다. 이를 거꾸로 inputs, weights로 했을 땐 shape error를 얻게 된다. 하지만 그 이유가 명확하게 딱 떨어지지가 않아요ㅠ deep learning에선 이런 경우가 종종 나온.......
    코딩영어|2020-11-21 08:28 am|추천

    추천

이전  6 7 8 9 10 11 12 13 14 ... 125  다음
셀로거는 비즈니스/마케팅 관련 블로그중 대중에게 RSS를 제공하는 블로그의 정보만 수집 및 정리하여 소개하는 비상업적 메타블로그 사이트입니다.
수집된 내용에 대한 모든 블로그의 저작권은 모두 해당 블로거에게 있으며 공개되는 내용에 대해서는 Sellogger의 입장과 무관합니다.
셀로거에서는 원글의 재편집 및 수정을 하지 않으며 원문링크를 제공하여 전문확인을 위해서는 저작권자의 블로그에서만 확인가능합니다.
Copyright (c) Sellogger. All rights reserved. 피드등록/삭제요청 help@sellogger.com