분류 전체보기
-
GBM - Partial Dependence Plots 관련 정리Archive/프로젝트 인사이트 2022. 9. 30. 18:42
http://uc-r.github.io/gbm_regression Gradient Boosting Machines · UC Business Analytics R Programming Guide ↩ Gradient Boosting Machines Gradient boosted machines (GBMs) are an extremely popular machine learning algorithm that have proven successful across many domains and is one of the leading methods for winning Kaggle competitions. Whereas random forests bu uc-r.github.io 예정...
-
[HandsOn] 18. 강화 학습- 내용 정리1[도서완독]Hands On Machine Learning 2022. 9. 19. 20:21
인생이... 갈수록 힘들어지고 있다^_ㅜ 이럴 때일수록 열심히 하려 하지 말고 꾸준히 조금이라도 해야 하는 시기인 것 같다. 후.... 힘내자.... ㅠㅠ 흐엉엉 2013년에 딥마인드의 연구원들이 게임 '아타리'를 아무 정보 없이! 그냥 플레이하면서 학습하는 시스템을 시연하며 강화학습의 혁명을 일으킴! 화면 픽셀에 대한 데이터만 입력으로 받고 게임 규칙에 대한 어떤 사전 정보도 없이 사람들 능가하는 성과를 냈다고 한다. 18.1 보상을 최적화하기 위한 학습 강화 학습에서 소프트웨어 에이전트는 관측을 하고, 주어진 환경에서 행동을 함. 그리고 그 결과로 보상을 받음. 에이전트의 목적: 보상의 장기간 기대치를 최대로 만드는 행동을 학습하는 것 양의 보상은 기쁨, 음의 보상은 아픔...? -> 간단히 에이전트..
-
[HandsOn] 17. 오토인코더와 GAN을 사용한 표현 학습과 생성적 학습- 내용 정리2[도서완독]Hands On Machine Learning 2022. 8. 26. 22:45
코드는 여기를 참고했다! https://github.com/rickiepark/handson-ml2/blob/master/17_autoencoders_and_gans.ipynb GitHub - rickiepark/handson-ml2: 핸즈온 머신러닝 2/E의 주피터 노트북 핸즈온 머신러닝 2/E의 주피터 노트북. Contribute to rickiepark/handson-ml2 development by creating an account on GitHub. github.com 17.5 순환 오토인코더 (비지도 학습이나 차원 축소를 위해) 시계열, 텍스트와 같은 시퀀스에 대한 오토인코더를 만들려면 순환 신경망이 밀집 네트워크보다 더 나을 수 있음. 시계열, 텍스트를 차원축소한다는게 뭐지? ->시계열 구..
-
[HandsOn] 17. 오토인코더와 GAN을 사용한 표현 학습과 생성적 학습- 내용 정리1[도서완독]Hands On Machine Learning 2022. 8. 23. 20:33
ㅠㅠ 요즘 너무 힘들다... 집에 가고 싶은데 회사에 남아서 공부 중😥 그래도 ... 공부해야 하니까 힘내자! 회사에 나만 남았다고 한다.... 오토인코더: 레이블되지 않은 훈련 데이터를 사용해도 입력 데이터의 밀집 표현을 학습할 수 있는 인공 신경망 일부 오토인코더는 훈련 데이터와 매우 비슷한 새로운 데이터를 생성할 수 있는데, 이를 생성 모델이라고 함. 예를 들어, 얼굴 사진으로 오토인코더를 훈련하면 이 모델은 새로운 얼굴을 생성할 수 있게 됨. 하지만 흐릿하고 실제 이미지 같지는 않다. 하지만 생성적 적대 신경망(GAN) 으로 생성한 얼굴은 이를 가짜라고 믿기 힘들 정도라고 함! https://thispersondoesnotexist.com/ This Person Does Not Exist this..
-
[HandsOn] 16. RNN과 어텐션을 사용한 자연어 처리 - 내용 정리3[도서완독]Hands On Machine Learning 2022. 8. 19. 22:02
16.4 어텐션 매커니즘 인코더-디코더 네트워크에서 한 단어가 다른 단어로 번역되기까지의 과정은 매우 김...경로를 더 짧게 만들 수는 없을까? 각 타임 스텝에서 적절한 단어에 디코더가 초점을 맞추도록 하는 기술이 나옴. lait를 출력해야 하는 타임 스텝에서, milk에 주의를 집중하는 것. 입력-> 번역까지 경로가 훨씬 짧아지므로 RNN의 단기 기억의 제한성에 훨씬 적은 영향을 받게 됨. 특히 긴 문장에 대해서 성능이 크게 향상됨!! 1. 인코더의 모든 출력을 디코더로 전송함. 2. 각 타임 스텝에서 디코더의 메모리 셀은 이런 모든 인코더 출력의 가중치 합 계산. 이 단계에서 주의를 집중할 단어를 결정. 3. 디코더는 타임 스텝마다 메모리 셀이 앞서 언급한 입력, 이전 타임 스텝의 은닉 상태를 받음 ..
-
[HandsOn] 16. RNN과 어텐션을 사용한 자연어 처리 - 내용 정리2[도서완독]Hands On Machine Learning 2022. 8. 18. 20:44
IMDb 리뷰 데이터셋은 자연어 처리계의 'hello world'라고 한다. 영어로 쓰인 영화 리뷰 50000개(train 25000, test 25000) 로 구성되어 있음. 각 리뷰가 부정적인지=0, 긍정적인지=1 나타내는 간단한 이진 타깃이 포함되어 있음. 인기가 높은 이유는, 노트북에서 감당할 시간 안에 처리할 수 있을 만큼 간단하지만 재미있다고 함.ㅋㅋ keras에서 바로 받을 수 있음. (X_train, y_train), (X_test, y_test) = keras.datasets.imdb.load_data() X_train[0][:10] [1, 14, 22, 16, 43, 530, 973, 1622, 1385, 65] 이 데이터셋은 이미 전처리되어 있음. 각 정수는 하나의 단어를 나타냄. 구..
-
[HandsOn] 16. RNN과 어텐션을 사용한 자연어 처리 - 내용 정리1[도서완독]Hands On Machine Learning 2022. 8. 16. 20:45
요즘처럼 열심히 일한 적이 없다....😂 그래도 공부해야지.... RNN (순환 신경망) 은 자연어 문제를 위해 많이 사용되는 방법. 16.1 Char-RNN을 사용해 셰익스피어 문체 생성하기 Char-RNN을 사용해 한 번에 한 글자씩 새로운 텍스트를 생성 가능. 16.1.1 훈련 데이터셋 만들기 shakespeare_url="https://homl.info/shakespeare" filepath=keras.utils.get_file("shakespeare.txt",shakespeare_url) with open(filepath) as f: shakespeare_text=f.read() 경로에서 셰익스피어 작품을 모두 다운로드. 그 다음 모든 글자를 정수로 인코딩 해야 함. 케라스의 Tokenizer ..
-