본문 바로가기

딥러닝50

[Classification] ViT: Vision Transformer 사족조차 잊어버린 바쁘다 바빠 현대 사회 * Transformer를 이해하고 읽으면 훠어얼씬 쉽습니다. 제 Transformer 포스팅을 참고해주세요^,^ https://hyelimkungkung.tistory.com/33?category=935163 [NLP] Tansformer [reference 및 figure 출처] https://nlpinkorean.github.io/illustrated-transformer/ https://wikidocs.net/24996 https://arxiv.org/pdf/1706.03762.pdf https://www.youtube.com/watch?v=mxGCEWOxfe8 들어가는.. hyelimkungkung.tistory.com An Image Is Worth 1.. 2021. 7. 29.
[NLP] 토픽 모델링 - LSA, LDA 위주 ** 교류학술제 방법론 조사한 내용 발표를 위해 만든 자료이기에 글이 별로 없습니당,, ** 교류학술제 파이팅~ 완료되면 프로젝트 란에 게시할 예정입니다~ 잠재 의미 분석LSA, 잠재 디리클레 할당LDA reference https://wikidocs.net/book/2155 https://towardsdatascience.com/latent-dirichlet-allocation-lda-9d1cd064ffa2 https://www.machinelearningplus.com/nlp/topic-modeling-gensim-python/#1introduction https://ratsgo.github.io/from frequency to semantics/2017/06/01/LDA/ (LDA의 자세한 과정으로.. 2021. 7. 29.
[NLP] Tansformer [reference 및 figure 출처] https://nlpinkorean.github.io/illustrated-transformer/ https://wikidocs.net/24996 https://arxiv.org/pdf/1706.03762.pdf https://www.youtube.com/watch?v=mxGCEWOxfe8 들어가는 사족 더보기 transformer를 검색하면 자꾸 이 영화? 이미지가 떴는데 하도 많이 검색해서 그런가 이제는 검색해도 이런 것만 뜬다 ㅋㅋㅋ 구글 천재 얼른 faster rcnn 읽은 것도 리뷰 올려야 하는데 몰아치는 과제의 홍수 속에서 살아남을 수가 없다 이상하다 분명 방학인데 학기보다 더 바쁜 것 같다 그리고 왜 회사는 내가 퇴사하려고 하니까 일을 많이 주는가!.. 2021. 7. 28.
[Classification] GoogleNet Going deeper convolutions AlexNet이 나오고 벌써 2년이 지난 2015년이다. 중학교 때 도덕 공부하지 말고 인공지능이나 공부했으면 난 벌써 척척박사였을지도 모르겠군. 참고로 말하자면 Fast R-CNN이 나왔던 시점도 2015년이다. 왜 R-CNN에서 AlexNet을 쓰나 했더만.. classification이랑 detection이 이렇게 구분되어서 발전해왔을 줄은 몰랐다. (약간 그 미분과 적분은 별개의 학문이었는데 나중에 그 연결점을 찾아서 미적분이 된 것처럼.. 아닌가? ㅎㅎ) 참고로 내가 느낀건데 약간 제대로 이해를 못하면 영어를 많이 쓰는 것 같다. (약간 region proposal 같은 그런 용어 말고 construct나,,) 내가 아는 동산데 뭔가 내용을 이해 못.. 2021. 7. 19.