전체 글 (74) 썸네일형 리스트형 4-3. Transformer(Positional Encoding) [초등학생도 이해하는 자연어처리] 안녕하세요 '코딩 오페라'블로그를 운영하고 있는 저는 'Master.M'입니다. 현재 저는 '초등학생도 이해하는 자연어 처리'라는 주제로 자연어 처리(NLP)에 대해 포스팅을 하고 있습니다. 제목처럼 진짜 핵심 내용을 쉽게 설명하는 것을 목표로 하고 있으니 자연어 처리(NLP)에 입문하고 싶은 분들은 많은 관심 부탁드립니다. 지금부터 알아볼 내용은 'Transformer'입니다. Transformer 개념은 너무 방대하기 때문에 이번 시간에는 "Positional Encoding"을 집중적으로 다루겠습니다. 이후 내용들은 다음 글에서 다루도록 하겠습니다. 본론에 들어가기에 앞이 이분은 "Attention"과 "Self Attention"에 대한 사전 지식이 있어야 이해하기가 쉽습니다. 혹시 이 부분을.. 4-2. Transformer(Multi-head Attention) [초등학생도 이해하는 자연어처리] 안녕하세요 '코딩 오페라'블로그를 운영하고 있는 저는 'Master.M'입니다. 현재 저는 '초등학생도 이해하는 자연어 처리'라는 주제로 자연어 처리(NLP)에 대해 포스팅을 하고 있습니다. 제목처럼 진짜 핵심 내용을 쉽게 설명하는 것을 목표로 하고 있으니 자연어 처리(NLP)에 입문하고 싶은 분들은 많은 관심 부탁드립니다. 지금부터 알아볼 내용은 'Transformer'입니다. Transformer 개념은 너무 방대하기 때문에 이번 시간에는 "Multi-head Attention"을 집중적으로 다루겠습니다. 이후 내용들은 다음 글에서 다루도록 하겠습니다. 본론에 들어가기에 앞이 이분은 "Attention"과 "Self Attention"에 대한 사전 지식이 있어야 이해하기가 쉽습니다. 혹시 이 부분.. 4-1. Transformer(Self Attention) [초등학생도 이해하는 자연어처리] 안녕하세요 '코딩 오페라'블로그를 운영하고 있는 저는 'Master.M'입니다. 현재 저는 '초등학생도 이해하는 자연어 처리'라는 주제로 자연어 처리(NLP)에 대해 포스팅을 하고 있습니다. 제목처럼 진짜 핵심 내용을 쉽게 설명하는 것을 목표로 하고 있으니 자연어 처리(NLP)에 입문하고 싶은 분들은 많은 관심 부탁드립니다. 지금부터 알아볼 내용은 'Transformer'입니다. Transformer 개념은 너무 방대하기 때문에 이번 시간에는 "Self Attention"을 집중적으로 다루겠습니다. 이후 내용들은 다음 글에서 다루도록 하겠습니다. Transformer 란? 본론 부터 말씀드리면 Transformer 모델은 Attention만으로 이루어진 encoder-decoder 구조의 seqenc.. [책 리뷰] 케라스 창시자에게 배우는 딥러닝 개정 2판 안녕하세요 '코딩 오페라'블로그를 운영하고 있는 저는 'Master.M'입니다. 최근 제가 선물 받은 책이 있는데, 읽어보니 정말 괜찮아서 여러분들께 한번 소개를 하고자 합니다. 바로 '케라스 창시자에게 배우는 딥러닝 (개정 2판)'이라는 책으로 딥러닝 분야에 관심이 있으시면 이 글을 꼭 읽어보시기 바랍니다. 다자인 책의 디자인은 위와 같습니다. 600페이지가 넘는 양이어서 두께는 어느 정도 있고, 가장 큰 특징이 양장본으로 구성이 되어있다는 것입니다. 때문에 일반적인 책들과 비교했을 때 훨씬 더 고급진 분위기가 납니다. 쉽게 책이 구겨지지 않고 단단하다는 장점도 있습니다. 표지의 배경색인 폴란드 국기를 연상시키는 빨간색과 흰색의 조화로 이루어져 있어 깔끔하게 느껴집니다. 저의 경우 딥러닝과 관련된 괜찮.. 3. Attention [초등학생도 이해하는 자연어처리] 안녕하세요 '코딩 오페라'블로그를 운영하고 있는 저는 'Master.M'입니다. 현재 저는 '초등학생도 이해하는 자연어 처리'라는 주제로 자연어 처리(NLP)에 대해 포스팅을 하고 있습니다. 제목처럼 진짜 핵심 내용을 쉽게 설명하는 것을 목표로 하고 있으니 자연어 처리(NLP)에 입문하고 싶은 분들은 많은 관심 부탁드립니다. 오늘 알아볼 내용은 요즘 핫한 뉴진스의 'Attention'입니다. Attention 이란? Attention이란 문맥에 따라 집중할 단어를 결정하는 방식을 의미합니다. 우리는 글을 읽을때 모든 단어들 집중해서 읽지 않습니다. 중요하다고 생각하는 단어에만 집중을 하고 나머지는 그냥 읽습니다. 이 방법이 문맥을 파악하는 핵심입니다. 이러한 방식을 딥러닝 모델에 적용한 것이 'Atten.. Github 에러 해결법: fatal: Authentication failed for 'https://github.com/~.git/' [Github token 사용법] 안녕하십니까 코딩 오페라의 Master.M입니다. 오늘은 코딩할 때 많이 사용되는 Github의 "fatal: Authentication failed for 'https://github.com/~.git/'"에러 를 'Github token'을 통해 해결하는 방법을 소개하도록 하겠습니다. 저의 경우 Github에 git push를 통해 파일을 올릴 때 위와 같은 "fatal: Authentication failed for 'https://github.com/~.git/'"에러가 발생합니다. 이는 Github의 이름과 패스워드를 입력하면 발생하는 에러로 이를 해결하기 위해서는 Github token을 생성해야 됩니다.(규정이 바뀜) 만약 Github의 기본적인 사용법을 모르시는 분들께서는 아래 제 Gith.. 2-1. BOW(Bag of Words)기반 'TF-IDF' [초등학생도 이해하는 자연어처리] 안녕하세요 '코딩 오페라'블로그를 운영하고 있는 저는 'Master.M'입니다. 현재 저는 '초등학생도 이해하는 자연어 처리'라는 주제로 자연어 처리(NLP)에 대해 포스팅을 하고 있습니다. 제목처럼 진짜 핵심 내용을 쉽게 설명하는 것을 목표로 하고 있으니 자연어 처리(NLP)에 입문하고 싶은 분들은 많은 관심 부탁드립니다. 오늘 알아볼 내용은 'TF-IDF(Term Frequency-Inverse Document Frequency)'입니다. https://codingopera.tistory.com/36?category=1094804 2. BOW(Bag of Words)기반 '카운트 벡터(Count Vector)' [초등학생도 이해하는 자연어처리] 안녕하세요 '코딩 오페라'블로그를 운영하고 있는 저는 '.. 2. BOW(Bag of Words)기반 '카운트 벡터(Count Vector)' [초등학생도 이해하는 자연어처리] 안녕하세요 '코딩 오페라'블로그를 운영하고 있는 저는 'Master.M'입니다. 현재 저는 '초등학생도 이해하는 자연어 처리'라는 주제로 자연어 처리(NLP)에 대해 포스팅을 하고 있습니다. 제목처럼 진짜 핵심 내용을 쉽게 설명하는 것을 목표로 하고 있으니 자연어 처리(NLP)에 입문하고 싶은 분들은 많은 관심 부탁드립니다. 오늘 알아볼 내용은 'BOW(Bag of Words)'입니다. BOW(Bag of Words) 란? 우리는 어떻게 글을 이해할까요? 아마 가장 간단한 방법은 글에 나와있는 단어의 빈도를 이용하는 것일 겁니다. 이유는 당연합니다. 축구에 관한 글에서는 '축구'라는 단어가 많이 나올 것이고, BTS관련 기사에서는 'BTS'가 많이 나오기 때문입니다. 이러한 상식으로부터 출발한 것이 바로.. 이전 1 2 3 4 5 6 7 8 ··· 10 다음