단어가어떤순서로쓰였는가

2.3 단어가 어떤 순서로 쓰였는가

2.3.1 통계 기반 언어 모델

언어 모델 ** language model**이란 단어 시퀀스에 확률을 부여하는 모델이다.
단어의 등장 순서를 무시하는 백오브워즈와 달리 언어 모델은 시퀀스 정보를 명시적으로 학습한다.

단어가 n개 주어진 상황이라면 언어 모델은 n개 단어가 동시에 나타날 확률, 즉 P라는 것을 반환한다. 통계 기반의 언어 모델은 말뭉치에서 해당 단어 시퀀스가 얼마나 자주 등장하는지 빈도를 세어 학습한다. 이렇게 되면 주어진 단어 시퀀스 다음 단어는 무엇이 오는게 자연스러운지 알 수 있다.

n-gram이란 n개 단어를 뜻하는 용어이다. 난폭,운전 눈_뜨다 등은 2-gram 또는 bigram이라는 말을 쓴다. 누명, 을, 쓰다 는 3-gram 혹은 trigram이라고 쓴다. 경우에 따라서 n-gram은 n-gram에 기반한 언어 모델을 의미하기도 한다. 말뭉치 내 단어들을 n개씩 묶어서 그 빈도를 학습했다는 뜻이다.

예컨데 , 내_마음 말뭉치는 빈도가 많지만 내_마음_속에_영원히_기억될_최고의_명작이다 라는 말뭉치가 한 번도 없을 수 있다. 이럴 때에는 말뭉치로 학습한 언어 모델은 해당 표현이 나타날 확률을 0으로 부여하게 된다.

문법적으로나 의미적으로 결함이 없는 훌륭한 한국어 문장임에도 해당 표현을 말이 되지 않는 문장으로 취급할 수 있다는 것이다.

내_마음_속에_영원히_기억될_최고의 라는 표현 다음에 명작이다라는 단어가 나타날 확률은 조건부확률 ** conditional probability**의 정의를 활용해 최대우도추정법 으로 유도한다.

P(,,,,,)=Freq(,,,,,,)Freq(,,,,,)P(명작이다|내, 마음, 속에, 영원히, 기억될, 최고의) = { Freq(내, 마음, 속에, 영원히, 기억될, 최고의, 명작이다) \over Freq(내, 마음, 속에, 영원히, 기억될, 최고의)}

그러나 우변의 분자가 0이라서 전체 값은 0이된다.

앞에서 배운 n-gram을 사용해보자. 직전 n-1개 단어의 등장 확률로 전체 단어 시퀀스 등장 확률을 근사하는 것이다. 이말을 다시 해석하면 한 상태** state**의 확률은 그 직전 상태에만 영향을 받는 것이다. 마코프 가정 Markov assumption에 기반한 것이다.

P(,,,,,)P()=Freq(,)Freq()P(명작이다|내, 마음, 속에, 영원히, 기억될, 최고의) ≈ P(명작이다|최고의)={ Freq(최고의, 명작이다) \over Freq(최고의)}

처럼 전 상황에 대해서만 영향을 주는 것이다. 다시말해 명작이다 라는 직전의 1개 단어만 보고 전체 단어 시퀀스 등장 확률을 근사한 것이다.

좀 더 늘려서 끝까지 계산하게 되면 다음과 같다.

P(,,,,,,)P()P()P()P()P()P()P()P(내, 마음, 속에, 영원히, 기억될, 최고의, 명작이다) ≈ P(내)*P(마음|내)*P(속에|마음)*P(영원히|속에)*P(기억될|영원히)*P(최고의|기억될)*P(명작이다|최고의)

일반화를 시킨다면 다음과 같다. 바이그램모델에서는 1개만 참고하지만 일반화를 시키면 전체 단어 시퀀스 등장 확률 계산시 직전 n-1개 단어의 히스토리를 본다

P(WnW(n1)=Freq(W(n1,W(n))Freq(W(n1))P(Wn|W(n-1) = { Freq(W(n-1,W(n)) \over Freq(W(n-1))}

그러나 데이터에 한 번도 등장하지 않는 n-gram이 존재할 때 예측 문제가 발생할 수 있다. 처음 보는 단어를 본다면 그 확률은 0으로 보기 때문이다.

이를 위해서 백오프** back-off**, 스무딩 ** smoothing**등의 방식이 제안된다.
백오프란 n-gram등장 빈도를 n보다 작은 범위의 단어 시퀀스 빈도로 근사하는 방식인데, n을 크게 하면 할 수록 등장하지 않은 케이스가 많아질 가능성이 높기 때문이다.
내_마음_속에_영원히_기억될_최고의_명작이다는 7-gram에서는 0이지만 N을 4로 내린다면 달라진다.
스무딩이란 등장 빈도 표에 모두 K만큼 더하는 것이다. 높은 빈도를 가진 문자열 등장 확률을 일부 깎고 학습 데이터에 전혀 등장하지 않은 케이스들에는 일부 확률을 부여하게 된다.


2.3.2 뉴럴 네트워크 기반 언어 모델

뉴럴 네트워크는 입력과 출력 사이의 관계를 유연하게 포착해낼 수 있고, 그 자체로 확률 모델로 기능이 가능하기 때문에 뉴럴 네트워크로 사용한다.

1
발 없는 말이 -> [언어모델] -> 천리

뉴럴 네트워크 기반 언어 모델은 위 그림처럼 단어 시퀀스를 가지고 다음 단어를 맞추는 과정에서 학습된다. 학습이 완료되면 이들 모델의 중간 혹은 말단 계산 결과물을 단어나 문장의 임베딩으로 활용한다. 대표적인 모델은 다음과 같다.

  • ELMo
  • GPT

마스크 언어 모델 ** masked language model**은 언어 모델 기반 기법과 큰 틀에서 유사하지만 디테일에서 차이가 잇다. 문장 중간에 '마스크’를 씌워 놓고 해당 위치에 어떤 단어가 올지 예측하는 과정을 학습한다.

대게 언어 모델 기반 기법은 단어를 순차적으로 입력받아 다음 단어를 맞춰야하기 때문에 태생적으로 일방향 ** uni-directional이다. 하지만 마스크 언어 모델 기반 기법은 문장 전체를 보고 중간을 예측하기 때문에 양방향 ** bi-directional학습이 가능하다. 대표적인 모델은 다음과 같다.

  • BERT

아나콘다설치

아나콘다 가상 환경 구성

아나콘다가 설치 되었다는 가정하에 진행하겠다
파이썬 프로젝트는 파이썬 실행 환경을 독립적으로 가능하게 해주므로 가상 환경을 만들어 보자.
conda 명령어를 통해 가상 환경을 생성하자.

1
2
lego7@DESKTOP-UHCO554 MINGW64 ~/Desktop/NaverCloud/hyeonukdev/NLG
$ conda create --name pr_tensorflow python=3

conda crate는 가상환경을 생성하는 것을 의미
–naeme 옵션에 pr_tensorflow입력하고 3버전을 입력

1
2
3
lego7@DESKTOP-UHCO554 MINGW64 ~/Desktop/NaverCloud/hyeonukdev/NLG
$ conda activate pr_tensorflow
(pr_tensorflow

윈도우 환경에서는 activate로 가상환경을 실행해주면 (pr_tensorflow)가 만들어진다

가상환경이름을 잊어버렸다면

1
2
3
4
5
6
lego7@DESKTOP-UHCO554 MINGW64 ~/Desktop/NaverCloud/hyeonukdev/NLG
$ conda env list
# conda environments:
#
base C:\Users\lego7\Anaconda3
pr_tensorflow * C:\Users\lego7\Anaconda3\envs\pr_tensorflow

실습 환경 구성

github링크

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
lego7@DESKTOP-UHCO554 MINGW64 ~/Desktop/NaverCloud/hyeonukdev/NLG
$ git clone https://github.com/NLP-kr/tensorflow-ml-nlp.git
Cloning into 'tensorflow-ml-nlp'...
lego7@DESKTOP-UHCO554 MINGW64 ~/Desktop/NaverCloud/hyeonukdev/NLG
$ ls
tensorflow-ml-nlp/
(pr_tensorflow)
lego7@DESKTOP-UHCO554 MINGW64 ~/Desktop/NaverCloud/hyeonukdev/NLG
$ cd tensorflow-ml-nlp
(pr_tensorflow)
lego7@DESKTOP-UHCO554 MINGW64 ~/Desktop/NaverCloud/hyeonukdev/NLG/tensorflow-ml-nlp (master)
$ ls
1.Intro/ 3.NLP_INTRO/ 5.TEXT_SIM/ main.png requirements.txt
2.NLP_PREP/ 4.TEXT_CLASSIFICATION/ 6.CHATBOT/ README.md
(pr_tensorflow)

python 3.6 버전을 설치해주자

1
2
lego7@DESKTOP-UHCO554 MINGW64 ~/Desktop/NaverCloud/hyeonukdev/NLG/tensorflow-ml-nlp (master)
$ conda install python=3.6
1
2
3
lego7@DESKTOP-UHCO554 MINGW64 ~/Desktop/NaverCloud/hyeonukdev/NLG/tensorflow-ml-nlp (master)
$ pip install -r requirements.txt
Collecting tensorflow

주피터노트북 실행

1
2
lego7@DESKTOP-UHCO554 MINGW64 ~/Desktop/NaverCloud/hyeonukdev/NLG/tensorflow-ml-nlp (master)
$ jupyter notebook

어떤단어가많이쓰였는가

2.2 어떤 단어가 많이 쓰였는가

2.2.1 백오브워즈 가정

수학에서 백이란 중복 원소를 허용한 집합 multiset을 뜻한다. 원소의 순서는 고려하지 않는다. 어쩌면 중복 집합과 같다.
자연어 처리 분야에서는 백오브워즈 bag of words

  • 단어의 등장 순서에 관계없이 문서 내 단어의 등장 빈도를 임베딩으로 쓰는 기법
  • 문장을 단어들로 나누고 이들을 중복집합에 넣어 임베딩으로 활용하는 것
  • 저자가 생각한 주제가 문서에서의 단어 사용에 녹아 있을 것
  • 주제가 비슷한 문서라면 단어 빈도 또는 단어 등장 역시 비슷하 것
  • 빈도를 그대로 백오브워즈로 쓴다면 많이 쓰인 단어가 주제와 더 강한 관련을 맺고 있을 것

bagofwords
위 처럼 문장을 단어로 쪼개고 임의의 주머니에 넣고 뽑았을 때 등장하면 1 아니면 0을 반영한 것이다.

백오브워즈 임베딩은 단순하지만 정보 검색 ** Information Retrieval분야에서 많이 쓰인다.
사용자의 질의 ** query
에 가장 적절한 문서를 보여줄 때 질의를 백오브워즈 임베딩으로 변환하고 질의와 검색 대상 문서 임베딩 간 코사인 유사도를 구해 유사도가 가장 높은 문서를 사용자에게 노출한다.

2.2.2 TF-IDF

단어 빈도 또는 등장 여부를 그대로 임베딩으로 쓰는 것에는 단점이 있다. 해당 단어가 많이 나왔다고 하더라도 문서의 주제를 가늠하기 어렵다. 이유는 다음과 같다. ‘을/를’, ‘이/가’ 같은 조사들이 한국어 문서에 등장한다. 이 것으로 문서의 주제를 추측하기 어렵다.
이런 단점을 보완하기 위해서 Term Frequency-Inverse Document Frequency이다.
단어-문서 행렬에 가중치를 계산해 행렬 원소를 바꾼다. 이 또한 단어 등장 순서는 고려하지 않는다.
TF-IDF

위 수식을 자세히 알아보자

  • TF는 어떤 단어가 특정 문서에 얼마나 많이 쓰였는지 빈도를 나타낸다.
    • A라는 단어가 문서1에 10번, 문서2에 5번 쓰였다면 문서1 - 단어A의 TF는 10, 문서2 - 단어A의 TF는 5
  • DF란 특정 단어가 나타난 문서의 수를 뜻한다.
    • 문서1과 문서2에만 A가 등장했으므로 DF는 2D
    • DF가 클수록 다수 문서에 쓰이는 범용적 단어이다
  • IDF는 전체 문서 수를 해당 단어의 DF로 나눈 뒤 로그를 취한 값이다.
    • 그 값이 클수록 특이한 단어이다.
    • 주제 예측 능력과 직결된다

결국 TF-IDF는 어떤 단어의 주제 예측 능력이 강할 수록 가중치가 커지고 그 반대의 경우 작아진다
어떤 단어의 TF가 높으면 TF-IDF 값 역시 커진다
단어 사용 빈도는 저자가 상정한 주제와 관련을 맺고 있을 거라는 가정에 기초한 것이다

2.2.3 Deep Averaging Network

Deep Averaging Network는 백오브워즈 가정의 뉴럴 네트워크 버전이다.
Deep Averaging Network

예를 들어 애비는 종이었다 라는 문장이 있다면
{애비, 종, 이, 었, 다}에 속한 단어의 임베딩을 평균을 취해 만든다. 문장 내에 어떤 단어가 쓰였는지, 쓰였다면 얼마나 많이 쓰였는지 그 빈도만을 고려한다. 문장 임베딩을 입력받아 해당 문서가 어떤 범주인지 분류 classifiation 한다.

자연어계산과이해

2.1 자연어 계산과 이해

컴퓨터는 자연어를 사람처럼 이해할 수 없다. 그러나 임베딩을 활용하면 컴퓨터가 자연어를 계산하는 것이 가능해진다.

임베딩은 자연어를 컴퓨터가 처리할 수 있는 숫자들의 나열인 벡터로 바꾼 결과이기 때문이다. 컴퓨터는 임베딩을 계산/처리해 사람이 알아들을 수 있는 형태의 자연어로 출력한다.

자연어의 통계적 패턴 ** statistical pattern** 정보를 통째로 임베딩에 넣는다.
임베딩을 만들 때 쓰는 통계 정보는 3가지가 있다.

  1. 문장에 어떤 단어가 많이 쓰였는지
  2. 단어가 어떤 순서로 등장하는지
  3. 문장에 어떤 단어가 같이 나타났는지
구분 백오프워즈 가정 언어 모델 분포가정
내용 어떤 단어가 많이 쓰였는가 단어가 어떤 순으로 쓰였는가 어떤 단어가 같이 쓰였는가
대표 통계량 TF-IDF - PMI
대표 모델 Deep Averaging Network ELMo, GPT Word2Vec

언어 모델에서는 단어의 등장 순서를, 분포 가정에서는 이웃 단어를 우선시한다. 어떤 단어가 문장에서 주로 나타나는 순서는 해당 단어의 주변 문맥과 뗄래야 뗄 수 없는 관계를 가진다.
한편, 분포 가정에서는 어떤 쌍이 얼마나 자주 나타나는지와 관련한 정보를 수치화하기 위해 개별 단어 그리고 단어 쌍의 빈도 정보를 적극 활용한다.

백오브워즈 가정, 언어 모델, 분포 가정은 말뭉치의 통계적 패턴을 서로 다른 각도에서 분석하는 것이며 상호 보완적이다.

1장정리

1.6 1장의 요약

  • 임베딩이란 자연어를 기계가 이해할 수 있는 숫자의 나열인 벡터로 바꾼 결과 혹은 그 일련의 과정 전체를 가리킴

  • 임베딩을 사용하면 단어/문장 간 관련도를 계산할 수 있음

  • 임베딩에는 믜미적/문법적 정보가 함축돼 있음

  • 임베딩은 다른 딥러닝 모델의 입력값으로 쓰일 수 있음

  • 임베딩 기법은 (1) 통계 기반에서 뉴럴 네트워크 기반으로 (2) 단어 수준에서 문장 수준으로 (3) 엔드투엔드에서 프리트레인/파인 튜닝 방식으로 발전해옴

  • 임베딩 기법은 크게 행렬 분해 모델, 에측 기반 방법, 토픽 기반 기법 등으로 나눠짐

  • 이 책이 다루는 데이터의 최소 단위는 토큰임. 문장은 토큰의 집합, 문서는 문장의 집합, 말뭉치는 문서의 집합을 가리킴. 말뭉치 > 문서 > 문장 > 토큰. 어휘 집합은 말뭉치에 있는 모든 문서를 문장으로 나누고 여기에 토크나이즈를 실시한 후 중복을 제거한 토큰들의 집합임

데이터와주요용어

1.5 이 책이 다루는 데이터와 주요 용어

  • 텍스트(text)

  • 말뭉치(corpus) : 텍스트 데이터

  • 표본(Sample) : 특정한 목적을 가지고 수집한 말뭉치

  • 컬렉션(collection) : 말뭉치에 속한 각각의 집합

  • 문장(sentence) : 이 책에서 다루는 데이터의 기본 단위, 마침표나 느낌표, 물음표와 같은 기호로 구분된 문자열

  • 문서(document), 단락(paragraph)의 집합 : 생각이나, 감정, 정보를 공유하는 문장의 집합, 줄바꿈(\n) 문자로 구분된 문자열

  • 토큰(token), 단어(word), 형태소(morpheme), 서브워드(subword) : 이 책에서 다루는 가장 작은 단위

  • 토크나이즈(tokenize) : 문장을 토큰 시쿼스로 분석하는 과정, 토큰 시퀀스는 문장을 토큰으로 나누는 것, 토큰 구분자는 쉼표를 주로 사용

  • 어휘 집합(vocabulary) : 말뭉치에 있는 모든 문서를 문장으로 나누고 여기에 토크나이즈를 실시한 후 중복을 제거한 토큰들의 집합

  • 미등록 단어(unknown word) : 어휘 집합에 없는 토큰

환경소개

1.4.1 환경소개

  • Ubuntu 16.04.5
  • Python 3.5.2
  • Tensorflow 1.12.0

도커 구성하기

본인은 Synology NAS를 사용하고 있으므로 NAS에서 docker 환경을 구성하는 방법을 포스팅하려고 한다.
혹 NAS가 없는 경우 책에는 AWS로 하는 방법을 소개했으니 참고하자.
도커이미지

1
2
3
$ uname -a #ubuntu 환경 확인
$ pwd #위치 확인
$ cd /home #home으로 이동
1
2
3
4
root@docker-NLG:/# apt upgrade                                                  
root@docker-NLG:/# apt update
root@docker-NLG:/# apt install python3.5.2
root@docker-NLG:/# apt install python3-pip

pip3 라고 command에 쳤을 때 뭐라뭐라 길게 나오면 성공!
더 정확하게 확인하려면

1
2
root@docker-NLG:/# pip3 --version                                               
pip 9.0.1 from /usr/lib/python3/dist-packages (python 3.6)
1
2
3
root@docker-NLG:/# pip3 install --upgrade pip
root@docker-NLG:/# pip --version
pip 20.0.2 from /usr/local/lib/python3.6/dist-packages/pip (python 3.6)
도커 다운을 위한 패키지 설치

안된다면 앞에 sudo를 붙여보시길…

1
2
3
4
apt install apt-transport-https 
apt install ca-certificates
apt install curl
apt install software-properties-common

apt-transport-https : 패키지 관리자가 https를 통해 데이터 및 패키지에 접근할 수 있도록 한다.
ca-certificates : ca-certificate는 certificate authority에서 발행되는 디지털 서명. SSL 인증서의 PEM 파일이 포함되어 있어 SSL 기반 앱이 SSroot@docker-NLG:/# pip3 --version L 연결이 되어있는지 확인할 수 있다.
curl : 특정 웹사이트에서 데이터를 다운로드 받을 때 사용
software-properties-common : *PPA를 추가하거나 제거할 때 사용한다.

curl 명령어로 도커 다운받기 && repository에 경로 추가하기
1
2
3
4
root@docker-NLG:/# curl -fsSL https://download.docker.com/linux/ubuntu/gpg | apt
-key add -
OK
root@docker-NLG:/# add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu bionic stable"

curl 명령어의 옵션

f : HTTP 요청 헤더의 contentType을 multipart/form-data로 보낸다.
s : 진행 과정이나 에러 정보를 보여주지 않는다.(–silent)
S : SSL 인증과 관련있다고 들었는데, 정확히 아시는 분 있다면 댓글 부탁!
L : 서버에서 301, 302 응답이 오면 redirection URL로 따라간다.
apt-key : apt가 패키지를 인증할 때 사용하는 키 리스트를 관리한다. 이 키를 사용해 인증된 패키지는 신뢰할 수 있는 것으로 간주한다. add 명령어는 키 리스트에 새로운 키를 추가하겠다는 의미이다.

add-apt-repository : PPA 저장소를 추가해준다. apt 리스트에 패키지를 다운로드 받을 수 있는 경로가 추가된다.

docker 패키지가 검색되는지 확인
1
2
3
4
root@docker-NLG:/# apt-get update 
root@docker-NLG:/# apt-cache search docker-ce
docker-ce-cli - Docker CLI: the open-source application container engine
docker-ce - Docker: the open-source application container engine

apt update : 저장소의 패키지 갱신

도커 설치하기 && ubuntu를 도커그룹으로 입력
1
2
3
root@docker-NLG:/# apt-get install docker-ce
root@docker-NLG:/# usermod -aG docker $USER
Usage: usermod [options] LOGIN

nvidia-docker 설치

위의 단계까지 끝내면 일반적인 도커 기능들을 이용하실 수 있습니다. 하지만 NVIDIA의 GPU를 이용하시면서 여러 환경의 CUDA Tookit을 이용하실 경우 nvidia-docker라는 확장 기능을 추가하시면 보다 편리하게 사용하실 수 있습니다.

nvidia-docker를 설치하고자 하실 경우 호스트 운영체제에 먼저 NVIDIA 드라이버가 설치되어 있어야 합니다. NVIDIA의 그래픽카드 또는 GPU를 사용하지 않는 경우 이 과정을 진행하고 도커 설치과정을 끝내실 수 있습니다.
docker

우분투에서 NVIDIA 드라이버 설치 방법
1
2
3
4
5
6
7
8
9
10
root@docker-NLG:/# curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey|apt-
key add -
OK
root@docker-NLG:/# distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
root@docker-NLG:/# curl -s -L https://nvidia.github.io/nvidia-docker/$distributi
on/nvidia-docker.list|tee /etc/apt/sources.list.d/nvidia-docker.list
deb https://nvidia.github.io/libnvidia-container/ubuntu18.04/$(ARCH) /
deb https://nvidia.github.io/nvidia-container-runtime/ubuntu18.04/$(ARCH) /
deb https://nvidia.github.io/nvidia-docker/ubuntu18.04/$(ARCH) /
root@docker-NLG:/# apt-get update
nvidia-docker 실행

우분투에서 nvidia-driver받기

1
2
3
4
root@docker-NLG:/# apt-get install -y nvidia-container-toolkit
root@docker-NLG:/# apt-get install systemd
root@docker-NLG:/# systemctl restart docker
root@docker-NLG:/# docker run --gpus all nvidia/cuda:9.0-base nvidia-smi

도커실행하기
1
root@docker-NLG:/home# git clone https://github.com.rastgo/embedding

참고 링크

오픈소스링크

TensorFlow : https://www.tensorflow.org
Gensim : https://radimrehurek.com/gensim
FastText : https://fasttext.cc
GloVe : https://nlp.stanford.edu/projects/glove
Swivel : https://github.com/tensorflow/models/tree/master/research/swivel
ELMo : https://allennlp.org/elmo
BERT : https://github.com/google-research/bert
Scikit-Learn : https://scikit-learn.org
KoNLPy : http://konlpy.org/en/latest/
Mecab : http://eunjeon.blogspot.com/
soynlp : https://github.com/lovit/soynlp
Khaiii : https://github.com/kakao/khaiii https://tech.kakao.com/2018/12/13/khaiii/
Bokeh : https://docs.bokeh.org/
sentencepiece : https://github.com/google/sentencepiece

임베딩기법의역사와종류

1.3 임베딩 기법의 역사와 종류

1.3.1 통계 기반에서 뉴럴 네트워크 기반으로

초기 임베딩 기법은 대부분 말뭉칭의 통계량을 직접 활용했다. 대표적으로 잠재 의미 분석 ** Latent Semantic Analysis**이다.

잠재 의미 분석

잠재 의미 분석이란 단어 사용 빈도 등 말뭉치의 통계량 정보가 들어 있는 커다란 행렬 ** Matrix에 특이값 분해 ** Singular Value Decomposition등 수학적 기법을 적용해 행렬에 속한 벡터들의 차원을 축소하는 방법

잠재 의미 분석

단어-문서 행렬에 잠재 의미 분석을 적용했다고 가정하자. 그런데 단어-문서 행렬을 행의 개수가 매우 많다. 어휘 수는 대개 10~20만 개일 것이다. 행렬의 대부분 요소 값은 0이다. 문서 하나에 모든 어휘가 쓰이는 경우는 매우 드물다. 이렇게 대부분의 요소 값이 0인 행렬을 희소 행렬 ** sparse matrix**이라고 한다.

희소행렬 예시

이런 희소 행렬을 다른 모델의 입력값으로 쓰게 되면 계산량도 메모리 소비량도 쓸데없이 커진다. 그래서 원래 행렬의 차원을 축소해 사용한다. 단어문서를 기준으로 줄인다.


잠재 의미 분석 행렬 수행 대상 행렬은 여러 종류가 될 수 있다.

  • TF-IDF 행렬
  • 단어-문맥 행렬
  • 점별 상호 정보량 행렬

최근에는 뉴럴 네트워크 기반의 임베딩 기법들이 주목받고 있다. 이전 단어들이 주어졌을 때 다음 단어가 뭐가 될지 예측하거나 문장 내 일부분에 구멍을 뚫어 놓고 해당 단어가 무엇일지 맞추는 과정에서 학습된다.


1.3.2 단어 수준에서 문장 수준으로

2017년 이전의 임베딩 기법들은 대게 단어 수준 모델이었다. NPLM, Word2Vec, Glove, FastText, Swivel 등이 있다. 단어 수준 임베딩 기법의 단점은 동음이의어 ** homonym을 구분하기 어렵다. 단어 형태가 같다면 동일한 단어로 보고, 문맥 정보를 해당 단어 벡터에 전달하기 때문이다.
다행히도 ELMo
Embeddings from Language Modles**가 발표된 후 문장 수준 임베딩 기법이 주목받았다.
BERT는 양방향이며 OpenAI GPT는 단방향이며 ELMo는 양방향이다

1.3.3 룰 -> 엔드투엔드 -> 프리트레인/파인 튜닝

  • 1990년 : 사람이 피처를 직접 뽑음
  • 2000년 중반 : 딥러닝 모델 주목, 입출력의 관계를 사람의 개입 없이 모델 스스로 처음부터 끝까지 이해하도록 유도
  • 2018년 : 말뭉치로 임베딩을 만듬, 구체적 문제에 맞는 소규모 데이터에 맞게 임베딩을 포함한 모델 전체를 업데이트함
다운스트림 태스크 ** Downstream task**
  • 품사판별 ** Part-of Speech tagging**
  • 개체명 인식 ** Named Entity Recognition**
  • 의미역 분석 ** Semantic Role Labeling**

######예시

  • 품사 판별 : 나는 네가 지난 여름에 한 [일]을 알고 있다. → 일: 명사(Noun)
  • 문장 성분 분석 : 나는 [네가 지난 여름에 한 일]을 알고 있다. → 네가 지난 여름에 한 일 : 명사구(Noun Phrase)
  • 의존 관계 분석 : [자연어 처리는] 늘 그렇듯이 [재미있다]. → 자언어 처리는, 재미있다 : 주격명사구(Nsub)
  • 의미역 분석 : 나는 [네가 지난 여름에 한 일]을 알고 있다. → 네가 지난 여름에 한 일 : 피행위주역(Patient)
  • 상호 참조 해결 : 나는 어제 [성빈이]를 만났다. [그]는 스웨터를 입고 있었다. → 그=성빈이
업스트림 태스크 ** Upstream task**
  • 단어/문장 임베딩을 프리트레인하는 작업

1.3.4 임베딩의 종류와 성능

임베딩 기법

  1. 행렬 분해
  2. 예측
  3. 토픽 기반

행렬 분해 기반 방법

말뭉치 정보가 들어 있는 원래 행렬을 두 개 이상의 작은 행렬로 쪼개는 방식의 임베딩 기법
분해한 이후에 둘 중 하나의 행렬만 쓰거나 둘을 add 하거나 concatenate 임베딩으로 사용
행렬 분해 기반 방법

예측 기반 방법

어떤 단어 주변에 특정 단어가 나타날지 예측하거나, 이전 단어들이 주어졌을 때 다음 단어가 무엇일지 예측하거나, 문장 내 일부 단어를 지우고 해당 단어가 무엇일지 맞추는 과정에서 학습

토픽 기반 방법

주어진 문서에 잠재된 주제를 추론** inference**하는 방식으로 임베딩을 수행
모델은 학습이 완료되면 각 문서가 어떤 주제 분포를 갖는지 확률 벡터 형태로 반환 하기 때문에 가능

임베딩 성능 평가

성능 측정 대상 다운스트림 태스크는 형태소 분석, 문장 성분 분석, 의존 관계 분석, 의미역 분석, 상호 참조 해결 등이다.
안타깝겓게도 한국어는 공개된 데이터가 많지 않아 높은 품질 측정을 기대하긴 어렵다.

한국어임베딩-임베딩의역할

1.2 임베딩의 역할

임베딩은 다음 역할을 수행할 수 있다

  • 단어/문장 간 관련도 계산
  • 의미적/문법적 정보 함축
  • 전이 학습

1.2.1 단어/문장 간 관련도 계산

현업에서는 2013년 구글 연구 팀이 발표한 Word2Vec이라는 기법이 대표적이다.
단어들을 벡터로 바꾸는 방법이다.
한국어 위키백과, KorQuAD, 네이버 영화 리뷰 말뭉치 등은 은전한닢으로 형태소 분석을 한 뒤 100차원으로 학습한 Word2Vec 임베딩 중 희망 이라는 단어의 벡터는 다음과 같다

[-0.00209 -0.03918 0.02419 … 0.01715 -0.04975 0.009300]

위 수식의 숫자들은 모두 100개이다. 100차원으로 임베딩을 했기 때문이다.
단어를 벡터로 임베딩하는 순간 단어 벡터들 사이의 유사도 similarity를 계산하는 일이 가능해진다.


각 쿼리 단어별로 벡터 간 유사도 측정 기법의 일종인 코사인 유사도 cosine similarity 기준 상위 4개
희망 절망 학교 학생
소망 체념 초등 대학생
희망찬 절망감 중학교 대학원생
상실감 야학교 교직원
열망 번민 중학 학부모

희망과 코사인 유사도가 가장 높은 것은 소망이다.
자연어일 때는 불가능했던 코사인 유사도 계산이 임베딩 덕분에 가능해 졌다.
다음은 Word2Vec 임베딩을 통해서 단어 쌍 간 코사인 유사도를 시각화 한 것이다. 검정색일 수록 코사인 유사도가 높다

Word2Vec 임베딩을 통해서 단어 쌍 간 코사인 유사도 시각화

입베딩을 수행하면 벡터 공간을 기하학적으로 나타낸 시각화 역시 가능하다
Word2Vec 단어 벡터들의 2차원 시각화

1.2.2 의미/문법 정보 함축

입베딩은 벡터인 만큼 사칙연산이 가능하다.
단어 벡터간 덧셈/뺄셈을 통해 단어들 사이의 의미적, 문법적 관계를 도출해낼 수 있다.

단어 유추 평가 word analogy test

단어유추평가

단어1 - 단어2 + 단어3 연산을 수행한 벡터와 코사인 유사도가 가장 높은 단어4를 배열한다

단어1 단어2 단어3 단어4
아들 소년 소녀
아들 아빠 엄마
아들 남성 여성
남동생 여동생 소년 소녀
남동생 여동생 아빠 엄마

1.2.3 전이학습

임베딩은 다른 딥러닝 모델의 입력값으로 자주 쓰인다. 문서 분류를 위한 딥러닝 모델을 만든다.
예컨데 품질 좋은 임베딩을 쓰면 문서 분류 정확도와 학습 속도가 올라간다. 이렇게 임베딩을 다른 딥러닝 모델의 입력값으로 쓰는 기법을 전이 학습 transfer learning 이라고 한다.


전이학습

전이 학습 모델은 제로부터 시작하지 않는다. 대규모 말뭉치를 활용해 임베딩을 미리 만들어 놓는다. 임베딩에는 의미적, 문법적 정보 등이 있다.

문장의 극성을 예측하는 모델

  • 양방향 LSTM에 어텐션 메커니즘을 적용
  • bidirectional Long Short-Term Memory, Attention

이 딥러닝의 모델의 입력값은 FastText 임베딩(100차원)을 사용했다.

FastText 임베딩은 Word2Vec의 개선된 버전이며 59만 건에 이르는 한국어 문서를 미리 학습한 모델
학습 데이터는 다음과 같다

  • 이 영화 꿀잼 + 긍정 positive
  • 이 영화 노잼 + 부정 negative

전이 학습 모델은 문장을 입력받으면 해당 문장이 긍정인지 부정인지를 출력한다. 문장을 형태소 분석한 뒤 각각의 형태소에 해당하는 FastText 단어 임베딩이 모델의 입력값이 된다.

임베딩 종류별 긍정/부정 문서 분류 정확도
임베딩 종류별 학습 손실

위의 그래프로 처음 부터 하는 것 보다 FastText 임베딩을 사용한 모델의 성능이 좋다. 즉, 임베딩의 품질이 좋으면 수행하려는 Task의 성능 역시 올라간다.

왜 임베딩이 중요한지 깨달았다

한국어임베딩-임베딩이란

한국어임베딩github
한국어 임베딩 서적을 공부하며 정리하는 글이 되겠습니다.


1.1 임베딩이란?

기계의 자연어 이해와 생성은 연산 Computation 과 처리 Processing의 영역이다

자연어처리분야에서의 임베딩이란

사람이 쓰는 자연어를 기계가 이해할 수 있는 숫자의 나열인 벡터 vector로 바꾼 결과 혹은 그 일련의 과정 전체를 의미한다. 단어나 문장 각각을 벡테로 변환해 벡터공간 vector space으로 '끼워 넣는다embed 는 의미에서 임베딩이라고 지었다.


단어-문서 행렬 Term-Document Matrix
구분 메밀꽃 필 무렵 운수좋은 날 사랑 손님과 어머니 삼포 가는길
기차 0 2 10 7
막걸리 0 1 0 0
선술집 0 1 0 0

위 와 같은 빈도표를 단어-문서 행렬이라고 부른다.
row는 단어, column은 문서(작품)에 대응한다.
운수좋은 날의 문서의 임베딩은 [2,1,1]이다. 막걸리라는 단어의 임베딩은 [0,1,0,0] 이다.
표를 보면 ‘사랑 손님과 어머니’, '삼포 가는 길’이 사용하는 단어 목록이 상대적으로 많이 겹침을 알 수 있다.
일르 바탕으로 '사랑 손님과 어머니’는 ''삼포 가는 길’과 '기차’라는 소재를 공유한다는 점에서 비슷한 작품임을 추정할 수 있다.

API API오용 Anaconda Beacon Bluetooth CRUD분석 Camera ChatBot DB관련신기술 DB관리기능 DB서버 DB표준화 ER다이어그램 ER모델 ETL Flask HW관련신기술 IDE도구 IP IoT Machine_Translation NLP배경 ORM프레임워크 Package Recurrent Neural Network SDLC SW개발방법론 SW개발방법론선정 SW개발보안정책 SW개발표준 SW관련신기술 Sequence_Tagging ShellScript TCP_UDP Vector WordCloud c 자료형 class embedding konlpy python python 자료형 가설검증 개발환경구축 객체지향프로그래밍언어 관계데이터베이스모델 관계데이터언어 국제표준제품품질특성 네트워크7계층 네트워크관련신기술 네트워크장비 네트워크침해공격용어 논리데이터모델개요 논리데이터모델품질검증 논리적데이터모델링 논문 단위모듈구현 단위모듈테스트 데이터검증 데이터모델개념 데이터베이스무결성 데이터베이스백업 데이터베이스암호화 데이터베이스용량설계 데이터베이스이중화구성 데이터베이스정규화 데이터분석 데이터분석 - 순열 - 조합 데이터분석 - 정규분포 데이터분석 - 통계기초 데이터사이언스개념 데이터입출력 데이터전환수행계획 데이터정제 데이터조작프로시저작성 데이터조작프로시저최적화 데이터조작프로시저테스트 데이터지역화 데이터타입 데이터표준확인 데이터품질분석 라이브러리 로그분석 메모리관리 모델화 몬테카를로 물리데이터모델설계 물리데이터모델품질기준 물리데이터저장소구성 물리요소조사분석 반정규화 배치프로그램 변수 보안기능 보안솔루션 보안아키텍처 보안취약성식별 분산데이터베이스 분산분석 비용산정모델 빌드자동화도구 사용자정의함수 상관분석 서버개발프레임워크 서버인증 서버장비운영 서버접근통제 서비스공격유형 선언형언어 세션통제 소스코드인스펙션 소프트스킬 소프트웨어개발프레임워크 소프트웨어버전관리도구 소프트웨어연계테스트 슈퍼디엠지 스크립트언어 시스템카탈로그와뷰 암호알고리즘 애플리케이션모니터링도구 애플리케이션배포도구 애플리케이션성능개선 애플리케이션테스트결과분석 애플리케이션테스트시나리오작성 애플리케이션테스트케이스작성 애플리케이션통합테스트수행 애플리케이션패키징 연산자 예외처리 오답노트 오류데이터측정 오류처리 오류처리확인및보고서작성 요구공학방법론 운영체제 웹서버 이벤트 인터넷구성의개념 인터페이스구현검증 인터페이스기능확인 인터페이스보안 입력데이터검증및표현 자료구조 자연어처리 재사용 절차적프로그래밍언어 정보보안침해공격용어 정보처리기사 제품소프트웨어매뉴얼작성 집계성DCL작성 체크리스트 초기데이터구축 취약점분석 칼럼속성 캡슐화 코드오류 클러스터링 키종류 테일러링기준 트랜잭션인터페이스 트리거 파일처리기술 파티셔닝 패키지 포트포워딩 프로세스스케줄링 프로토타입 한국어임베딩 핵심정리 현업도구 형상관리도구 환경변수 회귀분석
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×