wordEmbedding
ベクトルへの単語のマッピングとその逆変換のための単語埋め込みモデル
説明
word2vec ライブラリ、GloVe ライブラリ、および fastText ライブラリで普及している単語埋め込みは、ボキャブラリ内の単語を実数ベクトルにマッピングします。
ベクトルは単語のセマンティクスを取得しようとするため、互いに類似する単語はベクトルも類似するようになります。一部の埋め込みでは、"king is to queen as man is to woman" (女王に対しての王は、女に対しての男に同じ) のような単語間の関係も取得されます。ベクトル形式では、この関係は king – man + woman = queen になります。
作成
fastTextWordEmbedding
を使用して事前学習済みの埋め込みを読み込むか、readWordEmbedding
を使用してファイルから埋め込みを読み取るか、trainWordEmbedding
を使用して埋め込みに学習させて単語埋め込みを作成します。
プロパティ
オブジェクト関数
vec2word | 単語への埋め込みベクトルのマッピング |
word2vec | 埋め込みベクトルへの単語のマッピング |
isVocabularyWord | Test if word is member of word embedding or encoding |
writeWordEmbedding | 単語埋め込みファイルの書き込み |
例
バージョン履歴
R2017b で導入