Main Content

このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。

word2vec

埋め込みベクトルへの単語のマッピング

説明

M = word2vec(emb,words) は、埋め込み emb 内の words の埋め込みベクトルを返します。単語が埋め込みボキャブラリにない場合、関数は NaN の行を返します。既定では、関数は大文字と小文字を区別します。

M = word2vec(emb,words,'IgnoreCase',true) は、前の構文のいずれかを使用して、大文字と小文字の区別なしで words の埋め込みベクトルを返します。埋め込み内の複数の単語が大文字と小文字のみの差異である場合、関数はそれらの 1 つに対応するベクトルを返し、特定のベクトルは返しません。

すべて折りたたむ

fastTextWordEmbedding を使用して、事前学習済みの単語埋め込みを読み込みます。この関数には、Text Analytics Toolbox™ Model for fastText English 16 Billion Token Word Embedding サポート パッケージが必要です。このサポート パッケージがインストールされていない場合、関数によってダウンロード用リンクが表示されます。

emb = fastTextWordEmbedding
emb = 
  wordEmbedding with properties:

     Dimension: 300
    Vocabulary: [1×1000000 string]

word2vec を使用して、"Italy"、"Rome"、および "Paris" という単語をベクトルにマッピングします。

italy = word2vec(emb,"Italy");
rome = word2vec(emb,"Rome");
paris = word2vec(emb,"Paris");

vec2word を使用して、ベクトル italy - rome + paris を単語にマッピングします。

word = vec2word(emb,italy - rome + paris)
word = 
"France"

入力引数

すべて折りたたむ

入力単語埋め込み。wordEmbedding オブジェクトとして指定します。

入力単語。string ベクトル、文字ベクトル、または文字ベクトルの cell 配列として指定します。words を文字ベクトルとして指定した場合、関数は引数を 1 つの単語として扱います。

データ型: string | char | cell

出力引数

すべて折りたたむ

単語埋め込みベクトルの行列。

バージョン履歴

R2017b で導入