機械学習

機械学習は、近年大きな注目を集めている「AI」、「人工知能」、「ディープラーニング」といった研究分野と深い関わりがあります。機械学習は、人間や動物が経験を通して自然に学習することをコンピューターにさせようとするデータ解析テクニックです。機械学習アルゴリズムは所定の方程式をモデルとして用いることなく、データから直接的に情報を「学習」するコンピューティング手法です。 アルゴリズムは、学習に利用可能なサンプル数が増加するにつれて適応的にその性能を改善します。

なぜ機械学習が重要か: 事例

ビッグデータの増加に伴い、機械学習は以下のような分野の問題を解決するための重要な技術となっています。

金融工学:

数理ファイナンスおよび機械学習手法を使用して、トレード、ヘッジ、投資、およびリスク管理に関する意思決定をサポートします。

金融工学では、売り手側の金融商品に対する価格付け、評価、およびリスク分析に従来から機械学習が関連しています。

具体的な機械学習の活用事例として、銀行、ヘッジ ファンド、資産運用会社の研究者、クオンツ、アナリストが、金融商品の価格付け、金利の分析、利回り曲線の作成と分析、確率的ボラティリティ モデルの分析等などが挙げられます。

特に、アルゴリズム取引についても機械学習が用いられています。アルゴリズム取引では、電子金融市場において、自動的に株式売買注文のタイミングや数量を決めて注文を繰り返すアルゴリズムを使って取引の決定を行います。売り手と買い手双方に適用できるアルゴリズム取引は、高速取引や高頻度取引、為替取引、および関連のリスクと実行分析の基盤を形成します。

機械学習で用いる3つの手法(クラスタリング、分類、回帰)を分かりやすく説明します。
Panel Navigation

画像処理とコンピュータービジョン:

顔認識、動き検出、オブジェクト検出

カメラ等で取り込んだデジタル画像から、意図した情報を取り出すために処理加工を行うために機械学習が応用されます。情報を取り出す画像解析とその解析をしやすくするために行う前処理を合わせて指すのが一般的です。画像処理はノイズを取り除いてきれいな画像を出力する以外にも、最近では、コンピュータ上で特定の物体を見つける画像認識の活用が増えています。人間の視覚による直感的な判断をコンピュータが行えるようになることで、これまで人による目視検査に頼っていた生産ラインでの外観検査等をコンピュータによる画像検査に置き換える動きが進んでいます。

その応用は医用画像、顔認識、文字認識(OCR)といったより高度な対象に広がってきており、ロボット産業の市場拡大の傾向から、ロボットの目(画像のセンサ)として動体検出や3次元画像処理を取り扱うコンピュータビジョンという研究分野として発展しています。(画像認識とは)

情報生命科学:

医療診断、創薬

生命科学やヘルスケア分野では、多種多様なセンターが開発、普及することで、様々なデータが大規模に蓄積されることで機械学習の適用範囲が広がっています。主に医療診断、病理画像解析、腫瘍摘出、創薬標的同定、新薬分子設計、化粧品の開発などにおいて、機械学習を活用した医療、創薬の実用化が広がっています。

エネルギー生産:

電力会社にとっては、コストを最小にし運用の効率化と信頼性を最適化するために、正確な電力需要の予測が不可欠です。機械学習の技術を使用し、モデル化による電力需要予測を行うことが可能です。

予知保全:

自動車、航空宇宙、製造業、電力、ガス

故障が発生する前の適切なタイミングでメンテナンスを行い、コストを最適化する点でも機械学習の技術が応用可能で、これは予知保全 (Predictive Maintenance) と呼ばれています。一般的に、機械のメンテナンスは、故障が発生した後に実施する事後保全や、一定期間経過した後に定期的にメンテナンスを行う予防保全(例えば車検)があります。一方で予知保全は、データから機械の状態を正しく判断した上でメンテナンス時期を決定するため、余計なメンテナンスを減らす事によるコスト削減だけでなく、突発的な故障を避けられ安全性の向上にも繋がると期待されています。IoT技術の進展に伴い機器へのセンサー導入率が高まることで、予知保全は業界問わず様々な分野で応用が可能です。

自然言語処理:

テキスト認識、音声認識アプリケーション、OCR

人間の言語(自然言語)を機械学習を使用して処理します。普段の会話で使用される話し言葉から、文章と論文のような書き言葉までを自然言語の対象として、それらの言葉が持つ意味を解析し、言葉の意味の分類等を行います。自然言語処理技術を使い、問い合わせに対応するチャットボット等の事例があります。

機械学習では、より多くのデータがあるほど、より良い回答を導出

機械学習アルゴリズムは、データの中に自然なパターンを見つけてそこから洞察を生み出し、より良い意思決定と予測を行う手助けをします。 これらは、医療診断、株取引、エネルギー負荷予測などの重要な決定を行うために毎日使用されます。 たとえば、メディアポータルは機械学習を利用して何百万もの選択肢からあなたにおすすめの歌や映画を提供しています。 小売業者は、顧客の購買行動から洞察を得るために機械学習を使用しています。

Why Machine Learning Matters

機械学習をいつ使うべきか

所定の数式や方程式が存在せず、大量のデータセットと多数の変数が含まれている複雑なタスクや課題がある場合は機械学習の使用を検討しましょう。仮に次のような状況に対処する必要がある場合は、機械学習が適しています。

Hand-written rules and equations are too complex—as in face recognition and speech recognition.

顔認識や音声認識のように、手書きの決め事や方程式では複雑すぎる。

The rules of a task are constantly changing—as in fraud detection from transaction records.

取引履歴からの不正検出のように、対象のルールが常に変化している。

The nature of the data keeps changing, and the program needs to adapt—as in automated trading, energy demand forecasting, and predicting shopping trends.

自動取引、エネルギー需要予測、および消費トレンドの予測のようにデータの性質が変化し続けており、プログラムは適応する必要がある。

機械学習の仕組み

機械学習には2種類の手法が使用されます。一つは既知の入力データと出力データを用いてモデルを訓練し、将来の出力を予測できる教師あり学習。もう一方は、入力データの隠れたパターンや固有の構造を見出す教師なし学習といいます。注目を集めているディープラーニングは教師あり学習、教師なし学習どちらでも応用可能な、機械学習に含まれるアルゴリズムの1つです。AI・機械学習・ディープラーニングそれぞれの違いと、教師あり・教師なし学習の各アルゴリズムについて見ていきましょう。

図1. 機械学習の手法には、教師あり学習と教師なし学習の両方が含まれます。

図1. 機械学習の手法には、教師あり学習と教師なし学習の両方が含まれます。

AI・機械学習とディープラーニングの違いとは

まず、混合しがちなこれらの違いから説明すると、AI(人工知能)が最も広義の概念となります。機械学習はAIに含まれ、ディープラーニングもまたAIの一部であり、機械学習のアルゴリズムの1つでもあります。この機械学習とディープラーニングの違いを端的に説明すると、情報処理能力、速度の差が挙げられます。

機械学習では一般的に、特徴量(予測や分類に利用される数値や画像等のデータセット)を人間が定義します。一方で、ディープラーニングでは、後述するニューラルネットワークの技術を応用することで膨大な特徴量を自動で学習をしてくれます。そのため、高い精度で予測や分類ができ、特に音声や言語、画像認識の領域で利用されています。

AIは機械学習を内包し、機械学習のアルゴリズムの1つにディープラーニングがある

図2. AIは機械学習を内包し、機械学習のアルゴリズムの1つにディープラーニングがある

教師あり学習

教師あり機械学習は、不確実さがあっても証拠に基づいて予測を行うモデルを構築します。教師あり学習のアルゴリズムは、すでにある一連の入力データとそれに対する応答(出力)を用いてモデルを訓練し、新たなデータへの応答を合理的に予測できるようにするものです。予測しようとする事象について、既存の応答(出力)データがある場合は、教師あり学習を使用します。

教師あり学習では、分類や回帰の手法を用いて予測モデルを作成します。

分類手法

分類手法では 、離散的な応答を予測します。例えば、電子メールが本物のメールかスパムメールか、腫瘍が癌の疑いがあるかどうか、といった場合の分類です。分類モデルは、データをカテゴリーに分類するための学習を行います。用途としては、医療画像診断、音声認識、信用評価などが挙げられます。

データをタグ付け、カテゴリー化、または特定のグループやクラスに区分されている場合は分類手法を使用しましょう。たとえば、手書き文字認識のアプリケーションでは、文字と数字を認識するために分類が使用されます。画像処理およびコンピュータービジョンでは、 パターン認識、とくに教師なしのパターン認識技術がオブジェクト検出および画像セグメンテーションに使用されます。

分類を実行するための一般的なアルゴリズムには、 サポートベクターマシン(SVM)、ブースティングおよびバギングされた決定木、k 最近傍法、単純ベイズ、判別分析、 ロジスティック回帰、およびニューラルネットワークが含まれます。

それぞれのアルゴリズムについてご説明いたします。

サポートベクターマシン (SVM)

サポートベクターマシン (SVM)は、二項分類や回帰に使用できる教師あり学習のアルゴリズムです。カーネル法と呼ばれる機械学習アルゴリズムのクラスに属し、カーネルマシンとも呼ばれています。サポートベクターマシンは、データ中の2つのクラス間の分離マージン(2つのデータを分離する境界と各データとの距離)を最大化する超平面により、分類タスクを実行します。サポートベクターマシンは、現在知られている手法の中でも認識性能が優れた学習モデルの一つで、自然言語処理、音声認識、画像認識、コンピュータビジョンなどのアプリケーションでよく使用されます。

サポートベクターマシン(SVM)のイメージ

図3. サポートベクターマシン(SVM)のイメージ

ブースティングおよびバギング(ランダムフォレスト)された決定木

決定木とは、目的の特徴が分かりやすく現れるよう、ツリー構造を用いて分類、回帰を行う機械学習の手法です。分類の結果がツリー構造で可視化されるため、視覚的に目的変数と関係が強い要因を把握したり、その特徴が最も現れる条件ルールを把握することができます。

ブースティングバギング(ランダムフォレスト)は、決定木の予測精度を向上させる機械学習の手法です。バギングは、決定木を1つのみ生成するわけではなく、データの一部から決定木を生成し、これを学習に使用するデータ何度も入れ替えて多数の決定木を生成し、最後に得られたすべての決定木の結果を統合し評価する手法です。これにより学習を複数行うことができるため、全体の予測精度を向上させることが可能です。ブースティングはすべてのデータあるいは一部のデータでまず決定木を生成し、その予測結果で間違って予測されたデータの重みを重くして決定木を更新することで、その間違ったデータをうまく予測できるようにしていきます。この調整を繰り返して複数の決定木を生成し、最後に結果を組み合わせることで予測精度を向上させます。

ブースティングおよびバギングされた決定木のイメージ

図4. ブースティングおよびバギングされた決定木のイメージ

k 最近傍法

k 最近傍法(K-Nearest Neighbor Algorithm) は教師あり学習の中でもシンプルなアルゴリズムの一つです。ある未知のデータが、データセットの中から類似するk個それぞれのクラス(グループ)の中でも最も数が多いクラスに、多数決の方式でデータを分類します。このアルゴリズムは、クラスター数が既知の場合、大規模データセットの高速クラスタリングにおいて有効で、商品のレコメンドシステム等にも利用されていました。

k 最近傍法のイメージ

図5. k 最近傍法のイメージ

単純ベイズ

単純ベイズは、特徴量が独立していると仮定した上でベイズの定理を活用することが基となっています。単純ベイズは、学習データが少ない状態でも分類に必要な特徴を推定することが可能、高速に処理をするため少ない負荷で実行可能、重要でない特徴量の影響を受けにくいという利点があります。実例として、電車の混雑状況や、洪水等の災害予測、記事の自動カテゴリ(政治・スポーツ等)分類等があります。

単純ベイズのイメージ

図6. 単純ベイズのイメージ

判別分析

判別分析では、特徴量のデータの特性から、特定の対象とそうでない対象のグループ分けを行います。判別分析は、マーケティング等で利用されており、「購入者」と「非購入者」や、「リピーター」と「一度のみの購入者」等を分けている原因を調査するために使用されています。

判別分析のイメージ

図7. 判別分析のイメージ

ロジスティック回帰

ロジスティック回帰分析は、目的変数が質的であり、従属変数が量的である多変量解析を行う際に有効な手法です。ロジスティック回帰分析では、ある事象が発生するかしないか、その事象が発生する確率を予測します。目的変数の例としては、たとえば、賛成か反対か、選挙で当選したか落選したか、商品を購入したか購入していないのか等の2値で表されることが一般的です。目的変数の値は0と1(0%と100%)の間となります。目的変数の値(確率)が0.5より大きい場合はその事象が発生すると予測され、0.5を下回るとその事象は発生しないと予測されます。目的変数が2値である場合には二項ロジスティック分析が使用され、3つの値以上の場合は多項ロジスティック回帰分析を、順序変数である場合には順序ロジスティック回帰分析が利用されます。

ロジスティック回帰のイメージ

図8. ロジスティック回帰のイメージ

ニューラルネットワーク

ニューラルネットワークは機械学習、ディープラーニングを学ぶ際の基本的な項目の一つです。ニューラルネットワークとは、人間の脳内の神経細胞(ニューロン)のネットワーク構造を人工的に模し、問題解決能力を持つよう数学モデルで表現したものです。シナプスの結合により複数の相互に接続する人工ニューロン(ノード)から構成される層(隠れ層)を多層組み合わせることで学習を行います。ニューラルネットワークは、複雑な関数近似をしなければ分類や回帰ができない場合においても、関数近似を行うことができるという特徴をもっています。ニューラルネットワークは画像認識、音声認識、パターン認識、データ分類、未来の予測に活用されており、例えば電力会社の電力網の負荷を正確に予測した発電効率を最適化、ATM による小切手に記載された口座番号と預金額の読取、腫瘍の良性か悪性かの分類等の実例があります。

このニューラルネットワークのノードで構成される層が深く、深層にまで渡るアルゴリズムをディープラーニング(深層学習)と呼びます。

代表的なニューラルアーキテクチャ。左から入力層、隠れ層、出力層で構成される

図9. 代表的なニューラルアーキテクチャ。左から入力層、隠れ層、出力層で構成される

回帰手法

機械学習における回帰手法では、連続的な応答を予測します。例えば、売上予測、需要予測、来店者予測、経済分析、温度予測、機器の故障までの時間、電気負荷予測やアルゴリズム取引等、用途も多岐に渡ります。

一般的な回帰アルゴリズムには、線形回帰、非線形回帰、ステップワイズ回帰、ブースティングされた決定木とバギングされた決定木、ニューラルネットワークなどが含まれます。また、過学習を防ぐ手法として正則化もよく使われます。

線形回帰

まず、回帰分析とは、応答変数(目的変数)を複数の予測子変数(説明変数)を用いて予測、説明することです。一般的に、応答変数とは予測、分析したいデータ、はそのために用いるデータのことを指します。線形回帰モデルの一般的な式は次の形式です。

y=β0+∑ βiXi+ϵi(yは応答変数、Xは予測子、βは線型方程式の係数、ϵは誤差項)

線形回帰では、応答変数の最適な予測を行うために、1つ以上の独立した予測子変数を使用し、線形方程式の係数を推定します。線形回帰は一般的に、1つの応答変数に対し1つの予測子(説明変数)のみをもつ単回帰、複数の予測子をもつ重回帰、複数の応答変数のためのモデルである多変量回帰などのタイプに分かれます。

線形回帰のイメージ

図10. 線形回帰のイメージ

非線形回帰

非線形回帰では、連続する応答変数と1つ以上の予測子変数との間の非線形な関係を表す方程式を生成し、新しい観測値を予測します。

y=f(X,β)+ϵ

線形パラメータとの関係を適切にモデル化できない場合、通常の線形回帰ではなく非線形回帰を使用します。非線形回帰モデルは、パラメトリックであると見なされ、モデルは非線形回帰として記述されます。その他のノンパラメトリック非線形回帰には機械学習の手法が使用されます。パラメトリック非線形回帰は、応答変数(目的変数)を、非線形パラメーターと1つ以上の説明変数の組み合わせとして関数化します。これは1変量 (1つの応答変数) または多変量 (複数の応答変数) どちらでも対応可能です。このパラメータは指数関数、三角関数、べき関数、あるいはその他の非線形関数の形をとることができます。

非線形回帰のイメージ

図11. 非線形回帰のイメージ

正則化

正則化は、機械学習においてモデルの学習のために使われ、特に過学習を防ぎ、汎化能力を高める目的で使用されます。過学習とは、過剰適合とも呼ばれ、ある特定のデータでは精度の高い評価を出していたモデルが、他の未知のデータには適合できず、精度が低いモデルとなってしまうことを指します。これを汎化ができていない状態とも言います。正則化では、モデルの複雑さやなめらかでないこと等にペナルティという形で情報を追加し、この過学習を防ぐことで汎化能力を高めます。正則化を施した線形回帰としては、リッジ回帰、LASSO回帰、Elastic Net回帰等があります。

ステップワイズ回帰

ステップワイズ回帰は、自動的に予測子変数(説明変数)を1つずつ追加、削除を行うことで精度の高いモデルを選択する回帰分析の手法です。重回帰等、多変量な予測子変数の選択を誤ることで分析結果に歪みが生じることはモデルの誤設定(misspecification)と呼ばれます。たとえば、応答変数(目的変数)に影響を及ぼしうる重要な予測子変数が含まれていない場合や、逆に応答変数に影響を及ぼさない予測子変数を追加した場合にもモデルの誤設定が生じます。ステップワイズ法と言われる、統計ソフトが自動で有効な予測子変数の組み合わせを選択する方法を用いた回帰分析を行うことで、あてはまりの良いモデルを作成することができます。

教師あり学習の実例: 心臓発作の予測

ある患者が1年以内に心臓発作を起こすか否かを医師が予測したいと考えたとします。医師は、過去の数々の患者に関する年齢、体重、身長、血圧などのデータを持っています。また、こうした過去の患者が1年以内に心臓発作を起こしたかどうかも知っています。従って問題は、持っているデータをどのように組み合わせてモデル化すれば、新たな患者が1年以内に心臓発作を起こすか否かを予測できるのか、という点となります。

教師なし学習

教師なし学習は、データに内在する隠れたパターンや固有の構造を見いだすものです。ラベル付けされた応答を持たない一連の入力データから推論を導き出すために用いられます。

クラスタリングは、最も一般的な教師なし学習手法です。これは、探索的データ分析により、データ内の隠れたパターンやグループ構造を発見するために用いるものです。 クラスタリングは、遺伝子配列解析、市場調査、および物体認識などに活用されています。

たとえば、携帯電話会社が携帯電話の中継塔の位置を最適化したい場合、中継塔の利用者のクラスター数を見積もるために機械学習を使うことができます。携帯電話が一度に接続する中継局は1カ所のみのためクラスタリングアルゴリズムを使用して、顧客のグループまたはクラスターが最適化された信号受信を受けるために最適な中継塔の配置を設計します。

クラスタリングを実行するための一般的なアルゴリズムには、k平均法およびkメドイド階層クラスタリング混合ガウスモデル隠れマルコフモデル自己組織化写像、ファジィ c 平均クラスタリング、および減法クラスタリングなどが含まれます。

図2. クラスタリングでデータ内の隠れたパターンを見つける。

図12. クラスタリングでデータ内の隠れたパターンを見つける。

k平均法

k平均法(K-means clustering)とは、非階層クラスタリングの代表的な手法の1つです。まず、非階層クラスタリングとは、データセットの中から、分析担当者によって定められたクラスター数だけ類似するデータを集め、クラスターを作る方法の1つです。k平均法は、まずデータを定められたk個のクラスターに分けた後、各クラスターの重心と各データポイントとの距離を計算し、距離が一番近いクラスターに割り当て直す、というプロセスをk個のクラスターが変化しなくなるまで行い、分類する手法です。ただ、k平均法は最初のクラスターのランダムな分割に結果が大きく依存するため、1回のk平均法で最良の結果とならない可能性があることに留意しなければなりません。

k平均法のイメージ

図13. k平均法のイメージ

階層クラスタリング

階層クラスタリングとは、シンプルであり、データ内のクラスター数が事前には分からない場合において有効なクラスタリングの手法です。まず、N個のデータが含まれるデータセットがあり、それぞれ1つのデータのみで構成されるN個のクラスターがある状態が初期状態として始まります。そして、このN個のクラスターの中で最もこの距離の近い2つのクラスター統合します。これが繰り返されていき、全ての対象が1つのクラスターに統合された時点で終了します。このプロセスで作成されたものをツリー化したものを樹形樹(デンドログラム)と呼び、1つのクラスターの集合ではなく、あるレベルのクラスターが次のレベルでクラスターとして加わる多重レベルの階層を表します。

階層クラスタリングでは、クラスター間の階層関係を樹形図で表す

図14. 階層クラスタリングでは、クラスター間の階層関係を樹形図で表す

混合ガウスモデル (GMM)

多くの場合、データのクラスタリングには混合ガウスモデル(GMM)が使用されます。混合ガウスモデルによるクラスタリングは、データポイントが2つ以上のクラスターに属している可能性がある場合や、クラスターのサイズがさまざまで、クラスターの相関構造が異なっている場合において有効です。k平均法を活用したクラスタリングなどよりも、より適切な場合があります。

混合ガウスモデルは、ガウス分布(正規分布)を複数重ね合わせること(線形重ね合わせ)によって、どうデータポイントが分布しているかパラメータを推定する手法を用いたモデルを指します。

混合ガウスモデルでは、データセットをクラスターごとに分けられるだけでなく、データセットの確率密度分布を得ることができます。この分布を使えば、新たなサンプリングや、回帰分析、クラス分類にも応用可能です。近似させた混合ガウスモデルは、与えられたデータにおいて、データポイントを事後確率が最大になる多変量正規成分に割り当てることで、クラスタリングします。つまり、混合ガウスモデルにより、クラスターは事後確率が最大になる成分にデータを割り当てます。

混合ガウスモデルのイメージ

図15. 混合ガウスモデルのイメージ

隠れマルコフモデル (HMM)

隠れマルコフモデルは確率モデルの1つであり、観測されない(隠れた)状態をもつマルコフ過程を指します。主な使用目的は「観測された記号系列の背後に存在する状態の遷移系列を推測する」ことです。隠れマルコフモデルを使用する分野の一つにDNAの解析や音声認識分野があります。音声信号に対して隠れマルコフモデルを当てはめ,異常検知、音声認識や音声合成に応用されています。

自己組織化マップ

自己組織化マップは、ニューラルネットワークに基づくクラスタリングの手法の1つです。入力データについて、それらの類似度をマップ上での距離で表現し、自動的に分類を行います。人が識別することが難しいような、高次元データの中に存在する特徴を、予備知識なしでクラスタリングすることが可能です。

自己組織化マップは、経済分析、土木工学、顔認証、検索エンジン、健康診断など様々な領域での事例があります。

自己組織化マップのイメージ

図16. 自己組織化マップのイメージ

ファジィ c平均クラスタリング

ファジィ c平均クラスタリングは、データセットをN個のクラスタにグループ化したデータクラスタリング手法です。クラスター数が既知であり、クラスターに重なりがある場合に有効です。

ファジィ c平均クラスタリングでは、データセット内のすべてのデータポイントが、すべてのクラスタに属しています。ただ、クラスタの中心に近いデータは、そのクラスタに属する度合いが高く、クラスタの中心から離れた別のデータ点は、そのクラスタに属する度合いが低くなります。

クラスタの中心をランダムに推測することから始まります。次に、各データポイントに各クラスタのランダムなメンバーシップ等級を割り当てます。各データポイントのクラスタ中心とメンバーシップ等級を反復的に更新することで、クラスタ中心をデータセット内の正しい位置に移動させ、各データポイントについて、各クラスタのメンバーシップ度を求めます。この繰り返しにより、任意のデータ点からクラスタ中心までの距離をクラスタ内のそのデータ点のメンバーシップで重み付けした目的関数が最小化されます。

ファジィ c平均クラスタリングのイメージ

図17. ファジィ c平均クラスタリングのイメージ

使用する機械学習のアルゴリズムをどのようにして決めるか

適切な機械学習のアルゴリズムを選択するのは、手に負えない難題に思えることもあります。教師あり、教師なしの機械学習アルゴリズムは何十種類もあり、学習方法もそれぞれ異なるからです。.

最も優れた手法や、何にでも使える手法というものはありません。適切なアルゴリズムを探すには、試行錯誤に頼らざるを得ない部分があります。極めて経験豊富なデータサイエンティストでも、あるアルゴリズムがうまく機能 するかどうかは、結局のところ試してみないと分からないのです。ただしアルゴリズムの選択は、扱うデータのサイズや種類、データから導き出したい見解、その見解の活用方法によって決まってくる部分もあります。

Panel Navigation
図3. 機械学習の手法

図18. 機械学習の手法

教師あり学習と教師なし機械学習の選択に関するガイドラインは次のとおりです。

  • 予測(例えば、温度や株価などの連続型変数の将来値の推定)や分類(例えば、ウェブ動画に映っている自動車の型式の特定)を行うモデルの学習が必要な場合は、教師あり学習を選択します。
  • 入力データを詳しく調べる必要がある場合や、データをクラスターに分けるなど、データの適切な内部表現を見出すモデルの学習が必要な場合は、教師なし学習を選択します。

機械学習の習得法

データを駆使してよりよい意思決定を行うために機械学習の力をどのように活用することができるのでしょうか?MATLABは機械学習を容易にします。ビッグデータを扱うためのツールや関数と、機械学習を容易に行うためのアプリが備わったMATLABは、データ解析に機械学習を適用するうえで理想的な環境です。 MATLABを使用することで、エンジニアやデータ サイエンティストは、プレビルドされた関数、豊富なツールボックス、分類回帰クラスタリングなどのアプリケーションにすぐにアクセスできます。

MATLABを使用すると、

  • ロジスティック回帰、分類木、サポートベクターマシン、アンサンブル法、 ディープラーニングなどのアプローチを比較する。
  • モデルの改良・低次元化ツールを使用することでデータの予測精度を高める正確なモデルを作成することができます。
  • 機械学習モデルをエンタープライズシステム、クラスターおよびクラウドと統合し、リアルタイム組み込みハードウェアを対象としています。
  • 組み込み環境でのセンサー解析のための自動コード生成を実行します。
  • データ分析から実装までの統合ワークフローをサポートします。
Panel Navigation

機械学習の実用例

Creating Algorithms that Can Analyze Works of Art

ラトガース大学 美術・人工知能研究所(the Art and Artificial Intelligence Laboratory)の研究者チームは、コンピューターアルゴリズムが、人間と同じように、絵画を様式やジャンル、画家別に分類できるかどうかの検証を行いました。チームはまず、絵画の様式を分類するための視覚的特徴を特定しました。開発したアルゴリズムは、データベース内の絵画を60%の精度で様式別に分類することができ、専門家ではない一般人を上回るものとなりました。

続いて、様式の分類(教師あり学習の問題)に用いた視覚的特徴は、他の画家への影響の判定(教師なし学習の問題)にも活用可能との仮説を立てました。

彼らは、特定の対象物を見分けられるよう、Google上の画像を用いて学習させた分類アルゴリズムを用いました。そのアルゴリズムを、過去550年間に66人の画家によって描かれた1,700点を超える絵画作品を用いてテストしたところ、ディエゴ・ベラスケスの「教皇インノケンティウス10世の肖像」がフランシス・ベーコンの「ベラスケス作『教皇インノケンティウス10世の肖像』に基づく習作」に影響を与えたことを含め、関連のある作品をいとも簡単に特定することができました。

117044_wl_Rutgers_fig1_wl.

Optimizing HVAC Energy Usage in Large Buildings

オフィスビル、病院、その他大規模商業ビルの冷暖房空調システムの多くは、気候パターンの変化やエネルギーコストの変動、建物の熱特性を考慮に入れていないため非効率です。

BuildingIQ社はクラウドベースのソフトウェアプラットフォームを活用し上記の問題に対処します。このプラットフォームは、機械学習手法を用いて、電力計、温度計、空調設備の圧力センサーからのデータに、天候やエネルギーコストも加えた何ギガバイトにも及ぶ情報を常時処理しています。中でも機械学習は、データの細分化や、冷暖房プロセスにおけるガス、電気、蒸気、太陽光発電それぞれの相対的寄与率の決定に活用されています。BuildingIQ社のプラットフォームを活用すると、大規模商業ビルにおいて冷暖房空調設備が通常運転時に消費するエネルギー量を、10%~25%削減できます。

Optimizing HVAC Energy Usage

Detecting Low-Speed Car Crashes

800万人超の会員を擁するRACは、英国最大の自動車関連組織の一つで、ロードサービスや保険等のサービスを個人・企業のドライバーに提供しています。

道路での故障・事故等への迅速な対応、衝突事故の削減、保険コストの低減を実現するため、RACは、車載式衝突検知システムを開発しました。このシステムには先進的な機械学習アルゴリズムが用いられており、低速走行中の衝突を検知するとともに、こうした事故と運転中によくある他の事象(減速帯や路面の穴を通過した場合など)とを区別することができます。第三者機関による検証では、RACのシステムは92%の精度で試験時の衝突を検知することが示されました。

Detecting Low-Speed Car Crashes