メインコンテンツ

このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。

matlab.compiler.mlspark.SparkContext クラス

名前空間: matlab.compiler.mlspark
スーパークラス:

Spark 対応のクラスターへの接続を初期化するインターフェイス クラス

説明

SparkContext オブジェクトは、Spark™ クラスターへの接続を初期化することにより、Spark へのエントリ ポイントとして機能します。SparkConf オブジェクトを入力引数として受け入れ、そのオブジェクトで指定されたパラメーターを使用して、Spark 実行環境への接続を確立する上で必要な内部サービスを設定します。

構築

sc = matlab.compiler.mlspark.SparkContext(conf) は、SparkContext オブジェクトを作成し、Spark クラスターへの接続を初期化します。

入力引数

すべて展開する

SparkConf オブジェクトを入力として SparkContext に渡します。

例: sc = matlab.compiler.mlspark.SparkContext(conf);

SparkConf オブジェクトの作成方法については、matlab.compiler.mlspark.SparkConf を参照してください。

プロパティ

このクラスのプロパティは非表示です。

メソッド

addJarSparkContext で実行する必要があるすべてのタスクに対して JAR ファイルの依存関係を追加
broadcastクラスターに読み取り専用の変数をブロードキャストする
datastoreToRDDConvert MATLAB datastore to a Spark RDD
deleteSpark 対応のクラスターへの接続をシャットダウン
getSparkConfSparkConf の構成パラメーターの取得
parallelizeローカルの MATLAB 値の集合から RDD を作成
setCheckpointDirRDD がチェックポイント化されるディレクトリの設定
setLogLevelログ レベルの設定
textFileテキスト ファイルから RDD を作成

すべて折りたたむ

SparkContext クラスは、Spark プロパティを使用して、Spark 対応のクラスターへの接続を初期化します。

% Setup Spark Properties as a containers.Map object
sparkProp = containers.Map({'spark.executor.cores'}, {'1'}); 

% Create SparkConf object
conf = matlab.compiler.mlspark.SparkConf('AppName','myApp', ...
                        'Master','local[1]','SparkProperties',sparkProp);
% Create a SparkContext
sc = matlab.compiler.mlspark.SparkContext(conf);

詳細

すべて展開する

参考文献

詳細については、Spark の最新のドキュメンテーションを参照してください。

バージョン履歴

R2016b で導入