メインコンテンツ

getDefaultReducePartitions

クラス: matlab.compiler.mlspark.RDD
名前空間: matlab.compiler.mlspark

RDD 内の既定の reduce パーティション数を取得する

構文

numPartitions = getDefaultReducePartitions(obj)

説明

numPartitions = getDefaultReducePartitions(obj) は、obj 内の既定の reduce パーティション数を取得します。

入力引数

すべて展開する

入力 RDD。RDD オブジェクトとして指定します。

出力引数

すべて展開する

入力 RDD の既定の reduce パーティション数。スカラー値として返されます。

すべて展開する

RDD 内の既定の reduce パーティション数を取得します。

%% Connect to Spark
sparkProp = containers.Map({'spark.executor.cores'}, {'1'});
conf = matlab.compiler.mlspark.SparkConf('AppName','myApp', ...
                        'Master','local[1]','SparkProperties',sparkProp);
sc = matlab.compiler.mlspark.SparkContext(conf);

%% getDefaultReducePartitions
x = sc.parallelize({1,2,3});
y = x.map(@(x)({x,1}));
z1 = y.reduceByKey(@(a,b)(a+b));
z2 = y.reduceByKey(@(a,b)(a+b), 3);

z1.getDefaultReducePartitions() % ans is 1
z2.getDefaultReducePartitions() % ans is 3, as the 2nd argument to reduceByKey is the number of reduce partitions

バージョン履歴

R2016b で導入