Java Spark Uygulamamda RangePartitioner kullanmak istiyorum, ancak iki scala parametresi scala.math.Ordering<K> evidence$1
ve scala.reflect.ClassTag<K> evidence$2
'un nasıl ayarlanacağı konusunda hiçbir fikrim yok. Birisi bana bir örnek verebilir mi? İşte Spark içinde RangePartitioner nasıl kullanılır?
JavaPairRDD<Integer, String> partitionedRDD = rdd.partitionBy(new RangePartitioner<Integer, String>(10, rdd, true, evidence$1, evidence$2));
rdd.rdd()
arayarak javaPairRDD
gelen scala RDD alabilirim? – hanslovsky