2016-04-13 17 views
-1

Bir csv dosyam var .. Sql Bağlamı kullanarak programlamaya yüklüyorum ve bir dataframe yükledim.Şimdi bu csv dosyasını mongodbCollection içine saklamak istiyorum.Ve iApache kıvılcım ve java kütüphanesini kullanarak mongoDB'de bir veri çerçevesini nasıl kaydedebilirim?

import org.apache.hadoop.conf.Configuration;  
import org.apache.spark.SparkConf;  
import org.apache.spark.api.java.JavaPairRDD;  
import org.apache.spark.api.java.JavaRDD;  
import org.apache.spark.api.java.JavaSparkContext;  
import org.apache.spark.sql.DataFrame;  
import org.apache.spark.sql.Row;  
import org.apache.spark.sql.SQLContext;  
import org.apache.spark.sql.types.DataTypes;  
import org.apache.spark.sql.types.Metadata;  
import org.apache.spark.sql.types.StructField;  
import org.apache.spark.sql.types.StructType;  
import org.bson.BSONObject;  
import org.apache.spark.api.java.JavaPairRDD;  
import com.mongodb.hadoop.MongoOutputFormat; 

public class CSVReader { 

    public static void main(String args[]){ 

     SparkConf conf = new SparkConf().setAppName("sparkConnection").setMaster("local"); 

     JavaSparkContext sc = new JavaSparkContext(conf); 

     SQLContext sqlContext = new SQLContext(sc); 

     /* To load a csv file frol given location*/ 

     DataFrame df = sqlContext.read() 

       .format("com.databricks.spark.csv") 

       .option("inferSchema", "true")//Automaticaaly infers the data 

       .option("header", "true")//To include the headers in dataframe 

       .load("D:/SparkFiles/abc.csv"); 

     } 
} 

cevap

0

açıkça yeterince araştırılmış değil ...

Benim Kod olduğunu ... JavaPairedRDD.Please Yardım'a içinde dönüştürmek mümkün değilim.

Eğer sahip olsaydınız, veri şemasının şema + rdd'nin bir bileşimi olmaktan başka bir şey olmadığını bilirsiniz.

Gönderi kodunuzun düzgün çalıştığını varsayarak, rdd'yi df'den df.rdd

olarak okuyabilirsiniz.