Apache Matkap ile CSV verileri (HDFS üzerinde) üzerinden gerçekleştirilen bir sorgunun sonuçlarından bir Spark SQL DataFrame oluşturmak istiyorum. şemasını almak ilk ve gerçek verileri almak için ikinci bir:SparkBC ve Apache Matkaplarının JDBC ile Bütünleştirilmesi
SELECT * FROM (SELECT * FROM dfs.output.`my_view`) WHERE 1=0
SELECT "field1","field2","field3" FROM (SELECT * FROM dfs.output.`my_view`)
Map<String, String> connectionOptions = new HashMap<String, String>();
connectionOptions.put("url", args[0]);
connectionOptions.put("dbtable", args[1]);
connectionOptions.put("driver", "org.apache.drill.jdbc.Driver");
DataFrame logs = sqlc.read().format("jdbc").options(connectionOptions).load();
Kıvılcım SQL iki sorgu gerçekleştirir: Ben başarıyla yapılandırıldı Kıvılcım SQL o JDBC üzerinden Matkap bağlanmak yapmak
Birincisi başarılı, ancak ikinci bir Spark alanları çift tırnak içine alır, bu da Drill'in desteklemediği bir şeydir, bu nedenle sorgu başarısız olur.
Birisi bu entegrasyonun çalışmasını sağladı mı?
Teşekkür ederiz!
jdbc bağlayıcı kullanmadan önce lehçesini kaydedebilirsiniz. – paisanco
Doğru, yine de JdbcDialect'e işaret ettiği için cevabı kabul ediyorum. Teşekkürler! –