GGS'de bazı CSV dosyalarını işaret eden birleşik bir kaynağım var.BigQuery federe tablosunu Dataflow içinde kaynak olarak okuma Bir hata atar
1226 [main] ERROR com.google.cloud.dataflow.sdk.util.BigQueryTableRowIterator - Error reading from BigQuery table Federated_test_dataflow of dataset CPT_7414_PLAYGROUND : 400 Bad Request
{
"code" : 400,
"errors" : [ {
"domain" : "global",
"message" : "Cannot list a table of type EXTERNAL.",
"reason" : "invalid"
} ],
"message" : "Cannot list a table of type EXTERNAL."
}
mu Dataflow BigQuery'de federe kaynaklarını desteklemek, veya yanlış bir şey yapıyorum değil:
Ben Dataflow boru hattı için bir kaynak olarak federe BigQuery masaya okumaya çalışın, aşağıdaki hata atıyor ? GCS'deki dosyaları doğrudan benim boru hattımda okuyabileceğimi biliyorum, ancak uygulamanın tasarımı nedeniyle BigQuery TableRow
nesneleriyle çalışmayı tercih ederim.
PCollection<TableRow> results = pipeline.apply("fed-test", BigQueryIO.Read.from("<project_id>:CPT_7414_PLAYGROUND.Federated_test_dataflow")).apply(ParDo.of(new DoFn<TableRow, TableRow>() {
@Override
public void processElement(ProcessContext c) throws Exception {
System.out.println(c.element());
}
}));
Hangi koşucuyu kullanıyorsunuz? "DirectPipelineRunner", "DataflowPipelineRunner" veya "BlockingDataflowPipelineRunner"? –
DirectPipelineRunner –
@polleyg Yardım ederse başka bir yanıt daha ekledik. –