2012-06-21 23 views
6

mahout kmeans kümeleme örneğinin çıkışında bir "clusterdump" yapmaya çalışıyorum (synthetic_control örneği). Ama şu hatayı yaşıyorum:En son "apache mahout" kütüphanesinde "clusterdump" için herhangi bir seqFileDir seçeneği var mı?

> ~/MAHOUT/trunk/bin/mahout clusterdump --seqFileDir clusters-10-final --pointsDir clusteredPoints --output a1.txt 

MAHOUT_LOCAL is not set; adding HADOOP_CONF_DIR to classpath. 
Running on hadoop, using /usr/lib/hadoop/bin/hadoop and HADOOP_CONF_DIR=/usr/lib/hadoop/conf/ 
MAHOUT-JOB: /home/<username>/MAHOUT/trunk/examples/target/mahout-examples-0.8-SNAPSHOT-job.jar 

12/06/21 22:43:18 WARN conf.Configuration: DEPRECATED: hadoop-site.xml found in the classpath. Usage of hadoop-site.xml is deprecated. Instead use core-site.xml, mapred-site.xml and hdfs-site.xml to override properties of core-default.xml, mapred-default.xml and hdfs-default.xml respectively 

12/06/21 22:43:25 ERROR common.AbstractJob: Unexpected --seqFileDir while processing Job-Specific Options: 
usage: <command> [Generic Options] [Job-Specific Options] 
..... 

Yani orada clusterdump için hayır "seqFileDir" seçenektir ancak tüm çevrimiçi öğreticiler (örneğin https://cwiki.apache.org/MAHOUT/cluster-dumper.html) bu seçeneği bakın sanırım. Lütfen bana çare ya da eksik olanı önerebilir misiniz?

cevap

2

--input seçeneğini belirtmeyi denediniz mi?

+1

evet yaptım. --seqFileDir --input ile değiştirdiğimde, bir çıktı dosyası oluşturuldu, ancak bu EMPTY idi! Öğreticilerin neden --seqFileDir seçeneği hakkında konuştuğunu biliyor musunuz? –

+2

Bu problem üzerinde çalışıyordum. Büyülü çözümü buldum !!! Öneriniz için teşekkürler - giriş --seqFileDir seçeneğinin bulunduğu yerde çalıştı. Yanlış yaptığım şey, HDP'lerden (HADOOP_HOME seti ile) clusterdump okumuş olduğunu ve çıktıyı yerel dosya sistemine yazdığını bilmiyordum. Neyse, işler iyi çalışıyor! –