pylucene 3.5.0-3
[pylucene.git] / lucene-java-3.5.0 / lucene / contrib / benchmark / src / java / org / apache / lucene / benchmark / utils / ExtractWikipedia.java
diff --git a/lucene-java-3.5.0/lucene/contrib/benchmark/src/java/org/apache/lucene/benchmark/utils/ExtractWikipedia.java b/lucene-java-3.5.0/lucene/contrib/benchmark/src/java/org/apache/lucene/benchmark/utils/ExtractWikipedia.java
new file mode 100644 (file)
index 0000000..feeb6da
--- /dev/null
@@ -0,0 +1,151 @@
+package org.apache.lucene.benchmark.utils;
+
+/**
+ * Licensed to the Apache Software Foundation (ASF) under one or more
+ * contributor license agreements.  See the NOTICE file distributed with
+ * this work for additional information regarding copyright ownership.
+ * The ASF licenses this file to You under the Apache License, Version 2.0
+ * (the "License"); you may not use this file except in compliance with
+ * the License.  You may obtain a copy of the License at
+ *
+ *     http://www.apache.org/licenses/LICENSE-2.0
+ *
+ * Unless required by applicable law or agreed to in writing, software
+ * distributed under the License is distributed on an "AS IS" BASIS,
+ * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
+ * See the License for the specific language governing permissions and
+ * limitations under the License.
+ */
+
+import java.io.File;
+import java.io.FileWriter;
+import java.io.IOException;
+import java.util.Properties;
+
+import org.apache.lucene.benchmark.byTask.feeds.DocMaker;
+import org.apache.lucene.benchmark.byTask.feeds.NoMoreDataException;
+import org.apache.lucene.benchmark.byTask.utils.Config;
+import org.apache.lucene.document.Document;
+
+/**
+ * Extract the downloaded Wikipedia dump into separate files for indexing.
+ */
+public class ExtractWikipedia {
+
+  private File outputDir;
+
+  static public int count = 0;
+
+  static final int BASE = 10;
+  protected DocMaker docMaker;
+
+  public ExtractWikipedia(DocMaker docMaker, File outputDir) {
+    this.outputDir = outputDir;
+    this.docMaker = docMaker;
+    System.out.println("Deleting all files in " + outputDir);
+    File[] files = outputDir.listFiles();
+    for (int i = 0; i < files.length; i++) {
+      files[i].delete();
+    }
+  }
+
+  public File directory(int count, File directory) {
+    if (directory == null) {
+      directory = outputDir;
+    }
+    int base = BASE;
+    while (base <= count) {
+      base *= BASE;
+    }
+    if (count < BASE) {
+      return directory;
+    }
+    directory = new File(directory, (Integer.toString(base / BASE)));
+    directory = new File(directory, (Integer.toString(count / (base / BASE))));
+    return directory(count % (base / BASE), directory);
+  }
+
+  public void create(String id, String title, String time, String body) {
+
+    File d = directory(count++, null);
+    d.mkdirs();
+    File f = new File(d, id + ".txt");
+
+    StringBuilder contents = new StringBuilder();
+
+    contents.append(time);
+    contents.append("\n\n");
+    contents.append(title);
+    contents.append("\n\n");
+    contents.append(body);
+    contents.append("\n");
+
+    try {
+      FileWriter writer = new FileWriter(f);
+      writer.write(contents.toString());
+      writer.close();
+    } catch (IOException ioe) {
+      throw new RuntimeException(ioe);
+    }
+
+  }
+
+  public void extract() throws Exception {
+    Document doc = null;
+    System.out.println("Starting Extraction");
+    long start = System.currentTimeMillis();
+    try {
+      while ((doc = docMaker.makeDocument()) != null) {
+        create(doc.get(DocMaker.ID_FIELD), doc.get(DocMaker.TITLE_FIELD), doc
+            .get(DocMaker.DATE_FIELD), doc.get(DocMaker.BODY_FIELD));
+      }
+    } catch (NoMoreDataException e) {
+      //continue
+    }
+    long finish = System.currentTimeMillis();
+    System.out.println("Extraction took " + (finish - start) + " ms");
+  }
+
+  public static void main(String[] args) throws Exception {
+
+    File wikipedia = null;
+    File outputDir = new File("./enwiki");
+    boolean keepImageOnlyDocs = true;
+    for (int i = 0; i < args.length; i++) {
+      String arg = args[i];
+      if (arg.equals("--input") || arg.equals("-i")) {
+        wikipedia = new File(args[i + 1]);
+        i++;
+      } else if (arg.equals("--output") || arg.equals("-o")) {
+        outputDir = new File(args[i + 1]);
+        i++;
+      } else if (arg.equals("--discardImageOnlyDocs") || arg.equals("-d")) {
+        keepImageOnlyDocs = false;
+      }
+
+    }
+    DocMaker docMaker = new DocMaker();
+    Properties properties = new Properties();
+    properties.setProperty("content.source", "org.apache.lucene.benchmark.byTask.feeds.EnwikiContentSource");
+    properties.setProperty("docs.file", wikipedia.getAbsolutePath());
+    properties.setProperty("content.source.forever", "false");
+    properties.setProperty("keep.image.only.docs", String.valueOf(keepImageOnlyDocs));
+    docMaker.setConfig(new Config(properties));
+    docMaker.resetInputs();
+    if (wikipedia.exists()) {
+      System.out.println("Extracting Wikipedia to: " + outputDir + " using EnwikiContentSource");
+      outputDir.mkdirs();
+      ExtractWikipedia extractor = new ExtractWikipedia(docMaker, outputDir);
+      extractor.extract();
+    } else {
+      printUsage();
+    }
+  }
+
+  private static void printUsage() {
+    System.err.println("Usage: java -cp <...> org.apache.lucene.benchmark.utils.ExtractWikipedia --input|-i <Path to Wikipedia XML file> " +
+            "[--output|-o <Output Path>] [--discardImageOnlyDocs|-d]");
+    System.err.println("--discardImageOnlyDocs tells the extractor to skip Wiki docs that contain only images");
+  }
+
+}
\ No newline at end of file