免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 4273 | 回复: 0
打印 上一主题 下一主题

基于LUCENE的java词频统计 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2008-05-29 10:58 |只看该作者 |倒序浏览
package demo.analysis;
import java.io.BufferedReader;
import java.io.File;
import java.io.FileInputStream;
import java.io.FileNotFoundException;
import java.io.IOException;
import java.io.InputStreamReader;
import java.io.Reader;
import java.io.StringReader;
import java.io.UnsupportedEncodingException;
import java.util.HashMap;
import java.util.Iterator;
import java.util.Map;
import jeasy.analysis.MMAnalyzer;
import org.apache.lucene.analysis.Token;
import org.apache.lucene.analysis.TokenStream;
public class Segment {
public static void main(String args[]) throws IOException {
  Segment s = new Segment();
  String text = s.ReadFileByBufferdeReader("./1.txt");
//  System.out.println(text);
  s.getWordByReader(text);
}
public String ReadFileByBufferdeReader(String readFileName) {
  String temp = "";
  File f = new File(readFileName);

  InputStreamReader read;
  try {
   read = new InputStreamReader(new FileInputStream(f), "utf-8");
   BufferedReader reader = new BufferedReader(read);
   String line;
   while ((line = reader.readLine()) != null) {
    temp += line + "\n";
   }
  } catch (UnsupportedEncodingException e) {
   // TODO Auto-generated catch block
   e.printStackTrace();
  } catch (FileNotFoundException e) {
   // TODO Auto-generated catch block
   e.printStackTrace();
  } catch (IOException e) {
   // TODO Auto-generated catch block
   e.printStackTrace();
  }
  return temp;
}
public void getWordByReader(String text) {
  //采用正向最大匹配的中文分词算法
  MMAnalyzer analyzer = new MMAnalyzer();
  analyzer.addWord("任家坪");
  Map map = new HashMap();
  try {
   System.out.println("Length = " + text.length());
   Reader r = new StringReader(text);
   TokenStream ts = analyzer.tokenStream(null, r);
   System.out.println("开始分词...\n");
   long begin = System.currentTimeMillis();
   for (Token t = ts.next(); t != null; t = ts.next()) {
    String str = t.termText();
    Object o = map.get(str);
    if (o == null) {
     map.put(str, new Integer(1));
    } else {
     Integer I = new Integer(((Integer) o).intValue() + 1);
     map.put(str, I);
    }
   }
   //System.out.println(t.startOffset() + " - " + t.endOffset() + " = " + t.termText());
   for (Iterator iter = map.entrySet().iterator(); iter.hasNext();) {
    Map.Entry entry = (Map.Entry) iter.next();
    System.out.println(entry.getKey() + ":" + entry.getValue());
   }
   long end = System.currentTimeMillis();
   System.out.println("分词数量: "+map.size()+" 耗时 : " + (end - begin) + "ms");
  } catch (IOException e) {
   e.printStackTrace();
  }
}
public void getWordBySegment(String text) {
  MMAnalyzer analyzer = new MMAnalyzer();
  try {
   System.out.println(analyzer.segment(text, "\n"));
  } catch (IOException e) {
   // TODO Auto-generated catch block
   e.printStackTrace();
  }
}
}


本文来自ChinaUnix博客,如果查看原文请点:http://blog.chinaunix.net/u1/59758/showart_715246.html
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP