1、什么是敏感词过滤,有什么用处?
敏感词、文字过滤是一个网站必不可少的功能,如何设计一个好的、高效的过滤算法是非常有必要的。基本上每个网站中都有对需要处理的不好字眼进行处理,那我们今天就来使用DFA算法实现敏感词过滤这个功能。
2、什么是DFA?
在实现文字过滤的算法中,DFA是唯一比较好的实现算法。DFA即Deterministic Finite Automaton,也就是确定有穷自动机,它是是通过event和当前的state得到下一个state,即event+state=nextstate。在Java中实现敏感词过滤的关键就是DFA算法的实现;就相当于一个查找的过程。
3、程序实现:
//初始化敏感词库
//将敏感词加入到HashMap中,构建DFA算法模型
public class SensitiveTxtInit {
//字节编码
private String ENCODING = "GBK";
@SuppressWarnings("rawtypes")
public HashMap sensitiveTxtMap;
public SensitiveTxtInit(){
super();
}
@SuppressWarnings("rawtypes")
public Map initKeyTxt(){
try {
//读取敏感词库
Set<String> keyTxtSet = readSensitiveWordFile();
//将敏感词库加入到HashMap中
addSensitiveWordToHashMap(keyTxtSet);
} catch (Exception e) {
// TODO: handle exception
e.printStackTrace();
}
return sensitiveTxtMap;
}
@SuppressWarnings("resource")
private Set<String> readSensitiveWordFile() throws Exception{
Set<String> set = null;
File file = new File("D:\\SensitiveTxt.txt");//读取文件
InputStreamReader read = new InputStreamReader(new FileInputStream(file),ENCODING);
try {
if(file.isFile() && file.exists())//文件流是否存在
{
set = new HashSet<String>();
BufferedReader bufferedReader = new BufferedReader(read);
String txt = null;
while((txt = bufferedReader.readLine()) != null){//读取文件,将文件内容放入到set中
set.add(txt);
}
}
else{
throw new Exception("敏感词库文件不存在");
}
} catch (Exception e) {
// TODO: handle exception
e.printStackTrace();
}finally {
read.close();//关闭文件流
}
return set;
}
@SuppressWarnings({ "rawtypes", "unchecked" })
private void addSensitiveWordToHashMap(Set<String> keyWordSet){
sensitiveTxtMap = new HashMap(keyWordSet.size());//初始化敏感词容器,减少扩容操作
String key = null;
Map nowMap = null;
Map<String, String> newWorMap = null;
//迭代keyWordSet
Iterator<String> iterator = keyWordSet.iterator();
while(iterator.hasNext()){
key = iterator.next();//关键字
nowMap = sensitiveTxtMap;
for(int i = 0 ; i < key.length() ; i++){
char keyChar = key.charAt(i);//转换成char型
Object wordMap = nowMap.get(keyChar);//获取
if(wordMap != null){ //如果存在该key,直接赋值
nowMap = (Map) wordMap;
}else{//不存在则,则构建一个map,同时将isEnd设置为0,因为他不是最后一个
newWorMap = new HashMap<String,String>();
newWorMap.put("isEnd", "0"); //不是最后一个
nowMap.put(keyChar, newWorMap);
nowMap = newWorMap;
}
if(i == key.length() - 1){
nowMap.put("isEnd", "1"); //最后一个
}
}
}
}
}
//敏感词过滤,实现及测试
public class SensitiveTxtFilter {
@SuppressWarnings({ "rawtypes" })
private Map sensitiveWordMap = null;
public static int minMatchTYpe = 1;//最小匹配规则
public static int maxMatchType = 2;//最大匹配规则
/* * 构造函数,初始化敏感词库 */
public SensitiveTxtFilter(){
sensitiveWordMap = new SensitiveTxtInit().initKeyTxt();
}
/** * 判断文字是否包含敏感字符 * @author helongjun * @date 2014年4月20日 下午4:28:30 * @param txt 文字 * @param matchType 匹配规则 1:最小匹配规则,2:最大匹配规则 * @return 若包含返回true,否则返回false * @version 1.0 */
public boolean isContaintSensitiveWord(String txt,int matchType){
boolean flag = false;
for(int i = 0 ; i < txt.length() ; i++){
int matchFlag = this.CheckSensitiveWord(txt, i, matchType); //判断是否包含敏感字符
if(matchFlag > 0){ //大于0存在,返回true
flag = true;
}
}
return flag;
}
/** * 获取文字中的敏感词 * @author helongjun * @date 2014年4月20日 下午5:10:52 * @param txt 文字 * @param matchType 匹配规则 1:最小匹配规则,2:最大匹配规则 * @return * @version 1.0 */
public Set<String> getSensitiveWord(String txt , int matchType){
Set<String> sensitiveWordList = new HashSet<String>();
for(int i = 0 ; i < txt.length() ; i++){
int length = CheckSensitiveWord(txt, i, matchType); //判断是否包含敏感字符
if(length > 0){ //存在,加入list中
sensitiveWordList.add(txt.substring(i, i+length));
i = i + length - 1; //减1的原因,是因为for会自增
}
}
return sensitiveWordList;
}
/** * 替换敏感字字符 * @author helongjun * @date 2014年4月20日 下午5:12:07 * @param txt * @param matchType * @param replaceChar 替换字符,默认* * @version 1.0 */
public String replaceSensitiveWord(String txt,int matchType,String replaceChar){
String resultTxt = txt;
Set<String> set = getSensitiveWord(txt, matchType); //获取所有的敏感词
Iterator<String> iterator = set.iterator();
String word = null;
String replaceString = null;
while (iterator.hasNext()) {
word = iterator.next();
replaceString = getReplaceChars(replaceChar, word.length());
resultTxt = resultTxt.replaceAll(word, replaceString);
}
return resultTxt;
}
/** * 获取替换字符串 * @author helongjun * @date 2014年4月20日 下午5:21:19 * @param replaceChar * @param length * @return * @version 1.0 */
private String getReplaceChars(String replaceChar,int length){
String resultReplace = replaceChar;
for(int i = 1 ; i < length ; i++){
resultReplace += replaceChar;
}
return resultReplace;
}
/** * 检查文字中是否包含敏感字符,检查规则如下:<br> * @author helongjun * @date 2014年4月20日 下午4:31:03 * @param txt * @param beginIndex * @param matchType * @return,如果存在,则返回敏感词字符的长度,不存在返回0 * @version 1.0 */
@SuppressWarnings("rawtypes")
public int CheckSensitiveWord(String txt,int beginIndex,int matchType){
boolean flag = false; //敏感词结束标识位:用于敏感词只有1位的情况
int matchFlag = 0; //匹配标识数默认为0
char word = 0;
Map nowMap = sensitiveWordMap;
for(int i = beginIndex; i < txt.length() ; i++){
word = txt.charAt(i);
nowMap = (Map) nowMap.get(word); //获取指定key
if(nowMap != null){ //存在,则判断是否为最后一个
matchFlag++; //找到相应key,匹配标识+1
if("1".equals(nowMap.get("isEnd"))){ //如果为最后一个匹配规则,结束循环,返回匹配标识数
flag = true; //结束标志位为true
if(SensitiveTxtFilter.minMatchTYpe == matchType){ //最小规则,直接返回,最大规则还需继续查找
break;
}
}
}
else{ //不存在,直接返回
break;
}
}
if(matchFlag < 2 || !flag){ //长度必须大于等于1,为词
matchFlag = 0;
}
return matchFlag;
}
public static void main(String[] args) {
SensitiveTxtFilter filter = new SensitiveTxtFilter();
System.out.println("敏感词库总数:"+filter.sensitiveWordMap.size());
String string = "太多的伤感情怀操你妹侷限于饲养基地 荧幕中的情节,主人公尝你妈的用某种方式渐渐的很潇洒地释自杀指南怀那些自己经历的伤感。"
+ "然后法轮功 我们的扮演的角色就是跟随着主人公的喜红客联盟 怒哀乐而过于牵强的把自己的情感也附加于银幕情节中,然后感动就流泪,"
+ "难过就躺在某一个人的怀里尽情的阐述心扉或者手机卡复制器一个人一杯红酒一部电影在夜三级片 深人静的晚上,关上电话静静的发呆着。";
System.out.println("待检测语句字数:" + string.length());
long beginTime = System.currentTimeMillis();
Set<String> set = filter.getSensitiveWord(string, 1);
long endTime = System.currentTimeMillis();
System.out.println("语句中包含敏感词的个数为:" + set.size() + "。包含:" + set);
System.out.println("总共消耗时间为:" + (endTime - beginTime));
String replaceStr = filter.replaceSensitiveWord(string, 2, "legend");
System.out.println("替换后的字符串是:"+replaceStr);
}
}
注意: 需要新建一个词库文件SensitiveTxt.txt,文件内容格式如下: