R中的主题建模:基于预定义的术语列表构建主题

我花了几天时间研究R中的主题模型,我想知道我是否可以做到以下几点:

我希望R基于具有特定术语的预定义术语表来构建主题.我已经使用此列表来识别文档中的ngrams(RWeka),并使用以下代码仅计算在我的termlist中出现的那些术语:

terms=read.delim("TermList.csv", header=F, stringsAsFactor=F)

biTok=function(x) NGramTokenizer(x, Weka_control(min=1, max=4))

tdm=TermDocumentMatrix(data.corpus, control=list(tokenizer=biTok))

现在,我想再次使用此列表,仅根据我的术语表中的术语搜索文档中的主题.

例:
在下面的句子中:“这些安排会带来更高的团队绩效和更好的用户满意度”我希望在主题中使用复合术语“团队绩效”和“用户满意度”,而不是处理“团队”,“绩效”,“用户” “和”满足“作为单一术语和建立主题.这就是我需要使用预定义列表的原因.

是否有可能在R中定义这样的条件?

最佳答案 也许是这样的?

tokenizing.phrases <- c("team performance", "user satisfaction") # plus your others you have identified

然后加载此功能:

phraseTokenizer <- function(x) {
  require(stringr)

  x <- as.character(x) # extract the plain text from the tm TextDocument object
  x <- str_trim(x)
  if (is.na(x)) return("")
  #warning(paste("doing:", x))
  phrase.hits <- str_detect(x, ignore.case(tokenizing.phrases))

  if (any(phrase.hits)) {
    # only split once on the first hit, so we don't have to worry about multiple occurences of the same phrase
    split.phrase <- tokenizing.phrases[which(phrase.hits)[1]] 
    # warning(paste("split phrase:", split.phrase))
    temp <- unlist(str_split(x, ignore.case(split.phrase), 2))
    out <- c(phraseTokenizer(temp[1]), split.phrase, phraseTokenizer(temp[2])) 
  } else {
    out <- MC_tokenizer(x)
  }

  # get rid of any extraneous empty strings, which can happen if a phrase occurs just before a punctuation
  out[out != ""]
}

然后使用预定义的tokeninzing.phrases创建术语文档矩阵:

tdm <- TermDocumentMatrix(corpus, control = list(tokenize = phraseTokenizer)) 

然后,当您运行主题模型函数时,它应该与您已识别为模型的一部分的bigrams一起使用(尽管根据您已识别的内容,列表更长).

点赞