最近捞了一些数据出来,要进行分组统计,统计A字段中相同值的个数。
我使用的是mongoose进行操作。
由于不太熟悉MongoDB的操作,走了不少弯路,之前记得是可以用 aggregate 方法进行分组统计,结果吃了菜鸟亏,不知道各种参数说明意思,一开始没搞出来,就在网上搜:
方法一: mapReduce 方法
一搜就搜出 mapReduce 这样一个方法可以用,于是就开始动手:
先贴搜索结果文章:亿万数据量级mongoDB中高效查找同一字段的所有不同值集合
开始动手:
kaijiangModel.mapReduce({
/**
* map函数的作用是遍历集合,调用emit函数将集合中opencode、expect字段以键值对的形式传递给reduce函数
*/
map: function(){
emit(this.opencode, this.expect)
},
/**
* reduce函数的作用对map函数传递过来的键值对进行处理, 每个<key, values>键值对中
* key是opencode字段的值,values是具有相同opencode的expect的数组。
* */
reduce: function(key, values){
return {acc: values.length}
}
},function(err, result){
if(err) {
console.log('------ mapreduce error ------')
return
}
result.results.sort((a,b)=>b.value.acc-a.value.acc);
fs.writeFile('./'+Date.now()+'.json',JSON.stringify(result),()=>{})
})
以上注释为原文作者的讲解,然后我按我的理解做了。
既然他说reduce函数接收的第二个参数values是具有相同opencode的except的数组,那这个数组的长度不久是我所想要的统计数了吗。所以就返回了values.length 然后结果出来了,顿时舒了口气,搞出来了,开心。。。可是仔细看看,怎么数据有点不对劲呀,结果去数据库了随便拿一个opencode来查一下,查出来的数量对不上呀,前功尽弃了。
继续想办法。。。。
方法二: 自己动手,丰衣足食
然后就想了一个笨办法,就是把数据拿出来自己统计,然后就有了下面的代码:
kaijiangModel.find((err, doc)=>{
console.log(doc.length)
let count = doc.reduce((acc, cur) => {
if (typeof acc[cur.opencode] !== 'undefined'){
acc[cur.opencode] += 1
}else{
acc[cur.opencode] = 1
}
return acc
},{})
count = Object.keys(count).map(key => ({opencode:key,acc: count[key]}))
count.sort((a, b) => b.acc-a.acc)
console.log(count.length, count.reduce((acc, cur)=>acc+cur.acc, 0))
fs.writeFile('./'+Date.now()+"_2.json",JSON.stringify(count),()=>{})
})
OK,数据出来,对一下数据库,完全正确,大功告成。
方法三 回到开篇:aggregate
不过这样要先把数据拿下来,自己再算,这显然不是我们想要的,能不能数据库里算好来给我呢?那就回到文章开头说的那个 aggregate 了,看网上文档,亏在不想看英文文档,而且官网文档也讲得不详细(可能是我英文水平不要吧)。
后来终于在某网站上的到一本数《MONGODB实战 第2版》,在里面找到了有关聚合的详细介绍,终于搞懂了 aggregate 里面是怎么回事了(其实只是肤浅的了解了一下,能解决我的问题就OK了)。
最终写出了下面的代码:
kaijiangModel.aggregate([
{$match:{opentime: {$lt: new Date()}}},
{$group:{
_id: '$opencode',
acc:{$sum: 1}
}},
{$sort: {acc: -1}}
]).then(res=>{
fs.writeFile('./'+Date.now()+"_3.json",JSON.stringify(res),()=>{})
})
得出结果依然正确,给个赞,哈哈。