Redis中有删除单条数据的命令DEL但是他没有批量删除多条数据的方法,那我们怎么去批量删除多条数据呢!
第一种方式
/work/app/redis/bin/redis-cli -a youpassword keys 'Volume:*' | xargs /work/app/redis/bin/redis-cli -a youpassword del
注释:
通过:keys ‘Volume’去匹配你要删除的Key:Value条目,然后把结果传给xargs然后删除数据
如果要删除指定的Redis库加个参数即可:(-n)一般不建议在Redis中使用多库存储数据!
/work/app/redis/bin/redis-cli -a youpassword -n 0 keys 'Volume:*' | xargs /work/app/redis/bin/redis-cli -a youpassword -n 0 del
这样一个坏处每次都要建立一个连接,量小的话还可以接受,量大的话,效率不行。
第二种方式
/work/app/redis/bin/redis-cli -a youpassword EVAL "return redis.call('del', unpack(redis.call('keys', ARGV[1])))" 0 'Volume:*'
注释:
这样的方式,通过内置的 Lua 解释器,可以使用 EVAL 命令对 Lua 脚本
但这种处理方式,量大的情况下,lua函数unpack会出现问题,会报错误
''' (error) ERR Error running script (call to f_e177a091510d969af3b388ee986dbe6658df6b57): @user_script:1: user_script:1: too many results to unpack '''
优化后的第二种方式
/work/app/redis/bin/redis-cli -a youpassword EVAL "local keys = redis.call('keys', ARGV[1]) for i=1,#keys,5000 do redis.call('del', unpack(keys, i, math.min(i+4999, #keys))) end return #keys" 0 'Volume:*'
注释:
实际上是对第二种方式的改进,一次性unpack太多会出问题,那就干脆一次5000吧,这样就不会有问题了!
这段脚本的意思,首先定义一个数组 keys,里面存储了模式匹配的所有的以 ‘Volume:’的key,然后for循环,每次处理5000个key,也就是说每次del 5000个key。
相关脚本:http://www.cnblogs.com/luotianshuai/
注:
KEYS操作在线上是禁止使用的!
Redis是单线程的,如果量很大的话,keys是遍历key的,会导致阻塞,这样其他的客户端就没法连接了!
第三种方式
自从redis2.8以后就开始支持scan命令,模式匹配可以采取下面的形式来批删除大量的key
/work/app/redis/bin/redis-cli -a youpassowrd -n 0 -p 6379 --scan --pattern "Volume:*" | xargs -L 5000 /work/app/redis/bin/redis-cli -a youpassword -n 0 -p 6379 DEL
结果:
''' /work/app/redis/bin/redis-cli -a youpassword -n 0 -p 6379 --scan --pattern "Volume:*" | xargs -L 5000 /work/app/redis/bin/redis-cli -a youpassword -n 0 -p 6379 DEL (integer) 5000 (integer) 5000 (integer) 5000 (integer) 5000 (integer) 5000 (integer) 5000 (integer) 5000 (integer) 207 '''
参考晓兄博客:https://www.18188.org/articles/2016/04/06/1459930096140.html