2016 - 2024

感恩一路有你

spark redis集群 如何高效地向Redis写入大量的数据?

浏览量:1650 时间:2021-03-18 05:26:31 作者:admin

如何高效地向Redis写入大量的数据?

1. 创建一个新的文本文件,包括redis命令

set key0 value0 set key1 value1。。。Set Keyn valuen

如果你有原始数据,构造这个文件并不困难,比如shell或Python

2。将这些命令转换为redis协议。

redis pipeline函数支持redis协议,而不是直接的redis命令。

如何转换可以参考以下脚本。

3. 插入带管道的cat数据.txt|redis cli--pipe

Shell VS redis pipe

spark redis集群 实时消费kafka写入redis spark redis

版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。