SSDB 是一个 C++ 开发的 NoSQL 存储服务器, 支持 zset, map 数据结构, 可替代 Redis, 特别适合存储集合数据. SSDB 被开发和开源出来后, 已经在生产环境经受了3个季度的考验, 一直稳定运行.
在一个支撑数千万用户的列表数据(例如用户的订单历史, 用户的好友列表, 用户的消息列表等)的实例上, SSDB 每天处理上亿个读写请求, 仍然能保持 CPU 占用在3%左右, 内存占用为 1G. 这种数据规模是我们原来使用的 Redis 所无法满足的, 因为 Redis 无法保存如此大量的数据, 物理内存的容量限制了 Redis 的能力. 根据我们的经验, Redis在10G数据规模时比较适用, 数据规模再扩大时, Redis 就非常吃力, 而且几乎无法扩展. 这时, 必须改用 SSDB.
SSDB 具有和 Redis 高度重合的 API, 而且对于 hash(map) 还是可分段遍历的, 相比较, Redis 只能通过 hgetall 一次遍历 hash 中的所有元素, 在大的 hash 中, 这个操作非常低效.
如果要列出几条必须放弃 Redis, 改为使用 SSDB 的观点, 我相信这几条非常有吸引力:
- 单个实例的存储容量相当于 100 个 Redis 实例!
- 内存占用只有 Redis 的一千分之一(最大设计容量时).
- 所有的数据集合(包括 KV)都是可分段(分页)遍历的.
- 特别适合存储列表等集合数据.
SSDB 是一个开源的项目(https://github.com/ideawu/ssdb), 你可以免费获取它的源码, 并且不需要编程和修改配置文件就可以启动服务器.
我在实际应用中有大量的读操作,几乎没有什么写的需求。请问我用KV还是hashmap来存储数据效率更好一些。 Reply
如果缓存命中率极低的情况下,也就是说所有的请求都走ssd,而在缓存中没有,这个怎么测试QPS呢, 我把levaldb 的 cache size 设置为0, 这样我得出来的QPS是1W7左右,不知道这样测试是否正确。 Reply
在这种情况下再开一个进程随机读取,每一百随机get操作耗时约3秒,同时set进程停止输出,我是一万次set或get打印下执行时间,所以不清楚set一万次需要多少时间,反正时间很长
而在我的业务环境里面会在一个进程里面随机读取和写入,同时也有很多并发的进程
就在写入和随机读取的效率来看似乎不适合使用在生产环境中
请问博主,我是哪里配置错了么?或者是有32位机和64位的区别?
我需要提供我的测试脚本和配置文件么? Reply
不知道你是在压测了多少时间才出现阻塞的情况, 是在一个空的实例里很快就出现吗? 还是在一个实例里总共写了很多数据时才突然出现?
另外, 麻烦你用 ssdb-cli 连接 服务器, 然后执行 info 命令, 把输出结果反馈给我. 多谢. 可以的话, 把测试脚本和配置文件发到我的邮箱(在页面头部菜单的"关于"链接里有). Reply
在我的业务里面每次页面的request可能需要set操作500次,get操作1000次
在我的测试中,我先运行set的测试脚本后开始写get的测试脚本,运行get测试脚本时大约已经set 350万数据,当开启get测试后,set测试立即停止输出,效率明显下降,关闭get测试脚本后set测试需要经过50秒插入3万次后恢复正常
另外,在64位机器上启用压缩后插入数据程序会崩溃 Reply
根据你的描述, 当你*连续*写了3.5M条数据, 每条15K时, 其实已经连续写了近50GB的数据. 如果非常快速且持续地往 SSDB 写入数据(例如导大量数量), 会触发 SSDB 的写保护机制, 阻塞写一段时间. 但线上环境极少需要经常导大量数据.
你可以重新弄一个新的库, 然后同时启动set测试和get测试. Reply
好的,谢谢 Reply
但是从资料看,目前redis在容灾方面不是特别完善. Reply
我想请教,你所说的“. 根据我们的经验, Redis在10G数据规模时比较适用, 数据规模再扩大时, Redis 就非常吃力, 而且几乎无法扩展. ”,这个是你们真实生产环境遇到的么?我们现在的架构就是redis和ssdb组合的,但redis中的数据可能会超过10g。 Reply
Redis在超过10G数据时的问题, 主要表现为读取和写入速度变慢, 有时一个zadd()操作会达到几秒. 之所以说Redis不可扩展, 是因为它的key是无法分段遍历的, keys 操作会将服务器锁死数十秒, 所以只能停机维护, 和迁移数据. 所以, 我们根据经验, 认为Redis的存储能力为10G. Reply