<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>redis &#8211; moneyslow.com</title>
	<atom:link href="https://moneyslow.com/tag/redis/feed" rel="self" type="application/rss+xml" />
	<link>https://moneyslow.com</link>
	<description>making money with technology</description>
	<lastBuildDate>Mon, 12 Jul 2021 11:49:52 +0000</lastBuildDate>
	<language>en-US</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.7.4</generator>
	<item>
		<title>Redis讲故事学习教程</title>
		<link>https://moneyslow.com/redis%e8%ae%b2%e6%95%85%e4%ba%8b%e5%ad%a6%e4%b9%a0%e6%95%99%e7%a8%8b.html</link>
		
		<dc:creator><![CDATA[moneyslow]]></dc:creator>
		<pubDate>Wed, 21 Oct 2020 07:37:10 +0000</pubDate>
				<category><![CDATA[newest]]></category>
		<category><![CDATA[linux]]></category>
		<category><![CDATA[mysql]]></category>
		<category><![CDATA[redis]]></category>
		<category><![CDATA[互联网技术]]></category>
		<guid isPermaLink="false">https://moneyslow.com/?p=11571</guid>

					<description><![CDATA[你好，我是Redis，一个叫Antirez的男人把我带到了这个世界上。 说起我的诞生，跟关系数据库MySQL还挺有渊源的。 在我还没来到这个世界上的时候，MySQL过的很辛苦，互联网发展的越来越快，它容纳的数据也越来越多，用户请求也随之暴涨，而每一个用户请求都变成了对它的一个又一个读写操作，MySQL是苦不堪言。尤其是到“双11”、“618“这种全民购物狂欢的日子，都是MySQL受苦受难的日子。据后来MySQL告诉我说，其实有一大半的用户请求都是读操作，而且经常都是重复查询一个东西，浪费它很多时间去进行磁盘I/O。后来有人就琢磨，是不是可以学学CPU，给数据库也加一个缓存呢？于是我就诞生了！ 出生不久，我就和MySQL成为了好朋友，我们俩常常携手出现在后端服务器中。应用程序们从MySQL查询到的数据，在我这里登记一下，后面再需要用到的时候，就先找我要，我这里没有再找MySQL要。 为了方便使用，我支持好几种数据结构的存储： String Hash List Set SortedSet Bitmap ······ 因为我把登记的数据都记录在内存中，不用去执行慢如蜗牛的I/O操作，所以找我要比找MySQL要省去了不少的时间呢。可别小瞧这简单的一个改变，我可为MySQL减轻了不小的负担！随着程序的运行，我缓存的数据越来越多，有相当部分时间我都给它挡住了用户请求，这一下它可乐得清闲自在了！有了我的加入，网络服务的性能提升了不少，这都归功于我为数据库挨了不少枪子儿。 缓存过期 &#38;&#38; 缓存淘汰 不过很快我发现事情不妙了，我缓存的数据都是在内存中，可是就算是在服务器上，内存的空间资源还是很有限的，不能无节制的这么存下去，我得想个办法，不然吃枣药丸。不久，我想到了一个办法：给缓存内容设置一个超时时间，具体设置多长交给应用程序们去设置，我要做的就是把过期了的内容从我里面删除掉，及时腾出空间就行了。 超时时间有了，我该在什么时候去干这个清理的活呢？最简单的就是定期删除，我决定100ms就做一次，一秒钟就是10次！我清理的时候也不能一口气把所有过期的都给删除掉，我这里面存了大量的数据，要全面扫一遍的话那不知道要花多久时间，会严重影响我接待新的客户请求的！ 时间紧任务重，我只好随机选择一部分来清理，能缓解内存压力就行了。 &#160; 就这样过了一段日子，我发现有些个键值运气比较好，每次都没有被我的随机算法选中，每次都能幸免于难，这可不行，这些长时间过期的数据一直霸占着不少的内存空间！气抖冷！我眼里可揉不得沙子！于是在原来定期删除的基础上，又加了一招： 那些原来逃脱我随机选择算法的键值，一旦遇到查询请求，被我发现已经超期了，那我就绝不客气，立即删除。这种方式因为是被动式触发的，不查询就不会发生，所以也叫惰性删除！ 可是，还是有部分键值，既逃脱了我的随机选择算法，又一直没有被查询，导致它们一直逍遥法外！而于此同时，可以使用的内存空间却越来越少。 而且就算退一步讲，我能够把过期的数据都删除掉，那万一过期时间设置的很长，还没等到我去清理，内存就吃满了，一样要吃枣药丸，所以我还得想个办法。 我苦思良久，终于憋出了个大招：内存淘汰策略，这一次我要彻底解决问题！ 我提供了8种策略供应用程序选择，用于我遇到内存不足时该如何决策： noeviction：返回错误，不会删除任何键值 allkeys-lru：使用LRU算法删除最近最少使用的键值 volatile-lru：使用LRU算法从设置了过期时间的键集合中删除最近最少使用的键值 allkeys-random：从所有key随机删除 volatile-random：从设置了过期时间的键的集合中随机删除 volatile-ttl：从设置了过期时间的键中删除剩余时间最短的键 volatile-lfu：从配置了过期时间的键中删除使用频率最少的键 allkeys-lfu：从所有键中删除使用频率最少的键 有了上面几套组合拳，我再也不用担心过期数据多了把空间撑满的问题了~ 缓存穿透 &#38;&#38; 布隆过滤器 我的日子过的还挺舒坦，不过MySQL大哥就没我这么舒坦了，有时候遇到些烦人的请求，查询的数据不存在，MySQL就要白忙活一场！不仅如此，因为不存在，我也没法缓存啊，导致同样的请求来了每次都要去让MySQL白忙活一场。我作为缓存的价值就没得到体现啦！这就是人们常说的缓存穿透。 &#160; 这一来二去，MySQL大哥忍不住了：“唉，兄弟，能不能帮忙想个办法，把那些明知道不会有结果的查询请求给我挡一下” 这时我想到了我的另外一个好朋友：布隆过滤器 我这位朋友别的本事没有，就擅长从超大的数据集中快速告诉你查找的数据存不存在（悄悄告诉你，我的这位朋友有一点不靠谱，它告诉你存在的话不能全信，其实有可能是不存在的，不过它他要是告诉你不存在的话，那就一定不存在）。 &#160; &#160; 我把这位朋友介绍给了应用程序，不存在的数据就不必去叨扰MySQL了，轻松帮忙解决了缓存穿透的问题。 缓存击穿 &#38;&#38; 缓存雪崩 这之后过了一段时间太平日子，直到那一天··· 有一次，MySQL那家伙正优哉游哉的摸鱼，突然一大堆请求给他怼了过去，给他打了一个措手不及。 一阵忙活之后，MySQL怒气冲冲的找到了我，“兄弟，咋回事啊，怎么一下子来的这么猛” 我查看了日志，赶紧解释到：“大哥，实在不好意思，刚刚有一个热点数据到了过期时间，被我删掉了，不巧的是随后就有对这个数据的大量查询请求来了，我这里已经删了，所以请求都发到你那里来了” “你这干的叫啥事，下次注意点啊”，MySQL大哥一脸不高兴的离开了。 这一件小事我也没怎么放在心上，随后就抛之脑后了，却没曾想几天之后竟捅了更大的篓子。 [&#8230;]]]></description>
		
		
		
			</item>
		<item>
		<title>redis-4.0.9 cluster 集群安装</title>
		<link>https://moneyslow.com/redis-4-0-9-cluster-%e9%9b%86%e7%be%a4%e5%ae%89%e8%a3%85.html</link>
		
		<dc:creator><![CDATA[moneyslow]]></dc:creator>
		<pubDate>Mon, 04 Jun 2018 01:07:10 +0000</pubDate>
				<category><![CDATA[newest]]></category>
		<category><![CDATA[redis]]></category>
		<guid isPermaLink="false">https://moneyslow.com/?p=8061</guid>

					<description><![CDATA[redis cluster在设计的时候，就考虑到了去中心化，去中间件，也就是说，集群中的 每个节点都是平等的关系，都是对等的，每个节点都保存各自的数据和整个集群的 状态。每个节点都和其他所有节点连接，而且这些连接保持活跃，这样就保证了 我们只需要连接集群中的任意一个节点，就可以获取到其他节点的数据。 Redis 集群没有并使用传统的一致性哈希来分配数据，而是采用另外一种叫做哈希槽 (hash slot)的方式来分配的。redis cluster 默认分配了 16384 个slot，当我们set一个 key 时，会用CRC16算法来取模得到所属的slot，然后将这个key 分到哈希槽区间的节点上， 具体算法就是：CRC16(key) % 16384。所以我们在测试的时候看到set 和 get 的时候，直接 跳转到了7000端口的节点。 Redis 集群会把数据存在一个 master 节点，然后在这个 master 和其对应的salve 之 间进行数据同步。当读取数据时，也根据一致性哈希算法到对应的 master 节点获取 数据。只有当一个master 挂掉之后，才会启动一个对应的 salve 节点，充当 master 。 需要注意的是：必须要3个或以上的主节点，否则在创建集群时会失败，并且当存活的主节 点小于总节点数的一半时，整个集群就无法提供服务了。 参考官网：https://redis.io/topics/cluster-tutorial 下载 redis-4.0.9.tar.gz 执行make 这样可执行程序就有了。 建立redis用户，比如 redis7379 进入用户目录，手工配置redis.conf bind xx.xx.xx.xx protected-mode yes port 6379 [&#8230;]]]></description>
		
		
		
			</item>
		<item>
		<title>redis支持两种持久化方案：RDB和AOF &#038;&amp; BGREWRITEAOF 清理aof文件</title>
		<link>https://moneyslow.com/redis%e6%94%af%e6%8c%81%e4%b8%a4%e7%a7%8d%e6%8c%81%e4%b9%85%e5%8c%96%e6%96%b9%e6%a1%88%ef%bc%9ardb%e5%92%8caof-bgrewriteaof-%e6%b8%85%e7%90%86aof%e6%96%87%e4%bb%b6.html</link>
		
		<dc:creator><![CDATA[moneyslow]]></dc:creator>
		<pubDate>Tue, 08 May 2018 02:06:09 +0000</pubDate>
				<category><![CDATA[newest]]></category>
		<category><![CDATA[centos]]></category>
		<category><![CDATA[redis]]></category>
		<guid isPermaLink="false">https://moneyslow.com/?p=7871</guid>

					<description><![CDATA[。 RDB RDB持久化是redis默认的，用来生成某一个时间点的数据快照；RDB是一个经过压缩的二进制文件，采用RDB持久化时服务器只会保存一个RDB文件（维护比较简单）； 每次进行RDB持久化时，redis都是将内存中完成的数据写到文件中，不是增量的持久化（写脏数据）； 写RDB文件时，先把内存中数据写到临时文件，然后替换原来的RDB文件； 1、RDB文件的生成： RDB持久化可以手动执行，也可以按照服务器的配置定期执行。 1）save和bgsave命令：（手动用于生成RDB文件的命令） save：会阻塞redis服务器进程，直到创建RDB文件完毕为止；（在此期间进程不能处理任何请求） bgsave：fork一个子进程来创建RDB文件，父进程可以继续处理命令请求； 2）自动执行： redis服务器允许用户通过设置配置文件save选项，让服务器每隔一段时间自动执行一次bgsave命令。如下：配置文件中的save选项 save 900 1 save 300 10 save 60 10000 服务器内部维护了一个dirty计数器和lastsave属性： dirty：记录了距上次成功执行了save或bgsave命令之后，数据库修改的次数（写入、删除、更新等）； lastsave：unix时间戳，记录了上一次成功执行save或bgsave命令的时间； redis服务器的周期性操作函数serverCron默认每100毫秒执行一次，该函数的一个主要作用就是检查save选项所设置的保存条件是否满足，如果满足就执行bgsave命令。检查的过程：根据系统当前时间、dirty和lastsave属性的值来检验保存条件是否满足。 补充： 在执行bgsave期间，客户端发送的save、bgsave命令会被服务器拒绝执行（防止产生竞争）； 如果bgsave在执行，bgrewriteaof命令会被延迟到bgsave执行完毕后再执行； 如果bgrewriteaof在执行，bgsave命令也会被延迟到bgrewriteaof命令执行完毕后再执行（bgsave和bgrewriteaof都是通过子进程完成的，不存在冲突，主要是考虑性能）； 2、RDB文件的载入： redis并没有专门的命令去载入RDB文件，只有在服务器启动的时候检测到RDB文件存在就会自动执行载入。 如果redis启用了AOF持久化功能，那么服务器优先使用AOF文件还原数据。 当服务器载入RDB文件时，会一直处于阻塞状态，直到载入完毕为止。 载入时RDB文件时,系统会自动检查、如果是过期键不会加载到数据库中。 3、其他： 1）redis会根据配置文件中rdbcompression属性决定保存RDB文件时是否进行压缩存储（默认为yes），如果打开了压缩功能，redis会判断字符串长度&#62;=20字节则压缩，否则不压缩存储； 2）redis自带了RDB文件检查工具redis-check-dump； 3）使用od命令打印RDB文件：[root@centOS1 dir]# od -oc dump.rdb 4）RDB文件名通过配置文件dbfilename dump.rdb指定，存放位置通过配置文件dir /var/lib/redis/ 指定； AOF 有上面分析可知：RDB方式持久化的颗粒比较大，当服务器宕机时，到上次save或bgsave后的所有数据都会丢失。而AOF的持久化颗粒比较细，当服务器宕机后，只有宕机之前没来得AOF的操作数据会丢失。 1、AOF实现： 1）AOF持久化是通过保存redis服务器所执行的写命令来记录数据库状态的；被写入AOF文件的所有命令都是以Redis的命令请求协议格式保存的（Redis的请求协议是纯文本的）。服务器在启动时，通过载入AOF文件、并执行其中的命令来还原服务器状态。 2）AOF文件名通过配置文件appendfilename appendonly.aof 指定，存放位置通过配置文件dir /var/lib/redis/ 指定； [&#8230;]]]></description>
		
		
		
			</item>
		<item>
		<title>性价比神器！99元一年的阿里云256MB高性能Redis性能测试及discuz应用介绍</title>
		<link>https://moneyslow.com/%e6%80%a7%e4%bb%b7%e6%af%94%e7%a5%9e%e5%99%a8%ef%bc%8199%e5%85%83%e4%b8%80%e5%b9%b4%e7%9a%84%e9%98%bf%e9%87%8c%e4%ba%91256mb%e9%ab%98%e6%80%a7%e8%83%bdredis%e6%80%a7%e8%83%bd%e6%b5%8b%e8%af%95.html</link>
		
		<dc:creator><![CDATA[Jkfkgnrk]]></dc:creator>
		<pubDate>Fri, 04 May 2018 01:22:10 +0000</pubDate>
				<category><![CDATA[newest]]></category>
		<category><![CDATA[Discuz]]></category>
		<category><![CDATA[redis]]></category>
		<guid isPermaLink="false">https://moneyslow.com/?p=7856</guid>

					<description><![CDATA[Redis是一个开源的key-value类型的数据库缓存和存储系统，同时Redis提供了丰富的数据结构用来支持多样的业务chan场景，比如hashes，lists，sets还有ordered sets及其他类型。云数据库Redis提供了兼容Redis协议的数据库服务，提供单机和集群两种模式，提供了全套的容灾切换、故障迁移、在线扩容、性能优化的数据库解决方案。 本文我们将介绍如何使用阿里云Redis服务作为PHP服务的session存储。PHP的session存储作为php会话信息的存储单元，默认的PHP使用文件来存储session会话信息。同时PHP支持使用扩展的存储单元来作为会话信息的存储，通过扩展的session能够满足多台PHP服务器共享会话信息。 Redis云服务主从版本默认双机热备 Redis云服务主从版本兼容性高，支持lua、事物，并且兼容Redis3.0的地理位置GEO计算 Redis云服务性能优越，最大性能可以达到10WQPS Redis云服务主从版本数据持久化，每秒AOF Fsync，并且支持备份恢复 Redis云服务主从版本256MB内存小性能高，性价比非常适合小内存的业务场景 Redis云服务主从版本支持动态扩容，用户在业务增长之后可以动态升级 测试redis是否可用： [root@ECS~]# telnet HOST 6379 Trying IP... Connected to HOST. Escape character is '^]'. auth PASSWORD #回车 +OK #回复 ping #回车 +PONG #回复 quit #回车 +OK #回复 Connection closed by foreign host. 性能测试工具： 测试工具:https://github.com/RedisLabs/memtier_benchmark ./memtier_benchmark --server HOST -p 6379 -P redis --threads=16 --clients=4 -a PASSWORD [&#8230;]]]></description>
		
		
		
			</item>
		<item>
		<title>基于nginx-php-fpm的docker安装php7的redis扩展memcahced扩展</title>
		<link>https://moneyslow.com/%e5%9f%ba%e4%ba%8enginx-php-fpm%e7%9a%84docker%e5%ae%89%e8%a3%85php7%e7%9a%84redis%e6%89%a9%e5%b1%95.html</link>
		
		<dc:creator><![CDATA[moneyslow]]></dc:creator>
		<pubDate>Wed, 15 Nov 2017 02:23:45 +0000</pubDate>
				<category><![CDATA[newest]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[nginx]]></category>
		<category><![CDATA[php]]></category>
		<category><![CDATA[redis]]></category>
		<guid isPermaLink="false">http://moneyslow.com/?p=7668</guid>

					<description><![CDATA[镜像：https://hub.docker.com/r/richarvey/nginx-php-fpm/ php版本：FROM php:7.1.11-fpm-alpine 下载镜像并启动容器： docker run -d richarvey/nginx-php-fpm 进入容器： docker exec -it 08f7c84d5b84 bash &#160; &#160;&#160;1&#160; php -m&#124;grep redis &#160; &#160; 2&#160; mkdir -p /usr/src/php/ext/redis &#160; &#160; 3&#160; curl -L https://github.com/phpredis/phpredis/archive/3.0.0.tar.gz &#124; tar xvz -C /usr/src/php/ext/redis --strip 1 &#160; &#160; 4&#160; echo 'redis' &#62;&#62; /usr/src/php-available-exts &#160; &#160; 5&#160; docker-php-ext-install redis &#160; &#160; 6&#160; php -m&#124;grep [&#8230;]]]></description>
		
		
		
			</item>
		<item>
		<title>redis安全配置四大招</title>
		<link>https://moneyslow.com/redis%e5%ae%89%e5%85%a8-%e6%b8%85%e9%99%a4%e5%8e%86%e5%8f%b2%e8%ae%b0%e5%bd%95.html</link>
		
		<dc:creator><![CDATA[moneyslow]]></dc:creator>
		<pubDate>Fri, 27 Oct 2017 07:29:22 +0000</pubDate>
				<category><![CDATA[newest]]></category>
		<category><![CDATA[redis]]></category>
		<guid isPermaLink="false">http://moneyslow.com/?p=7639</guid>

					<description><![CDATA[1.绑定IP： # bind 127.0.0.1 把# bind 127.0.0.1前面的 注释#号去掉，然后把127.0.0.1改成你允许访问你的redis服务器的ip地址 2.设置密码，以提供远程登陆，方便不安全 redis.conf 配置文件里设置密码： requirepass yourpassword yourpassword就是redis验证密码，设置密码以后发现可以登陆，但是无法执行命令了。 命令如下: redis-cli -h yourIp -p yourPort//启动redis客户端，并连接服务器 keys * //输出服务器中的所有key 报错如下 (error) ERR operation not permitted 这时候你可以用授权命令进行授权，就不报错了 命令如下: auth youpassword 另外，在连接服务器的时候就可以指定登录密码，避免单独输入上面授权命令 命令如下: redis-cli -h yourIp-p yourPort -a youPassword 除了在配置文件redis.conf中配置验证密码以外，也可以在已经启动的redis服务器通过命令行设置密码，但这种方式是临时的，当服务器重启了密码必须重设。命令行设置密码方式如下： config set requirepass yourPassword 有时候我们不知道当前redis服务器是否有设置验证密码，或者忘记了密码是什么，我们可以通过命令行输入命令查看密码，命令如下： config get requirepass 如果redis服务端没有配置密码，会得到nil，而如果配置了密码，但是redis客户端连接redis服务端时，没有用密码登录验证，会提示：operation not permitted,这时候可以用命令：auth yourpassword 进行验证密码，再执行 [&#8230;]]]></description>
		
		
		
			</item>
		<item>
		<title>redis 应用场景</title>
		<link>https://moneyslow.com/redis-%e5%ba%94%e7%94%a8%e5%9c%ba%e6%99%af.html</link>
		
		<dc:creator><![CDATA[moneyslow]]></dc:creator>
		<pubDate>Wed, 08 Feb 2017 02:02:49 +0000</pubDate>
				<category><![CDATA[newest]]></category>
		<category><![CDATA[redis]]></category>
		<guid isPermaLink="false">http://blog.a8z8.com/?p=7245</guid>

					<description><![CDATA[下面是一篇新鲜出炉的文章，其作者是Redis作者@antirez，他描述了Redis比较适合的一些应用场景，NoSQLFan简单列举在这里，供大家一览： 1.取最新N个数据的操作 比如典型的取你网站的最新文章，通过下面方式，我们可以将最新的5000条评论的ID放在Redis的List集合中，并将超出集合部分从数据库获取 使用LPUSH latest.comments命令，向list集合中插入数据 插入完成后再用LTRIM latest.comments 0 5000命令使其永远只保存最近5000个ID 然后我们在客户端获取某一页评论时可以用下面的逻辑（伪代码） FUNCTION get_latest_comments(start,num_items): id_list = redis.lrange("latest.comments",start,start+num_items-1) IF id_list.length < num_items id_list = SQL_DB("SELECT ... ORDER BY time LIMIT ...") END RETURN id_list END 如果你还有不同的筛选维度，比如某个分类的最新N条，那么你可以再建一个按此分类的List，只存ID的话，Redis是非常高效的。 2.排行榜应用，取TOP N操作 这个需求与上面需求的不同之处在于，前面操作以时间为权重，这个是以某个条件为权重，比如按顶的次数排序，这时候就需要我们的sorted set出马了，将你要排序的值设置成sorted set的score，将具体的数据设置成相应的value，每次只需要执行一条ZADD命令即可。 3.需要精准设定过期时间的应用 比如你可以把上面说到的sorted set的score值设置成过期时间的时间戳，那么就可以简单地通过过期时间排序，定时清除过期数据了，不仅是清除Redis中的过期数据，你完全可以把Redis里这个过期时间当成是对数据库中数据的索引，用Redis来找出哪些数据需要过期删除，然后再精准地从数据库中删除相应的记录。 4.计数器应用 Redis的命令都是原子性的，你可以轻松地利用INCR，DECR命令来构建计数器系统。 5.Uniq操作，获取某段时间所有数据排重值 这个使用Redis的set数据结构最合适了，只需要不断地将数据往set中扔就行了，set意为集合，所以会自动排重。 6.实时系统，反垃圾系统 通过上面说到的set功能，你可以知道一个终端用户是否进行了某个操作，可以找到其操作的集合并进行分析统计对比等。没有做不到，只有想不到。 7.Pub/Sub构建实时消息系统 Redis的Pub/Sub系统可以构建实时的消息系统，比如很多用Pub/Sub构建的实时聊天系统的例子。 8.构建队列系统 使用list可以构建队列系统，使用sorted set甚至可以构建有优先级的队列系统。 9.缓存 这个不必说了，性能优于Memcached，数据结构更多样化。]]></description>
		
		
		
			</item>
		<item>
		<title>Linux下php安装Redis扩展</title>
		<link>https://moneyslow.com/linux%e4%b8%8bphp%e5%ae%89%e8%a3%85redis%e6%89%a9%e5%b1%95.html</link>
		
		<dc:creator><![CDATA[moneyslow]]></dc:creator>
		<pubDate>Wed, 02 Dec 2015 06:56:17 +0000</pubDate>
				<category><![CDATA[newest]]></category>
		<category><![CDATA[php]]></category>
		<category><![CDATA[redis]]></category>
		<guid isPermaLink="false">http://blog.a8z8.com/?p=124</guid>

					<description><![CDATA[注意：目录的权限 chomd 777 -R 1、安装redis 下载：https://github.com/nicolasff/phpredis/archive/2.2.4.tar.gz 上传phpredis-2.2.4.tar.gz到/usr/local/src目录 cd /usr/local/src #进入软件包存放目录 tar zxvf phpredis-2.2.4.tar.gz #解压 cd phpredis-2.2.4 #进入安装目录 /usr/local/php/bin/phpize #用phpize生成configure配置文件 ./configure --with-php-config=/usr/local/php/bin/php-config #配置 make #编译 make install #安装 安装完成之后，出现下面的安装路径 /usr/local/php/lib/php/extensions/no-debug-non-zts-20090626/ 2、配置php支持 vi /usr/local/php/etc/php.ini #编辑配置文件，在最后一行添加以下内容 添加 extension="redis.so" :wq! #保存退出 3 重启服务 sudo service nginx restart sudo /etc/init.d/php-fpm restart]]></description>
		
		
		
			</item>
	</channel>
</rss>
