我正在尝试建立一个基本的工作Nginx SSI示例:
Nginx配置(只是相关部分,为简洁起见):
ssi on;
proxy_cache_path /var/cache/nginx levels=1:2 keys_zone=my_cache:20m max_size=20m inactive=60m use_temp_path=off;
server {
listen 80;
server_name localhost;
location / {
proxy_cache my_cache;
proxy_set_header Host $host;
proxy_http_version 1.1;
proxy_buffering on;
proxy_pass http://127.0.0.1:81;
}
}
server {
listen 81;
root /path/to/root;
location ~ ^/.+\.php {
fastcgi_pass 127.0.0.1:9000;
}
}
ssi.php:
<?php
header('Cache-Control: public, s-maxage=5');
?>
Time: <?php echo time(); ?>
Fragment time: <!--# include virtual="/time.php" -->
time.php:
<?php
header('Cache-Control: no-cache');
echo time();
包含很好地工作:
Time: 1466710388
Fragment time: 1466710388
现在,一秒钟后,我希望页面(ssi.php)仍然被缓存,但time.php片段是新的:
Time: 1466710388
Fragment time: 1466710389
但是它在5秒内保持完全相同,之后ssi页面与片段一起更新:
Time: 1466710393
Fragment time: 1466710393
我之前使用ESI和Varnish完成了这项工作,并期望这与SSI一样.假设这个我错了吗?我无法在网上找到答案,并尝试了不同的缓存控制标题,但我很确定这是正确的方法.我在这里错过了什么?
最佳答案 您的配置存在问题:您在两台服务器中都启用了SSI,原因是:
ssi on;
在http {}级别定义.这导致在第二个服务器{}中扩展SSI指令.在第一个服务器中缓存的响应中没有任何SSI指令(已经扩展),因此它始终保持不变.
如果您希望包含的片段在每个请求中都是新鲜的,则必须仅在第一个服务器中启用SSI,例如:
proxy_cache_path /path/to/cache keys_zone=my_cache:20m;
server {
listen 80;
server_name first.example.com;
location / {
proxy_pass http://127.0.0.1:81;
proxy_cache my_cache;
ssi on;
}
}
server {
listen 81;
server_name second.example.com;
location ~ ^/.+\.php {
fastcgi_pass 127.0.0.1:9000;
}
}
请注意,ssi on与第一个服务器一起,以及proxy_cache my_cache.这样,nginx将使用SSI指令缓存后端响应,并在每个请求时重做SSI处理,如果需要,缓存包括单独的.