xml过长时被nginx截断

前端之家收集整理的这篇文章主要介绍了xml过长时被nginx截断前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

问题描述

通过网页获取数据,数据格式为xml。当xml比较短时,可以正常获取数据。但是xml长度过长时不能正常获取数据,通过观察返回数据的源代码,发现xml被截断了。

服务器环境

解决方法

对比发现,使用apache代替Nginx的时候可以正常获取长的xml数据。确定问题出现在Nginx的配置上。

查看ngnix日志(yum安装默认目录:/var/log/Nginx/)发现问题所在。

2015/01/26 13:38:07 [crit] 2316#0: *33 open() "/var/lib/Nginx/tmp/fastcgi/1/01/0000000011" Failed (13: Permission denied) while reading upstream,client: 192.16    8.56.1,server:,request: "GET /index.PHP?param=****** HTTP/1.1",upstream: "fastcgi://127.0    .0.1:9000",host: "centos.ctrip.dev:8001"

问题出现在此时Nginx临时向/var/lib/Nginx/tmp/目录下写入了临时数据,而执行Nginx用户没有该目录的写入权限。

解决该权限问题后问题解决

原文链接:https://www.f2er.com/xml/297254.html

猜你在找的XML相关文章