这篇文章写的很详细,忍不住就拿来收藏了!
GridFS 是一种将大型文件存储在MongoDB 数据库中的文件规范。所有官方支持的驱动均实现了GridFS 规范。
GridFS是MongoDB中的一个内置功能,可以用于存放大量小文件。
官网学习:
http://www.mongodb.org/display/DOCS/GridFS
http://www.mongodb.org/display/DOCS/GridFS+Specification
1、为什么要用GridFS
由于MongoDB 中BSON 对象大小是有限制的,所以GridFS 规范提供了一种透明的机制,可以将一个大文件分割成为多个较小的文档,这样的机制允许我们有效的保存大文件对象,特别对于那些巨大的文件,比如视频、高清图片等。
2、如何实现海量存储
为实现这点,该规范指定了一个将文件分块的标准。每个文件都将在文件集合对象中保存一个元数据对象,一个或多个chunk 块对象可被组合保存在一个chunk 块集合中。大多数情况下,你无需了解此规范中细节,而可将注意力放在各个语言版本的驱动中有关GridFS API 的部分或是如何使用mongofiles 工具上。
3、语言支持
GridFS 对Java,Perl,PHP,Python,Ruby 等程序语言均支持,且提供了良好的API 接口。
4、简单介绍
GridFS 使用两个表来存储数据:
files 包含元数据对象
chunks 包含其他一些相关信息的二进制块
为了使多个GridFS 命名为一个单一的数据库,文件和块都有一个前缀,默认情况下,前缀是fs,所以任何默认的GridFS 存储将包括命名空间fs.files 和fs.chunks。各种第三方语言的驱动有权限改变这个前缀,所以你可以尝试设置另一个GridFS 命名空间用于存储照片,它的具体位置为:photos.files 和photos.chunks。下面我们看一下实际的例子吧。
5、命令行工具
- mongofiles是从命令行操作GridFS的一种工具,例如我们将”testfile”这个文件存到库里面,具体用法如下:
- [root@localhostbin]#./mongofilesputtestfile
- connectedto:127.0.0.1
- addedfile:{_id:ObjectId('4fc60175c714c5d960fff76a'),filename:"testfile",chunkSize:262144,
- uploadDate:newDate(1338376565745),md5:"8addbeb77789ae6b2cb75deee30faf1a",length:
- 16}
- done!
下面我们查一下看库里有哪些GridFS 文件,在”mongofiles”后加一个参数”list”即可
- [root@localhostbin]#./mongofileslist
- connectedto:127.0.0.1
- testfile16
接下来我们进库里看一下是否有新的东西
- [root@localhostbin]#./mongo
- MongoDBshellversion:1.8.1
- connectingto:test
- >showcollections
- fs.chunks--上文提到的fs.chunks
- fs.files--上文提到的fs.files
- system.indexes
- system.js
- >
我们继续查看fs.files 中的内容
- >db.fs.files.find()
- {"_id":ObjectId("4fc60175c714c5d960fff76a"),"filename":"testfile","chunkSize":262144,108); list-style:decimal-leading-zero outside; line-height:18px; margin:0px!important; padding:0px 3px 0px 10px!important"> "uploadDate":ISODate("2012-05-30T11:16:05.745Z"),"md5":
- "8addbeb77789ae6b2cb75deee30faf1a","length":16}
字段说明:
Filename: 存储的文件名
chunkSize: chunks 分块的大小
uploadDate: 入库时间
md5: 此文件的md5 码
length: 文件大小,单位”字节”
看来fs.files 中存储的是一些基础的元数据信息
我们继续查看fs.chunks 中的内容
- >db.fs.chunks.find()
- {"_id":ObjectId("4fc60175cf1154905d949336"),"files_id":
- ObjectId("4fc60175c714c5d960fff76a"),"n":0,"data":
- BinData(0,"SGVyZSBpcyBCZWlqaW5nCg==")}
其中比较重要的字段是”n”,它代表的是chunks 的序号,此序号从0 开始,看来fs.chunks中存储的是一些实际的内容数据信息
我们即然能将此文件存进去,我们就应该有办法将其取出来,下面看一下实例:
6、索引
- db.fs.chunks.ensureIndex({files_id:1,n:1},{unique:true});
这样,一个块就可以利用它的files_id 和 n 的值进行检索。注意,GridFS 仍然可以用findOne得到第一个块,如下:
- db.fs.chunks.findOne({files_id:myFileID,n:0});
7、应用
MongoDB提供了一个命令行工具mongofiles可以来处理GridFS,在bin目录下。
列出所有文件:
mongofiles list
上传一个文件:
mongofiles put xxx.txt
下载一个文件:
mongofiles get xxx.txt
查找文件:
mongofiles search xxx //会查找所有文件名中包含“xxx”的文件
mongofiles list xxx //会查找所有文件名以“xxx”为前缀的文件
参数说明:
–d 指定数据库 ,默认是fs,Mongofiles list –d testGridfs
-u –p 指定用户名,密码
-h 指定主机
-port 指定主机端口
-c 指定集合名,默认是fs
-t 指定文件的MIME类型,默认会忽略
使用MongoVUE来查看,管理GridFS
MongoVUE地址:http://www.mongovue.com/
MongoVUE是个免费软件,但超过15天后功能受限。可以通过删除以下注册表项来解除限制:
[HKEY_CURRENT_USER\Software\Classes\CLSID\{B1159E65-821C3-21C5-CE21-34A484D54444}\4FF78130]
把这个项下的值全删掉就可以了。
用java驱动上传下载文件:
下载地址:https://github.com/mongodb/mongo-java-driver/downloads
官方的文档貌似不是最新的,不过通过查看api来使用也不困骓。
http://api.mongodb.org/java/2.7.2/
以下代码基于mongo-2.7.3.jar
- importjava.io.FileInputStream;
- importjava.io.IOException;
- importjava.io.InputStream;
- importjava.net.UnknownHostException;
- importjava.security.NoSuchAlgorithmException;
- importcom.mongodb.BasicDBObject;
- importcom.mongodb.DB;
- importcom.mongodb.DBCollection;
- importcom.mongodb.DBObject;
- importcom.mongodb.Mongo;
- importcom.mongodb.MongoException;
- importcom.mongodb.gridfs.GridFS;
- importcom.mongodb.gridfs.GridFSDBFile;
- importcom.mongodb.gridfs.GridFSInputFile;
- publicclassTest{
- Mongoconnection;
- DBdb;
- DBCollectioncollection;
- GridFSmyFS;
- StringmongoDBHost="127.0.0.1";
- intmongoDBPort=27017;
- StringdbName="testGridfs";
- StringcollectionName="fs";
- publicstaticvoidmain(String[]args)throwsMongoException,IOException,NoSuchAlgorithmException{
- Testt=newTest();
- StringfileName="F:/cpu.txt";
- Stringname="cpu.txt";
- //把文件保存到gridfs中,并以文件的md5值为id
- t.save(newFileInputStream(fileName),name);
- //据文件名从gridfs中读取到文件
- GridFSDBFilegridFSDBFile=t.getByFileName(name);
- if(gridFSDBFile!=null){
- System.out.println("filename:"+gridFSDBFile.getFilename());
- System.out.println("md5:"+gridFSDBFile.getMD5());
- System.out.println("length:"+gridFSDBFile.getLength());
- System.out.println("uploadDate:"+gridFSDBFile.getUploadDate());
- System.out.println("--------------------------------------");
- gridFSDBFile.writeTo(System.out);
- }else{
- System.out.println("cannotgetfilebyname:"+name);
- }
- }
- publicTest()throwsUnknownHostException,MongoException,NoSuchAlgorithmException{
- _init();
- publicTest(StringmongoDBHost,intmongoDBPort,StringdbName,
- StringcollectionName)throwsUnknownHostException,108); list-style:decimal-leading-zero outside; line-height:18px; margin:0px!important; padding:0px 3px 0px 10px!important"> this.mongoDBHost=mongoDBHost;
- this.mongoDBPort=mongoDBPort;
- this.dbName=dbName;
- this.collectionName=collectionName;
- privatevoid_init()throwsUnknownHostException,108); list-style:decimal-leading-zero outside; line-height:18px; margin:0px!important; padding:0px 3px 0px 10px!important"> connection=newMongo(mongoDBHost,mongoDBPort);
- db=connection.getDB(dbName);
- collection=db.getCollection(collectionName);
- myFS=newGridFS(db);
- /**
- *用给出的id,保存文件,透明处理已存在的情况
- *id可以是string,long,int,org.bson.types.ObjectId类型
- *@paramin
- *@paramid
- */
- publicvoidsave(InputStreamin,Objectid){
- DBObjectquery=newBasicDBObject("_id",id);
- GridFSDBFilegridFSDBFile=myFS.findOne(query);
- if(gridFSDBFile!=null)
- return;
- GridFSInputFilegridFSInputFile=myFS.createFile(in);
- gridFSInputFile.save();
- *据id返回文件
- *@return
- */
- publicGridFSDBFilegetById(Objectid){
- GridFSDBFilegridFSDBFile=myFS.findOne(query);
- returngridFSDBFile;
- /**
- *据文件名返回文件,只返回第一个
- *@paramfileName
- *@return
- publicGridFSDBFilegetByFileName(StringfileName){
- DBObjectquery=newBasicDBObject("filename",fileName);
- returngridFSDBFile;
- }
Nginx-gridfs模块的安装使用
项目主页:https://github.com/mdirolf/nginx-gridfs
通过Nginx-gridfs,可以直接用http来访问GridFS中的文件。
1.安装
安装各种依赖包:zlib,pcre,openssl
在ubuntu下可能是以下命令:
sudoapt-getinstallzlib1g-dev//貌似sudoapt-getinstallzlib-dev不能安装
sudoapt-getinstalllibpcre3libpcre3-dev
sudoapt-getinstallopenssllibssl-dev
安装git(略)
gitclonegit://github.com/mdirolf/Nginx-gridfs.git
cdNginx-gridfs
gitsubmoduleinit
gitsubmoduleupdate
下载Nginx:
wgethttp://nginx.org/download/nginx-1.0.12.zip
tarzxvfNginx-1.0.12.zip
cdNginx-1.0.12
./configure--add-module=<Nginx-gridfs的路径>
make
sudomakeinstall
如果编译出错,则在configure时加上--with-cc-opt=-Wno-error参数。
2.配置Nginx
在server的配置中加上以下
location/pics/{
gridfspics
field=filename
type=string;
mongo127.0.0.1:27017;
}
上面的配置表示:
数据库是pics,通过文件名filename来访问文件,filename的类型是string
启动Nginx:/usr/local/Nginx/sbin/Nginx
用MongoVUE把一个图片001.jpg上传到pics数据库中。
打开:http://localhost/pics/001.jpg
3.Nginx-gridfs的不足
没有实现http的rangesupport,也就是断点续传,分片下载的功能。
GridFS实现原理
GridFS在数据库中,默认使用fs.chunks和fs.files来存储文件。
其中fs.files集合存放文件的信息,fs.chunks存放文件数据
一个fs.files集合中的一条记录内容如下,即一个file的信息如下
- {
- "_id":ObjectId("4f4608844f9b855c6c35e298"),//唯一id,可以是用户自定义的类型
- "filename":"cpu.txt",//文件名
- "length":778,//文件长度
- "chunkSize":262144,//chunk的大小
- "uploadDate":ISODate("2012-02-23T09:36:04.593Z"),//上传时间
- "md5":"e2c789b036cfb3b848ae39a24e795ca6",//文件的md5值
- "contentType":"text/plain"//文件的MIME类型
- "Meta":null//文件的其它信息,默认是没有”Meta”这个key,用户可以自己定义为任意BSON对象
- }
对应的fs.chunks中的chunk如下:
默认chunk的大小是256K。 public static final int DEFAULT_CHUNKSIZE = 256 * 1024; 所以在把文件存入到GridFS过程中,如果文件大于chunksize,则把文件分割成多个chunk,再把这些chunk保存到fs.chunks中,最后再把文件信息存入到fs.files中。 在读取文件的时候,先据查询的条件,在fs.files中找到一个合适的记录,得到“_id”的值,再据这个值到fs.chunks中查找所有“files_id”为“_id”的chunk,并按“n”排序,最后依次读取chunk中“data”对象的内容,还原成原来的文件。 自定义Gridfs的hash函数 尽管从理论上,无论用什么hash函数,都有可能出现hash值相同,但内容不相同的文件,但是对于GridFS默认使用的md5算法,目前已出现长度和md5值都相同但内容不一样的文件。 如果想要自已改用其它hash算法,可以从驱动入手。因为GridFS在MongoDB中实际也只是两个普通的集合,所以完全可以自已修改驱动,替换下hash算法即可。 目前java版的驱动比较简单,可以很容易修改实现。 但是要注意,这样不符合GridFS的规范了。 注意事项 1. GridFS不自动处理md5相同的文件,对于md5相同的文件,如果想在GridFS中只有一个存储,要用户自已处理。Md5值的计算由 客户端完成。 2. 因为GridFS在上传文件过程中是先把文件数据保存到fs.chunks,最后再把文件信息保存到fs.files中,所以如果在上传文件过程中失败,有可能在fs.chunks中出现垃圾数据。这些垃圾数据可以定期清理掉。
原文链接:https://www.f2er.com/nosql/204167.html