Cloudfs的运维工具

一. 安装和配置
1.安装
yum clean all
yum install cloudfs
2.配置
>cd /usr/local/cloudfs
>vi etc/dfs.conf

#服务器监听端口
port=8123

#文件下载服务端口
httpPort=8124

#文件系统组名
group=group1

#本服务器结点的唯一标志(全局不能重复)
serverid=11

#对外服务的地址(可以为IP或者域名)
domain=192.168.0.11

#数据目录位置
dataDir=/cloudfs

#本服务器最大容量(字节)
#default:50G
capacity=53687091200

#性能优化参数
#默认为128K
bufferSize=131072
#默认为1M
maxBufferSize=1048576

#是否调试
debug=false

#Config服务器配置信息
config.server.ip=192.168.0.11
config.server.port.redis=6379

#log4j配置文件路径,默认和本文件在同一目录下,文件名为log4j.properties
#log4j=/data/gleasy/dfs/conf/log4j.properties

c. 启动
>cd /usr/local/cloudfs
>bin/dfs-server start

d. 关闭
>bin/dfs-server stop

e. 测试
>cd /usr/local/cloudfs
>bin/dfs-cli put /root/test.txt

二. 客户端集成
a. 目前仅提供了JAVA客户端,SVN地址为: http://svn.dev.gleasy.com/svn/gleasy.com/library/cloud-dfs/trunk
maven配置为:

 <dependency>
 <groupId>com.gleasy.library</groupId>
 <artifactId>cloud-dfs</artifactId>
 <version>1.0</version>
 </dependency>

 

b. API列表

i. DfsClient.createFile()
创建空文件

ii. DfsClient.uploadFile(String storageid, InputStream stream, String hash, long casino filesize)
上传文件内容
storageid: 文件ID
stream: 文件流
hash: 文件的HASH
filesize: 文件大小
hash和filesize必须同时存在,要么都有,要么都没有。

iii.DfsClient.opyFile(String storageid)
复制文件,返回新文件ID

iv. DfsClient.deleteFile(String storageid)
删除文件

v. DfsClient.getFileInputStream(String storageid)
获取文件流用于保存

vi.DfsClient.getFilesize(String storageid)
选用。获取文件已经上传的大小(用于断点续传)

三. 压力测试工具
>bin/dfs-benchmark

用法: dfs-benchmark options
-t 测试类型(create,upload,copy)
-p 持续时间(单位s)
-c 客户端数量
-s 文件大小

此条目发表在 分布式技术, 运维 分类目录。将固定链接加入收藏夹。

发表评论