开启掘金成长之旅!这是我参与「掘金日新计划 · 12 月更文挑战」的第21天,点击查看活动详情
一、Fastdfs介绍
1、简介
作者YuQing ,Fastdfs 是一个开源的高性能分布式文件系统(DFS)。 它的主要功能包括:文件存储,文件同步和文件访问,以及高容量和负载平衡。主要解决了海量数据存储问题,特别适合以中小文件(建议范围:4KB < file_size <500MB)为载体的在线服务。
FastDFS 系统有三个角色:跟踪服务器(Tracker Server)和存储服务器(Storage Server)以及客户端(Client)。
- Tracker Server:跟踪服务器,主要做调度工作,起到均衡的作用;负责管理所有的 storage server和 group,每个 storage 在启动后会连接 Tracker,告知自己所属 group 等信息,并保持周期性心跳。
- Storage Server:存储服务器,主要提供容量和备份服务;以 group 为单位,每个 group 内可以有多台 storage server,数据互为备份。
- Client:客户端,上传下载数据的服务器,也就是我们自己的项目所部署在的服务器。
2、Fastdfs的存储策略
为了支持大容量,存储节点(服务器)采用了分卷(或分组)的组织方式。存储系统由一个或多个卷组成,卷与卷之间的文件是相互独立的,所有卷的文件容量累加就是整个存储系统中的文件容量。一个卷可以由一台或多台存储服务器组成,一个卷下的存储服务器中的文件都是相同的,卷中的多台存储服务器起到了冗余备份和负载均衡的作用。 在卷中增加服务器时,同步已有的文件由系统自动完成,同步完成后,系统自动将新增服务器切换到线上提供服务。当存储空间不足或即将耗尽时,可以动态添加卷。只需要增加一台或多台服务器,并将它们配置为一个新的卷,这样就扩大了存储系统的容量。
3、Fastdfs的上传过程
FastdfS向使用者提供基本文件访问接口,比如upload、download、append、delete等,以客户端库的方式提供给用户使用。 Storage Server会定期的向Tracker Server发送自己的存储信息。当Tracker Server Cluster中的Tracker Server不止一个时,各个Tracker之间的关系是对等的,所以客户端上传时可以选择任意一个Tracker。 当Tracker收到客户端上传文件的请求时,会为该文件分配一个可以存储文件的group,当选定了group后就要决定给客户端分配group中的哪一个storage server。当分配好storage server后,客户端向storage发送写文件请求,storage将会为文件分配一个数据存储目录。然后为文件分配一个fileid,最后根据以上的信息生成文件名存储文件。
4、Fastdfs的文件同步
写文件时,客户端将文件写至group内一个storage server即认为写文件成功,storage server写完文件后,会由后台线程将文件同步至同group内其他的storage server。 每个storage写文件后,同时会写一份binlog,binlog里不包含文件数据,只包含文件名等元信息,这份binlog用于后台同步,storage会记录向group内其他storage同步的进度,以便重启后能接上次的进度继续同步;进度以时间戳的方式进行记录,所以最好能保证集群内所有server的时钟保持同步。 storage的同步进度会作为元数据的一部分汇报到tracker上,tracke在选择读storage的时候会以同步进度作为参考。
5、Fastdfs的文件下载
客户端uploadfile成功后,会拿到一个storage生成的文件名,接下来客户端根据这个文件名即可访问到该文件。
跟uploadfile一样,在downloadfile时客户端可以选择任意tracker server。tracker发送download请求给某个tracker,必须带上文件名信息,tracke从文件名中解析出文件的group、大小、创建时间等信息,然后为该请求选择一个storage用来服务读请求。
二、安装Fastdfs
1、预备工作
-
编译源码需要gcc gcc-c++ perl
yum -y install gcc gcc-c++ perl -
提前下载好需要的软件包(我是统一下载在/tools/module目录下)
- 下载libfastcommon环境包:
wget https://github.com/happyfish100/libfastcommon/archive/refs/tags/V1.0.64.tar.gz - 下载Fastdfs分离出的网络框架-libserverframe:
wget https://github.com/happyfish100/libserverframe/archive/refs/tags/V1.1.23.tar.gz - 下载Fastdfs包:
wget https://github.com/happyfish100/fastdfs/archive/refs/tags/V6.9.1.tar.gz - 下载nginx源码包:
wget https://nginx.org/download/nginx-1.20.0.tar.gz - fastdfs-nginx-module插件包:
wget https://github.com/happyfish100/fastdfs-nginx-module/archive/refs/tags/V1.23.tar.gz
- 下载libfastcommon环境包:
-
端口开放
-
防火墙要开放端口:
firewall-cmd --zone=public --add-port=22122/tcp --permanentfirewall-cmd --zone=public --add-port=23000/tcp --permanentfirewall-cmd --reload
-
云服务器也要配置对应安全组
2、具体安装
- 1、安装 libfastcommon
libfastcommon是Fastdfs分离出的公用函数库
tar -zxvf V1.0.64.tar.gzcd libfastcommon-1.0.64./make.sh && ./make.sh install
- libfastcommon.so 默认安装到了/usr/lib64/libfastcommon.so。但是后续我们安装的Fastdfs主程序设置的lib目录是/usr/local/lib,因此需要创建软链接。
ln -s /usr/lib64/libfastcommon.so /usr/local/lib/libfastcommon.soln -s /usr/lib64/libfastcommon.so /usr/lib/libfastcommon.soln -s /usr/lib64/libfdfsclient.so /usr/local/lib/libfdfsclient.soln -s /usr/lib64/libfdfsclient.so /usr/lib/libfdfsclient.so
- 安装 libserverframe
libserverframe是Fastdfs分离出的网络框架
tar -zxvf V1.1.23.tar.gzcd libserverframe-1.1.23./make.sh && ./make.sh install
- 安装Fastdfs
tar -zxvf V6.9.1.tar.gzcd fastdfs-6.9.1./make.sh && ./make.sh installcd /tools/module/fastdfs-6.9.1/confcp anti-steal.jpg http.conf mime.types /etc/fdfs/
安装后的相应文件与目录如下:
1、fastdfs配置文件(这三个是样例配置,默认创建到/etc/fdfs目录下的,后续我们在此基础上更改) :
/etc/fdfs/client.conf/etc/fdfs/storage.conf/etc/fdfs/tracker.conf
2、命令工具在 /usr/bin/ 目录下:
fdfs_appender_test
fdfs_appender_test1
fdfs_append_file
fdfs_crc32
fdfs_delete_file
fdfs_download_file
fdfs_file_info
fdfs_monitor
fdfs_storaged
fdfs_test
fdfs_test1
fdfs_trackerd
fdfs_upload_appender
fdfs_upload_file
stop.sh
restart.sh
3、Fastdfs 服务脚本设置的 bin 目录是 /usr/local/bin, 但实际命令安装在 /usr/bin/ 下。我们需要建立 /usr/bin 到 /usr/local/bin 的软链接。
ln -s /usr/bin/fdfs_trackerd /usr/local/binln -s /usr/bin/fdfs_storaged /usr/local/binln -s /usr/bin/stop.sh /usr/local/binln -s /usr/bin/restart.sh /usr/local/bin
3、配置Fastdfs跟踪器(Tracker)
cd /etc/fdfsvim tracker.conf
然后编辑相应配置:
#配置文件是否不生效,false 为生效
disabled=false
# 提供服务的端口
port=22122
# Tracker 数据和日志目录地址(根目录必须存在,子目录会自动创建)
base_path=/home/fastdfs/tracker
# HTTP 服务端口
http.server_port=80
创建tracker基础数据目录,即base_path对应的目录:
mkdir -p /home/fastdfs/tracker
再进行修改 fdfs_trackerd.service 配置
vim /usr/lib/systemd/system/fdfs_trackerd.service 中的 PIDFile,格式为:
PIDFile=$base_path/data/fdfs_trackerd.pid
比如:
PIDFile=/home/fastdfs/tracker/data/fdfs_trackerd.pid
然后启动Tracker,初次成功启动,会在/home/fastdfs/tracker (配置的base_path)下创建 data、logs 两个目录。
systemctl start fdfs_trackerd #启动tracker服务
systemctl restart fdfs_trackerd #重启动tracker服务
systemctl stop fdfs_trackerd #停止tracker服务
systemctl enable fdfs_trackerd #开机自启动
查看 FastDFS Tracker 是否已成功启动 ,22122端口正在被监听,则算是Tracker服务安装成功。netstat -unltp|grep fdfs
4、配置 Fastdfs 存储 (Storage)
cd /etc/fdfsvim storage.conf
然后编辑相应配置:
# 配置文件是否不生效,false 为生效
disabled=false
# 指定此 storage server 所在 组(卷)
group_name=group1
# storage server 服务端口
port=23000
# 心跳间隔时间,单位为秒 (这里是指主动向 tracker server 发送心跳)
heart_beat_interval=30
# Storage 数据和日志目录地址(根目录必须存在,子目录会自动生成)
base_path=/home/fastdfs/storage
# 存放文件时 storage server 支持多个路径。这里配置存放文件的基路径数目,通常只配一个目录。
store_path_count=1
# 逐一配置 store_path_count 个路径,索引号基于 0。
# 如果不配置 store_path0,那它就和 base_path 对应的路径一样,此处直接注释掉。
#store_path0=/home/fastdfs/file
# FastDFS 存储文件时,采用了两级目录。这里配置存放文件的目录个数。
# 如果本参数只为 N(如: 256),那么 storage server 在初次运行时,会在 store_path 下自动创建 N * N 个存放文件的子目录。
subdir_count_per_path=256
# tracker_server 的列表 ,会主动连接 tracker_server
# 有多个 tracker server 时,每个 tracker server 写一行,不能写127.0.0.1
tracker_server=你自己的Ip地址:22122
# 允许系统同步的时间段 (默认是全天) 。一般用于避免高峰同步产生一些问题而设定。
sync_start_time=00:00
sync_end_time=23:59
# 访问端口
http.server_port=80
创建Storage基础数据目录,对应base_path目录:mkdir -p /home/fastdfs/storage
vim /usr/lib/systemd/system/fdfs_storaged.service 中的 PIDFile,格式为:
PIDFile=$base_path/data/fdfs_storaged.pid
比如:
PIDFile=/home/fastdfs/storage/data/fdfs_storaged.pid
启动Storage前确保Tracker是启动的。初次启动成功,会在 /home/fastdfs/storage 目录下创建 data、 logs 两个目录。
systemctl start fdfs_storaged #启动storage服务
systemctl restart fdfs_storaged #重启storage服务
systemctl stop fdfs_storaged #停止动storage服务
systemctl enable fdfs_storaged #开机自启动
查看 Storage 是否成功启动,23000 端口正在被监听,就算 Storage 启动成功。
netstat -unltp|grep fdfs
查看Storage和Tracker是否在通信:
/usr/bin/fdfs_monitor /etc/fdfs/storage.conf
5、文件上传测试
首先 修改 Tracker 服务器中的客户端配置文件
cd /etc/fdfsvim client.conf
然后编辑相应配置:
修改如下配置即可,其它默认。
# Client 的数据和日志目录
base_path=/home/fastdfs/client
# Tracker端口
tracker_server=你的服务器IP:22122
创建client基础数据目录,对应base_path目录: mkdir -p /home/fastdfs/client
上传测试
我直接在服务器 /home/fastdfs 上传了一张图片叫做person.jpg,用来测试
在linux内部执行如下命令上传一个文件:
/usr/bin/fdfs_upload_file /etc/fdfs/client.conf person.jpg
返回的文件ID由group、存储目录、两级子目录、fileid、文件后缀名(由客户端指定,主要用于区分文件类型)拼接而成
三、安装Nginx
我的服务器已经安装过了,不再编写安装步骤,只编写安装nginx插件步骤。需要安装nginx步骤的请看我的 Centos7安装Nginx并开启HTTPS 这篇文章。
nginx安装完成,修改nginx.conf
vim /usr/local/nginx/conf/nginx.conf
添加如下行,将 /group1/M00 映射到 /home/fastdfs/storage/data
location /group1/M00 {
alias /home/fastdfs/storage/data;
}
然后 nginx -t 检查,重启nginx -s reload 进行访问
四、配置 Nginx的Fastdfs 模块
- fastdfs-nginx-module 模块说明
Fastdfs 通过 Tracker 服务器,将文件放在 Storage 服务器存储, 但是同组存储服务器之间需要进行文件复制, 有同步延迟的问题。
假设 Tracker 服务器将文件上传到了 192.168.0.1,上传成功后文件 ID已经返回给客户端。
此时 Fastdfs 存储集群机制会将这个文件同步到同组存储 192.168.0.2,在文件还没有复制完成的情况下,客户端如果用这个文件 ID 在 192.168.0.2 上取文件,就会出现文件无法访问的错误。
而 fastdfs-nginx-module 可以重定向文件链接到源服务器取文件,避免客户端由于复制延迟导致的文件无法访问错误。
- 安装 fastdfs-nginx-module
tar -zxvf V1.23.tar.gzcd fastdfs-nginx-module-1.23/srccp /tools/module/fastdfs-nginx-module-1.23/src/mod_fastdfs.conf /etc/fdfsvim /etc/fdfs/mod_fastdfs.conf
进行配置
# 连接超时时间
connect_timeout=10
# Tracker Server
tracker_server=你的服务器IP:22122
# StorageServer 默认端口
storage_server_port=23000
# 如果文件ID的uri中包含/group**,则要设置为true
url_have_group_name = true
# Storage 配置的store_path0路径,必须和storage.conf中的一致,统一注释掉
#store_path0= /home/yuqing/fastdfs
其他默认不变
- 配置Nginx
先停掉nginx服务: /usr/local/nginx/sbin/nginx -s stop
然后 ./nginx -V把曾经配置的模块先拷贝出来,避免一会添加模块被覆盖掉。
进入nginx解压包目录 cd /tools/module/nginx-1.20.0/
带上新模块重新编译:./configure --prefix=/usr/local/nginx --with-http_stub_status_module --with-http_ssl_module --add-module=/tools/module/fastdfs-nginx-module-1.23/src
然后只进行 make就可以了,不能install 不然会覆盖安装
备份原来的执行文件nginx:
cp /usr/local/nginx/sbin/nginx /usr/local/nginx/sbin/nginx.bak221203
拷贝新objs中的nginx进行覆盖原来的:
cp -f /tools/module/nginx-1.20.0/objs/nginx /usr/local/nginx/sbin/nginx
再执行 ./nginx -V,查看新模块是否添加成功
修改nginx.conf
vi /usr/local/nginx/conf/nginx.conf
如果没使用Https,可以这样配置:
#如,第一种:
location /group1/M00 {
alias /home/fastdfs/storage/data;
}
#如,第二种:
location ~/group[0-9]/ {
ngx_fastdfs_module;
}
如果使用nginx开启了Https,使用方式2配置,加了ngx_fastdfs_module模块就会报错,400 bad request The plain HTTP request was sent to HTTPS port,原因在这里,先进行记录,回头解决了再进行更改,或者有解决的@一下我
启动nginx/usr/local/nginx/sbin/nginx,打印出如下就算配置成功
在地址栏访问。
重新上传一个图片,能用浏览器访问到,即安装成功。
五、Fastdfs搭建Storage集群
fastdfs的集群配置非常简单,只需要在storage端配置文件里,将tracker的信息对应配置即可。
1、Storage集群的配置
首先,你需要重复本文档的第二、三步骤,新搭建一套fastdfs的单机环境。比如:已经装好的第一台机器是 192.168.0.1,新机环境是 192.168.0.2,修改本机器上 storage.conf 和 mod_fastdfs.conf,将tracker指向同一个192.168.0.1:22122
启动本机storaged服务并重启nginx即可
2、Tracker集群的配置
首先,启动你的新的tracker服务,比如:新服务的环境是 192.168.0.2
修改所有机器上的 storage.conf 和 mod_fastdfs.conf,将其tracker配置成两台机器:192.168.0.1 和 192.168.0.2 ;最后重启所有机器上的storage和其上的nginx服务
六、集成SpringBoot
1、添加依赖
<!-- fastdfs依赖-->
<dependency>
<groupId>com.github.tobato</groupId>
<artifactId>fastdfs-client</artifactId>
<version>1.26.7</version>
</dependency>
2、添加配置文件
# 分布式文件系统 FastDFS 配置
fdfs:
# 连接tracker服务器超时时长
connect-timeout: 1500
# socket连接超时时长
so-timeout: 600
# tracker服务所在的IP地址和端口号 ( #TrackerList参数,支持多个,我这里只有一个,如果有多个在下方加- x.x.x.x:port)
tracker-list:
- 服务器IP:22122
#缩略图生成参数,可选
thumb-image:
height: 150
width: 150
3、fastdfs工具类
import com.github.tobato.fastdfs.domain.fdfs.StorePath;
import com.github.tobato.fastdfs.domain.proto.storage.DownloadByteArray;
import com.github.tobato.fastdfs.service.FastFileStorageClient;
import java.io.ByteArrayInputStream;
import java.io.IOException;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Component;
@Component
public class FastDFSClient {
@Autowired
private FastFileStorageClient fastFileStorageClient;
/**
* 文件上传
*
* @param bytes 文件字节
* @param fileSize 文件大小
* @param extension 文件扩展名
* @return fastDfs路径
*/
public String uploadFile(byte[] bytes, long fileSize, String extension) {
System.out.println("fastDFS文件上传开始------");
ByteArrayInputStream byteArrayInputStream = new ByteArrayInputStream(bytes);
StorePath storePath = fastFileStorageClient.uploadFile(byteArrayInputStream, fileSize, extension, null);
String fullPath = storePath.getFullPath();
System.out.println("fastDFS文件上传完成------");
return fullPath;
}
/**
* 下载文件
*
* @param fileUrl 文件URL
* @return 文件字节
*/
public byte[] downloadFile(String fileUrl) {
int group = fileUrl.indexOf("group");
//获取到文件名
String fileName = fileUrl.substring(group);
String groupName = fileName.substring(0, fileName.indexOf("/"));
String pathName = fileName.substring(fileName.indexOf("/")+1);
DownloadByteArray downloadByteArray = new DownloadByteArray();
byte[] bytes = fastFileStorageClient.downloadFile(groupName, pathName, downloadByteArray);
return bytes;
}
/**
* 删除文件
* @param fileUrl
* @throws IOException
*/
public void delResource(String fileUrl) throws IOException {
int group = fileUrl.indexOf("group");
//获取到文件名
String fileName = fileUrl.substring(group);
String groupName = fileName.substring(0, fileName.indexOf("/"));
String pathName = fileName.substring(fileName.indexOf("/"));
// fastFileStorageClient.deleteFile(groupName, pathName);
fastFileStorageClient.deleteFile(fileName);
System.out.println(pathName+"文件已删除");
}
}
测试类:
/**
* 上传
*/
@PostMapping("/upload")
public AjaxResult uploadFile(MultipartFile file) throws Exception {
String result ="";
try {
byte[] bytes = file.getBytes();
String originalFileName = file.getOriginalFilename();
String extension = originalFileName.substring(originalFileName.lastIndexOf(".") + 1);
long fileSize = file.getSize();
result = fastDFSClient.uploadFile(bytes, fileSize, extension);
}catch (Exception e) {
log.error("fastDFS 文件上传失败------fileName:{}" , file.getName());
}
return AjaxResult.success(result);
}
上传:
/**
* 下载
*/
@GetMapping("/download")
public void fileDownload(String fileUrl, HttpServletResponse response) {
String suffix = fileUrl.substring(fileUrl.lastIndexOf("."));
byte[] bytes = new byte[0];
try {
bytes = fastDFSClient.downloadFile(fileUrl);
response.reset();
response.setHeader("Content-disposition", "attachment;filename=" + URLEncoder.encode("fastDFS" + suffix, "UTF-8"));
response.setCharacterEncoding("UTF-8");
} catch (IOException e) {
log.error("fastDFS 下载文件失败------fileUrl:{}" , fileUrl);
}
ServletOutputStream outputStream = null;
try {
outputStream = response.getOutputStream();
outputStream.write(bytes);
} catch (IOException e) {
e.printStackTrace();
} finally {
try {
outputStream.flush();
outputStream.close();
} catch (IOException e) {
e.printStackTrace();
}
}
}
下载:
/**
* 删除
*/
@GetMapping("/del")
public AjaxResult delFile(String fileUrl) throws Exception {
fastDFSClient.delResource(fileUrl);
return AjaxResult.success("删除成功");
}
删除: