本篇文章为你整理了大文件断点续传如何实现?(大文件断点续传原理)的详细内容,包含有大文件断点续传如何实现连接 大文件断点续传原理 大文件断点续传传输方案 大文件断点上传 大文件断点续传如何实现?,希望能帮助你了解 大文件断点续传如何实现?。
最近接到一个新的需求,需要上传2G左右的视频文件,用测试环境的OSS试了一下,上传需要十几分钟,再考虑到公司的资源问题,果断放弃该方案。
一提到大文件上传,我最先想到的就是各种网盘了,现在大家都喜欢将自己收藏的「小电影」上传到网盘进行保存。网盘一般都支持断点续传和文件秒传功能,减少了网络波动和网络带宽对文件的限制,大大提高了用户体验,让人爱不释手。
各位看官大家好,今天给大家分享的又是一篇实战文章,希望大家能够喜欢。
最近接到一个新的需求,需要上传2G左右的视频文件,用测试环境的OSS试了一下,上传需要十几分钟,再考虑到公司的资源问题,果断放弃该方案。
一提到大文件上传,我最先想到的就是各种网盘了,现在大家都喜欢将自己收藏的「小电影」上传到网盘进行保存。网盘一般都支持断点续传和文件秒传功能,减少了网络波动和网络带宽对文件的限制,大大提高了用户体验,让人爱不释手。
说到这,大家先来了解一下这几个概念:
「断点续传」:在文件分块的基础上,将每个小文件采用单独的线程进行上传\下载,如果碰到网络故障,可以从已经上传\下载的部分开始继续上传\下载未完成的部分,而没有必要从头开始上传\下载;
RandomAccessFile
平时我们都会使用FileInputStream,FileOutputStream,FileReader以及FileWriter等IO流来读取文件,今天我们来了解一下RandomAccessFile。
它是一个直接继承Object的独立的类,底层实现中它实现的是DataInput和DataOutput接口。该类支持随机读取文件,随机访问文件类似于文件系统中存储的大字节数组。
它的实现基于「文件指针」(一种游标或者指向隐含数组的索引),文件指针可以通过getFilePointer方法读取,也可以通过seek方法设置。
输入时从文件指针开始读取字节,并使文件指针超过读取的字节,如果写入超过隐含数组当前结尾的输出操作会导致扩展数组。该类有四种模式可供选择:
在rw模式下,默认是使用buffer的,只有cache满的或者使用RandomAccessFile.close()关闭流的时候才真正的写到文件。
1、void seek(long pos):设置下一次读取或写入时的文件指针偏移量,通俗点说就是指定下次读文件数据的位置。
偏移量可以设置在文件末尾之外,只有在偏移量设置超出文件末尾后,才能通过写入更改文件长度;
2、native long getFilePointer():返回当前文件的光标位置;
3、native long length():返回当前文件的长度;
4、「读」方法
5、「写」方法
6、readFully(byte[] b):这个方法的作用就是将文本中的内容填满这个缓冲区b。如果缓冲b不能被填满,那么读取流的过程将被阻塞,如果发现是流的结尾,那么会抛出异常;
7、FileChannel getChannel():返回与此文件关联的唯一FileChannel对象;
8、int skipBytes(int n):试图跳过n个字节的输入,丢弃跳过的字节;
RandomAccessFile的绝大多数功能,已经被JDK1.4的NIO的「内存映射」文件取代了,即把文件映射到内存后再操作,省去了频繁磁盘io。
总结经验,砥砺前行:之前的实战文章中过多的粘贴了源码,影响了各位小伙伴的阅读感受。经过大佬的点拨,以后将展示部分关键代码,供各位赏析,源码可在「后台」获取。
文件分块需要在前端进行处理,可以利用强大的js库或者现成的组件进行分块处理。需要确定分块的大小和分块的数量,然后为每一个分块指定一个索引值。
为了防止上传文件的分块与其它文件混淆,采用文件的md5值来进行区分,该值也可以用来校验服务器上是否存在该文件以及文件的上传状态。
fileRederInstance.readAsBinaryString(file);
fileRederInstance.addEventListener("load",(e)= {
letfileBolb=e.target.result;
fileMD5=md5(fileBolb);
constformData=newFormData();
formData.append("md5",fileMD5);
axios
.post(http+"/fileUpload/checkFileMd5",formData)
.then((res)= {
if(res.data.message=="文件已存在"){
//文件已存在不走后面分片了,直接返回文件地址到前台页面
success success(res);
}else{
//文件不存在存在两种情况,一种是返回data:null代表未上传过一种是data:[xx,xx]还有哪几片未上传
if(!res.data.data){
//还有几片未上传情况,断点续传
chunkArr=res.data.data;
}
readChunkMD5();
}
})
.catch((e)= {});
});
在调用上传接口前,通过slice方法来取出索引在文件中对应位置的分块。
constgetChunkInfo=(file,currentChunk,chunkSize)= {
//获取对应下标下的文件片段
letstart=currentChunk*chunkSize;
letend=Math.min(file.size,start+chunkSize);
//对文件分块
letchunk=file.slice(start,end);
return{start,end,chunk};
};
之后调用上传接口完成上传。
断点续传、文件秒传
后端基于spring boot开发,使用redis来存储上传文件的状态和上传文件的地址。
如果文件完整上传,返回文件路径;部分上传则返回未上传的分块数组;如果未上传过返回提示信息。
在上传分块时会产生两个文件,一个是文件主体,一个是临时文件。临时文件可以看做是一个数组文件,为每一个分块分配一个值为127的字节。
校验MD5值时会用到两个值:
**/
publicResultcheckFileMd5(Stringmd5)throwsIOException{
//文件是否上传状态:只要该文件上传过该值一定存在
ObjectprocessingObj=stringRedisTemplate.opsForHash().get(UploadConstants.FILE_UPLOAD_STATUS,md5);
if(processingObj==null){
returnResult.ok("该文件没有上传过");
}
booleanprocessing=Boolean.parseBoolean(processingObj.toString());
//完整文件上传完成时为文件的路径,如果未完成返回临时文件路径(临时文件相当于数组,为每个分块分配一个值为127的字节)
Stringvalue=stringRedisTemplate.opsForValue().get(UploadConstants.FILE_MD5_KEY+md5);
//完整文件上传完成是true,未完成返回false
if(processing){
returnResult.ok(value,"文件已存在");
}else{
FileconfFile=newFile(value);
byte[]completeList=FileUtils.readFileToByteArray(confFile);
List Integer missChunkList=newLinkedList ();
for(inti=0;i completeList.length;i++){
if(completeList[i]!=Byte.MAX_VALUE){
//用空格补齐
missChunkList.add(i);
}
}
returnResult.ok(missChunkList,"该文件上传了一部分");
}
}
说到这,你肯定会问:当这个文件的所有分块上传完成之后,该怎么得到完整的文件呢?接下来我们就说一下分块合并的问题。
分块上传、文件合并
上边我们提到了利用文件的md5值来维护分块和文件的关系,因此我们会将具有相同md5值的分块进行合并,由于每个分块都有自己的索引值,所以我们会将分块按索引像插入数组一样分别插入文件中,形成完整的文件。
分块上传时,要和前端的分块大小、分块数量、当前分块索引等对应好,以备文件合并时使用,此处我们采用的是「磁盘映射」的方式来合并文件。
//读操作和写操作都是允许的
RandomAccessFiletempRaf=newRandomAccessFile(tmpFile,"rw");
//它返回的就是nio通信中的file的唯一channel
FileChannelfileChannel=tempRaf.getChannel();
//写入该分片数据分片大小*第几块分片获取偏移量
longoffset=CHUNK_SIZE*multipartFileDTO.getChunk();
//分片文件大小
byte[]fileData=multipartFileDTO.getFile().getBytes();
//将文件的区域直接映射到内存
MappedByteBuffermappedByteBuffer=fileChannel.map(FileChannel.MapMode.READ_WRITE,offset,fileData.length);
mappedByteBuffer.put(fileData);
//释放
FileMD5Util.freedMappedByteBuffer(mappedByteBuffer);
fileChannel.close();
每当完成一次分块的上传,还需要去检查文件的上传进度,看文件是否上传完成。
RandomAccessFileaccessConfFile=newRandomAccessFile(confFile,"rw");
//把该分段标记为true表示完成
accessConfFile.setLength(multipartFileDTO.getChunks());
accessConfFile.seek(multipartFileDTO.getChunk());
accessConfFile.write(Byte.MAX_VALUE);
//completeList检查是否全部完成,如果数组里是否全部都是(全部分片都成功上传)
byte[]completeList=FileUtils.readFileToByteArray(confFile);
byteisComplete=Byte.MAX_VALUE;
for(inti=0;i completeList.length isComplete==Byte.MAX_VALUE;i++){
//与运算,如果有部分没有完成则isComplete不是Byte.MAX_VALUE
isComplete=(byte)(isComplete completeList[i]);
accessConfFile.close();
然后更新文件的上传进度到Redis中。
//更新redis中的状态:如果是true的话证明是已经该大文件全部上传完成
if(isComplete==Byte.MAX_VALUE){
stringRedisTemplate.opsForHash().put(UploadConstants.FILE_UPLOAD_STATUS,multipartFileDTO.getMd5(),"true");
stringRedisTemplate.opsForValue().set(UploadConstants.FILE_MD5_KEY+multipartFileDTO.getMd5(),uploadDirPath+"/"+fileName);
}else{
if(!stringRedisTemplate.opsForHash().hasKey(UploadConstants.FILE_UPLOAD_STATUS,multipartFileDTO.getMd5())){
stringRedisTemplate.opsForHash().put(UploadConstants.FILE_UPLOAD_STATUS,multipartFileDTO.getMd5(),"false");
}
if(!stringRedisTemplate.hasKey(UploadConstants.FILE_MD5_KEY+multipartFileDTO.getMd5())){
stringRedisTemplate.opsForValue().set(UploadConstants.FILE_MD5_KEY+multipartFileDTO.getMd5(),uploadDirPath+"/"+fileName+".conf");
}
}
作者阿Q说代码
以上就是大文件断点续传如何实现?(大文件断点续传原理)的详细内容,想要了解更多 大文件断点续传如何实现?的内容,请持续关注盛行IT软件开发工作室。
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。