
Rclone
Rclone syncs your files to cloud storage: Google Drive, S3, Swift, Dropbox, Google Cloud Storage, Azure, Box and many more.
curl https://rclone.org/install.sh | sudo bash |
rclone config |
“config_token”,需要先在本地电脑上下载安装 Rclone 的方式获取
下载rclone
set http_proxy=http://127.0.0.1:7890 |
yum install fuse -y |
挂载google
rclone mount google:/ /google --cache-dir /tmp --allow-non-empty --allow-other --vfs-cache-mode full --vfs-cache-max-size 10G --daemon |
挂载alist
rclone mount alist:/ /alist --cache-dir /tmp --allow-non-empty --allow-other --vfs-cache-mode full --vfs-cache-max-size 10G --daemon |
–cache-dir:缓慢目录
–multi-thread-streams :下载的线程数
–multi-thread-cutoff :当下载文件到本地后端超过这个大小时,rclone会使用多线程下载文件
–network-mode:网络模式
–vfs-cache-mode :缓存模式
–vfs-cache-max-size :缓存大小
–vfs-cache-max-age :缓存最大时间
–vfs-read-chunk-size-limit :关闭块读取大小限制
–buffer-size :缓冲区
–vfs-read-chunk-size : vfs块读取大小
–vfs-read-wait 0ms :块读取等待时间
–vfs-read-chunk-size-limit :块读取大小限制
–daemon:指后台方式运行
#/path/to/local/mount为挂载目录 |
如果提示磁盘繁忙,只能暴力 kill 杀掉进程,命令为:
#kill杀掉进程 |
转存
rclone --header "Referer:" --ignore-existing -u -v -P --transfers=10 --ignore-errors --buffer-size=1000M --check-first --checkers=10 --drive-upload-cutoff 1000T copy alist:阿里云盘/绝命毒师 team:demo |