蓝易云 - 共享盘迁移记录robocopy常用参数mklink

简介: 在进行共享盘迁移时,可以使用 `robocopy`进行高效的文件复制,并通过 `mklink`创建指向新位置的链接,以保持原有的访问路径不变。

在Windows系统中,robocopymklink是两个常用的命令行工具,用于文件的复制和链接创建。

  1. Robocopy:Robocopy(Robust File Copy)是一个在命令行下使用的文件复制工具,它比普通的复制命令更强大,具有更多的选项和特性。以下是一些常用参数:

    • /S:复制目录,包括非空的子目录。
    • /E:复制目录,包括空的子目录。
    • /COPYALL:复制所有文件数据,包括所有属性信息。
    • /R:3:如果复制失败,重试3次(可以自定义次数)。
    • /W:3:每次重试之间等待3秒(可以自定义时间)。
    • /LOG:file:将日志输出到指定文件。

    例如,以下命令将复制所有文件和子目录(包括空的)从源目录到目标目录,并记录操作日志:

    robocopy C:\source D:\destination /E /R:3 /W:3 /LOG:C:\log.txt
    
  2. Mklink:Mklink是一个创建链接的命令行工具。以下是一些常用参数:

    • /D:创建目录符号链接,默认为文件符号链接。
    • /H:创建硬链接而不是符号链接。
    • /J:创建目录联接。

    例如,以下命令创建一个指向目标目录的符号链接:

    mklink /D C:\link D:\target
    

在进行共享盘迁移时,可以使用 robocopy进行高效的文件复制,并通过 mklink创建指向新位置的链接,以保持原有的访问路径不变。

目录
相关文章
|
存储 机器学习/深度学习 人工智能
AI仓库管理
AI仓库管理运用人工智能优化存储、订单处理、路径规划和库存管理,提高效率、准确性,降低成本。包括智能存储推荐、订单分配、拣选路径规划、图像识别、自然语言处理、预测分析、自动化操作和实时库存跟踪。此外,集成物联网、无人机、机器人和区块链技术,提升效率和安全性。AI仓库管理为商家带来智能化决策支持和自动化解决方案。
1301 1
|
6月前
|
Linux 虚拟化 iOS开发
macOS Tahoe 26 beta (25A5279m) Boot ISO 原版可引导镜像下载
macOS Tahoe 26 beta (25A5279m) Boot ISO 原版可引导镜像下载
1147 8
macOS Tahoe 26 beta (25A5279m) Boot ISO 原版可引导镜像下载
|
存储 UED Windows
Windows服务器上大量文件迁移方案
Windows服务器上大量文件迁移方案
1049 1
|
Go
Golang注释与godoc详解
这篇文章详细介绍了Go语言中注释的格式、位置以及如何使用godoc工具生成和查看项目代码的注释文档。
431 4
Golang注释与godoc详解
|
中间件 Shell PHP
|
前端开发 JavaScript 数据管理
React Formik入门:简化表单处理的神器——全面掌握Formik在React表单开发中的高效应用与实战技巧
【8月更文挑战第31天】在React应用中,表单处理常常因繁琐而令人头疼。Formik作为一个开源库,专为简化React表单设计,减少冗余代码并提升处理效率。本文介绍Formik的使用方法及其优势,通过示例展示如何安装配置并创建基本表单,帮助开发者轻松应对各种表单需求。
327 0
|
SQL Oracle 关系型数据库
SqlAlchemy 2.0 中文文档(五十八)(4)
SqlAlchemy 2.0 中文文档(五十八)
163 0
|
tengine 自然语言处理 Kubernetes
Nacos2.0的K8s服务发现生态应用及规划
Nacos 是阿里巴巴于 2018 年开源的注册中心及配置中心产品,帮助用户的分布式微服务应用进行服务发现和配置管理功能。随着 Nacos2.0 版本的发布,在性能和扩展性上取得较大突破后,社区开始考虑如何提供更加云原生方向的功能和用法。本次分享主要介绍 Nacos 在 2.0 版本在Kubernetes 环境下对服务发现生态的应用探索成果及后续探索方向的规划。
Nacos2.0的K8s服务发现生态应用及规划
|
Oracle 关系型数据库 大数据
|
数据采集 自然语言处理
【预训练语言模型】RoBERTa: A Robustly Optimized BERT Pretraining Approach
【预训练语言模型】RoBERTa: A Robustly Optimized BERT Pretraining Approach
1268 0
【预训练语言模型】RoBERTa: A Robustly Optimized BERT Pretraining Approach