本文介绍了从Hadoop 3.0和Hive 2.1.1迁移到Hadoop 3.0和Hive 3.1.2的过程。首先通过专线或VPN打通源集群和目标集群的网络,方便数据迁移。迁移HDFS数据建议优先进行,随后再迁移Hive元数据,可在停止写入后进行全量及增量迁移。为了确保数据一致性,可使用HDFS DistCp工具进行分布式复制,并在迁移前后进行快照处理以防止数据冲突。迁移Hive元数据时需导出并修改相关表信息。通过编写Shell脚本可实现对批量表的全量或增量迁移,并记录迁移的成功与失败情况,提升作业效率和自动化程度。测试显示,数据量约7TB时,迁移速度可达450MB/s,耗时约4.5小时。