1.下载winutils.exe

GitHub - vhma/winutils: winutils.exe hadoop.dll and hdfs.dll binaries for hadoop windows

2.去集群环境把hadoop/3.2.1-1.2.0/package 下面的文件夹压缩,然后拿出来,解压,并配置好windows 环境变量 或者去网上下相关hadoop环境

3. 解压winutils.master.zip 进入与集群环境一样的版本里面的bin目录,把里面的所有文件都拷贝一份到 第二步解压的bin目录下

4.重启idea,启动spark 程序即可。

Logo

一站式 AI 云服务平台

更多推荐