fs.defaultFS变更使spark-sql查询hive失败是怎么回事
发表于:2025-12-02 作者:千家信息网编辑
千家信息网最后更新 2025年12月02日,这篇文章将为大家详细讲解有关fs.defaultFS变更使spark-sql查询hive失败是怎么回事,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。我们在将hdfs
千家信息网最后更新 2025年12月02日fs.defaultFS变更使spark-sql查询hive失败是怎么回事
我们在将hdfs换成⾼可⽤后,我们的namede地址发⽣变更,也就是我们的fs.defaultFS发⽣变更后, 需要注意:这些修改会影响到我们的hive的正常运⾏,因为我们hive在建表的时候,其实已经改变了该表 的数据存放路径。会导致我们在提交spark脚本【执⾏spark-sql】的脚本,报错。如下图所示:⼀直显 示,读取⽼的hdfs的namenode路径。
这⾥,我们可以访问我们的hive元数据表 SDS,如下图所示:发现还是以未升级前的namenode地 址,也就是master:9000。
因此,我们需要修改这些存储信息,有两种⽅式: 在装有hive的节点执⾏命令 查询元数据信息是否发⽣更改
此时,hive的元数据信息已经发生变更,可以正常使用
这篇文章将为大家详细讲解有关fs.defaultFS变更使spark-sql查询hive失败是怎么回事,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。
直接修改表的信息 利⽤hive⾃带的⼯具
metatool -updateLocation
metatool -updateLocation hdfs://bi hdfs://master:9000/
metatool -listFSRoot
关于"fs.defaultFS变更使spark-sql查询hive失败是怎么回事"这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。
信息
数据
查询
篇文章
回事
也就是
更多
脚本
路径
不错
实用
内容
命令
地址
数据表
文章
时候
知识
节点
还是
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
asp 服务器文件 保存
it软件开发培训哪家强
网络安全服务项目报价
怎么在电视上安装服务器
软件开发的6个流程
查询公积金用数据库吗
宿州电信网络安全
王思聪的服务器能干嘛
网络安全工程师 教程
逆向思维软件开发
软件开发的员工守则
qt软件开发前景
湖南软件开发价格监测中心
数据库中如何修改字号
如何删除ktv服务器的歌曲
软件开发人员技术技能培训计划
服务器托管情况
计算机0基础软件开发
软件开发技术文档转ppt
迎七一网络安全
道路交通及网络安全心得体会
河南网络安全知识答题有什么要求
医院网络安全宣传活动小结
达思数据库修复软件
新中国邮票数据库
ORACLE数据库同步
2019年全栈网络安全专家
oracle创建数据库
马云会软件开发吗
公安部关于网络安全防控的意见