sitecore内容管理解决方案 HDFS的HA中,在Zookeeper上存放了什么呢,如何查看?

[更新]
·
·
分类:互联网
1539 阅读

sitecore内容管理解决方案

HDFS的HA中,在Zookeeper上存放了什么呢,如何查看?

HDFS的HA中,在Zookeeper上存放了什么呢,如何查看?

hdfs高可用集群上的zookeeper集群主要是用于ZKFC故障转移,当Active NameNode挂掉了,会自动切换Standby Namenode的状态 ,查看zookeeper节点信息的时候在终端输入进入之后就可以查看了,默认是在/hadoop-ha节点下面,具体需要查看你配置在哪个节点下面了,可以查看core-site.xml配置文件中的配置选项,存放了两个节点信息,一个是ActiveBreadCrumb还有一个是ActiveStandbyElectorLock。

hadoop启动hdfs失败是什么原因?

启动失败原因很多,最常见的是:
1、Hadoop权限访问权限问题2、Host文件配置错误问题的,节点之间网络不通3、ssh无密码登录配置错误4、hadoop未格式化hdfs文件系统5、配置文件hdfs-site.xml core-site.xml mared-site.xml yarn-site.xml配置错误,到网上找个免费的安装文档逐个检查一下

电脑配置太低,无法运行编程语言的开发环境,该怎么办?

当然从这个报错的问题来看,你这个不属于电脑配置的问题,属于Tensorflow的依赖没弄好,建议Visual C Redistributate 2015 x64再安装一下,或者重新用pip安装一下,具体过程大家可以去Google搜索一下。
但是今天我先说一下另外的,关于深度学习对于电脑配置到底有什么要求。
当然其实大部分学习需求来说,普通电脑都是可以的,但是建议至少显卡不要那么差,CPU也不要那么差,配置至少是中庸才可以,普通学习需求并不大,所以我觉得还是可以的。
但是要做大规模的研究,可能一般的高校、企业都没有这样的条件,如果想要进行更深的学习,可能要到科技公司的研究院比如Google、Microsoft、百度这样公司的深度学习研究院或者顶级计算机名校比如Stanford、CMU的人工智能实验室才有这样的条件让你去做这样的实验,毕竟研究型、工业级的都对电脑配置要求极高,一般没这样的条件。
当然普通学习,对配置要求也还是蛮高的,并且搞深度学习GPU编程比较多,CPU编程效果没那么好,而且A卡基本上目前是可以放弃,目前N卡比较靠谱,所以其实MacBook体验不太好。不缺钱的话Core i9的CPU,32G的内存,搞个双通道的GTX1080也是很强的,哈哈,开玩笑的。
其实普通学习要求没这么高,所以不用在意,未来人工智能是行业一个大趋势,研究一下蛮好。