GCDW新版本支持hdfs作为存储,本文介绍GCDW物理机版本配置hdfs的方法,包括hadoop的simple和kerberos认证模式。
目录导航
参考
主机名DNS配置
/etc/hosts
将hadoop的namenode节点IP和主机名,写入hosts文件里,用于DNS解析。
10.0.2.141 hadoop141
hadoop简单认证方式的参数
hadoop简单方式是任何机器都可以访问hadoop, 在安装GCDW 物理机版本时,需要提供的参数较少
demo.options
GCDW_STORAGE_STYLE = hdfs
GCDW_HDFS_NAMENODES=10.0.2.141:9870
GCDW_HDFS_URI=hdp://hdfs@10.0.2.141:9870/
GCDW_STORAGE_STYLE
存储类型,目前支持s3和hdfs两种类型。本文使用hdfs
GCDW_HDFS_NAMENODES
namenode节点的地址和端口,逗号分隔。比如
10.0.2.141:9870,10.0.2.142:9870
GCDW_HDFS_URI
访问URI,格式为
hdp://用户@地址:端口/【路径/】
路径可选,是一个提前建好的目录。不指定的话放在hdfs的根上。
Kerberos认证方式的配置参数
比简单模式,多了几个参数
GCDW_STORAGE_STYLE = hdfs
GCDW_HDFS_NAMENODES=10.0.2.141:9870
GCDW_HDFS_URI=hdp://hdfs@10.0.2.141:9870/
GCDW_HDFS_AUTH_MODE=kerberos
GCDW_HDFS_PRINCIPAL=hdfs/hadoop141@GCDW
GCDW_HDFS_KEYTAB=ftp://hdfs:hdfs@10.0.2.141//opt/keytab/hdfs.keytab
GCDW_HDFS_KERBEROS_CONFIG=ftp://hdfs:hdfs@10.0.2.141//etc/krb5.conf
GCDW_HDFS_AUTH_MODE
默认不填写是简单认证模式,本处改成kerberos
GCDW_HDFS_PRINCIPAL
使用的kerberos的用户
GCDW_HDFS_KEYTAB
包含kerberos用户和密码的凭据文件,可以从远端ftp下载,也可以指定本地文件,比如/opt/hdfs.keytab
GCDW_HDFS_KERBEROS_CONFIG
kerberos的配置文件,是从KDC机器上复制过来的,必须保持一致。 可以用ftp下载,也可以用本地,比如/etc/krb5.conf
安装过程
与GBase 8a MPP集群安装方式一样
[gbase@localhost gcinstall]$ ./gcinstall.py --silent=demo.options
*********************************************************************************
Thank you for choosing GBase product!
。。。
10.0.2.148 install gcware and cluster on host 10.0.2.148 successfully.
adding user and nodes message to foundationdb
adding user and nodes message to foundationdb successfully
Starting all gcluster nodes ...
adding new datanodes to gcware ...
[gbase@localhost gcinstall]$
其中adding user部分检查hdfs的连通性,然后将租户信息写入foundataiondb。
后续操作和S3存储的一样
创建warehouse, 用指定的租户(instance)用户和密码登录,设置用户的默认warehouse等,就不重复了。