国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

大數據開發系列五:kafka& zookeeper 配置kerberos認證

不知名網友 / 5532人閱讀
大數據開發系列五:kafka& zookeeper 配置kerberos認證
點擊上方“IT那活兒”公眾號,關注后了解更多內容,不管IT什么活兒,干就完了!!!
今天我們繼續實踐在已安裝的kerberos服務基礎上對kafka與zookeeper  組件進行kerberos認證配置。

環境依賴


zookeeper認證配置

2.1 創建principle添加用戶
kadmin.local -q "addprinc -randkey zookeeper/bigdata-05@HADOOP.COM"
kadmin.local -q "addprinc -randkey zookeeper/bigdata-01@HADOOP.COM"
kadmin.local -q "addprinc -randkey zookeeper/data01@HADOOP.COM"
kadmin.local -q "listprincs"  驗證添加用戶信息
2.2 創建keytab密碼文件
kadmin.local -q "xst -k /root/keytabs/kerberos/zookeeper.keytab zookeeper/bigdata-05@HADOOP.COM"
kadmin.local -q "xst -k /root/keytabs/kerberos/zookeeper.keytab zookeeper/bigdata-01@HADOOP.COM"
kadmin.local -q "xst -k /root/keytabs/kerberos/zookeeper.keytab zookeeper/data01@HADOOP.COM"
驗證密鑰文件:
klist -kt /root/keytabs/kerberos/zookeeper.keytab
將生成的zookeeper.keytab 復制到三臺zk主機器/etc/security/keytabs/ 目錄下,同時將/etc/krb5.conf 也復制到三臺zk主機器/etc/目錄下。
2.3 配置zookeeper.conf
在所有zk主機器上 /etc/security/keytabs/目錄下新建zookeeper.jaas 內容如下:
Server{
com.sun.security.auth.module.Krb5LoginModule required
useKeyTab=true
storeKey=true
keyTab="/etc/security/keytabs/zookeeper.keytab"
principal="zookeeper/bigdata-05@HADOOP.COM"
userTicketCache=false;
};
Client{
com.sun.security.auth.module.Krb5LoginModule required
useKeyTab=true
storeKey=true
keyTab="/etc/security/keytabs/zookeeper.keytab"
principal="zookeeper/bigdata-05@HADOOP.COM"
userTicketCache=false;
};
紅色內容需按zk所在主機名稱進行修改。
2.4 zoo.cfg 配置修改
etc/zoo.cfg 新增內容:
authProvider.1=org.apache.zookeeper.server.auth.SASLAuthenticationProvider
requireClientAuthScheme=sasl
jaasLoginRenew=3600000
2.5 配置環境變量java.env
etc/java.env
export JVMFLAGS="-Djava.security.auth.login.config=/etc/security/keytabs/zooke
eper.jaas -Djava.security.krb5.conf=/etc/krb5.conf"
2.6 啟動zookeeper
bin/zkServer.sh start
檢查日志信息。
2.7 驗證認證情況
找一個zk節點利用zk客戶端進行操作,./zkCli.sh -server 192.168.199.244:2183 ,當出現如下信息的時,說明客戶端認證成功


kafka認證配置

3.1 創建principle添加用戶
kadmin.local -q "addprinc -randkey kafka/bigdata-03@HADOOP.COM"
kadmin.local -q "addprinc -randkey kafka/bigdata-05@HADOOP.COM"
kadmin.local -q "listprincs"  驗證添加用戶信息
3.2 創建keytab密碼文件
kadmin.local -q "xst -k /root/keytabs/kerberos/kafka.keytab kafka/bigdata-03@HADOOP.COM"
kadmin.local -q "xst -k /root/keytabs/kerberos/kafka.keytab kafka/bigdata-05@HADOOP.COM"
驗證密鑰文件:
klist -kt /root/keytabs/kerberos/kafka.keytab
將生成的kafka.keytab 復制到兩臺zk主機器/etc/security/keytabs/ 目錄下,同時將/etc/krb5.conf 也復制到兩臺kafka主機器/etc/目錄下。
3.3 配置kafka.jaas
在所有kafka主機器上 /etc/security/keytabs/目錄下新建kafka.jaas 內容如下:
KafkaServer{
com.sun.security.auth.module.Krb5LoginModule required
useKeyTab=true
storeKey=true
serviceName="kafka"
keyTab="/etc/security/keytabs/kafka.keytab"
principal="kafka/bigdata-03@HADOOP.COM";
};
紅色內容需按kafka所在主機名稱進行修改。
3.4 配置kafka.jaas
在所有kafka主機器上 /etc/security/keytabs/目錄下新建kafka.jaas 內容如下:
KafkaServer{
com.sun.security.auth.module.Krb5LoginModule required
useKeyTab=true
storeKey=true
serviceName="kafka"
keyTab="/etc/security/keytabs/kafka.keytab"
principal="kafka/bigdata-03@HADOOP.COM";
};
紅色內容需按kafka所在主機名稱進行修改。
3.5 修改kafka server.properties
新增或者修改:
listeners=SASL_PLAINTEXT://192.168.199.102:9098
advertised.listeners=SASL_PLAINTEXT://192.168.199.102:9098

security.inter.broker.protocol=SASL_PLAINTEXT
sasl.mechanism.inter.broker.protocol=GSSAPI
sasl.enabled.mechanisms=GSSAPI
sasl.kerberos.service.name=kafka //需要跟principal的名稱相同
3.6 修改kafka kafka-server-start.sh
在腳本倒數第二行新增:
export KAFKA_OPTS="-Dzookeeper.sasl.client=true -
Dzookeeper.sasl.client.username=zookeeper -
Djava.security.krb5.conf=/etc/krb5.conf -
Djava.security.auth.login.
config=/etc/security/keytabs/kafka.jaas"
zookeeper 開啟 Kerberos 認證,需要將zookeeper.sasl.client 設為 true,并配置訪問zk 用戶憑證信息。
3.7 驗證認證情況
kafka 加入認證后,利用kafka 命令查看所有的topic名稱列。
1)在所有kafka主機器上 /etc/security/keytabs/目錄下新建kafka-client-jaas.conf 和kafka_client.properties  
內容如下:
kafka-client-jaas.conf:
KafkaClient {
com.sun.security.auth.module.Krb5LoginModule required
useKeyTab=true
keyTab="/etc/security/keytabs/kafka.keytab"
storeKey=true
useTicketCache=false
principal="kafka/bigdata-03@HADOOP.COM";
};
kafka_client.properties:
security.protocol=SASL_PLAINTEXT
sasl.mechanism=GSSAPI
sasl.kerberos.service.name=kafka //需要跟principal的名稱相同
2)在 kafka-topics.sh 倒數第行新增認證配置項
export KAFKA_OPTS="-Djava.security.krb5.conf=/etc/krb5.conf -
Djava.security.auth.login.config=/etc/security/keytabs/kafka-client-jaas.conf"
3)查看所有的topic列表名稱
./kafka-topics.sh --list --bootstrap-server 192.168.199.102:9098 --command-config 
/etc/security/keytabs/kafka_client.properties
需要加入command-config 參數才能果出所有topic 列表,同時觀察server.log 日志信息。


本文作者:長研架構小組(上海新炬中北團隊)

本文來源:“IT那活兒”公眾號

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/129095.html

相關文章

  • 《從0到1學習Flink》—— Flink 配置文件詳解

    摘要:相關文章從到學習介紹從到學習上搭建環境并構建運行簡單程序入門從到學習配置文件詳解從到學習介紹從到學習如何自定義從到學習介紹從到學習如何自定義 showImg(https://segmentfault.com/img/remote/1460000016930071?w=1920&h=1275); 前面文章我們已經知道 Flink 是什么東西了,安裝好 Flink 后,我們再來看下安裝路徑...

    superw 評論0 收藏0

發表評論

0條評論

不知名網友

|高級講師

TA的文章

閱讀更多
最新活動
閱讀需要支付1元查看
<