openshift_OpenShift Origin中的Kubernetes Spark运算符(第1部分)
openshift
本系列有關Radanalytics.io的Kubernetes Spark運算符
OpenShift起源 。 它是一個開源的運營商來管理
Apache Spark集群和應用程序。 為了在OpenShift Origin上部署操作員,第一次需要為其克隆GitHub存儲庫:
然后使用OpenShift命令行登錄到集群
oc :
假設像我和我的團隊以前在OpenShift Origin環境中一樣,開發人員沒有創建CRD的權限,則需要使用Config Maps,因此必須使用
克隆存儲庫中提供的operator-com.yaml文件:
上面命令的輸出應類似于以下內容:
role.rbac.authorization.k8s.io/edit-resources created
rolebinding.rbac.authorization.k8s.io/spark-operator-edit-resources created
成功創建操作員后,您可以嘗試創建第一個集群。 選擇您要使用的特定項目:
oc project <project_name>然后使用克隆存儲庫中可用的ConfigMap的示例文件創建一個小型Spark集群(1個主服務器和2個工作器):
oc apply -f examples/cluster-cm.yaml這是該文件的內容:
apiVersion: v1 kind: ConfigMap metadata:name: my-spark-clusterlabels:radanalytics.io/kind: SparkCluster data:config: |-worker:instances: "2"master:instances: "1"上面命令的輸出是:
configmap/my-spark-cluster created成功創建集群后,查看OpenShift Web UI,情況應為:
要訪問Spark Web UI,您需要為其創建路由。 可以通過OpenShift Origin UI來執行此操作,方法是選擇Spark服務,然后單擊
路線鏈接。 一旦創建了路由,就可以從OpenShift外部訪問主服務器和工作服務器的Spark Web UI。
現在,您可以使用Spark集群。 您可以通過進入主Pod控制臺,在此處啟動Scala Spark shell并執行一些代碼來開始對其進行測試:
在本系列的第二部分中,我們將在轉到Spark應用程序管理之前探索Spark運算符的實現和配置詳細信息。
翻譯自: https://www.javacodegeeks.com/2019/05/kubernetes-spark-operator-openshift-origin.html
openshift
總結
以上是生活随笔為你收集整理的openshift_OpenShift Origin中的Kubernetes Spark运算符(第1部分)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 澳门ctm上网设置(澳门ctm卡内地无法
- 下一篇: jmeter负载测试测试_使用Apach