IBM Cloud Private : déployer Kubernetes dans un Cloud privé et porter le datacenter au plus près des technologies dites Cloud Natives ...

IBM Cloud Private : déployer Kubernetes dans un Cloud privé et porter le datacenter au plus près des technologies dites Cloud Natives ...

Karim

IBM a transformé son produit anciennement nommé IBM Spectrum Conductor for Containers Community Edition en IBM Cloud Private intégrant Kubernetes ( gratuitement dans cette version communautaire et bien entendu Open Source).


Et en ayant la possibilité de le coupler avec Cloud Foundry le cas échéant :

Je réalise un petit autour d'IBM Cloud Private en partant d'un serveur physique chez Scaleway :



J'ajoute un second disque physique de 100 Go en plus du disque principal à 50 Go pour respecter les minimas en terme d'exigences techniques liés au déploiement ici en mode minimaliste d'IBM Cloud Private :


Je lance un container Docker conteant une série de playbooks Ansible et qui va me servir ici de déployeur :


Une fois l'exécution des playbooks terminés je reçois un lien d'accès à la console d'IBM Cloud Private :


avec les principales métriques de santé de la plateforme :

et des sous menus graphiques pour faciliter la prise en main de Kubernetes (la plupart du temps contrôlable par les lignes de commande) :


avec un marketplace peuplé via Helm (et que l'on retrouvait déjà via Bitnami dans kubeapps.com) :


le software defined networking pour les containers via Calico (initialement de Cisco) :



mais encore une fois accessible via les outils en ligne de commande :


J'ai la possibilité comme auparavant de monitorer la plateforme via Weave :

et je lance un rapide test de CI/CD avec Jenkins dans IBM Cloud Private :



Je peux également lancer un cluster avec plusieurs noeuds ici en utilisant les machines d'Outscale :



Idem via les playbooks Ansible embarqué dans ce container de déploiement :


et j'accède alors à la dernière version 2.1.0 d'IBM Cloud Private :



et les CLI toujours disponibles :


et plusieurs repositories de Charts Helm que l'on peut rajouter pour alimenter son marketplace :


Je termine en corrolaire par l'Azure Distributed Data Engineering Toolkit (AZTK) qui sont des outils python pour le provisioning à la demande de clusters Spark sur les clusters Docker dans Azure. Rapide test :

lancement en ligne de commande via Python :

Je lance ce cluster Spark sur la base de VM équivalentes aux Spots Instances dans AWS ou aux Premeptibles VMs dans Google Cloud, c'est à dire des VMs éphémères (autrement à moindre coût comparées aux VMs classiques) :



on retrouve Microsoft Azure Batch en arrière fond couplé à Azure Storage :

avec le dashboard du Spark Master :


et sa suppression après lancement de ses batchs est tout aussi simple :


A suivre ! ...

Report Page