Pages

Thursday, December 23, 2021

Tanzu, Kubernetes (K8s) - Links self-study

 

vSphere with Tanzu

 

01_VMware Tanzu Editions Comparison | VMware Tanzu

02_ModernApps by VMware Tanzu Home

03_Courses - KubeAcademy

04_Tanzu Labs

05_PathfinderTanzu

06_VMware vSphere with Tanzu | VMware

07_GitHub - ModernAppsNinja/modernappsninja.github.io

08_VMware Tanzu Documentation

09_Tanzu Standard Getting Started Guide | Tanzu Standard Getting Started Guide

10_Certified Kubernetes Administrator Study Guide | Certified Kubernetes Administrator Study Guide

Extra01_Kubernetes Documentation | Kubernetes

11_Prerequisites for Configuring vSphere with Tanzu on a Cluster

12_Tanzu Glossary | Tanzu Glossary

13_GitHub - lamw/VMware.WorkloadManagement: PowerCLI Module for vSphere with Kubernetes

14_vSphere Tanzu with AVI Load Balancer | VMTECHIE

15_VMware vSphere with Tanzu Release Notes

kubectl Cheat Sheet | Kubernetes

GitHub - mreferre/yelb: A sample application

 

 

Free learning + opensource 

Contour

Antrea

Project Calico - Tigera

Velero

Prometheus - Monitoring system & time series database

Grafana: The open observability platform | Grafana Labs

GitHub - vmware-tanzu/octant: Highly extensible platform for developers to better understand the complexity of Kubernetes clusters.

Fluent Bit

Kubernetes - Traefik | Site | v1.7

Production Kubernetes | VMware Tanzu

Service | Kubernetes

Tanzu Community Edition

Learning.Kasten.io - Free Kubernetes Training

Introduction to Kubernetes (LFS158x) - Linux Foundation - Training

Monday, December 20, 2021

VRA 8.6 and vSphere 6.7 U3 SDRS

 

We completed our homework related to SDRS testing with vRA8.Testing was performed on vRA8 DEV env and in our DEV vCenter, we have dedicated storage cluster with 2x5TB LUNs with SDRS set up to full auto. Both advance properties VraInitPlacement and VraExpandDisk are set to 1. Same storage cluster is used for vRA7 deployments where everything works as expected.

 

There are 3 scenarios as we discussed, here are the results:

1)      Standard SDRS placement

More scenarios was tested.

a)       There was only 400GB per LUN free space remaining. Single machine requested with 70GB OS disk and 2x 350GB data.

b)      300GB free space on one LUN, 500GB free space on another. Single machine requested with 70GB OS disk and 2x 350GB data. Some files were moved for LUN with 300GB free space to be able store 350GB drive.

Placement from vCenter(no vRA) directly

Placement from vRA8

Result: Passed. Both worked as expected.

 

2)      Multi deployment

More deployments in single request to verify if the same recommendation is used for both. 2 machines with 70GB OS drive and 350GB data drive. 500GB of free space on both LUNs.

One machine was deployed successfully, second one failed with error: Provisioning operation failed. Error from vCenter: Insufficient disk space on datastore 'LID021_001'.

Result: Failed. Seems that same recommendation was passed to both deployments. Deployments are from single request, but separate in vRA and they were approved almost in the same time.

 

3)      Existing drive extension

Extension of data drive with not enough space for extension on LUN. On both LUNs was 200GB free space. Existing 350GB drive was requested to be extended about 300GB. Expectation was that some files from LUN where data drive is located will be moved to second one.

Result: Failed. No files were moved to have enough space for extension on affected LUN. Action failed with there is not enough space on LUN.

 

Seems vRA8 doesn’t use by default property(VirtualMachine.Admin.Datastore.Cluster.ResourceLeaseDurationSec 3600) necessary to utilize properties set up on vCenter. Is it possible to define it somewhere in blueprint (as on 7) or inject in request?

 

Thursday, December 16, 2021

VMware NSX-T & Cisco ACI - VMware KB 57780

Vyjádření k VMware KB 57780 - https://kb.vmware.com/s/article/57780

Vyjádření k technické integraci

Cisco ACI VMM integrace využívá pro integraci mezi Cisco APIC (ACI management) a NSX -T Managerem (NSX management) veřejné NSX-T API.

Přes to veřejné API Cisco APIC vytváří NSX-T segmenty (L2 segmenty), které jsou backované VLANama  (Cisco VLANám říká EPG – Endpoint Groups), které jsou routované fyzickými prvky ACI.

Takováto síťová architektura může naprosto bez problému koexistovat s NSX-T segment, kter0 jsou backované 

Vyjádření k VMware supportu

Komentáře k jednotlivým odstavcům z KB článku.

VMware supports vSphere, NSX-T, and all features available through public APIs.“

Z tohoto pohledu je výše uvedená integrace podporována. 

“Any API level integration implemented by a third-party vendor/editor outside of a certified partner program is a customer’s responsibility and is not supported by VMware.

Z tohoto pohledu je zodpovědnost za výše uvedenou integraci na zákazníkovi, případně jeho dodavateli automatizace využívající veřejné VMware API. V tomto případě Cisco, které se tomu vůbec nevyhýbá, ba naopak. Viz. https://www.youtube.com/watch?v=6brL3taS6V8&t=224s a komentáře pod školícím modulem.

Jinak K VMware API lze dokoupit speciální support (https://www.vmware.com/cz/support/services/sdk.html), ale to je v tomto případě zbytečné, jelikož takovou podpouru zajišťuje Cisco. Zákaznící si takový support add-on kupují v případě, že si nějakou integraci vyvíjí sami.

Cisco ACI VMM and related ACI integrations leverage the vSphere and NSX-T APIs but developed outside of any formal partner program and not supported by VMware.”

Znovu je tu řečeno, že ACI VMM integrace používá veřejné VMware API, ke kterému reálně ani neexistuje žádný formální certifikační program, takže to VMware Support ani nemůže supportovat.

For Support Requests directly related to the ACI VMM and related ACI integrations with NSX-T components and how it interacts with vSphere and NSX-T, VMware will request removal of the Cisco VMM component for troubleshooting purposes as per support policy https://www.vmware.com/support/policies/thirdparty.html.

  • If the issue is reproducible without the Cisco VMM component, VMware will support and investigate as normal.
  • If the issue is not reproducible after removing the ACI VMM component, VMware will not investigate further.

Když by zákazník měl otevřený supportní případ, kde by mohla být nějaká souvislost s ACI VMM integrací, tak support může požádat o odinstalování integrace z důvodu troubleshootingu. To by v tomto případě vůbec ničemu nevadilo, protože Cisco ACI VMM pouze automatizuje vytváření NSX-T segmentů, které by tam zůstaly a vše co na nich běží by fungovalo. Cisco ACI VMM Integrace pouze zjednodušuje (automatizuje) přidávání NSX-T segmentů a ACI VLAN (EPG), což by během troubleshootingu nebylo možné, ale to není nic kritického.

 

Závěr

Obě řešení

(1) VMware NSX-T software-defined routing i

(2) Cisco ACI VMM hardware routing

jsou validní a supportovaná řešení.

Řešení (1) je plně supportováno VMwarem bez třetích stran.

Řešení (2) je supportováno společnostmi VMware a Cisco, takže v případě potřeby je potřeba mít otevřeny supportní případy u obou vendorů.

VMware si myslí, že v dnešní době je software-defined network routing výhodnější pro většinu případů použití v rámci moderních data center.

Cisco si myslí, že hardware routing je výhodnější pro většinu případů použití v rámci data center.

Obě řešení mohou co-existovat na jedné infrastructure a mohou být zvolena dle konkrétních potřeb zákazníka.

Pouze praxe dokáže pravdivost výše uvedených tvrzení.

Je to velmi podobná diskuse, jestli určité aplikace je nebo není možné provozovat ve virtualizovaných serverech.

Zákazník vlastnící technologie NSX-T a Cisco ACI se může kdykoliv rozhodnout jaký způsob routingu zvolí a nijak ho to nelimituje.

Public Cloud Pre-Sales Experts

AWS -  Vladimir Simek
Azure - Tomáš Kubica
GCP - Marek Brazina