Pages

Wednesday, December 9, 2020

Requesting Engineering RPQ for all our products

Team,

As I promised today, below you can find all information how to file extend supportability for products features/limitations etc.

 

We as a TAM, have new dedicated form: https://onevmw.sharepoint.com/sites/EngineeringRPQ/RPQs/, then we should use “Submit new RPQ link and answer on questions from the form. Then the RPQ request will be assigned to the respective BU PM.

Also on the same page you can track progress, be in contact with particular PM.

 

Proces flow we can se hre: https://onevmw.sharepoint.com/sites/EngineeringRPQ/RPQs/Shared%20Documents/Forms/AllItems.aspx?id=%2Fsites%2FEngineeringRPQ%2FRPQs%2FShared%20Documents%2FRPQ%20Process%20Flow%20v4%5Fnew%2Epdf&parent=%2Fsites%2FEngineeringRPQ%2FRPQs%2FShared%20Documents

 

Here are the guys who is managing the site:

Kutbuddin Abbas Kothari (c) <kkothari@vmware.com>

Shaik Sarvar Basha (c) <ssarvarbasha@vmware.com>

 

PM Managers of RPQs from area of:

vSphere is Ajith Urva aurva@vmware.com

NSX-T is Andrew Voltmer avoltmer@vmware.com

 

Enjoy!


Pozdrawiam/Regards

 

Przemysław Tomaszewski

Senior Technical Account Manager

ptomaszewski@vmware.com

Inflancka 4, Building B, 1st. floor

00-189 Warsaw, Poland

+48 668 819 728 Mobile

How to get the storage Array and Vendor Model Type for a datastore (NNA idetifier)

Source: https://communities.vmware.com/t5/VMware-PowerCLI-Discussions/How-to-get-the-storage-Array-and-Vendor-Model-Type-for-a/m-p/1405958

I am trying to build a script to run for each cluster in our environment and there is a challenge in it that we run multiple different types of storage in our environment . we have an EMC FC Array VNX 5000 and an EMC VMAX and an ISCSI storage from another vendor .

IS there a way to run a powercli script to publish a report that can identify what is the type and version of storage array it is from ?.

Below is the good description of the naa id naming convention that i managed to get from google and some of my own research  .

The naa identifier comes in the form of naa.aaaaaaaabbbbbbbbbbbbccdddddddddd .Below is some information that i have gathered for the following parts and not sure about C in it .

The breakdown is as follows:

  • aaaaaaaa is an 8 digit vendor identifier, and I’ve listed the vendors we use below, as well as others I’ve been able to find online:
    • 60060480 <— EMC
    • 60000970 <- EMC VMAX
    • 600508b1 < Hp local storage
    • 60060e80 <— HDS
    • 60a98000 <— NetApp
    • 514f0c59 - Xtreme I/O EMC
    • 60060160 <— DGC (Clarrion or VNX storage array )
    • 6090a038 <— EQL
  • bbbbbbbbbbbb is a 12 digit serial # of the device providing the storage.  This may differ from device to device, but matches up perfectly to the id’s from our Symm.  Our mileage may vary, but it’s held up so far.
  • cc is a 2 digit code for something not sure what it is .
  • dddddddddd is a 10 digit LUN identifier.  This differed based on the device on how the device ID is actually represented.
    • HDS – was the most straightforward.  It represented in the naa id, the actual device ID being used on the array side.
    • EMC – was very confusing.  You will have to take the 10 digits in pairs, that will give you the ASCII code in hex, for the pair, which after being concatenated give  you the device id.  Very straightforward, I know.  Here’s an example:
      • 60060480bbbbbbbbbbbb533031464446
      • 60060480 makes this EMC
      • bbbbbbbbbbbb serial number which I’ll keep to myself.
      • 53 which will drive me crazy
      • 3031464446 –> which will break down to 30  31  46  44  46 –> which gives us a device id of 01FDF
        • 30 –> converted to decimal from hex= 48 –> which in ASCII = 0
        • 31 –> converted to decimal from hex= 49 –> which in ASCII = 1
        • 46 –> converted to decimal from hex= 70 –> which in ASCII = F
        • 44 –> converted to decimal from hex= 68 –> which in ASCII = D
        • 46 –> converted to decimal from hex= 70 –> which in ASCII = F


We can get the naa id for all the luns that we have presented to our hosts but not sure how can i publish the report in the below coloumn format  .


Cluster name | esx host | datstore name | used capacity | total capacity | Storage type |


under storage type i want to publish if its a vmax or vnx or extreme I/O in the  below screenshot i can only get the vendor type .

Saturday, November 28, 2020

Vtip - internet versus elektrika

Povídají si Google, Facebook, Wikipedie, internet a elektřina.

Google říká: "Já všechny najdu!!!"

Facebook: "Já všechny znám!!!"

Wikipedie: "Já všechno vím!!!"

Internet: "Kdyby nebylo mě, tak tu nejste!!!"

Elektřina: "Tak se všichni uklidníme..." 

Monday, November 16, 2020

IOVP Program in VMware

I/O Vendor Program (IOVP) program allow I/O device vendor to collaborate with VMware to release the new driver for device aka VIB file. Most of the driver will be tested out by VMware and partner in the cyclic manner before releasing to public.

Read  https://deepakkanda.wordpress.com/2016/11/15/iovp-program-in-vmware/ for further details about the process.

Thursday, October 15, 2020

QLogic Adapter FCoE Performance Tunning

https://www.manualslib.com/manual/512667/Qlogic-8100-Series.html?page=276

Operation Mode (ZIO)

The Operation Mode (ZIO) parameter specifies the reduced interrupt operation modes. ZIO modes allow the posting of multiple command completions in a single interrupt. Values below describe the Operation Mode parameter values in detail.

0 - Disables ZIO mode.

5 - Enables ZIO mode 5. DMA transfers response queue entries into the response queue. No interrupt is generated unless the Interrupt Delay Timer updates the Response Queue-Out Pointer register.

6 - Enables ZIO mode 6. DMA transfers response queue entries into the response queue and generates an interrupt when the firmware has no active exchanges (even if the interrupt delay timer has not expired).



Saturday, October 10, 2020

Tuesday, September 15, 2020

Wednesday, June 17, 2020

Latency Sensitivity Setting

Virtualizing NFV is always a fun challenge, especially the data-plane telco workloads. It helped me back in my Vodafone Netherlands days, to have a thorough understanding of what the applications really require when talking ‘latency sensitivity’. For example, an EPC node would require CPU pinning for the vCPU’s that are dedicated for DPDK packet processing. Control-plane workloads are typically not relying on latency that much, but for logging purposes are more interested in storage I/O.

The host resources deep dive book goes into details on various constructs within the ESXi networking stack that could introduce, or lower, latency. Stuff like Interrupt Coalescing. Also, preferHT settings helped me to virtualize telco apps and keep them within NUMA nodes. Etc. Etc.

In vSphere 7, we also introduced something called Selective CPU Latency Sensitivity. This allows you to pin certain vCPU’s to a CPU core within a VM, and not all vCPU’s like with the ‘normal’ Latency Sensitive setting. This feature is only exposed as a VMODL API call which is being used by vCloud Director to expose it to telco customers. We have a backlog item to add this to the vCenter UI along with documentation. That’s why you won’t see it mentioned in any of the public materials.

I’m not sure if the performance team, or Telco NFV team, is looking into updating the whitepaper about latency sensitive applications. Maybe @Mark Achtemichuk can provide more details on that?

Niels Hagoort <nhagoort@vmware.com>

================================================

The most important piece to this is ensuring there is enough compute cycles, without contention, for vSphere network worlds.

VS7 would be the preferred platform due to various enhancements.

I have a whitepaper here I helped with for Media & Entertainment but it’s about network tuning and low latency really when using vmxnet3:
https://www.vmware.com/techpapers/2018/media-workloads-on-vsphere67-perf.html

More NFV here:
https://docs.vmware.com/en/VMware-vCloud-NFV/2.0/vmware-tuning-vcloud-nfv-for-data-plane-intensive-workloads.pdf
https://docs.vmware.com/en/VMware-vCloud-NFV-OpenStack-Edition/3.3/vmwa-vcloud-nfv-performance-tuning-guide/GUID-2B34AD95-F8F9-4837-9521-D426E2E01B9F.html

Depending on the workload they might need/consider N-VDS:
https://blogs.vmware.com/networkvirtualization/2018/10/accelerated-data-plane-performance-using-enhanced-data-path-in-numa-architecture.html/

Mark Achtemichuk <machtemichuk@vmware.com>

==================================================

Monday, May 11, 2020

Sunday, May 10, 2020

PowerCLI - get moref

Connect-VIServer

Get-VM -name test-mo-02 | ft -Property Name,ID -AutoSize

Monday, April 27, 2020

vSAN Experience Day Q&A

Q1: Dlouhodobý provoz - jak se řeší upgrade ESXi/vsan ?
A1:

Krátká odpověď:

Update/upgrade se řeší standardně jako upgrade ESXi, takže většinou pomocí VMware Update Manageru.
vSphere a vSAN jsou svázané v rámci jednoho ESXi image.

Dlouhá odpověď:

Jednoduchý management včetně dlouhodobého provozu (tzv. Day2 operací) je oblast na kterou se VMware hodně zaměřuje. vSAN je velmi jednoduchá platforma na používání a navíc velmi robustní a výkoný storage system. To, na čem je ale každá infrastrukturní platforma závislá jsou drivery a firmwary component, jako jsou Storage Controlery, disky a síťové karty.

Pojďme si nejdříve říct, jakým způsobem se zajišťuje udržování driverů a firmware u vSphere 6.x.

vSphere administrátor typicky používá VMware Update Manager pro update ESXi softwaru (VMware hypervisor). Drivery jsou většinou součástí ESXi image, který je buď vanilla image of VMwaru a nebo Custom image od dodavatele hardwaru. V případě potřeby jiných validovaných driverů je možné takové drivery stáhnou jako tzv. VIB Depot (zip file) a buď použít VMware Update Manager (GUI) nebo esxcli (příkazovou řádku).

Problematičtější je to s firmwary, které VUM neřeší a administrator je musí řešit nástroji serverového vendora.

Navíc si VMware administrator musí udělat vlastní analýzu validovaných kombinace driverů a verzí firmware v rámci VMware vSAN HCL.

Dell EMC OpenManage Integration for VMware vCenter je rozšíření vCentra o lepší visibilitu na serverový hardware a s možností update firmware.

Je to dobré vylepšení pro správu systému, ale nezbavuje to administrátora zodpovědnosti a práce s výběrem validní kombinace driverů a verzí firmware v rámci vSphere updatování.

Toto je jedna z největších přidaných hodnot VxRAILu, kde je verze hypervizoru, driver a všechny firmwary včetně BIOSu a firmware síťových karet dodávána jako jeden jediný validovaný image, který se dá celému VxRAIL clusteru a VxRAIL manager zajistí rolling update nebo upgrade celého clusteru.

JAK JE TO VE VSPHERE 7?

VMware si uvědomuje potřebu zjednodušení driver a firmware managementu, který je ještě vice důležitý právě při provozu vSAN.

Vylepšení v oblasti životního cyklu (update/upgrade) je spojeno s funkcionalitou ve vSphere 7, ve které byl uveden tzv. vSphere Lifecycle Manager.
vLCM je z dlouhodobého hlediska náhrada VMware Update Manageru, nicméně je dobré si uvědomit, že vLCM je ve vSphere 7 uvedeno ve verzi 1, takže do doby než se vLCM plně ujme, zákazníci si na něj zvyknou a VMware technologii doladí na základě reálného feedbacku zákazníků, tak je možné nadále používat VUM. Mimochodem VxRAIL s vSphere 7 bude v prvních verzích používat VUM a na vLCM přejde postupně. vLCM je zasadní změna v konceptu updatu a upgradu vSphere. VUM pracuje s ESXi hostama, vLCM pracuje s vSphere Clusterama.
Další změna je použití principu tzv. Desired State (očekávaný stav), takže vSphere administrátor si pomocí centrálních vLCM politik definuje požadovaný profil, který se vLCM snaží aplikovat a udržet konzistentní na celém vSphere / vSAN Clusteru a ne pouze na konkrétním ESXi hostu.

V případě odchylky reálného od požadovaného stavu je administrátor informován pomocí warningu a může to začít řešit a iniciovat nápravu primo pomocí vLCM.

vLCM profilem je definovaný
Základní ESXi image, ve kterém jsou nativní drivery hardwarových komponent
Druhá část profilu jsou Vendor add-ony, ve kterých mohou být specifická rozšíření konkrétního vendora jako je např. OpenManage Administrator agent
Třetí části profilu jsou Firmware a Driver add-ony, ve kterém jsou i BIOSy a firmwary ke konkretním hardwarovým komponentám. Je potřeba si uvědomit, že VMware do verze vSphere 7 nikdy neřešil napřímo firmware management a v oblasti firmwarů se spoléhal na systém management hardwarových vendorů

Takže z těchto třech věcí se skládá vLCM DESIRED IMAGE, který se automaticky aplikuje na ESXi hosty v rámci vSphere clusteru, na kterém je profil nastaven.

Na co bych chtěl upozornit ...
vLCM ve vSphere 7.0 už sice pokrývá celý HW stack, ale automatizovaná validace oproti HCL je zatím jen na storage I/O controllery, takže updaty BIOSu a firmwaru hardwarových komponent mohou být sice aplikovány přes vLCM, ale nejsou validovány oproti HCL a zodpovědnost za správnou kombonaci driverů a firmwarů je stále na vSphere administrátorovi
vLCM sice podporuje update vSAN clusteru, ale nepodporuje update vSAN witness appliancí v rámci 2-node vSAN a stretchovaných clusterů.
vLCM také nedělá update vCenter serveru, to řeší případně až SDDC Manager v rámci VCF

Takže nemějte od této první verze extrémní očekávání. Podobnou funkionalitu je již roky možné dosáhnout na Dell hardwaru pomocí OpenManage Integration for VMware vCenter. Mimochodem vLCM využívá pro firmware management právě OMIVV, nicméně vLCM je řešení přímo od VMware v dalších verzích půjde dál a bude zjednodušovat systém managementu pro vSphere adminy. vLCM ve vSphere/vSAN 7 je první verze end-to-end system managementu, který je integrovan přímo Vmwarem do vSphere, takže je to velmi dobrý signál pro zákazníky, že VMware to se zjednodušováním system managementu myslí vážně.

Ono to je totiž extrémně důležité právě pro vSANu, kde špatné drivery nebo firmwary řadičů, disků nebo síťových karet mají negativní vliv na stabilitu a výkon celého distribuovaného storage systému.

Nakonec je potřeba si říct, že VxRAIL lifecycle management je pořád někde úplně jinde. Single IMAGE BUNDLE zvalidovaný a supportovaný DellEMC by měli zákazníci ocenit. A když už se bavíme o VxRAILu, tak v rámci VxRailu se i v první verzi vSphere/vSAN 7 používá klasický VUM přístup, nikoliv vLCM desired state. Do budoucna VxRAIL přejde na vLCM, ale pro zákazníka to bude absolutně transparentní.

Q2: Jelikož jde v AF konfigurací 100% zápisů do cache disku, prochází jím všechny zápisy, jak se zde řeší škálovatelnost ?
A2:

Krátká odpověď:

Je potřeba si uvědomit, že Write Intensive disk zvládne teoreticky až 100 000 IOPS (4KB IO), nicméně v případě potřeby škálovatelnosti je možné v rámci jednoho vSAN nodu použít více diskových group (až 5), jelikož každá disková group má vlastní cache disk. Větším počtem disk group se zvětšuje výkon jednoho vSAN nodu. vSAN je ale distribuovaná scale-out storage, takže dalším způsobem škálování je přidání dalšího nodu do vSAN clusteru.

Dlouhá odpověď:

Ve vSAN jse 100% zápisů do cache disků nejen u All Flash (AF), ale i u Hybridní vSAN. U hybridní vSAN se cache disk používá i pro cachování read operací, což se nedělá u All Flash vSANy, jelikož kapacitní SSD, nemají s read operacemi žádný problém a navíc je jich většinou v diskové skupině více, takže agregovaná read performance je větší než výkon jednoho cache disku. Write operace jdou přes write cache/buffer proto, aby se šetřila životnost kapacitních disků, které jsou většinou Read Intesive a neposkytují tak velké TBW jako Write Intensive disky.

vSAN disková skupina se skládá vždy z jednoho cache disku (typicky Write Intensive) a maximálně 7-mi kapacitních (typicky Read Intensive) disků. Jako cache disk se používají write intensive disky, které fungují vždy jako Write Buffer.

SASové Write Intensive disky podle technických specifikací zvládají více jak 120 000 IOPS (4KB IO), takže každá disková skupina zvládne takovýto zápisový výkon a po zápisu I/O do cache se posílá ACK k iniciátoru a tím je z jeho pohledu I/O odbaveno, takže write latence a response time je dána cachovým diskem. Kapacitní disky by pak měly být vyladěny tak, aby zvládly destaging z cache do kapacitního tieru. Destaging je optimalizovaný pro minimalizaci write operací, aby se prodlužovala životnost Read Intensive disků v kapacitním tieru.

Nestačí-li výkon write cache SSD disku, tak je možné v rámci jednoho vSAN nodu použít více diskových group (až 5), jelikož každá disková group má vlastní cache disk. Větším počtem disk group se zvětšuje výkon jednoho vSAN nodu. vSAN je ale distribuovaná scale-out storage, takže dalším způsobem škálování je přidání dalšího nodu do vSAN clusteru.

Q3: Jaký vliv na výkon má resync dat při výpadku/maintenance nodů v reálném prostředí a s jakou délkou resync se musí počítat ?
A3:

Krátká odpověď:

Záleží na více faktorech, takže odpověď je ... IT DEPENDS.
Viz dlouhá odpověď.

Dlouhá odpověď:

Při maintenance módu je možné zvolit, jestli chci vSAN data na backendu přesunout a tím zajistit stejnou ochranu dat I během maintenance módu a nebo jestli se jedná o krátkodobý maintenance a zariskuju nižší a nebo žádnou ochranu dat. V případě, že mám storage politikou nastavenou ochranu dat, proti výpadku dvou nodů FTT=2, pak se nejedná o velké riziko.

V případě, že se rozhodnu vSAN data z maintenance nodu přesouvat, pak je délka resyncu daná rychlostí diskového čtení na zdrojovém nodu a rychlostí sítě. Jiná rychlost tedy bude na Hybridní vSAN na gigabitové sítí a jiná rychlost na All Flash vSAN s 25 Gb sítí.

vSAN má nástroj “Data Migration Pre-check”, která umí ukázat kolik dat je potřeba přesunou z nodu, který se přepíná do maintenance módu.

Níže uvádím příklad z mého labu, kde mám hybridní vSAN připojenou na gigabitovou síť a v případě přechodu do maintenance módu s plnou migrací dat by vSAN musela na backendu přesunout 338 GB dat, což by při rychlosti sítě 1 Gb a předpokladu propustnosti 100MB/s trvalo řádově hodinu.

vSAN Data Migration Pre-check

Z tohoto důvodu je vhodné ve fázi designu vSAN zvažovat ALL FLASH variantu a 25Gb networking, což má pozitivní vliv i na rychlost případné evakuace dat.
Dalším design rozhodnutím je případná dvojitá ochrana dat FTT=2, která zajišťuje dostupnost disku i při nedostupnosti dvou vSAN nodů.
Je dobré si uvědomit, že FTT=2 potřebuje 5 vSAN nodů pro ochranu RAID 1 a nebo 6 nodů pro ochranu RAID 6
Druhou možností je použití stretchovaného clusteru a tím zajištění primární a sekundární dostupnosti dat.

Q4: Jak se řeší rozpad vsan clusteru, tj. pokud padne více node než je politika ochrany, jak pak probíhá uvedení do provozu
A4: Disky se přepnou do nedostupného módu podobného stavu APD (All Path Down) na tradiční storage a VM disky nejsou dostupne.  Viz. screenshot níže, kde je nasimulovaná takováto chyba a chování uvnitř operačního systému FreeBSD, kde je vidět, že systém sice běží, ale nemá k dispozici disk.

Nedosutpný vDisk na vSAN z pohledu Guest OS
Je potřeba zmínit, že každý operační systém se s takovýmto stavem vyrovnává jinak. Například MS Windows se do nekonečna pokoušejí o kontaktování nedostupného disku a věří, že se disk vrátí. Linuxové operační systémy většinou přepínají afektovaný disk do read/only modu. Operační systém FreeBSD, který jsem použil pro nasimulování tohoto problému se při nedostupnosti pokoušel o přístup k disku, který nebyl k dispozici. Po uvedení disku do provozu se operační systém vrátil k běžnému provozu. Je potřeba si uvědomit, že nedostupnost disku může mít různý dopad na různé aplikace uvnitř operačního systému.

Q5: Jsou preferované NIC, které mají pro vsan optimální výkon?
A5: vSAN pracuje s jakoukoliv supportovanou síťovou kartou na HCL ESXi. Pro All Flash vSAN je minimum 10 Gb NIC, ale v dnešní době bych rozhodně zvažovat 25 Gb NIC. vSAN pro optimální provoz potřebuje stabilní a výkonou síť, ale žádné jiné pereference vSAN nemá.


Q6: Jsou dostupné testy výhody použití 25g vs. 10ge pro vsan (myslím na oddělených NIC)?
A6: Našel jsem prezentaci z VMworldu 2017, kde jsou vedeny výsledky  z performance testů, kde je vidět, že vSAN umí saturovat 25 Gb.

Prezentace je dostupná zde



Q7: NVMe vs. SAS SSD, tady je volba asi jasná, že?
A7: Úplně jasná volba to není, jelikož rozhodnutí většinou není jen o výkonu, ale i o škálovatelnosti a ceně celého řešení.

NVMe mají výhodu v tom, že jsou připojeny přímo do PCI a každé NVMe má vlastní storage controller. Navíc NVMe mají typicky větší výkon jak pro čtení, tak pro zápis. Specifikace SAS SSD, SATA SSD a NVMe je dostupná zde

Nicméně je potřeba si uvědomit, že Intel CPU Cascade Lake podporují maximálně 48 PCIe lanes per socket, takže 24 NVMe disků je na serveru PE R740 podporováno, ale musí být osazen oběma CPU a NVMe mohou teoreticky saturovat plných 96 lanes, což se reálně asi nestane, ale máme li v systému ještě 4x 25 Gb síťové karty a například 3 GPU, pak už by ve špičkách mohla být PCIe sběrnice přetížená.

Intel Cascade Lake PCIe architektura je znázorněna na následujícím schématu.
Dalším aspektem je cena. SAS SSD disky jsou v současné době cca o 30% dražší než SATA SSD disky a NVMe disky jsou ještě asi o 30% dražší než SAS SSD disky, takže je potřeba zvážit, jestli mám extrémní požadavky na diskový výkon a nižší latency.

Q8: Jak udělat sizing ssd cache ? je možné využití monitorovat ? co se stane, když je cache málo -> write jdou na kapacitní disky a sníží se jejich životnost ? Jak lze pak cache rozšířit ?
A8:

Informace nutné pro technický design, sizing a škálovatelnost SSD cache už jsem do většího detailu zodpověděl v odpovědi na otázku Q2.

vSAN cache je distibuovaná v rámci celého vSAN clusteru, každopádně všechny cache disky je možné monitorovat přímo z vSphere clienta a nebo ještě detailněji v dalších nástrojích. Níže je screenshot z vSphere Clienta.



Že je cache málo, se pozná u All Flash řešení tím, že se hodně destaguje z cache do kapacitních disků a tím pádem se zvyšuje congestion a tím pádem i response time pro disky ve virtuálních serverech.

vSAN umožňuje monitorovat congestion (přetížení) nižších vSAN vrstev (subsystémů). Congestion je ukazatelem přetížení určitého subsystému a v takovém případě dochází ke queueingu I/O operací a zvýšení response timů. Ukázka congestion grafu z vSAN monitoringu je na screenshotu níže.

Write I/O nikdy nejdou napřímo na kapacitní disky, takže jejich životnost se nesnižuje.

Velkou zátěž na cache nebo její nedostatečnou kapacitu je možné vyřešit několika způsoby
1. rozložením backendu na více diskových skupin, kde každá disková skupina má vlastní cache disk (SCALE UP)
2. rozložením celkového vSAN workloadu na více nodů (SCALE OUT)
3. zrychlením destagingu, což je možné docílit pomocí více kapacitních disků
4. v případě malého cache disku je možné cache disk vyměnit za větší, nicméně vSAN efektivně nepoužívá více jak 600 GB pro aktivní cachování a vyšší kapacita se začne využívat po odumření starých SSD buněk takže větším kapacitním diskem se docílí delší životnosti cache disku.

Q9: Je použitelný raid5 ? Jaký má vliv použití raid5 na výkon ?
A9:

Krátká odpověď:

Ano. vSAN podporuje RAID 5 (single parity erasure coding) a dokonce i RAID 6 (double parity erasure coding).

Jakákoliv implementace RAID 5 má write penalty 4, takže každé frontendové write I/O potřebuje na backendu 4 I/O operace.

Dlouhá odpověď:

Striktně technicky se nejedná o RAID (Redundant Array of Independent Disks), ale o RAIN (Redundant Array of Independent Nodes), jelikož redundance se nazajišťuje v rámci jednotlivých fyzických serverů (vSAN nodů), ale napříč nody.

vSAN RAID 5 je tedy ochrana proti výpadku jednoho nodu a vSAN RAID 6 proti výpadku až dvou nodů.

vSAN RAID 5 je technicky RAID 3+1, takže technické minimum pro RAID 5 jsou 4 nody a doporučených nodů je 5, aby v případě dlouhodobého výpadku jednoho z nodů bylo možné data zrebuildovat (resynchronizovat) na nějaký další node a zajistit ochranu dat.

vSAN RAID 6 je technicky RAID 4+2, takže technické minimum je 6 nodů a doporučovaných je 7 nodů.

Dlužno říci, že vSAN RAID 5 i RAID 6 jsou podporované jen na All Flash vSAN, takže na Hybridní vSAN, kde se používají v kapacitním tieru rotační disky, byste erasure coding hledali marně. Důvodem jsou vyšší nároky na I/O operace na backendu a rychlost rebuildu v případě výpadku jednoho z nodů.

Tím se dostáváme k podotázce ohledně výkonu. Každá implementace RAID 5 má negativní vliv na write operace, protože je při každé zápisové operaci potřeba dopočítat paritu. Zapisuje-li se jedna nová I/O operace, pak je potřeba před zapsáním segmentu na disk, přečíst původní segment (+1 I/O) a odpovídající paritu (+1 I/O) a při zápisu zapsat nejen nový segment (+1 I/O), ale i nově dopočítanou paritu (+1 I/O), takže celkově je pro 1 write I/O v RAID 5 potřeba 4 write I/O operace, čemuž se říká tzv. write penalty.

RAID 5 má tedy write penalty 4 a RAID 6 má write penalty 6.  

Friday, April 17, 2020

MySQL / MariaDB Server


pkg install --yes mariadb104-server-10.4.10

/etc/rc.conf
# MySQL
mysql_enable=“YES”

/usr/local/etc/rc.d/mysql-server start


# create db user
CREATE USER 'admin' IDENTIFIED BY 'Passw0rd.';

SELECT User FROM mysql.user;

# allow access from anywhere

grant all privileges on *.* to 'admin' identified by 'Passw0rd.';
flush privileges;

Thursday, April 16, 2020

vSAN File Services considerations

http://www.yellow-bricks.com/2020/04/15/vsan-file-services-considerations/

  • Targeted use case: Cloud Native Applications and file services for traditional apps
  • NFS v3 and NFS v4.1 are both supported
  • A minimum of 3 hosts within a cluster
  • A maximum of 64 hosts within a cluster
  • Not supported today on 2-node
  • Not supported today on a stretched cluster
  • Not supported in combination with vLCM (Lifecycle Manager)
  • It is not supported to mount the NFS share from your ESXi host
  • Maximum of 8 active FS containers/protocol stacks and 8 FS VMs are provisioned
  • FS VMs are provisioned by vSphere ESX Agent Manager
    • You will have one FS VM for each host up to 8 hosts
  • FS VMs are tied to a specific host from a compute and storage perspective, and they align of course!
  • FS VMs are not integrated with vSAN Fault Domains
  • FS VMs are powered off and deleted when going into maintenance mode
  • FS VMs are provisioned and powered on when exiting maintenance mode
  • On a standard vSwitch, the following settings are enabled on the port group automatically: Forged Transmits, Promiscuous Mode
  • On a Distributed Switch the following settings are enabled on the port group automatically: Forged Transmits, MAC Learning
  • vSAN automatically downloads the OVF for the appliance, if vCenter Server cannot connect to the internet you can manually download it
    • The ovf is stored on the vCenter Appliance here, if you ever want to delete it: /storage/updatemgr/vsan/fileService/
  • The FS VM has its own policy (FSVM_Profile_DO_NOT_MODIFY), which should not be modified!
    • The appliance is not protected across hosts, it is RAID-0 as resiliency is handled by the container layer!

VCF 4 on VxRail : Consolidated architecture support

VCF Consolidated architecture is now supported on VxRail (VCF 4.0)
This is great news !


  • Support for consolidated architecture: Standard architecture is recommended for most deployments, but for smaller system requirements the consolidated architecture is now supported.

Talking about VCF on VxRail, there are few limitations that you need to know :
  1. vSphere Lifecycle Manager (vLCM) is not supported on VMware Cloud Foundation on Dell EMC VxRail è Decision to use vLCM or VUM applies at cluster level. VxRail manager needs VUM so it can’t co-exist with vLCM (at the moment).
  2. VCF on VxRail supports stretching workload domain clusters over L3 only. There is no support for L2 stretching è Usually not a real problem
  3. System and overlay traffic isolation through a separate distributed virtual switch is not supported è This means we support only NSX-T deployed on converged VDS and I understand we don’t support separate VDS topology (VDS + N-VDS) anymore.

Friday, April 10, 2020

Linux Desktop distributions

Velmi dobra a jednoducha Linux distribuce
https://linuxmint.com/

XUbuntu
https://xubuntu.org/

FreeBSD & Xorg & LXDE


https://forums.freebsd.org/threads/beginners-guide-how-to-set-up-a-freebsd-desktop-from-scratch.61659/

https://wiki.freebsd.org/LXDE


pkg install xorg

Intall & Configure X Display Manager
https://www.freebsd.org/doc/en_US.ISO8859-1/books/handbook/x-xdm.html

pkg install xdm
# vi /etc/ttys
ttyv8   "/usr/local/bin/xdm -nodaemon"  xterm   off secure

pkg install lxde-meta

# cd /usr/home/dpasek
# vi .xinitrc
ck-launch-session dbus-launch --exit-with-session startlxde

exec startlxde

Monday, April 6, 2020

MTU 9000 vs 9216

On the host side, you should always use an MTU of 9000 for jumbo frames and not try to match the 9216 value you're seeing on your switch. On the other hand, you see 9216 on a network switch because it's allowing overhead of different encapsulations.

ESXi NIC driver update procedure - esxcli


List NIC adapters ...

esxcli network nic list

[root@esx21:~] esxcli network nic list
Name    PCI Device    Driver  Admin Status  Link Status  Speed  Duplex  MAC Address         MTU  Description
------  ------------  ------  ------------  -----------  -----  ------  -----------------  ----  -------------------------------------------------------
vmnic0  0000:01:00.0  ntg3    Up            Up            1000  Full    90:b1:1c:13:fc:14  9000  Broadcom Corporation NetXtreme BCM5720 Gigabit Ethernet
vmnic1  0000:01:00.1  ntg3    Up            Up            1000  Full    90:b1:1c:13:fc:15  9000  Broadcom Corporation NetXtreme BCM5720 Gigabit Ethernet
vmnic2  0000:02:00.0  ntg3    Up            Down             0  Half    90:b1:1c:13:fc:16  1500  Broadcom Corporation NetXtreme BCM5720 Gigabit Ethernet
vmnic3  0000:02:00.1  ntg3    Up            Down             0  Half    90:b1:1c:13:fc:17  1500  Broadcom Corporation NetXtreme BCM5720 Gigabit Ethernet

List of drivers

esxcli software vib list | grep ntg3

[root@esx21:~] esxcli software vib list | grep ntg3
ntg3                           4.1.3.2-1vmw.670.1.28.10302608        VMW     VMwareCertified   2018-12-15

Driver details

vmkload_mod -s ntg3

[root@esx21:~] vmkload_mod -s ntg3
vmkload_mod module information
 input file: /usr/lib/vmware/vmkmod/ntg3
 Version: 4.1.3.2-1vmw.670.1.28.10302608
 Build Type: release
 License: BSD
 Required name-spaces:
  com.vmware.vmkapi#v2_5_0_0
 Parameters:
  initRingSzRxJmb: ushort
    RX Jumbo Ring Size
  initRingSzRxStd: ushort
    RX Standard Ring Size
  intrMode: ushort
    Interrupt mode: 0=IntX, 1=MSI(Default)

Update driver version

esxcli software vib update -d. file.vib

Reboot server


Friday, March 27, 2020

vCenter http request rate

PR: https://bugzilla.eng.vmware.com/show_bug.cgi?id=2088939

Resil jsem dneska limitaci vCentra pro spousteni API (ansible/powercli) prikazu. Reseni je relativne jednoduche - navysit v souboru: /etc/vmware-vapi/endpoint.properties hodnotu http.request.rate.count=360 na treba 1000 a restartovat  vmware-vapi-endpoint sluzbu

Number of vCenter API requests
Pocet API volani do vCentra


Wednesday, March 25, 2020

vLCM versus VxRAIL

Q: with the introduction of vLCM with readynodes, what would the value out of selling VxRail ?

A: Though vLCM provides firmware support, it doesn’t provide pre-validated and pre-integrated bundles, which VxRail does. Our customers have told us that this is a big pain point. VxRail images are getting customer from one valid image/driver/firmware state to another valid state.

VxRail provides other value such as enhanced phone home support and additional automation such as auto-buildout of clusters.

Sunday, March 22, 2020

vSAN/DRS awareness to be introduced in vSAN/vSphere 7.0! (NOT RELEASE in 7.0)

Originally piblished here ... 
It was briefly mentioned here, but I figured I would elaborate on this new cool feature for vSAN Stretched Clusters which is DRS Awareness of vSAN Stretched Clusters. So what does this mean? Well, it is fairly straight forward. DRS will take vSAN resync traffic into consideration when the DRS algorithm runs. I can probably explain best by talking through a scenario:
  • vSAN Stretched Cluster environment with 4 hosts and a witness
  • VMs running in Preferred and in Secondary
  • VMs configured with "should rules" to stay within their fault domain
  • ISL between "data locations" is impacted
  • HA has restarted the VMs of the secondary site in the preferred site
  • ISL is now restored


What would happen without DRS awareness of vSAN stretched clusters is that DRS would automatically migrate VMs back to the Secondary site as soon as it becomes available. DRS runs every minute in vSphere 7.0 so it is very likely that vSAN is still resyncing data. The problem with this is two-fold:
  1. The vMotion process will slow down the resync of data temporarily
  2. Blocks which have not been resynced and are being read by the VM will need to be fetched from the remote location
As you can imagine this is an undesired situation. As such in vSphere / vSAN 7.0 a whole new level of integration is introduced between DRS and vSAN. Now DRS will be aware of what is happening on the vSAN layer. If vSAN is syncing a particular component of a virtual machine, then DRS will not move the VM back! It will wait until the resync has completed and then move the VM back. This ensures that the migration won't conflict with the resync, and of course that when the VM is migrated that it will have "site read locality".
It is a feature our team had been asking for and which was tested within VMware Cloud on AWS, and I am happy to see it made it into the "regular" vSphere release.

Friday, February 21, 2020

vSphere Support for Intel Optane Persistent Memory

VMware and Intel are working closely to develop the market and use-cases for Intel’s Optane Persistent Memory (PMEM).

This technology is available in two modes: 
  • App-direct mode (AD in short, also known as Persistent Memory): vSphere 6.7 U3 enables Intel®Optane DC Persistent Memory in “App-Direct” mode. You can take advantage of the large capacity, affordability and persistence benefits offered in this mode and deploy in production any supported 3rd party application without any restriction with full VMware support. VMware encourages its customers to leverage this technology in “App-Direct” mode. For more information on the App-Direct mode performance benefits in virtualization environment, please refer to PMEM App-Direct WP.
  • Memory-Mode (MM): vSphere 6.7 Update 3 enable Intel® Optane DC Persistent Memory inMemory” mode. vSphere usage of Intel® Optane DC Persistent Memory in Memory modecan offer increased memory capacity and TCO improvements for relevant workloads. Initially, VMware will support “Memory” mode for appropriate use-cases in production deployments (refer toPMEM memory-mode WP); such a deployment should go through RPQ process to secure VMware support.


Specific vSphere and VSAN support statement for this technology is available in this KB articlevSphere Support for Intel's Optane DC Persistent Memory (PMEM) (67645). Please note the recommended version to use is vSphere is 6.7u3.

If customers are using this technology in App-Direct Mode, there is no explicit approval needed. VMware support this technology on certified hardware. You can find the list of certified hardwarehere.

If customers are using this technology in Memory-Mode, customer need to procure an RPQ approval from VMware. 
  • It is important to highlight that VMware is supporting the Intel Optane Persistent Memory in memory mode and committed to develop the use-cases and market in close collaboration with Intel
  • As this technology is new and runs at slower speed than DDR memory, we want to educate the market and develop the right use-cases and expectation. Due to this reason, VMware wants to work closely with early customers and help them succeed
  • To address the above requirement, VMware is leveraging the existing RPQ process for early customers, VMware representative need to file the RPQ for interested customers. VMware request specific information from the customer environment. You can find the detailed information about filing the customer RPQ for Intel Optane Persistent Memory-mode here
  • It is important to note that RPQ process is only for early customers. Once we develop the early success stories and use-case, VMware has all the intent to remove the RPQ requirements and make this technology as generally supported. 

Please note, VMware is committed to support Intel Optane Persistent Memory in both modes “App-Direct” and “Memory-mode”. If you have any question, please feel free to reach out to @Sudhanshu Jain

Sudhanshu (Suds) Jain
Product Management – Cloud Infrastructure
Office: 650.427.7672 | Mobile: 408.393.7668

MobaXterm Xserver with SSH, telnet, RDP, VNC and X11 - Features

Domaci automatiazce SONOFF

Monday, February 10, 2020

Host cannot communicate with one or more other nodes in the vSAN enabled cluster

Ping between nodes was working so it was not a physical network issue. This is the lab environment so all services (mgmt, vMotion, vSAN) are enabled on single VMKNI (vmknic0).

So what's the problem?

I did some google searching and found that some people were experiencing problems with vSAN unicast agents.

Here is the command to list of unicast agents on vSAN node

esxcli vsan cluster unicastagent list

Grrrr. The list is empty!!!! On all ESXi hosts in my 3 nodes vSAN cluster.

Let's try to configure it manually.

Each vSAN node should have a connection to agents on other vSAN nodes in the cluster.

For example, one vSAN node from 4-node vSAN Cluster should have 3 connections

 [root@n-esx04:~] esxcli vsan cluster unicastagent list  
 NodeUuid               IsWitness Supports Unicast IP Address    Port Iface Name Cert Thumbprint  
 ------------------------------------ --------- ---------------- -------------- ----- ---------- -----------------------------------------------------------  
 5e3ec640-c033-7c7d-888f-00505692f54d     0       true 192.168.11.105 12321       18:F3:B7:9F:66:C4:C4:3E:0F:7D:69:BB:55:92:BC:A3:AC:E4:DD:5F  
 5df792b0-f49f-6d76-45af-005056a89963     0       true 192.168.11.107 12321       20:4C:C1:48:F5:2D:04:16:55:F1:D3:F1:4C:26:B5:C4:23:E5:B4:12  
 5e3e467a-1c1b-f803-3d0f-00505692ddc7     0       true 192.168.11.106 12321       53:99:00:B8:9D:1A:97:42:C0:10:C0:AF:8C:AD:91:59:22:8E:C9:79  

We need the get local UUID of the cluster node.

 [root@n-esx08:~] esxcli vsan cluster get  
 Cluster Information  
   Enabled: true  
   Current Local Time: 2020-02-11T08:32:55Z  
   Local Node UUID: 5df792b0-f49f-6d76-45af-005056a89963  
   Local Node Type: NORMAL  
   Local Node State: MASTER  
   Local Node Health State: HEALTHY  
   Sub-Cluster Master UUID: 5df792b0-f49f-6d76-45af-005056a89963  
   Sub-Cluster Backup UUID:  
   Sub-Cluster UUID: 52c99c6b-6b7a-3e67-4430-4c0aeb96f3f4  
   Sub-Cluster Membership Entry Revision: 0  
   Sub-Cluster Member Count: 1  
   Sub-Cluster Member UUIDs: 5df792b0-f49f-6d76-45af-005056a89963  
   Sub-Cluster Member HostNames: n-esx08.home.uw.cz  
   Sub-Cluster Membership UUID: f8d4415e-aca5-a597-636d-005056997c1d  
   Unicast Mode Enabled: true  
   Maintenance Mode State: ON  
   Config Generation: 7ef88f9d-a402-48e3-8d3f-2c33f951fce1 6 2020-02-10T21:58:16.349  

So here are my nodes
n-esx08 - 192.168.11.108 - 5df792b0-f49f-6d76-45af-005056a89963
n-esx09 - 192.168.11.109 - 5df792b0-f49f-6d76-45af-005056a89963
n-esx10 - 192.168.11.110 - 5df792b0-f49f-6d76-45af-005056a89963

And the problem is clear. All vSAN nodes have the same UUID.
Why?  Let's check ESXi system UUIDs on each ESXi host.

 [root@n-esx08:~] esxcli system uuid get  
 5df792b0-f49f-6d76-45af-005056a89963  
 [root@n-esx08:~]  

 [root@n-esx09:~] esxcli system uuid get  
 5df792b0-f49f-6d76-45af-005056a89963  
 [root@n-esx09:~]  

 [root@n-esx10:~] esxcli system uuid get  
 5df792b0-f49f-6d76-45af-005056a89963  
 [root@n-esx10:~]  

So the root cause is obvious. I use nested ESXi to test vSAN and I forgot to regenerate system UUID after the clone. The solution is easy. Just delete UUID from /etc/vmware/esx.conf and restart ESXi hosts.

ESXi system UUID in /etc/vmware/esx.conf

You can do it from command line as well

sed -i 's/system\/uuid.*//' /etc/vmware/esx.conf
reboot

So we have identified the problem and we are done. After ESXi hosts restart vSAN Cluster Nodes UUIDs are changed automatically and vSAN unicastagents are automatically configured on vSAN nodes as well.

However, if you are interested in how to manually add a connection to a unicast agent on a particular node, you would execute the following command

esxcli vsan cluster unicastagent add –a <ip address unicast agent> –U <supports unicast> –u <Local UUID> -t < type>

Anyway, such a manual configuration should not be necessary and you should do it only when instructed by VMware support.

Hope this helps someone else in VMware community.