Neues in der Windows Server 2016 Virtualisierung Stand Mai 2016.

Slides:



Advertisements
Ähnliche Präsentationen
Karo IT Viehmarkt Neumarkt Karo IT Neumarkt GmbH | Tel.:
Advertisements

Virtual Storage Das Fundament für Total Enterprise Virtualization.
Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen Am Fassberg, Göttingen Fon: Fax:
Linux-HA-Cluster – Heartbeat mit DRBD
IGEL UMS Universal Management Suite Oktober 2011 Florian Spatz
SKALIERBARE HARDWARE UNABHÄNGIGE LÖSUNGEN FÜR HSM, ARCHIVIERUNG UND SICHEREN DATENAUSTAUSCH YOUR DATA. YOUR CONTROL.
Netzwerke | Serversysteme | Client-Service | Groupware Darmstadt The Game Changer Microsofts Hyper-V v3 & HPs Insight Online Thorsten Podzimek,
VIRTUALISIERUNG MIT HYPER-V UND SYSTEM CENTER 2012
Timo Brueggemann Dir. Business Development Stratus Technologies.
Windows Server „8“ und Hyper-V
Präsentation von Alexander Schönfeld
SSDs im SAN – Praxisbericht Teil3
Windows Server 2008 Kurzüberblick Dr. Richtmann+Eder AG Olschewskibogen München.
Technisches Update Veeam Backup & Replication Version 7 Cloud Edition
Service Computing   Prof. Dr. Ramin Yahyapour IT & Medien Centrum 19. Januar 2010.
Windows Server 2012 R2 Upgrade-Potential
SSDs im SAN – Praxisbericht Teil2 Erich Eckel Österreichische Lotterien Storage Management.
SSDs im SAN - Praxisbericht Erich Eckel Österreichische Lotterien Storage Management.
Oracle Database Appliance Übersicht
VMware® Virtual SAN™ Klassisches SAN. VMware® Virtual SAN™ Klassisches SAN.
Sitz Unterschleißheim Die Kernkompetenzen der teracuda…
Potentiale für den Channel Server-Software aktualisieren Server-Hardware erneuern Migration von Anwendungen Diese Produkte stehen vor dem Ende des Support.
Was spricht für EMC für SQL?
WINDOWS 2003 Server. Standart Varianten für 32 Bit: Web Edition: Unterstützt Single(1)- oder Dual(2)-Prozessor-Systeme und bis zu 2 GB RAM 32-Bit Standard.
Hadoop-as-a-Service (HDaaS)
Windows Server 2012R2 / Windows Server 2012 Filesystem.
SPEICHER ROM + RAM ROM RAM Arten von RAM (DDR-RAM, SDRAM) Beispiel
Digitales Datenmanagement bis in die Cloud
Arrow ECS Training Windows Server 2016: Die Neuerungen im Überblick Bei technischen Problemen mit GoToMeeting kontaktieren Sie:
Lync and Learn mit Manfred Helber Thema heute: Überblick der Leistungserweiterungen von Windows Server 2016 Start: 9.30 Uhr 30 Minuten Vortrag & Demo 30.
VMware vCloud Director / Connector
IS: Datenbanken, © Till Hänisch 2000 Windows Netzwerke TCP/IP oder was ?
Funktionsweise eines Funambolservers Natascha Graf Aachen, 01. Februar 2010.
1 VMware vCenter Chargeback Manager Rüdiger Melzer Senior Systems Engineer, Alliance Management VMware
Microsoft Exchange Storage Recovery und Automatic Database Reseed Repariert sich Exchange wirklich alleine?! Herzlich Willkommen zum Webinar Referent:
RAID Controller Guide - Allgemeines - Glossar - RAID Level - RAID Controller.
Einrichtung eines Schulnetzwerkes unter Linux Besondere Lernleistung von Henrik Friedrichsen.
Microsoft Azure Die Cloud-Plattform für moderne Unternehmen ModernBiz 1 Kleine und mittlere Unternehmen (KMU) wünschen sich die Möglichkeit und Flexibilität,
Herzlich Willkommen Failover Cluster – Hochverfügbarkeit für kleines Geld.
Windows Server 2016 Überblick Bereit für die Cloud Steigert die Effizienz u. Produktivität der IT Schützt Ihr Unternehmen.
Wechsel von Oracle Cloud Control 12c zu 13c
D-SQL Vom Datenbank-Container zur SQL Server-Datenbank
LINUX II Unit 6 RAID & LVM.
Barracuda Backup Einfaches Backup mit Cloud-Anbindung
NetApp Alliance ProLion CEO Robert Graf
Kaseya System Backup and Recovery
WS2016: Die wichtigsten Neuigkeiten in der Praxis
Aufgabe 1: Begriffswelt
WS2016: Container von A bis Z
Spontan testen! Das eigene Test Lab, für jeden in der Cloud!
Azure Backup, Azure Backup Server und Azure Site Recovery
SAP – Installation auf Windows Server 2008 R2 Enterprise
Erweiterte Azure Dienste
Lync and Learn mit Manfred Helber Thema heute:
Camil Bartkowiak Serhat Cinar Leonardo Di Lella Jan Finsel
Storage: DAS, SAN, NAS – ein Überblick
Netzwerke Netzwerkgrundlagen.
"MANUELLE" PHYSICAL STANDBY SYSTEME FÜR STANDARD EDITION UNTER RAC.
Herzlich willkommen! Windows Server 2016, System Center 2016 & Windows 10 Berlin,
Virtualisierung von IT-Systemen
ABB STOTZ-KONTAKT GmbH
Computer Management für Windows
Azure Countdown Was tun, wenn der Verschlüsselungstrojaner zugeschlagen hat? Backup and Desaster Recovery im ambulanten Pflegedienst.
PI Infrastruktur in der Max-Planck-Gesellschaft
Studiengang Informatik FHDW
Datensicherung.
Storage – Was bewegt sich (noch) in der Zukunft
Open-E JovianDSS Einführung
SOFTWARE- UND WEB-LÖSUNGEN
AbschlussProjekt-präsentation Von Jonas Wenk
 Präsentation transkript:

Neues in der Windows Server 2016 Virtualisierung Stand Mai 2016

Rechtliches Die nachfolgende Zusammenstellung stammt aus den Vorträgen: Neuen Funktionen der Windows 2016 Virtualisierung Software Defined Storage (SDS) der CDC-Germany ©Rachfahl IT-Solutions GmbH & Co.KG

Verbesserungen im Netzwerk Hot-Add und –Remove von Netzwerkkarten unterstützt Generation 2 VMs Netzwerkkarten Gerätebenennung Ist kein CDN! Benamung von Netzwerkadaptern in den VM-Einstellungen spiegeln sich in die VM wieder Konfiguration per PowerShell: Im Host: Rename-VMNetworkAdapter In der VM: Get-NetAdapterAdvancedProperty | where DisplayValue -eq “Name”

Speicheränderung während der Laufzeit Bei VMs mit statischen Hauptspeicher kann zur Laufzeit: RAM vergrößert RAM verkleinert werden Bei Dynamic Memory möglich seit Windows Server 2008 R2 SP1 Achtung: Support durch die Anwendung ist wichtig

Secure Boot Support für Linux VMs Kernel Code Integritätsschutz für Linux Gast-Betriebssysteme Linux Support bisher in: Ubuntu und später SUSE Linux Enterprise Server 12 Voraussetzungen: Generation 2 VM (UEFI Support) Microsoft stellt für Linux eigene UEFI CertificateAuthority bereit

Nested Virtualisierung Virtualisierung von VMs in VMs Unterstützte Host Betriebssysteme: Windows Server 2016 TP4 und Windows 10 Unterstütze Gast Betriebssystem: Windows Server 2016 TP4 Hypervisor Support momentan nur für Hyper-V Überraschend gute Performance Microsoft Konfigurations-Script unter: Documentation/master/hyperv-tools/Nested/Enable-NestedVm.ps1

Hyper-V Manager Verbesserungen Verschieden Möglichkeiten um das Remotemanagement von Hyper-V zu verbessern: Verbinden zur IP Adresse des Hosts Support für alternative Anmeldedaten Nutzt WinRM anstatt WMI Möglichkeit verschiebe Hyper-V Versionen durch eine Hyper-V Console zu managen (Windows Server 2012, 2012 R2 und 2016)

Hyper-V Backup Neue Backup Schnittstelle in Hyper-V bietet: Build-in Change Block Tracking kein Bedarf mehr für 3 rd Party Kernel Mode Treiber Verbesserung im SAN Handling Verhinderung von SAN Snapshot pro VM durch Umgehung der VSS Schnittstelle bei VM Sicherung Koordinierung eines SAN Snapshots wenn alle VMs in Konsistenten Sicherungszustand SAN

Shielded VMs Shielded VMs garantieren das nur der Besitzer der VM Zugriff erhält nicht der Administrator Alle Zustände der VM sind verschlüsselt (VHDX, SaveState, Livemigration, etc.) Betrieb der VM ist nur in zugewiesenen Fabrics möglich Verschlüsselung erfordert TPM V2, UEFI und Bitlocker Konvertierung einer Gen2 VM während der Laufzeit in Shielded VM möglich

Distributed Storage QoS Ermöglicht vorhersagbares End-to-End Management der Storage Bandbreite für Hyper-V VMs Storage QoS Monitor identifiziert und beobachtet I/O Verhalten und Nutzung jeder einzelnen VHDX Policy Regelung wieviel Storage Bandbreite eine VHDX bekommt SingleInstance Policy – Regelwerte gelten für alle VHDX in der Policy in Summe MultipleInstance Policy – Regelwerte gelten für jede individuelle VHDX Komponenten  Hyper-V VMs  SMB3 Storage Protokoll mit Scale-Out Fileserver  Hyper-V Cluster mit CSV Storage Scale-out File Server Cluster Hyper-V Cluster Virtual Machines I/O Sched I/O Sched I/O Sched Policy Manager Rate Limiters Rate Limiters Rate Limiters Rate Limiters SMB3 Storage Network Fabric CSV

Storage Spaces Direct (S2D) Ermöglicht das Cloud Hardware Design DAS (shared Nothing) SATA, SAS und NVMe Vermutlich Support für ausgewählte OEM Konfigurationen Einfache Erweiterbarkeit Support für Große Pools (in TP4 240 Geräte) Einfache Erweiterbarkeit durch Hinzufügen von weiteren Knoten Rebalancing der Daten über die Knoten hinweg Management System Center und PowerShell Scale-Out File Server Hyper-V Clusters SMB3 Storage Network Fabric Shared JBOD Storage

Storage Spaces Direct (S2D) High Availability Failover Cluster Fault Tolerant Disk Enclosure Server Haupt-Szenarien Hyper-V IaaS Storage Storage für Backup Storage für Replikation Hyper-convered Hyper-V Cluster Scale-Out File Server Hyper-V Clusters SMB3 Storage Network Fabric Shared JBOD Storage Hyperconverged Hyper-V Cluster Hyperconverged Hyper-V Cluster

Cluster Rolling Upgrade Rolling Cluster Upgrade ermöglicht es einen Cluster inplace Upzugraden Vorgehen pro Host: Node Freiräumen und aus Cluster nehmen Betriebssystem neu Installieren Node in Cluster aufnehmen Wiederholen bis alle Nodes auf neuem Betriebssystem sind Clusterfunktionslevel erhöhen Unterstütze Cluster Rollen: Hyper-V Scale-Out Fileserver Win2012 R2 Win2016

Cluster Resiliency VM Compute Resiliency erhöht die Verfügbarkeit der VMs bei Netzwerkproblemen VM Compute Resiliency Workflows Im Falle eines Fehlers bei der Inter-Cluster- Kommunikation: Knoten wird isoliert Die VMs werden nicht mehr gemonitort SMB-Storage: VMs laufen weiter Block Storage: VMs sind Paused-Critical Kommunikationsprobleme > 4 Minuten Failover der VMs Host wird als Down gekennzeichnet > 3 Isolierungen pro Stunde => Quarantäne VMs laufen erstmal weiter wenn der Knoten Isoliert wird ? Network Fehler

Cluster Resiliency Isolated Mode Knoten ist nicht länger aktives Mitglied des Failover Cluster VMs werden auf dem Knoten weiter betrieben Quarantäne Mode Knoten darf dem Cluster nicht mehr beitreten (Standardwert: 2 Stunden) VMs werden auf andere Knoten migriert

Block Storage – Pfad Fehler VHD Storage Verbindungs-Fehler Storage Stack Fehler HBA Fehler Kabel Fehler Switch Port Fehler Storage Verbindungs-Fehler Storage Stack Fehler HBA Fehler Kabel Fehler Switch Port Fehler FC/FCoE/iSCSI/SAS Verhalten: CSV Redirected Mode - I/O läuft über anderen Knoten VM läuft weiter VM Storage Resiliency findet nicht statt

Block Storage – Alle Pfade fallen aus VHD FC/FCoE/iSCSI/SAS Verhalten: VM wechselt in Pause Zustand Redirected Mode macht keinen Sinn da kein Pfad zum Storage vorhanden ist VM bleibt pausiert bis: der Storage wieder verfügbar ist 30 Minuten abgelaufen sind - danach wird VM ausgeschaltet und auf anderem Server gestartet SAN Ausfall betrifft alle Knoten SAN Ausfall betrifft alle Knoten

File Storage – Pfad Fehler VHD Verhalten: VM wechselt in Pause Zustand VM bleibt pausiert bis: der Storage wieder verfügbar ist 30 Minuten abgelaufen sind danach wird VM ausgeschaltet und auf anderem Server gestartet SMB Knoten bleibt im Cluster da es Netzwerkkomunikation gibt Netzwerk Verbindungs-Fehler NIC Treiber Hardware NIC Ausfall Kabel Fehler Switch Port Fehler Netzwerk Verbindungs-Fehler NIC Treiber Hardware NIC Ausfall Kabel Fehler Switch Port Fehler

Remote Desktop Verbesserungen RemoteFX Verbesserungen Erheblich verbesserter Grafikkarten Support OpenGL 4.4 und OpenCL 1.1 Support 4k Bildschirm Support und 1GB dedizierter RAM Nutzung des H264/AVC Codec Support für Windows 10 Enterprise und Server 2016 Diverse Verbesserungen Server VM als VDI Gäste (pooled und Personal) Generation 2 VM Support Remote Desktop Server Host unterstützt Stifteingabe

Shared VHDX Verbesserungen im Shared VHDX Umgang Neues Dateiformat VHD-Set Online Backup Hyper-V Replica Online Resize VHD Set

PowerShell Direct Ausführung von PowerShell CmdLets in einer VM vom Management OS aus Kein Netzwerk notwendig Kein CredSSP notwendig Sicherheit durch Authentifizierung Host Betriebssystem support: Windows 10 Windows Server 2016 VM Betriebssystem support: Windows 10 Windows Server 2016

NanoServer Neue GUI-loser, 64-bit Betriebsart des Windows Server 2016 Abgespeckter und stark überarbeitet mit Fokus auf: CloudOS Infrastruktur (Clustering, Storage, Networking) Born-in-the-cloud Anwendungen (PaaS v2, ASP.NET v5) VMs & Containers (Hyper-V & Docker) Erweitert das Server Core Pattern Rolen & Features gibt es nicht in Nano Server Keine Binaries oder Metadata im Betriebssystem Image Standalone Pakete installieren sich wie Apps Voller Driver Support Antimalware SystemCenter Agenten

NanoServer NanoServer Verbesserungen (Quelle Jefrey Snover) Reboots durch Patche Offene Ports Benötigter Plattenplatz

Microsoft Container Vorteile von Container Wesentlicher geringer Footprint als Virtuelle Maschine teilen sich die Betriebssystem Ressourcen Container sind isoliert Ausprägungen von Container Windows Container Hyper-V Container Management Docker PowerShell Build 2016: Hyper-V Containers kommen nach Windows 10

Anwendung auf Hardware Betriebssystem Physischer Host Anwendungen

Anwendung in VMs Betriebssystem Anwendungen Virtuelle Machine(n) Betriebssystem

Anwendung in Container Container auf phys. Host Operating System Container in VM

Containers das “Ganze Bild” Physischer Host Hyper-V Virtuelle Machine Hyper-V Container Windows Server Container Windows Server Container Hyper-V Container

Hyper-V Replica Verbesserungen Veränderungen bei bestehender Replication Replica Support für VHDX Hot-Add und – Remove Down- und UP-Level Replikation Replikation von Windows Server 2012 R2 nach Windows Server 2016 Replication von Windows Server 2016 nach Windows Server 2012 R2 Cluster OS Rolling Upgrade Support Hyper-V Replica in Windows Server 2012 R2

Und da ist noch viel mehr Neues VM Binär Format (.VMCX und.VMRS) Update der Integrationskomponenten über Windows Update Livemigration Kompatibilität (2012 bis 2016) Produktions Checkpoints mit VSS Unterstützung Unterstützung von unterschiedlichen Power- Management Modi (z.B. Client Connected Standby) Discrete Device Assignment Neue PowerShell CmdLets: 217 in Server 2016 TP4 (2012 R2 hat 178) …

Software Defined Storage (SDS) Stand Mai 2016

Windows Server 2012 R2 Storage Spaces Warum Storage Spaces in Windows Server 2012 (R2) Kosteneffektiv durch Standard Hardware Scale-Out Design und Elastizität Schnell und Hochverfügbar Hyper-V ist auf SOFS optimiert Nutzung von SMB3 und SMB3 Direct Ziel Szenarien: Hyper-V Storage (mit Mirror) Backup Storage (mit Double Parity) Scale-Out File Server Hyper-V Clusters SMB3 Storage Network Fabric Shared JBOD Storage

Storage Spaces Direct (S2D) Scale-Out File Server Hyper-V Clusters SMB3 Storage Network Fabric Shared JBOD Storage

Überblick Ermöglicht Cloud optimiertes Hardware Design DAS (shared Nothing) SATA, SAS und NVMe Vermutlich Support für ausgewählte OEM Konfigurationen Einfache Erweiterbarkeit Support für große Pools Einfache Erweiterbarkeit durch Hinzufügen von weiteren Knoten (16 Knoten in TP4) Rebalancing der Daten über die Knoten Management System Center und PowerShell Scale-Out File Server Hyper-V Clusters SMB3 Storage Network Fabric

Deployment Varianten Converged Hyper-V und Storage Cluster separat Compute und Storage skalieren unabhängig voneinander Mehrere Hyper-V Cluster können ein S2D Cluster nutzen Typisch für große Deployments Scale-Out File Server Cluster Hyper-V Cluster(s) SMB3 Storage Network Fabric Hyper-converged Hyper-V und Storage System auf gleichen Knoten Compute and Storage skalieren zusammen Keine externe Nutzung möglich Typisch für kleine bis mittlere Deployments Hyper-V Cluster

Storage Stack Deployment Varianten 1. Scale-Out File Server oder 2. Hyper-Converged File System (CSVFS mit ReFS) Cluster-weiter Daten Zugriff REFS Vorteile wie Multi-resilient Disks und VHDX Handling Storage Spaces Skalierbarer Pool mit allen Storage Devices Resilient virtuelle Disks Software Storage Bus Storage Bus Cache Nutzt SMB3 und SMB Direct Servers mit lokalen Platten SATA, SAS und NVMe Storage Spaces Storage Pool Storage Spaces Virtual Disks Scale-Out File Server CSVFS Cluster File System Software Storage Bus Virtual Machines 12 ReFS On-Disk File System Virtual Machines

Software Storage Bus Virtueller Storage Bus aufgespannt über alle Server Virtualisiert physische Platten und Enclosure Besteht aus: Clusport: Initiator (virtueller HBA) ClusBflt: Target (virtuelle Platte / Enclosure) SMB3/SMB Direct Transport RDMA Netzwerk für geringe Latenz und CPU Bandbreiten Management Fairer Geräte Zugriff von jedem Server aus IO Priorisierung (App gegen System) De-Randomisierung von Random-IO Fördert sequenziellen IO auf rotierenden Platten ClusPort SpacePort Virtual Disks File System Cluster Shared Volumes File System (CSVFS) Application Node 1 Block over SMB ClusBflt Node 2 Physical Devices ClusPort SpacePort Virtual Disks File System ClusBflt Physical Devices

Software Storage Bus Cache Bestandteil des Software Storage Bus Nutzt Cache auf lokaler Maschine Agnostisch zu den Storage Pools Read und Write cache (siehe Tabelle) Automatische Konfiguration bei Aktivierung von S2D Spezielle Partition auf jedem Caching-Device Lässt 32 GB für Pool- und vDisk-Metadaten übrig (Journal) Round Robin-Bindung von SSDs zu HDDs Neuzuordnung bei Wechsel der Konfiguration Storage ConfigurationCaching devicesCapacity devicesCaching behavior SATA SSD + SATA HDDAll SATA SSDAll SATA HDDRead + Write NVMe SSD + SATA HDDAll NVMe SSDAll SATA HDDRead + Write NVMe SSD + SATA SSDAll NVMe SSDAll SATA SSDWrite only Caching Devices Capacity Devices

Metadaten-Verteilung im Storage Pool Metadaten werden auf einem Teil der Datenträger abgelegt Verbessert Skalierbarkeit bei Pools > 80 Datenträgern Auswahlkriterien für Datenträger schnellere Datenträger werden bevorzugt Bis zu zehn Stück Verteilung innerhalb der “Fault Domain” dynamisches Update bei Ausfall von Devices Potential metadata devices

Chassis Rack Fault Tolerance Resiliency Disk Server <- Standard Chassis Rack Fault Domain Awareness Platzierung der Daten, Reparatur und Rebalancing Disk Fehler Automatische Reparatur auf verbleibende Datenträger Automatisches Rebalancing bei Datenträger- Austausch Server Neustart Automatischer Daten-Resync, wenn Server wieder online kommt Dauerhafter Server Fehler Reparatur durch den Administrator, kein Automatismus

Multi-Resiliency Virtual Disks Datenbereich bestehend aus zwei Tiers Gespiegelter Bereich (Geschwindigkeit) Parity-Bereich (Speicherplatz) Mirror wird für alle Schreibvorgänge benutzt Empfehlung: minimum10% Mirror-Speicherplatz Vorteil des Parity-Bereichs Je mehr Nodes, desto mehr Netto-Speicherplatz Verteilung der Daten auf mehreren Nodes Mirror tierParity tier Virtual Disk Server 2Server 3Server 4Server 1 Nodes Mirror tier Efficiency Parity Tier Efficiency Resiliency 433%~50%2 node 833%~62%2 node 1633%~75%2 node LRC Erasure Coding in Storage Spaces Server 5 Server 6 Server 7 Parity Mirror AA’ A’’ BB’ X1X1 X2X2 PxPx Y1Y1 Y2Y2 PyPy Q B’’ Group 1 Group 2

ReFS Real-Time Tiering Multi-Resiliency Virtual Disks mit REFS Real- Time Tiering 1.ReFS schreibt immer in Mirror Tier Kein direktes Schreiben auf Parity Tier 2.Daten werden abgespeichert Ablage auf SSDs 3.Auslagerung auf HDDs Daten werden bewegt, sobald „kalt“ Änderungen im Parity-Tier bedeuten: Schreiben im Mirror-Tier Alte Daten im Parity-Tier werden ungültig Mirror TierParity Tier W ReFS

Management PowerShell Cluster erzeugen Aktivieren von Storage Spaces Direct Erzeugen von Volumes / File Shares Health Monitoring System Center Bare Metal Deployment Unterstützt Hyper-converged und Converged Support für VM Management Support für Storage QoS und Storage Replica Cluster Aware Updating Startet Node Update nur wenn alle Volumen Healthy sind Integrated health monitoring One monitoring point for everything. Aggregated metrics, fast and in-box. Disk replacement, completely automated. Debug- StorageSubSystem Get- StorageHealthRep ort Get- StorageHealthAct ion

Device Konfigurationen Hybrid Storage Konfiguration NVMe oder SATA SSD + SATA HDD Gutes Performance / Kostenverhältnis All-Flash Storage Konfiguration All NVMe und / oder SATA SSD Beste Performance / Höchster Preis NVMe + SSD + HDD Storage (3 Tier Lösung) NVMe für Cache, SSDs für Mirror Tier und HDDs für ParityTier Hervorragende Performance / Moderater Preis

Microsoft and Intel showcase at IDF’15 Load ProfileTotal IOPSIOPS/Server 100% 4K Read4.2M IOPS268K IOPS 90%/10% 4K Read/Write3.5M IOPS218K IOPS 70%/30% 4K Read/Write2.3M IOPS143K IOPS Showcase Hardware 16 Intel® Server System S2600WT(2U) nodesIntel® Server System S2600WT Dual Intel® Xeon® processor E v3 ProcessorsIntel® Xeon® processor E v3 Processors 128GB Memory (16GB DDR V DR x4 RDIMM) Storage per Server 4 - Intel® SSD DC P3700 Series (800 GB, 2.5” SFF)Intel® SSD DC P3700 Series Boot Drive: 1 Intel® SSD DC S3710 Series (200 GB, 2.5” SFF) Network per server 1 Chelsio® 10GbE iWARP RDMA Card (CHELT520CRG1P10) Intel® Ethernet Server Adapter X540-AT2 for management Load Generator (8 VMs per Compute Node => 128 VMs) 8 virtual cores and 7.5 GB memory DISKSPD with 8 threads and Queue Depth of 20 per thread DISKSPD

Performance Video auf Channel9 Konfiguration: 4x Dell R730XD 2x Xeon E5-2660v3 2.6Ghz (10c20t) 256GB DRAM (16x 16GB DDR MHz DIMM) 4x Samsung PM TB NVME SSD (PCIe 3.0 x8 AIC) Dell HBA330 4x Intel S GB SATA SSD 12x Seagate 4TB Enterprise Capacity 3.5” SATA HDD 2x Mellanox ConnectX-4 100Gb (Dual Port 100Gb PCIe 3.0 x16) Mellanox FW v Mellanox ConnectX-4 Driver v Device PSID MT_ Single port connected / adapter

Special & Event Hyper-V PowerKurs Special Infos am Stand der acmeo Cloud & Datacenter Conference Nachlese Infos am Stand der MR Datentechnik

Distributed Storage QoS Ermöglicht vorhersagbares End-to-End Management der Storage Bandbreite für Hyper-V VMs Storage QoS Monitor identifiziert und beobachtet I/O Verhalten und Nutzung jeder einzelnen VHDX Policy Regelung wieviel Storage Bandbreite eine VHDX bekommt SingleInstance Policy – Regelwerte gelten für alle VHDX in der Policy in Summe MultipleInstance Policy – Regelwerte gelten für jede individuelle VHDX Komponenten  Hyper-V VMs  SMB3 Storage Protokoll mit Scale-Out Fileserver  Hyper-V Cluster mit CSV Storage Scale-out File Server Cluster Hyper-V Cluster Virtual Machines I/O Sched I/O Sched I/O Sched Policy Manager Rate Limiters Rate Limiters Rate Limiters Rate Limiters SMB3 Storage Network Fabric CSV

Storage Replica Ein Desaster Recovery Feature, welches aus Enterprise SAN Systemen bekannt ist Zielt auf Volumes (eigentlich Partition) Repliziert auf Block Basis Dateisystem Agnostische Unterstützte Szenarien: Server zu Server Stretched Cluster Cluster zu Cluster

Storage Replica – Synchrone Replication Funktionsweise Synchrone Replication 1.Anwendung schreibt Block. 2.Block wird in Quellserver Log geschrieben und zeitgleich zum Zielserver mittels SMB3 übertragen. 3.Block wird in Zielserver Log geschrieben. 4.Zielserver bestätigt Quellserver den Schreibvorgang. 5.Quellserver bestätigt Applikation erfolgreichen Schreibvorgang. 6.Block wird auf beiden Datenvolumen der Quell- und Zielserver geschrieben. Achtung: Laufzeit sollte unter 5ms liegen Logs sollten auf SSDs liegen Anwendung (lokal oder remote) Anwendung (lokal oder remote) Quellserver Node (SR) Quellserver Node (SR) Data Log 1 1 t t 2 2 Zielserver Node (SR) Zielserver Node (SR) Data Log t1t1 t1t

Storage Replica – Asynchrone Replication Funktionsweise Asynchrone Replication 1.Anwendung schreibt Block. 2.Block wird in Quellserver Log geschrieben. 3.Quellserver bestätigt Applikation erfolgreichen Schreibvorgang. 4.Block wird mittels SMB3 zum Zielserver übertragen. 5.Block wird ins Zielserver Log geschrieben. 6.Zielserver bestätigt Quellserver den Schreibvorgang. 7.Block wird auf beiden Datenvolumen auf Quell- und Zielserver geschrieben. Achtung: Logs sollten auf SSDs liegen Anwendung (lokal oder remote) Anwendung (lokal oder remote) Quellserver Node (SR) Quellserver Node (SR) Data Log 1 1 t t 2 2 Zielserver Node (SR) Zielserver Node (SR) Data Log t1t1 t1t

WindowsRDMA

RDMA / SMB Direct Sehr geringe CPU Belastung Mehr Ressourcen für Workload Geringere Latenz Hohe Bandbreiten Zwischen 10 und 100 Gb/s verfügbar Ethernet und Infiniband verfügbar iWARP RoCE Infiniband Beispiel aus der Praxis: VM im Failover Cluster 192 GB RAM 2x 56 Gb/s RDMA NICs SMB Multichannel Resultat: Dauer: 29 Sekunden 95,2 Gb/s == 11,9 GB/s 1% CPU Belastung

Storage Replica Ein Desaster Recovery Feature, bekannt aus Enterprise SAN Systemen Replikation von Volumes Replikation auf Block Basis Unabhängig von Dateisystem Unterstützte Szenarien: Server zu Server Stretched Cluster Geplant: Cluster zu Cluster

Storage Replica – Synchrone Replikation Funktionsweise Synchrone Replikation 1.Anwendung schreibt Block. 2.Block wird in Quellserver Log geschrieben und zeitgleich zum Zielserver mittels SMB3 übertragen. 3.Block wird in Zielserver Log geschrieben. 4.Zielserver bestätigt Quellserver den Schreibvorgang. 5.Quellserver bestätigt Applikation erfolgreichen Schreibvorgang. 6.Block wird auf beiden Datenvolumen der Quell- und Zielserver geschrieben. Achtung: Laufzeit sollte unter 5ms liegen Logs sollten auf SSDs liegen Anwendung (lokal oder remote) Anwendung (lokal oder remote) Quellserver Node (SR) Quellserver Node (SR) Data Log 1 1 t t 2 2 Zielserver Node (SR) Zielserver Node (SR) Data Log t1t1 t1t

Storage Replica – Asynchrone Replication Funktionsweise Asynchrone Replikation 1.Anwendung schreibt Block. 2.Block wird in Quellserver Log geschrieben. 3.Quellserver bestätigt Applikation erfolgreichen Schreibvorgang. 4.Block wird mittels SMB3 zum Zielserver übertragen. 5.Block wird ins Zielserver Log geschrieben. 6.Zielserver bestätigt Quellserver den Schreibvorgang. 7.Block wird auf beiden Datenvolumen auf Quell- und Zielserver geschrieben. Achtung: Logs sollten auf SSDs liegen Anwendung (lokal oder remote) Anwendung (lokal oder remote) Quellserver Node (SR) Quellserver Node (SR) Data Log 1 1 t t 2 2 Zielserver Node (SR) Zielserver Node (SR) Data Log t1t1 t1t

ReFS Neues Dateisystem Version 1 in Windows Server 2012 R2 Aktuell Version 3.0 in Windows Server 2016 TP5 Standard-Dateisystem für Daten Volumes Automatische Erkennung und Reparatur von Datenfehlern Verbesserungen und Optimierungen Auflösung von Hyper-V Prüfpunkt (ehemals Snapshot) Erstellung von VHD(X) mit fester Größe Erweiterung von dynamischer VHD(X) Metadaten Checksummen Online Backup und Reparatur von Metadaten

Volume-Typen Volume Optimiert für Einsatzszenario Effizienz Dateisystem Mirror Performance Ausschließlich „Hot Data“ 33 % ReFSoder NTFS „ Parity Kapazität Ausschließlich ColdData“ 57 % (+x) ReFSoder NTFS -MultiResilient Gemischt Sowohl„Hot“ als auch „ColdData“ Unterschiedlich ReFS

Multi-Resilient Volume Vereint Performance und Kapazität Nur mit ReFS realisierbar Mirror für „Hot Data“ Eingehende Schreibvorgänge Minimale CPU-Belastung Bevorzugt SSDs Parität für „Cold Data“ Erasure Encoding CPU-Belastung Bevorzugt HDDs Mirror tierParity tier Disk 2Disk 3Disk 4Disk 1 AA’A’’BB’B’’ Mirror Parity X1X1 X2X2 PxPx Y1Y1 Y2Y2 PyPy Q

ReFS Real-Time Tiering 1.ReFS schreibt immer in Mirror Tier Kein direktes Schreiben auf Parity Tier 2.Daten werden abgespeichert Ablage bevorzugt auf SSDs 3.Auslagerung auf HDDs Daten werden bewegt, sobald „kalt“ Änderungen = Mirror Tier Alte Daten werden ungültig Mirror TierParity Tier W ReFS

Verbesserungen im Shared JBOD Design CSV Read Cache Nutzung bei Tiering möglich Mehr als 64 GB möglich Enclosure Awareness Rebalancing im Storage Pool Erweiterung Austausch CSV Read Cache CS V

Distributed Storage QoS Ermöglicht vorhersagbares End-to-End Management der Storage Bandbreite für Hyper-V VMs Storage QoS Monitor identifiziert und beobachtet I/O Verhalten und Nutzung jeder einzelnen VM Klare Policy Regelung wieviel Storage Bandbreite eine VM bekommt Regelung pro Gruppe oder pro VM möglich Bis zu Policys pro Storage Cluster Benötigte Komponenten  Hyper-V VMs  SMB3 Storage Protokoll mit Scale-Out Fileserver  Hyper-V Cluster mit CSV Storage Scale-out File Server Cluster Hyper-V Cluster Virtual Machines I/O Sched I/O Sched I/O Sched Policy Manager Rate Limiters Rate Limiters Rate Limiters Rate Limiters SMB3 Storage Network Fabric CSV

VHD Sets Neues Dateiformat:.vhds Online Backup Unterstützt Hyper-V Replica Online Resizing

Nano Server Neue, GUI-lose Betriebsart des Windows Server 2016 Fokus auf CloudOS Infrastruktur (Clustering, Storage, Networking) „less is more“ Weniger Reboots durch Updates Weniger offene Ports Geringerer Speicherplatz

Rolling Cluster Upgrade Failover Cluster Update ohne: Neue IP Neue Namen Vorgehen pro Host: Node Freiräumen und aus Cluster nehmen Betriebssystem neu Installieren Node in Cluster aufnehmen Für alle Nodes wiederholen Clusterfunktionslevel erhöhen Unterstützte Cluster Rollen: Hyper-V Scale-Out Fileserver Win2012 R2 Win2016