Ursula Winkler Günther Berthold Usermeeting 17. Jänner 2008.

Slides:



Advertisements
Ähnliche Präsentationen
Netzwerke in der Informationstechnik
Advertisements

Wie kommt diese Ergebnisentwicklung zustande?
Arbeitskreis Wissenschaftliches Rechnen Universität Duisburg-Essen
Karo IT Viehmarkt Neumarkt Karo IT Neumarkt GmbH | Tel.:
PC-Cluster.
Front-End Rechner: Alternativen zum Desktop (S. Herb, Mai 2004)
Einführung in das Komplexpraktikum Rechnernetze Wintersemester 2009 Fakultät Informatik Institut für Systemarchitektur, Professur für Rechnernetze Dresden,
Vizepräsident für Personal und Finanzen
Windows auf öffentlichen PCs
C.M. Presents D.A.R. und Ein Bisschen dies und das!
Aufgaben zum Scheduling
Systeme 1 Kapitel 5.1 Unix Scheduling WS 2009/101.
Präsentation Einsatzmöglichkeit von Microsoft Virtual PC 2004 im Praktikum Rechnernetze Marwane Lahsini PHT02.
Implementierung von Gender Mainstreaming in die Evaluation
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (27 – Kürzeste Wege) Prof. Th. Ottmann.
1 Vorlesung Informatik 2 Algorithmen und Datenstrukturen (21 – Kürzeste Wege) T. Lauer.
An's Netz An's Netz An's.
OpenMP Präsentation im Rahmen des Seminars
Virtualisierung bei der GWDG, Struktur
Einführung Definitionen
Studiengang Informatik FHDW
Datenbanksystementwicklung – Praktikum & Vorlesung – WS 2004/2005
WIRTSCHAFTSINFORMATIK Westfälische Wilhelms-Universität Münster WIRTSCHAFTS INFORMATIK TotalView Debugger Vorgestellt von Marco Dyballa mail:
– Team 2 Aktueller Projektleiter: Christian Krapp
Vorlesung 2 Rechnerarchitektur Universität Bielefeld – Technische Fakultät AG Rechnernetze und verteilte Systeme Peter B. Ladkin
Technische Informatik II Rechnerarchitektur und Betriebssysteme Universität Bielefeld – Technische Fakultät AG Rechnernetze und verteilte Systeme Peter.
Erfahrungsbericht Rechenzentrum der Ruhr-Universität Bochum
Gerlind Bruschek AK-SYS 2007 Erfahrungen beim Einsatz vom Bladeservern an der Hochschule Magdeburg-Stendal (FH) 1. Bisherige Server-Infrastruktur 2. Neue.
Content-Server Content Infra- struktur Streams Lösung Johannes Kohlmann, Universität Mannheim Content Server Johannes Kohlmann.
Angebotene Dienste und Leistungen/HRZ Peter Mann.
Datenmanagement in Sensornetzen PRESTO - Feedback gesteuertes Datenmanagement - SS 2007 Sören Wenzlaff.
Linux-HA-Cluster – Heartbeat mit DRBD
Redundanter Fileserver mit Heartbeat2 und DRBD - Linux-HA-Cluster
Hamburg November Computing in der CMS Gruppe der Uni Hamburg Zwei Bereiche: grid Computing Workgroup Server für Analyse.
1 Nutzen Sie diese Powerpoint-Präsentation beim Selbstlernen oder in Veranstaltungen zur Einführung in das jeweilige Thema. Einführung Lernmodul Nutzungsbedingungen:
Distributed Multimedia Control Steuerung und Überwachung von Präsentationen in Netzwerken.
Datagrid in Earth System Sciences (DGESS) - Integration und Erweiterungen - Projektreffen am Max-Planck-Institut für Meteorologie Heinrich Widmann 28.
Evaluierung des ITU-T.124 Telekonferenzstandards
Installationsdiskette booten Startdiskette und CD-1 einlegen und den Rechner starten Auswahl: Deutsch Auswahl: Farbbildschirm Auswahl: Deutsch Auswahl:
Stand: November Anforderungen an Systemumgebung und Hardware Anmerkung Gollas, Schulamt Freising: Für unsere Schulen kommt eine Mehrplatz Installation.
Backup und Recovery sehr großer Datenbanken
Clustered Neuronal Network A C#.NET project for Compute Cluster Server 2003.
Wir zeigen ihnen einen Computer der anderen Art!
TWS/Graph HORIZONT Produkt-Präsentation Software für Rechenzentren
Präsentation von Alexander Schönfeld
Lizenz zum Forschen = 1 Euro Microsoft ® High Performance Computing-Programm für Bildungs- und Forschungseinrichtungen.
Westfälische Wilhelms-Universität Münster 15-JAN-2004 Heinz-Hermann Adam Benutzung von tragbaren Computern Unter Windows in.
Innovations in Mathematics, Science and Technology Teaching Ao. Univ. Prof. Dr. Günther Ossimitz Juli 2002 IMST 2 – Schwerpunktprogramm S4 Einladung zur.
Arbeitsgruppen-administration
A RBEITEN MIT T HREADS. P ROZESSE UND T HREADS Prozess Eine einzelne CPU kann immer nur einen einzelnen Prozess bearbeiten. Rechenzeit wird an Prozesse.
Technische und organisatorische Aspekte bei der Einführung und dem Betrieb einer universitätsweiten Lernplattform: Herbert STAPPLER Zentraler Informatikdienst.
Universität Zürich Informatikdienste GoKoordinatorenmeeting 27. April UZH Global Storage Projekt.
Cs104 Programmieren II Präsentation Meilenstein 3 Sommersemester 2007 Gruppenname (Gruppe Nr. x) Name 1 (Name der/des Vortragenden unterstreichen) Name.
Cs104 Programmieren II Präsentation Meilenstein 1 Sommersemester 2007 Gruppe Nr. x Name 1 (Name der/des Vortragenden unterstreichen) Name 2 Name 3 Name.
Cs104 Programmieren II Präsentation Meilenstein 5 Sommersemester 2007 Gruppenname (Gruppe Nr. x) Name 1 (Name der/des Vortragenden unterstreichen) Name.
18 mai 2014 Slide N° 1 8. April 2009 Slide Nr. 1 Urbact-Sekretariat URBACT II Europäisches Programm zur territorialen Zusammenhalt bei der.
Webhosting an der Universität Zürich
Kommunales Netzwerk - Soziale Stadt in Niedersachsen 06. Mai 2008.
SSDs im SAN - Praxisbericht Erich Eckel Österreichische Lotterien Storage Management.
Projektorganisation, Arbeitsgruppenstrukturen, Kommunikations- und Entscheidungsstrukturen Kristina Koller Digitization Lifecycle Meeting 06./
1 DEUTSCHES ELEKTRONEN-SYNCHROTRON NOTKESTR HAMBURG PHONE FAX KDS-Anwendertreffen
Eine kurze Einführung.  Software zur Erstellung eines Dokumenten- servers  Dient zur Aufbewahrung von allen Typen von digitalen Inhalten (Texte, Bilder,
1 Willkommen beim Registrar-Seminar! Richard Wein, Geschäftsführer.
Fakultät Maschinenwesen, Professur für Technische Logistik THEMA DER ARBEIT (DIN Bold 48) Diplomand: Vorname Name Betreuer: Herr X Betreuender HSL: Prof.
Der Vorgesetzte Bei Ihnen liegt die Verantwortung, den Prozess und die Mitarbeitergespräche innerhalb der gegebenen Frist kompetent durchzuführen und angemessen.
WINDOWS 2003 Server. Standart Varianten für 32 Bit: Web Edition: Unterstützt Single(1)- oder Dual(2)-Prozessor-Systeme und bis zu 2 GB RAM 32-Bit Standard.
MyCoRe in einem in einem Detlev Degenhardt Jena, den Umfeld - Umfeld.
Dr. Klaus Ruhlig Technology & Product Consulting Sun Microsystems, München Skalierbare Rechnerarchitekturen für ein DWH: Eine vergleichende Analyse.
Wechsel von Oracle Cloud Control 12c zu 13c
Lizenzierung von ORACLE-Datenbanken
 Präsentation transkript:

Ursula Winkler Günther Berthold Usermeeting 17. Jänner 2008

Agenda  Uni-Infrastruktur IV  Betriebskonzept  User Support  Sauron Systeme  Accounting  SGE Konfiguration  User Präsentationen  Binäre Datenkompression (Truhetz)  Allfälliges

UniInfrastruktur IV  Der neu anzuschaffende Rechner soll den Bedarf an Hochleistungsrechenkapazitäten an der Naturwissen- schaftlichen Fakultät der Universität Graz decken. Insbesondere steht er für die Arbeitsgruppen zur Verfügung die den Cluster im Rahmen des Programmes Forschungs- infrastruktur IV beantragt haben. Daneben soll es auch möglich sein, etwaigen an der Universität Graz neu gegründeten Gruppen Rechenzeit zur Verfügung zu stellen.  Der neue Rechner wird den zur Zeit laufenden Computer- cluster als Hochleistungsrechner für die Forschung schrittweise abhängig von den infrastrukturellen Gegebenheiten ablösen (Strom, Kühlung, Stellfläche).  Die erst im Sommersemester 2007 in Betrieb genommene Partition “Erwin” sowie die Partition “Kepler” sollen mindestens bis Ende 2010 laufen.

Betriebskonzept (ITIL)

Betriebskonzept (Uni Graz) I  Im Betriebskonzept werden die Details der Inbetriebnahme, des Betriebes und der Evaluation für den Hochleistungs- Rechencluster festgelegt, der im Rahmen des Programms Forschungsinfrastruktur IV angeschafft werden soll (7. Nov. 2007).  Die Verantwortung für den Betrieb des Rechners liegt beim ZID. Zur Koordinierung wird ein Beirat eingerichtet, in dem die Teilprojekte aus dem Infrastrukturantrag repräsentativ vertreten sind.  Es ist geplant in regelmäßigen Abständen (z.B. zwei Mal im Semester) Benutzertreffen abzuhalten.  Die Erteilung von Rechenaccounts für die User der Arbeits- gruppen die am Rechenbetrieb teilnehmen geschieht auf Antrag der Teilprojektleiter. Die Verwaltung der liegt beim ZID.

Betriebskonzept (Uni Graz) II  Der neue Rechencluster soll in zwei Partitionen eingeteilt werden, die die unterschiedliche Ausstattung mit Hardware (lokaler Speicher, Netzwerk) abbilden.  Es ist geplant den Auslastungsgrad des neuen Rechenclusters automatisiert mitzuprotokollieren und geeignet zu dokumentieren.  Die unter Verwendung von Rechenzeit des neuen Clusters erzielten Ergebnisse sollen nach außen hin geeignet dokumentiert werden. Es ist geplant Jahresberichte zu erstellen die kurz den Status der einzelnen Projekte darstellen und die Publikationen des letzten Jahres auflisten.

Agenda  Uni-Infrastruktur IV  Betriebskonzept  User Support  Sauron Systeme  Accounting  SGE Konfiguration  User Präsentationen  Binäre Datenkompression (Truhetz)  Multiple zombieartige Prozesse (Schwinzerl)  Allfälliges

User Support - Systeme Clustersysteme Type CPUMemory /tmpJahr Narya, VilyaHP ES454x Alpha 1250 MHz32, /2004 Sauron (8 Nodes) HP ES 454x Alpha 1250 MHz 4x8 4x /2002 Celeborn (43 Nodes) Intel Xeon2x Intel Xeon340 7/2003 Boltzmann (80 Nodes) Sun Fire V20z2x AMD Opteron 248 2,2GHz4100 7/2005 Kepler (17 Nodes) Sun Fire V20z2x AMD Opteron 248 2,2GHz4100 7/2005 Pregl (48 Nodes) Sun Fire V20z2x AMD Opteron 248 2,2GHz4100 7/2005 Erwin (16 Nodes) Sun X2200 M 22x AMD Opteron DC 2.6 GHz8190 2/2007

Installationen  Sauron  Auflösung des HP-Clusters  Einzelsysteme  Installation Tru64 V5.1B  Entfernung SAN Devices  Cluster-tmp: Neues Storage IP-Namen: sauron1 – sauron8 Zugang: via ssh (uni-intern) Änderungen: - /tmp: 136 GB (bisher 140) - /clu_tmp: 300 GB (bisher 200)

Accounting  Zugangsvoraussetzungen: - gültiger UGO-Account - HPC Projektteilnehmer (Institutsangestellte, Dissertanten, Diplomanden Probleme: uni-fremde Projektteilnehmer Account-Mehrfachnutzung  Geplant: Password-Setzung über UGO

Rechenzeiten  SGE Scheduling: - Hosts/CPU-Zuteilung - Zeit (Rechendauer)  Momentane Konfiguration: - 2 Queues (MPI, Default) mit jeweils allen Hosts + CPUs - keine Zeitlimits - keine Limits der Jobanzahl - keine Prioritäten  Schwierigkeit: - MPI Jobs sind, wenn Wartezeiten auftreten, im Queuing umso mehr benachteiligt, je mehr Ressourcen (# CPUs) sie benötigen

Rechenzeiten - Testruns mit vielen CPUs können damit unmöglich werden  Mögliche Abhilfe: - MPI-Queue mit höherer Priorität ausstatten - Prioritätensetzung in Abhängigkeit von der Laufzeit - generelle Laufzeitlimits für Jobs (z.B. 2 d) - Queue f. Single-Prozessor Jobs (Default-Queue) auf eine bestimmte Anzahl von Knoten beschränken, z.B. b01 – b40 - Beschränkung der Jobanzahl/User - „Advance Reservation“ v. MPI-Jobs i. d. Warteschlange

 Im Meeting folgende Übereinkunft getroffen ( ): KeplerPreglErwinBoltzmann Priority-QueueNein Ja (mpi) # Nodes pro Queue Alle default: 31 mpi…: 48 Einführung Testqueue Nein Ja Laufzeitlimits (pro Queue) Nein default: 7 Tage mpi: 3 Tage Fastmpi: 30 Min

Agenda  Uni-Infrastruktur IV  Betriebskonzept  User Support  Sauron Systeme  Accounting  Rechenzeiten  User Präsentationen  Binäre Datenkompression (Truhetz)Allfälliges

Userpräsentationen  Binäre Datenkompression (Truhetz)

Allfälliges  Erwin: SGE Upgrade auf 6.1  Ausgeschiedene Altsysteme: - SGI Origin 200 (Peregrin): Memory-Defekt - HP rx4640 Itanium Systeme (Beren, Dior, Elros, Elwe, Grimli): Mietvertrag ausgelaufen

Agenda  Uni-Infrastruktur IV  Betriebskonzept  User Support  Sauron Systeme  Accounting  SGE-Konfiguration  User Präsentationen  Binäre Datenkompression (Truhetz)  Allfälliges