CUSS Compute-Server

Das kiz betreibt für die Wissenschaftler der Universität Ulm den Campus Ulm Shared Science Cluster(CUSS) mit 36 öffentlich zugänglichen Knoten.

Zum Login sollten Sie den Linux-Rechner zeus.rz.uni-ulm.de verwenden.

Ausstattung der Rechner

  • 36 x Dell R610
  • 2x Quadcore Intel(R) Xeon(R) CPU X5570 2.93 GHz
  • 48 GB RAM
  • openSUSE 13.1
  • Die Rechner sind per Gigabit Ethernet  angeschlossen.

Hinweise zur Nutzung

Neben Basis-Software wie z.B. Compilern und MPI stellen wir auch ein Angebot an wissenschaftlicher Software (Übersicht auf der Opens internal link in current windowSoftwareliste) über das Module-System zur Verfügung (Siehe auch Zugriff auf Software). 

  • Ressourcen
    Für alle Jobs die unabhängig vom Batchsystem gestartet werden, sind die Ressourcen eingeschränkt. Im Augenblick ist die CPU-Zeit auf 20 Minuten und der Hauptspeicher auf 8 GB limitiert. Jobs, die darüber hinausgehende Anforderungen haben, müssen über das Batchsystem Opens external link in new windowGrid Engine gestartet werden.
  • Compiler
    Es stehen Gnu, Sun, Pgi und Intel-Compiler zur Verfügung. Die genaue Liste erfahren Sie mit dem Befehl: module avail compiler
  • Scratch-Platten
    Scratch-Platten stehen in unterschiedlichen Größen zur Verfügung. Auf der x86-Platform sind dies bis zu 200 GB lokaler Platz. Diese Bereiche sind jeweils unter /work/<username> zugänglich. Zusätzlich stehen 3 TB NFS-zugängliche Scratchbereiche unter /soft/scratch/<username> zur Verfügung. Dieser sollte aber nur verwendet werden falls die Anwendung keine I/O-Aktivität mit vielen kleinen Zugriffen tätigt. Sequentielles Schreiben oder Lesen stellt hingegen kein Problem dar.
    Bitte beachten Sie, dass keiner der Scratch-Bereiche gesichert wird! Zusätzlich werden Dateien, auf die länger als 10 Tage nicht zugegriffen wurde, gelöscht. Wir übernehmen keine Garantie dafür, dass Daten auf den genannten Filesystemen nach Upgrades oder Änderungen in der Konfiguration noch verfügbar sind. Benutzen Sie diese Scratch-Dateisysteme deshalb nicht zur Speicherung wichtiger Daten!
  • Softwaretools
    Software wird über das "Module"-System gemeinsam für CUSS und die Linux-Pools bereitgestellt (Siehe Zugriff auf Software). 
  • Login-Shell
    Da wir (neben dem Compute-Server) eine sehr heterogene Rechner-Umgebung haben, unterstützen wir als Login-Shell nur die bash-Shell und stellen nur für diese eine Startumgebung zur Verfügung. Natürlich sind auch csh- und tcsh-Shell verfügbar, werden jedoch nicht von uns unterstützt.
  • scp/sftp/ftp
    Bitte benutzen Sie  scp oder sftp, um Daten auszutauschen. Das ftp-Protokoll ist unsicher, da Passwörter unverschlüsselt übertragen werden, und wird daher nicht unterstützt. 

Das Batch-System

Das Batchsystem Grid Engine gewährleistet eine bessere Auslastung der Knoten und bringt u.a. Vorteile bei der Planung von Stillstandszeiten. Für interaktive Jobs sehen wir zusätzliche Zeitfenster im Batchsystem vor. Falls Sie Probleme haben oder der Ansicht sind, dass Ihre Anwendungen nicht unter dem Batchsystem ablaufen können, nehmen Sie bitte mit Ihrem lokalen Systemadministrator Kontakt auf. Zusammen werden wir dann einen passenden Ausweg finden.

  • Für alle Nutzer zugänglich sind die Queues alpha.q and alpha_l.q
  • Die Grid Engine-Konfiguration hat im Moment folgende Grenz- und Standardwerte:
  • Jobdauer 180 Stunden
    max. Memory pro Prozess 40 GB
    max. CPUs pro Job 8
  • Die aktuelle und vollständige Liste der Grenzwerte kann direkt auf dem System abgefragt werden: qconf -sq alpha.q 
  • Eine Beispieldatei zum Starten eines Batch-Jobs finden Sie für die meisten der auf den Cluster installierten Softwarepakete. So z.B. für Matlab mit: module load math/matlab; cd $MATLAB_EXA_DIR; ls -la;cat *single*sge
  • Starten des Jobs mit: qsub your_script.sge
  • Zusätzliche Information vom Scheduler können über den qstat-Befehl erhalten werden; beachten Sie dazu die Manpages von qstat und folgende Beispiele:
    qstat: zeigt den Status aller Jobs
    qstat -f: wie qstat, aber mit zusätzlicher Information
    qstat -u <username>: zeigt den Status der Jobs eines Nutzers namens <username>
    qstat -j <jobid>: zeigt den ausführlichen Status eines bestimmten Jobs, insbesondere gegebenenfalls auch den Grund, weshalb er nicht gestartet ist.
    qstat -F <resource>: Uberblick zum aktuellen Status hinsichtlich einer oder mehren Resourcen (allocation etc.)
  • Dem Batch-System muss angegeben werden, welche Architektur eine Anwendung benötigt. Standard ist immer die Architektur der Maschine, auf der der Job abgeschickt wurde. Zulässige Bezeichnungen sind "arch=sol-sparc64" und "arch=lx26-amd64".
  • Mit "qdel JobID" kann ein Job gelöscht werden.

 

Nach oben

Helpdesk

Kontaktieren Sie uns bei Fragen und Problemen zu den Services des kiz:
Kontaktzeiten Mo - Fr  8 - 18 Uhr
Telefon +49 (0)731/50-30000
Öffnet ein Fenster zum Versenden einer E-Mailhelpdesk(at)uni-ulm.de
Support-Ticket erstellen
[mehr]

Bitte beachten

Die Service-Points des kiz sind vom 24.12.14 - 6.1.15 geschlossen.


Schnellsuche


Web-Seiten des kiz
Online-Katalog