Der Zugang zum alten 32-bit Cluster erfolgt über ssh zum Headnode snowwhite, ein entsprechendes Passwort vergeben die Admins.
$ ssh name@snowwhite
Von snowwhite ist die komplette Rechenleistung über das Queuing-System abrufbar. Ein direktes login auf die Rechenknoten ist normalerweise nicht erforderlich. Einen Überblick zu Auslastung und Status des Systems bietet Ganglia*.
Auf snowwhite sind folgende Compiler installiert:
Die Intel-Compiler bieten spezielle Optionen zur prozessor-spezifischen Optimierung, erlaubt sind:
OpenMP-fähige Programme müssen mit den Intel-Compilern und der Option -openmp übersetzt werden.
Als Message Passing Interface ist MPICH 1 installiert. MPI Programme werden mit Hilfe der üblichen mpi... Scripts übersetzt:
$ mpicc mpi_hello.c -o mpi_hello.x
Die Programm-Ausführung wird im nächsten Abschnitt erklärt.
Die Verwaltung der Rechenzeit übernimmt das Queuing-System Torque, d.h. alle Rechnungen müssen mit einem Jobscript gestartet werden. Eine Übersicht über alle Queues und ihre Limits liefert der Befehl:
$ qstat -q
Die aktuelle Auslastung sieht man mit:
$ qstat -a
Ein typisches Jobfile (mit OpenMP) sieht folgendermaßen aus:
#!/bin/bash
#PBS -q work
#PBS -l walltime=24:00:00
#PBS -l nodes=1:ppn=2
#PBS -joe
cd $PBS_O_WORKDIR
export OMP_NUM_THREADS=2
./programm
Die vollständige Hilfe zu Torque findet sich im Netz.
An das Queuing-System übergeben wird das Jobfile mit:
$ qsub jobfile
Auf snowwhite sind folgende Bibliotheken installiert:
*Zugriff auf Ganglia ist nur vom uni-internen Netz möglich.