441
Kommentar:
|
5018
|
Gelöschter Text ist auf diese Art markiert. | Hinzugefügter Text ist auf diese Art markiert. |
Zeile 7: | Zeile 7: |
Hubert Högl, 11.4.2021 Der "MiniCluster" ist ein preiswerter selbstgebauter Rechencluster, der für verschiedene Experimente verwendet werden soll, für die man eben ein kleines Cluster benötigt. Wir haben in etwa folgende Ausstattung: * Ein "Hauptrechner" AMD Ryzen Embedded V1000 4X4 Box mit 16 GByte RAM Der Rechner ist im Intranet der Hochschule sichtbar und ist die Anlaufstation des Clusters. Über den zweiten Ethernet Anschluss der 4X4 Box geht es auf einen Gigabit Switch, an dem die "Worker" des Clusters angeschlossen sind. Der Hauptrechner kann die Reset-Leitung der einzelnen Worker betätigen (muss noch implementiert werden). Damit sollen die Worker z.B. automatisiert mit Linux installiert werden können. * Vier Worker gibt es, das sind preiswerte Mini-ITX Boards mit Intel N3000 oder N4000 Prozessoren und jeweils 8 GB Speicher. * Als Zugabe ist noch ein `Jetson Nano <https://developer.nvidia.com/embedded/jetson-nano-developer-kit>`_ Board vorhanden, für Experimente die etwas "KI Power" erfordern. Somit ist ziemlich klar sichtbar, dass wir es nicht auf einen Preis im "High-Performance Computing" abgesehen haben, aber für einen gut funktionierenden Demonstrator sollte es allemal reichen. Dafür liegen unsere Ausgaben auch nur bei ein paar hundert Euro. Meine aktuelle Ideenliste für Experimente mit dem Cluster enthält folgende Bereiche: * Docker und Docker Swarm https://www.docker.com * Kubernetes https://kubernetes.io/de Master Projekt "HSA Web Services" vom Sommer 2020 nochmal nachvollziehen https://r-n-d.informatik.hs-augsburg.de:8080/hws/hws * `Proxmox <https://www.proxmox.com/de>`_ - KVM Virtualisierung - Ceph (verteiltes Dateisystem auf mehreren Knoten - ZFS Filesystem * Apache Spark https://spark.apache.org * `Slurm Job Scheduler <https://slurm.schedmd.com/documentation.html>`_ * `IPython Parallel Computing <https://ipyparallel.readthedocs.io/en/latest/>`_ * `DRDB <https://linbit.com/drbd>`_, Distributed Replicated Storage System * OpenMP * MPI * Ceph, Rook * Load Balancer * Job Queues * FOG Project (https://fogproject.org) * Firewalls Verwendung ---------- Der DNS Name des Hauptrechners ist ``cluster4x4.informatik.hs-augsburg.de`` (IP 141.82.48.160). Sie bekommen Login und Passwort von mir zugeschickt, wenn Sie einen Versuch mit dem Rechner machen möchten. Die vier Nodes sind wie folgt an den Hauptrechner angeschlossen. .. figure:: http://hhoegl.informatik.hs-augsburg.de/pub/minicluster/schema.png :target: http://hhoegl.informatik.hs-augsburg.de/pub/minicluster/schema.png :width: 600 Die Nodes kommen über den Hauptrechner auch ins Intenet. .. Die Nodes sind auch im Intranet erreichbar: 141.82.48.161 - 141.82.48.161 Jetson Nano: 192.168.0.5 Bilder ------ Der MiniCluster wird in den nächsten Tagen (Mitte April 2021) fertig, deswegen fehlen noch ein paar Sachen auf den Bildern. Den kompletten Aufbau und die Planung dazu hat Michael Schäferling <Michael.Schaeferling@hs-augsburg.de> erledigt. Die Schreinerei der Hochschule hat den schönen Holzrahmen gemacht. | |
|
Zeile 8: | Zeile 99: |
:target: http://hhoegl.informatik.hs-augsburg.de/pub/minicluster/front.jpg :width: 300 Die Vorderansicht. Die Worker Boards sind auf Plexiglas Platten montiert, die in den Rahmen geschoben werden können - tolle Idee, © M. Schäferling! Dadurch können die Worker leicht gegen Leistungsfähigere ausgetauscht werden, sollte mal wieder Geld dasein. | .. figure:: http://hhoegl.informatik.hs-augsburg.de/pub/minicluster/bottom.jpg :target: http://hhoegl.informatik.hs-augsburg.de/pub/minicluster/bottom.jpg |
|
Zeile 10: | Zeile 112: |
.. figure:: http://hhoegl.informatik.hs-augsburg.de/pub/minicluster/bottom.jpg | Die untere Hälfte des Rahmens. Hier sind die SSD Festplatten mit der gleichen Befestigungsart auf Plexiglas montiert. | .. figure:: http://hhoegl.informatik.hs-augsburg.de/pub/minicluster/top.jpg :target: http://hhoegl.informatik.hs-augsburg.de/pub/minicluster/top.jpg |
Zeile 13: | Zeile 121: |
.. figure:: http://hhoegl.informatik.hs-augsburg.de/pub/minicluster/top.jpg :width: 200 |
Von oben. Das Jetson Nano Board muss noch angeschlossen werden. Zur Zeit ist es noch in der originalen Verpackung. | |
Zeile 17: | Zeile 127: |
:width: 200 | :target: http://hhoegl.informatik.hs-augsburg.de/pub/minicluster/back.jpg :width: 300 Blick auf die Rückseite. Man sieht, dass in den ATX Netzteilbuchsen der Worker Boards die kleinen Spannungswandler stecken, die nur eine 12V Gleichspannung am Eingang benötigen. Alle 12V Leitungen werden von einem einzigen leistungsfähigen Meanwell Netzteil mit ca. 200 Watt gespeist, das noch im Rack befestigt werden muss. Die komplette Leistungsaufnahme des MiniCluster wird sich im Bereich von ca. 50 Watt (Leerlauf) bis 120 Watt (Volllast) bewegen. |
MiniCluster
Hubert Högl, 11.4.2021
Der "MiniCluster" ist ein preiswerter selbstgebauter Rechencluster, der für verschiedene Experimente verwendet werden soll, für die man eben ein kleines Cluster benötigt. Wir haben in etwa folgende Ausstattung:
Ein "Hauptrechner" AMD Ryzen Embedded V1000 4X4 Box mit 16 GByte RAM
Der Rechner ist im Intranet der Hochschule sichtbar und ist die Anlaufstation des Clusters. Über den zweiten Ethernet Anschluss der 4X4 Box geht es auf einen Gigabit Switch, an dem die "Worker" des Clusters angeschlossen sind.
Der Hauptrechner kann die Reset-Leitung der einzelnen Worker betätigen (muss noch implementiert werden). Damit sollen die Worker z.B. automatisiert mit Linux installiert werden können.
Vier Worker gibt es, das sind preiswerte Mini-ITX Boards mit Intel N3000 oder N4000 Prozessoren und jeweils 8 GB Speicher.
Als Zugabe ist noch ein Jetson Nano Board vorhanden, für Experimente die etwas "KI Power" erfordern.
Somit ist ziemlich klar sichtbar, dass wir es nicht auf einen Preis im "High-Performance Computing" abgesehen haben, aber für einen gut funktionierenden Demonstrator sollte es allemal reichen. Dafür liegen unsere Ausgaben auch nur bei ein paar hundert Euro.
Meine aktuelle Ideenliste für Experimente mit dem Cluster enthält folgende Bereiche:
Docker und Docker Swarm https://www.docker.com
Kubernetes https://kubernetes.io/de
Master Projekt "HSA Web Services" vom Sommer 2020 nochmal nachvollziehen https://r-n-d.informatik.hs-augsburg.de:8080/hws/hws
-
- KVM Virtualisierung
- Ceph (verteiltes Dateisystem auf mehreren Knoten
- ZFS Filesystem
Apache Spark https://spark.apache.org
DRDB, Distributed Replicated Storage System
OpenMP
MPI
Ceph, Rook
Load Balancer
Job Queues
FOG Project (https://fogproject.org)
Firewalls
Verwendung
Der DNS Name des Hauptrechners ist cluster4x4.informatik.hs-augsburg.de (IP 141.82.48.160). Sie bekommen Login und Passwort von mir zugeschickt, wenn Sie einen Versuch mit dem Rechner machen möchten.
Die vier Nodes sind wie folgt an den Hauptrechner angeschlossen.
Die Nodes kommen über den Hauptrechner auch ins Intenet.
Bilder
Der MiniCluster wird in den nächsten Tagen (Mitte April 2021) fertig, deswegen fehlen noch ein paar Sachen auf den Bildern. Den kompletten Aufbau und die Planung dazu hat Michael Schäferling <Michael.Schaeferling@hs-augsburg.de> erledigt. Die Schreinerei der Hochschule hat den schönen Holzrahmen gemacht.