Grundlagen News

iStock.com/aislan13

Hardware: Mehr Rechenkraft für die KI-Forschung

„Die zusätzlich installierte Hardware repräsentiert den neuesten Stand der Technik und garantiert einen Standard, wie ihn nur die führenden KI-Zentren Deutschlands bieten können", erklärte Professor Thomas Seidl, Inhaber des Lehrstuhls für Datenbanksysteme und Data Mining an der Ludwig-Maximilians-Universität München (LMU). Er ist einer der drei Direktoren des MCML und gehört auch dem Direktorium des LRZ an.

Die auf den Bedarf der KI-Forschung ausgelegte Erweiterung der LRZ-Infrastruktur bestehe aus 64 Graphics Processing Unit (GPUs), teilte die Hochschule am Dienstag mit. Jeweils acht dieser besonders leistungsfähigen speziellen Recheneinheiten seien zu einem Knoten zusammengefasst und eng miteinander vernetzt. Wiederum acht dieser sogenannten DGX-A100-Knoten von NVIDIA bilden demnach den gesamten GPU-Cluster. „Gepaart mit einem auf KI-Anwendung optimierten Hintergrundspeicher und einem äußerst performanten Netzwerk ermöglicht das Cluster neue Ansätze etwa bei Sprachverarbeitung und Bildanalyse zu erforschen", sagte Nicolay J. Hammer, Leiter des Teams Big Data und KI am LRZ.

GPUs gehörten mittlerweile zu den gängigen Hardwareressourcen für das Deep Learning in Forschung und Anwendung, hieß es weiter. Solche Systeme machen es den Angaben zufolge möglich, bis zu 40 Brd. algebraische Operationen parallel auszuführen und komplexe Funktionen mit Millionen von Parametern weit schneller als zuvor zu trainieren. Im Wesentlichen stehe hinter dem Deep Learning ein mathematischer Optimierungsprozess, der nach dem Vorbild des Gehirns das Lernen moduliert. (ud)
 

Verwandte Artikel

Anzeige

Lexikoneinträge