Einige der ersten Zuschauer erinnern sich eventuell noch an unser Video zu „Moore’s Law„. Wenn nicht, dann bitteschön:
Hier die super gekürzte Kurzfassung: Nach Gordon Moore, der u.a. Intel gründete, verdoppelt sich die Anzahl der Transistoren auf den CPUs unserer Computer (und inzwischen auch Smartphones etc.) alle 18 Monate.
Dieser starke, exponentielle Zuwachs wurde uns in den letzten Jahrzehnten immer wieder sehr plakativ vor Augen geführt, indem sämtliche Elektromärkte in ihren Prospekten mit mehr und mehr GHz im Angebotsrechner der Woche sich selbst und die Konkurenz zu übertreffen versuchten. Mitte der 90er hatte ein üblicher Rechner etwa 60MHz. Heute bekommt man in aller Regel keine Desktoprechner mehr mit weniger als 2.5GHz (40 mal so schnell) – meistens wesentlich mehr und vor allem mit mehr Kernen.
4 oder mehr Kerne sind eher selten, allerdings merkt man deutlich, dass wir hardware-technisch langsam an den physikalischen Grenzen angelangt sind, was die Taktfrequenz betrifft. Eine Quadcore-CPU von 2008 ist nur unwesentlich langsamer als aktuelle Modelle.
Das versucht man nunmehr durch eine höhere Anzahl von Kernen zu auszugleichen. Der Trend in großen Servern und Serververbänden (Clustern) geht dahin, eine geringere Taktfrequenz in Kauf zu nehmen, dafür allerdings anstatt bloß Multicore-CPUs einzusetzen, direkt Manycore-CPUs zu verbauen. Der Unterschied liegt hier in der noch größeren Anzahl der Kerne. Bis zu 36 Cores pro Prozessor sind heutzutage durchaus keine Seltenheit mehr. Zudem setzt man hier seit neustem verstärkt auf die sogenannte ARM-Archetektur, welche den schönen Nebeneffekt mitbringt, dass sie deutlich stromsparender ist und somit auch weniger Belüftung benötigt.
Wenn man dann noch bedenkt, dass ein Server mehr als nur eine CPU verwendet, wir noch klarer, dass Parallelität eine immer größere Rolle spielt. Vor allem Software, die neu entwickelt wird, sollte zukunftsbedacht für viele Kerne optimiert sein, denn sonst kommt spätestens in ein paar Jahren das böse Erwachen, dass sämtliche Teile neu geschrieben werden müssen, weil sie bspw. auf 64 Kernen furchtbar ineffizient laufen.
Das gilt nicht nur für Server, sondern auch für normale Desktopanwendungen, Spiele und vor allem Grafiksoftware. In den letzten beiden ist dies besonders wichtig, da man sich die hohe Parallelität unglaublich gut zunutze machen kann. Z.B. ein Videoschnittprogramm muss viele einzelne Bilder berechnen, auf die womöglich auch noch Effekte & Übergänge angewendet wurden. Allerdings kann hier jedes Bild für sich selbst berechnet werden und ist von den anderen davor und dahinter liegenden Frames unabhängig. Mehr Rechenkerne können so mehr Bilder gleichzeitig berechnen.
Wir werden sehen, was die Zukunft bringt und dieser vor allem interessiert entgegenschauen. Womöglich verdoppeln sich nach Moore’s Law die CPU-Kerne anstatt die Transistoren nun alle 18 Monate.
Schreib einen Kommentar