Die Welt der SSD nach Garth und IDC

Der Gründer von Panasas und wissenschaftliche Leiter, Dr. Garth Gibson, und Steve Conway, Vizepräsident Forschung in der High-Performance-Computing-Gruppe von IDC, haben kürzlich über die HPC-Trends und Kräfte diskutiert, die Einfluss auf den HPC-Storage-Markt nehmen. In diesem zweiten der drei Videos sprechen sie über Rolle der Solid-State-Technologie bei der HPC-Speicherung in  aktuellen und künftigen Szenarien

  • Thursday, 30th May 2013 Posted 10 years ago in by Phil Alsop

 

Im ersten Teil haben die beiden über pNFS gesprochen. Die Big Data werden das Thema des dritten und letzten Teils sein (demnächst).

Panasas und IDC Solid-State-Disk  (Gesprächsabschrift):

Steve Conway: SSD - wo sehen Sie deren Einsatzmöglichkeiten in der Zukunft, selbst wenn noch nicht ganz klar sein sollte, wie es vor sich gehen könnte? Wobei könnten die SSD uns möglicherweise unterstützen?

Garth Gibson: SSD ist die Abkürzung für "Solid State Disk” und impliziert, dass die Festplatte den Teil des soliden Zustands übernimmt. Aber nicht  nur hier kann Solid-State uns helfen. Wir haben bereits damit begonnen, die PCIe-Schnittstelle von der SSD-Schnittstelle zu  unterscheiden, gleich, ob man sie über einen SATA-Befehl anspricht oder mit etwas, das über den Gerätetreiber ausgeführt wird. Das wird sich noch ausbauen lassen. Es gibt keine nicht flüchtige Speicherarchitektur, um etwas anzusprechen, das in seiner Abstraktion an DRAM erinnert. Wir werden auf dieser Seite reicheres Layering sehen, wodurch die Software bezüglich des Aufwands für die Haltbarkeit schneller wird.  Haltbarkeit wird einfacher und wir können schneller auf Latenz reagieren.

Auf der anderen Seit der Welt, dort wo man höchste RMP-Raten erreicht und schnellsten plattenbasiertem Direktzugriff hat,  liegen die SSD-Preise  in margenstarken Marktsegment unter jenen für Festplatten. Wir sprechen hier vielleicht von 400-500 Plattenzugriffen pro Sekunde, aber das ist weit entfernt von den 10.000 bis 100.000 Zugriffen auf eine SSD. Wegen dieser Diskrepanz müssen sich die Festplattenhersteller mehr und mehr auf das konzentrieren was sie am besten können - die Flächendichte der Platten. Das heißt, dass man HAMR (Heat-Assisted Magnetic Recording) früher einführen, sich jedoch auch auf  das Shingling oder Shingle-Magnetaufzeichnungen konzentrieren muss. Das ist interessant, weil Shingle-Magnetaufzeichnungen die Art und Weise verändern, in der die Anwender die Festplatte nutzen. Vorherige Schreibvorgänge müssen nun überlappend geschrieben werden  und das bedeutet, Schreibvorgänge in Random-Chunks müssen in große Chunks geschrieben werden. Dann werden eine Art SSD Wear-Level-Problem haben, wenn wir große Chunks auf der Platte überschreiben müssen. Dann werden die Platten schneller - ja, vorrangig werden sie jedoch dichter. Der primäre Vorteil ist die größere Flächendichte und dazu kommt der geringere Euro-Preis pro Gigabyte und das wird, nach meiner Ansicht, zu leistungsstärkeren Platten mit  geringerer Schreiblatenz führen. Dieses Problem werden wir lösen, indem wird Hybride der großen, billigen Platten mit guter Flächendichte und die SSD als Metadatenschicht mit geringem Random-Access kombinieren, vielleicht sogar mit einem langfristigen Repository für die Daten auf ihrem Weg zur Festplatte. Und Highend-seitig, nahezu DRAM-Solid-State, haltbarer Solid-State, wird die Latenz extrem schnell sein.

SC: Noch eine etwas spekulative Frage - wenn man sich die Trends anschaut, dann sehen wir langfristig sowohl rechner- als auch speicherseitig mehr integrierte Intelligenz, autonomere Fähigkeiten, Selbstheilung... glauben Sie, das sich all dies mit eine Bedarf nach schnelleren Datenbewegungen, schnellerer Latenz verknüpfen lässt? Werden SSD hier eine Rolle spielen?

GG: SSD vereinfachen viele Probleme, weil man sich nicht so sehr auf sequentielle große Übertragungen konzentrieren muss, und sie ein intelligentes Subsystem ermöglichen - grundsätzlich geht es um die Verwaltbarkeit.  Die Subsysteme sollen sehr große Infrastrukturen skalieren, den Anwendern jedoch bezüglich des Managements kein Kopfzerbrechen bereiten. Ebenso wie Panasas wünschen sie sich Systeme mit einer zentralen Sicht auf alle Speicher, damit man entscheiden kann wie man den Speicher nutzt, Speicher hinzufügt, ihn umstrukturiert, die Daten anordnet... und all das soll möglichst ein Bestandteil der Infrastruktur sein.  Das bedeutet Selbstheilung, es bedeutet Autonomie und es bedeutet vielfältige Spezialisierungen innerhalb des Subsystems. Und damit wird  Speicherung, als Komplettlösung, wesentlich intelligenter. Ich glaube, SSD vereinfachen bei einem solchen Storage die Ausführung in kleinen Schritten, damit große Tabellen mit internen Messungen besser gepflegt und garantiert die richtigen Entscheidungen, auch über einen langen Zeitraum, getroffen werden können.

SC: Meine nächste Frage ist wohl eher allgemeiner Natur: wie passen die SSD langfristig in die Richtung, die Panasas einschlägt? Wo lässt sich deren Leistungsfähigkeit für Sie selbst als Leiter des Unternehmens einordnen?

GG: Ich glaube, der große Trend entwickelt sich eher hin zu mehr Daten, viel mehr Big Data und viel mehr Small Data.  Daher muss das Speichersubsystem in zwei extremen Fällen sehr gut sein: 1. Es müssen langfristig große Datenmengen abgelegt und mit großer Geschwindigkeit abgerufen werden können und 2.   damit dies kommerziell akzeptabel ist benötigen wir ein Disk-for-Cost-Management, wobei riesige Metadaten-Mengen sehr schnell über die optimierte Navigation in den Large Data abgerufen werden müssen, aber es geht auch um die Anreicherung mit neuen Suchtypen - und das werden wir sehr bald erreicht haben. Ich glaube, letztendlich wünscht man sich eine Infrastruktur mit einem extrem intelligenten Datenbank-Management,  bestehend aus einem sehr kleinen strukturierten und einem sehr großen unstrukturierten Zugriff.

SC: Eine andere Frage, die sich jedoch nicht direkt auf SSD, sondern auf etwas bezieht das wünschenswert wäre. Ich möchte es noch nicht als Trend bezeichnen, aber die Leute würden ihre Daten gerne vorab filtern (Komprimierung ist eine mögliche Strategie), damit man nur das speichern  muss, was man auch wirklich benötigt. Wie passt das zum Konzept von Panasas?

GG: In gewisser Weise ist der größte Computing-Engpass der Speicher und zwar der Engpass bei der DRAM-Bandbreite. Es gibt keine verbesserte Skalierung, zumindest keine kostengünstige, und daher sehe ich lediglich die endemische Vorabfilterung, Indizierung, Komprimierung, um zu versuchen diesen Engpass so gut wie möglich zu umgehen. Wir nutzen die Komprimierung, um große Datenmenge effektiver auf die Platte streamen zu können - ich glaube jedoch, der echte, große Gewinn ist die Komprimierung in einer solchen Weise, dass sie effektiv in das Storage übernommen und effektiv daraus abgerufen werden kann. Ich glaube, wir werden viel mehr unterschiedliche Datendarstellungen in vielen Auflösungen sehen, vollständig optimierte Raw-Daten, teilverarbeitet oder vorgefiltert, vollständig indiziert für die die Random-Search-Zugriffsversionen derselben Daten.

http://panasas.com/blog/world-ssds-according-garth-and-idc