Ein solches Datenvolumen würde ausreichen, um über 110 Milliarden HD-Filme mit jeweils zwei Stunden Länge speichern zu können oder für einen 26 Millionen Jahre langen, ununterbrochenen Filmgenuss. Neben immer höheren Kapazitäten werden kürzere Lese- und Schreibzeiten sowie schnellere Rechner für die Verarbeitung der Daten erforderlich. „Ob bei der Aufnahme oder beim Kopieren eines digitalen Fotos ein Fehler aufgetaucht ist, lässt sich noch verhältnismäßig einfach durch das menschliche Auge auf einem zuverlässigen Monitor überprüfen“, erläutert Christian Müller Rieker. „Bei Spielfilmen und Videos mit 25 und mehr Bildern pro Sekunde und ein bis zwei Sicherheitskopien wird das nahezu unmöglich.“ Selbst mathematische Systeme des Datenabgleichs versagen hier bisher und liefern noch nicht die notwendige Sicherheit und Schnelligkeit. Hier setzt die Industrie verstärkt auf Künstliche Intelligenz, von der man sich effektive und effiziente Lösungen verspricht.
Eine aktuelle Gartner Studie hat herausgefunden, dass KI bis 2020 in nahezu jeder neuen Software zu finden sein wird. Im Laufe des noch relativ jungen, digitalen Zeitalters sind zahlreiche Datenspeicher bereits wieder von der Bildfläche verschwunden, weil sie den Anforderungen nach Schnelligkeit, Sicherheit und Zukunftsfähigkeit nicht mehr nachkommen konnten. Die Erfahrung zeigt, dass sich die Technik der Speichermedien ständig verändert und kontinuierlich neue Datenträger den Markt erobern, so dass letztlich nur eine ständige Migration wichtiger Daten vor Verlust schützen kann. Ein immer häufiger genutzter Weg, der Gefahr des Zugriffsverlustes zu begegnen, sind Cloud-Lösungen, bei denen die Daten dezentral auf unterschiedlichen Trägern gespeichert werden. Eine Software konvertiert dann nicht nur die abgerufenen Daten in das benötigte Format. Sie wählt auch die optimale, aktuelle Form der Vorhaltung. Bei diesen auch Hyper Converged Memory genannten Systemen werden ständig benötigte Daten, beispielsweise im Arbeitsspeicher, vorgehalten.
Daten auf die schnell und häufig zugegriffen werden muss, werden auf SSD-Flash-Speichern und weniger häufig benötigte Daten dann auf klassischen Festplattenspeicher abgelegt. Große Konzerne, die von Big-Data-Anwendungen abhängig sind, werden vermutlich zukünftig verstärkt auf derartige Speicherlösungen zurückgreifen. Große Hoffnung setzen Forscher zurzeit auf holographische Speicher und die Nutzung von Nanotechnologien. Bereits heute hinkt die Speicherentwicklung hinter der Leistung der Prozessoren zurück. Flaschenhals sind die Transferzeiten zum Schreiben und Lesen der Daten. Der Prozessorhersteller Intel gibt an, dass die heute genutzten Speichertechnologien ungefähr 10.000 mal langsamer seien als seine leistungsstärksten CPU-Speicher. Gemeinsam mit Micron hat Intel nun eine neue Klasse von Computerspeicher entwickelt, die dieses Problem lösen soll: Die als 3D XPoint bezeichnete Technik nutzt eine neuartige „Cross-Point-Architektur“ ohne Transistoren mit einer Struktur, die einem dreidimensionalen Schachbrett gleicht. Diese Speichertechnik ermöglicht die 10-fache Kapazität von DRAM, ist 1.000 mal so schnell wie NAND und zudem preisgünstig. www.piv-imaging.com