Evolution des Datenspeichers – von 40.000 v. Chr. bis heute
Datenschutz, Datennutzung, Datenleck, Datensicherung, Datenbanken, Datenanalyse, Datencheck – Daten, Daten, Daten. Unsere Welt ist voll davon, wir leben sogar im „Zeitalter der Daten“, denn das Sichern und Auswerten schierer Informationsfluten hat uns spätestens mit Einführung der KI komplett überrollt. Um diese grenzenlosen Massen erfassen zu können, benötigt es nicht nur an kapazitätsstarken und sicheren Festplatten, sondern auch an innovativer Software und leistungsstarken Servern, die mit rechenintensiven Big-Data-Analyse Workloads zurechtkommen. Denn nur Technik, an welcher konstant gefeilscht und verbessert wird, kann es auch mit dem unendlichen Informationsfluss aufnehmen. An den „Plattformen“ hat sich die letzten Jahrzehnte erstaunlicherweise gar nicht so viel getan – anders als an den Kapazitäten. Doch, wie sah das Erfassen und Sichern von Daten eigentlich vor dem Computerzeitalter aus? Welche Speicherplattformen nutzen bereits unsere Vorfahren? In unserem neuen Blogbeitrag gehen wir mit Ihnen auf Zeitreise und berichten über die „Evolution des Datenspeichers“.

Das menschliche Gehirn – 1 Petabyte Speicherkapazität immer dabei
Der Datenspeicher schlechthin ist das menschliche Gehirn. Mit dem aufrechten Gang und durch unsere zunehmende Gehirngröße haben wir uns immer weiter von unseren Vorfahren abgehoben. Forscher glauben, dass wir eine „Speicherkapazität“ von bis zu einem Petabyte besitzen. Schwer vorstellbar? Ein PB besteht aus 1.000 Terabyte – wer sich jetzt mal an seinem Arbeitsplatz umsieht, das sind 62.500 volle 16 GB USB-Sticks, ca. 2000 volle 500 GB Festplatten, wie sie oft in Notebooks vorkommen oder 500 Milliarden mit Text bedruckte Papierseiten. Unglaublich, oder?
Lag die Gehirngröße beim „Australopithecus afarensis“ (lebte vor ca. 3,9 – 2,9 Millionen Jahren vor heute) noch bei ca. 400 – 500 Kubikzentimeter, schaffte es der „Homo habilis“ (ca. 2,4 – 1,4 Millionen Jahre vor heute) bereits auf 600 – 700 Kubikzentimeter und konnte damit auch die ersten (bekannten) Steinwerkzeuge erstellen. Auf 800 – 1100 Kubikzentimeter Gehirngröße schaffte es dann der „Homo erectus“ (ca. 1,9 Millionen – 140.000 Jahre vor heute), der Neandertaler, der sich in vor ca. 400.000 – 40.000 Jahren in Europa und Westasien ausbreitete, besaß sogar 1200 – 1600 Kubikzentimeter. So konnte er nicht nur ausgefeilte Werkzeuge erstellen, das Feuer kontrollieren, sondern hatte auch schon gewisse kulturelle Verhaltensweisen (z. B. Begräbnisrituale) verinnerlicht. Heute ist unser Gehirn durchschnittlich etwa 1230 Kubikzentimeter groß. Als „Homo sapiens“, also moderne Menschen, wissen wir aber auch – dieser „Datenspeicher“ ist fehleranfällig. Wir erinnern uns falsch, ungenau oder manchmal sogar gar nicht mehr an geschehenes. Die heutige Informationsflut kann also unmöglich vom menschlichen Gehirn bewältigt werden – doch durch unsere Evolution sind wir in der Lage „komplexe Werkzeuge“ herzustellen, die dies für uns erledigen.
Frühgeschichte – Die „Kunst des Datenspeicherns“
Warum speichern wir heute so viele Daten? Sicher spielen hier Wettbewerbsvorteile und Automatisierung eine zentrale Rolle – denn das Sammeln und Sichern von großen Informationsmengen hat nicht nur für Unternehmen viele Vorteile. Wir stellen damit Prognosen (z. B. Wetter, Krankheitsdiagnosen) auf, sammeln Kundenvorlieben, Wissen und Erfahrungswerte und nutzen diese für neue Innovationen und Verbesserungen – sei es für unsere Sicherheit, unseren Lebensstandard oder einfach, um Kunden eine großartige „Customer Journey“ zu gewährleisten. In der Frühgeschichte der Menschheit (ca. 2,5 Mio. v. Chr. – 500 v. Chr.), als sich erste Kulturen bildeten, war die Intention hinter der „Datensicherung“ wohl noch eine ganz andere. Denn es gab keine Bücher, um etwas nachzulesen, keine Sprachführer, um sich zwischen fremden Völkern verständigen zu können und keine Anleitungen, wie man Faustkeile herstellt oder Feuer macht.
Wir wissen nicht, was die Menschen damals bewegt hat, ihr „Daten“ zu hinterlegen – sei es zum Zwecke der Kommunikation, ein spirituelles Ritual oder, um etwas für die nächste Generation zu hinterlassen. Sicher ist heute nur – dass sie es getan haben. Als „Speichermedien“ dienten Naturmaterialien, wie beispielsweise:

Felswände
Bereits vor rund 40.000 Jahren dienten
Höhlenwände als „Speichermedium“. Die
Menschen nutzen die Fels

Papyrus
Vor ca. 5000 Jahren begann man, Papyrus als Schreibmaterial zu verwenden. Es wird aus der gleichnamigen Pflanze hergestellt.

Tontafeln
Eine etwas aufwendige Art, um ihre Daten zu sichern, hatten die Kelten (ca. 8. – 1. Jhd. v. Chr.): Sie stellen Tafeln aus Ton oder Lehm her, in welche Symbole eingeritzt wurden. Durch das Brennen wurden diese Tafeln über lange Zeit haltbar gemacht.
Antike: Speichermedien der Hochkulturen überdauern tausende von Jahren
In der Antike (ca. 500 v. Chr. – 500 n. Chr.) entstanden nicht nur frühe Hochkulturen, sondern auch Speichermedien, die die Jahrtausende überdauert haben. So können wir uns einige gefundene Stücke noch heute in den Museen dieser Welt ansehen und staunen, welche Methoden und Ideen unsere Vorfahren bereits perfektioniert hatten. Die Tontafeln wurden teilweise auch noch in der Antike genutzt, ebenso wie Papyrus. Nachfolger dieser Datenträger sind z. B.:

Keramiktafeln
Die Griechen, Römer oder Etrusker stellen nicht nur Keramikgefäße her, sondern auch Tafeln, in welche beispielsweise Schriften oder Szenarien verewigt wurden.

Holz
In Holz verewigte man mithilfe von Schnitzereien Landschaften, Kriegs- und Hofszenarien oder Symbole.

Wachstafeln
Wachs- und Holzschreibtafeln wurden ebenso von den Etruskern, Griechen oder Römern verwendet. Die römischen Tafeln bestanden aus Holz, Elfenbein oder Metall und wurden mit Bienenwachs überzogen. Mit frühen „Schreibgeräten“, konnten dann in das weiche Wachs Informationen geritzt werden – die Tafeln waren sogar wiederverwendbar.
Datenerfassung im Mittelalter – Fort- und Rückschritt in der „dunklen“ Zeit
Kaum eine Zeit ist wohl so skurril und wird so stark diskutiert wie das Mittelalter. Auf der einen Seite gibt es bahnbrechende Erfindungen und neue Techniken wie beispielsweise den Buchdruck (1450), das Spinnrad (um 1480) oder den Trittwebstuhl (um 1200) – gleichzeitig war diese Epoche geprägt von religiösem Wahn, einer extremen Kluft zwischen Arm und Reich, Hexenverfolgung, Hungersnöten und Krankheiten. Doch die Datenerfassung im dunklen Mittelalter schritt weiter fort – und gleichzeitig auch irgendwie zurück. Zumindest, was das Zwischenmenschliche angeht. Wir sagen nur: Hexenprozesse, Ablassbriefe und rabiate Pachteintreibungen. Die erfassten Informationen wurden natürlich auch gesichert – doch wie?

Wachstafeln mit Griffel
Die Wachstafeln waren bis ins Mittelalter verbreitet. Denn so konnten Briefe hin und her geschickt werden – die Botschaft wurde nach dem Lesen „gelöscht“, die Antwort kam auf demselben Datenträger zurück. Eigentlich ziemlich nachhaltig und clever, oder?

Pergament
Papyrus war nun endgültig „out“ – stattdessen wurde Pergament verwendet. Zwar war dies stabiler und außerdem wiederbeschreibbar, jedoch wurde das Material nicht aus einer Pflanze, sondern aus Tierhaut gewonnen und konnte nur durch einen aufwendigen Prozess hergestellt werden.

Zählhölzer
Auch im Mittelalter gab es schon Buchhalter. Auf Zähl- oder Kerbhölzern wurden Angaben über die Schuldverhältnisse eingeritzt – je eine Hälfte davon erhielt der Gläubiger, die andere der Schuldner.

Papier
Papyrus, Pergament, Papier – das im 11. Jahrhundert in China erfundene „Speichermedium“ verdrängt das Material aus Tierhaut.

Bücher
Seit der Erfindung des Buchdrucks 1450 sind Bücher die Datenträger schlechthin. Die bahnbrechende Erfindung von Johannes Gutenberg macht Bücher zur „Massenware“. Einziges Manko: nur wenige aus der Bevölkerung konnten zu dieser Zeit lesen.
Vom Burghof zur Fabrik – Datenerfassung zu Zeiten der Industrialisierung
Nach dem dunklen Kapitel Mittelalter schauen wir nun, was die Neuzeit (ca. 1500 – 1900 n. Chr.) für bahnbrechende Entdeckungen und Umwälzungen gebracht hat. Die Zeit der Dichter und Denker, der Aufklärer, der Reformation der Kirche, des Wandels, der Expansion, von Revolutionen, der Wissenschaft und der Industrie. So interessant – und doch so langweilig, zumindest, was die Art der Speichermedien angeht. Denn wenn auch plötzlich die Erde keine Scheibe und das Zentrum unseres Universums die Sonne war – erfasst wurden diese neuen Anschauungen nach wie vor auf Papier. Interessanter ist jedoch der Zugang zu diesen Informationen: denn was früher umständlich und teuer war, kann jetzt schnell und günstig produziert werden. Und war somit für eine viel breitere Masse verfügbar. Und ganz am Ende der Neuzeit gab es dann doch noch eine kleine Revolution.

Buchverviel-
fältigung
Mit der Reformation der Kirche kam auch die Übersetzung der Bibel in deutscher Sprache – die Druckerpresse mit austauschbaren Druckbuchstaben macht es möglich. Plötzlich war es nicht nur die Meinung der Kirche, die zählte, sondern auch die der Gelehrten, der Aufklärer, der Philosophen und Denker.

Tageszeitungen
Nicht nur dicke Wälzer konnten nun einfach und schnell vervielfältigt werden – die Industrialisierung war in jeglicher Hinsicht eines: ein Beschleuniger, der sich nachhaltig auf uns Menschen auswirkte. Tageszeitungen mit kurzen, informativen Texten wurden „in“

Lochkarten
1890/1891 – nicht einmal zehn Jahre vor „Ende der Neuzeit“, gab es dann noch eine maßgebliche Innovation: erfunden vom späteren IBM-Gründer Herman Hollerith. Es geht um die Lochkarte. Durch die maschinelle Informationsverarbeitung konnten nämlich wesentlich mehr Daten in kürzerer Zeit verarbeitet werden – eingesetzt wurde diese erstmals im großen Stil zur Volkszählung von 1890/1891.
Im Zeitalter von Computer und KI – Datenträger der neuesten Geschichte
Die letzten 100 Jahre ist die Computertechnik regelrecht explodiert. Von der Fiktion zur Wirklichkeit – aber hallo. Manchmal kommt uns der stetige Fortschritt unserer Zeit fast schon als Hexerei vor. Der größte Meilenstein für moderne Datenträger war natürlich die Erfindung des Computers. Der „Vater“ des PCs, Konrad Zuse, entwickelte 1937 seinen „Z1“ – der zwar noch einige mechanische Mängel enthielt, dennoch als erster frei programmierbarer Computer der Welt gilt. Von Lochkarten zum Yottabyte – das immerwährende Datenwachstum sorgt konstant für neue Engpässe. Der Einsatz von KI (künstlicher Intelligenz) lässt den Datenboom noch weiter expandieren, was sich mitunter enorm auf den Wasser- und Energieverbrauch auswirkt. Der „Energiehunger“ lässt auch die Datenträger ins schier Unermessliche wachsen – zumindest, soweit es die aktuelle Technik zulässt:

Lochcodes
Lochstreifen oder Lochkarten konnten anhand von bestimmten Anordnungen der Löcher (Lochcodes) von Maschinen ausgelesen werden. So ließen sich beispielsweise Daten in den Computer eingeben oder einfache mathematische Aufgaben ausführen.

Magnetbänder
In den 1950er Jahren kamen die Magnetbänder als erstes großes Speichermedium auf den Markt. Ungefähr 10.000 Lochkarten hatten auf einem typischen Magnetband Platz. Dennoch: trotz sehr langer Lebensdauer und damals großem Speicher, brauchten die Bänder auch viel Platz – Firmen besaßen ganze „Magnetbandbibliotheken“.

Festplatte
„IBM 350“ wurde im September 1956 als weltweit erstes Festplattenlaufwerk veröffentlicht. Es war Bestandteil des „IBM 305 RAMAC“ Computers, fasste 3,75 Megabytes, rotierte mit 1200 Umdrehungen/Minute und wog ungefähr eine Tonne. Kaufen konnte man die Festplatte übrigens nicht – es gab sie für ca. 3200 US-Dollar im Monat nur zur Miete.

Tonband / Kassetten
Seit den 1970er Jahren wurden „besondere“ Formen der Magnetbänder entwickelt, wie beispielsweise Tonbänder & Kassetten zur Audioaufzeichnung und die VHS zum Aufnehmen und Abspielen von Videos. (Die meisten sehen sich jetzt wahrscheinlich dabei, wie sie mit einem kantigen Bleistift in der Hand, versucht haben, den Bandsalat wieder „einzufädeln“)

Floppy Disk
Quadratisch, praktisch – „wabbelig“. Die Diskette ging ab 1969 auf Siegeszug. Um den unhandlichen Lochkarten endlich den Gar auszumachen, bringt IBM die erste 8-ZollFloppy auf den Markt. Ca. 1.000 Lochkarten konnten die ersten 80 Kilobyte-Disks speichern. Doch auch hier musste noch nachgebessert werden – denn die weiche Plastikhülle mit eingebauter Magnetscheibe war nicht besonders langlebig. Das änderte sich erst mit der 3,5-Zoll-Diskette (ab 1982).

Hard Disk
1979/1980 wurden die Festplatten-Kolosse plötzlich massentauglich. Seagate brachte die erste 5,25-Zoll-Festplatte auf dem Markt. Na ja, das heißt, wenn man es sich leisten konnte. Denn die Platte mit 5 Megabyte kostete damals stolze 1.500 US-Dollar. Das erste RAID wurde übrigens 1987 definiert – in einem Festplattenverbund sollte damit die Zugriffszeit verbessert werden.

CDs
Tschüss Walkman, hallo Discman – 1982 ging die erste Audio-CD auf dem Markt und ließ die Kassetten ein wenig alt aussehen. Die erste CD, die für den Computerbereich als Datenträger genutzt wurde, ging erst 7 Jahre später über den Ladentisch. 1992 war dann die erste CD-R verfügbar – so konnten nun auch Privatpersonen CDs selbst brennen. Da diese jedoch sehr teuer waren, wurde der Speichermarkt 1994 nochmal mit dem iomega Zip Laufwerk aufgemischt – nach der Jahrtausendwende war – anders als für die CD – trotzdem für die meisten Disketten Schluss.

SCSI HDD
Ebenfalls in den 1980ern kam die erste SCSIFestplatte auf den Markt. Der SCSI-Standard wurde 1982 veröffentlicht – so konnten auch erstmals Peripheriegeräte wie Drucker, Scanner oder externe Festplatten einfach und schnell an den PC angeschlossen werden. Die ersten SCSIHDDs kamen mit 5 MB auf den Markt. Zur Jahrtausendwende wurde der bis dahin aktuelle Ultra160 SCSI Standard „überholt“ – bald schon kamen doppelt so schnelle „Ultra 320 SCSI“ (U320 SCSI) Platten auf den Markt – die SCSISchnittstelle war eine regelrechte „Revolution“ der Technologie.

USB-Stick
Wie steckt man einen USB-Stick an? Falsch, umdrehen, falsch, zurückdrehen, richtig Spaß bei Seite – der USB Speicherstick, der 1996 auf den Markt kam, war ebenfalls eine bahnbrechende Neuerung in Sachen Speichermedien – denn bisher hat kaum etwas in die Hosentasche gepasst – der kleine Datenträger war somit ultrakompakt und praktisch. Zudem überzeugt er durch die einfache Anbindung an den PC bzw. ans Notebook, hat eine relativ lange Lebensdauer und bietet heute bis zu 1 TB Speicherplatz.

SD-Karte
Im Jahr 2001 bringt die Firma SanDisk die SD Memory Card auf den Markt. Die kleine Speicherkarte wird bevorzugt in Digitalkameras, Handys oder Navigationssystemen genutzt und erreicht heute Speicherkapazitäten von bis zu 2 Terabyte. Im selben Jahr kommt zudem auch die DVD auf den Markt, welche die Videokassetten nun endgültig abschreibt.

SATA HDD
Ebenfalls 2001 wurde der SATA-Standard eingeführt. „Serial Advanced Technology Attachment“ verwendet serielle Signaltechnologie und löst die älteren PATAStandards ab. Waren anfangs 1,5 Gbit/s Übertragungsrate und bis zu 3 TB Speicherplatz das Non-Plus-Ultra, bieten heutige 16 Gbit/s Versionen auch im „Privatbereich“ bis zu 24 TB Speicherplatz.

SAS HDD
Drei Jahre nach der SATA-Technologie löste der SAS-Standard (Serial Attached SCSI) die älteren, parallelen SCSI-Bus-Systeme ab. SAS schafft eine Punkt-zu-Punkt-Verbindung zwischen Hauptplatine und Speichergeräten und bei Einführung eine Geschwindigkeit von 3,0 Gbit/s. Der SAS-4 Standard, den es seit 2017 gibt, bietet eine Übertragung von 22,5 Gbit/s. Ebenso wie die SATA-Festplatten, gibt es auch SAS-HDDs mit 2.5“ oder 3.5“ Bauform.

SSD
Flashspeicher wie USB-Sticks und SD-MemoryKarten sind bereits seit der 2000er-Wende auf dem Markt – 2010 erobern dies SSDs nun auch den Privatanwenderbereich. In Supercomputern wurden sie bereits zwischen 1970 und 1980 verbaut, preisbedingt waren sie jedoch für PC-Nutzer nicht realisierbar. 2006 schaffte Samsung den Sprung auf den Markt – eine 32 GB SSD mit PATA-Schnittstelle kam als Ersatzdisk für Laptopfestplatten raus. Heute gibt es die Solid State Disks mit SAS- oder SATA-Schnittstelle. Anfangs für den Serverbereich noch verpönt, finden die langlebigen SSDs inzwischen aber bereits seit einigen Jahren auch im Profi-Bereich Platz.

Cloud
2006 launchte Amazon die erste kommerzielle Cloud namens EC2 (Elastic Compute Cloud) – Google folgte 2008 mit Speicherdiensten via App. War der Trend zu serverlosen Architekturen vor kurzem noch extrem gehypt, sind es heute vor allem Hybrid- und MultiCloud-Systeme, die lokale Infrastruktur mit Cloud-Diensten (teilweise über mehrere CloudAnbieter) kombinieren. Beim Edge Computing findet die Datenverarbeitung und die Ausführung von Anwendungen mehr auf den Endgeräten der Nutzer statt – so herrscht eine geringe Latenz, ein besserer Datenschutz und durch die geringere Netzwerkbelastung und verteilte Verarbeitung auch eine gute Skalierbarkeit.

NVMe
Im Juli 2013 stelle Samsung die erste NVMeFestplatte vor. Mit einer Lesegeschwindigkeit von 3 GB/s war diese sechsmal schneller als ihre Vorgänger im Enterprise-Bereich. Neben der Schnelligkeit hat NVMe (Non-Volatile Memory Express) noch weitere Vorteile zu bieten: da sie den PCIe-Bus nutzt, ermöglicht dies höhere Bandbreiten und ein besseres Leistungsniveau. Enorm viele Befehle können gleichzeitig verarbeitet werden, sie haben eine geringe Latenz und NVMe-Platten sind zudem skalierbar, da sie sich auf PCIe-Lanes und nicht auf Controller-Schnittstellen stützen.
World of Big Data – Was sind die Speichertechnologien der Zukunft?
Weltweit werden täglich über 2,5 Trillionen Bytes an Daten generiert – unter anderem ca. 294 Milliarden E-Mails, über 750.000 Stunden neue YouTube-Inhalte oder rund 100 Milliarden WhatsApp Nachrichten. Wir haben es von den Höhlenmalereien bis zu gigantischen Cloud-Datenbanken geschafft – oder ausgereizt. Unsere extremen Massen an Daten, sowie die ständige Verfügbarkeit dieser, egal wo wir uns befinden, verlangen ein ausgeklügeltes Datenmanagement und eine sichere, effiziente Speicherung.
Hier spielt auch das Thema Künstliche Intelligenz eine große Rolle – laut Schätzungen verbraucht allein Chat-GPT
täglich über 500 Megawattstunden an Strom. Zum Vergleich: Single-Haushalte verbrauchen zwischen 1000 bis 2000
Kilowattstunden, Paare zwischen 1500 bis 3000 Kilowattstunden pro Jahr.
Ein Megawatt entspricht 1000 Kilowatt – der Bot frisst täglich also mehr Strom als 250 Single-Haushalte, bzw. 167
Pärchen-Haushalte (nimmt man den oberen Durchschnitt) im Jahr. Welche Datenmengen mit jeder neuen
Eingabeanforderungen und auf Grundlage von Lernprozessen in neuronalen Netzen anfallen, sind wahrscheinlich
außerhalb unserer Vorstellungskraft. Klar ist nur, diese Neuerungen fordern auch größere Kapazitäten an Speicher.
Dies könnte beispielsweise sein:

Storage as a Service
Das bereits bestehende Konzept „STaaS“, also Storage as a Service, wird wohl noch weiter ausgebaut werden. Hybrid- und Multi-Cloud Lösungen für Firmen sorgen dabei für mehr Flexibilität, Redundanz und somit auch Sicherheit. Zudem wird durch die Integration von KI gewährleistet werden, dass Datenverwaltungsaufgaben automatisiert und die Speichernutzung optimiert wird – ebenso wie die Sicherheitsmaßnahmen im Datenmanagement.

Quantensysteme & Quanten-Speicher
Durch die Einführung von Quantencomputern und die Erforschung des Quantenbits, wird der Computerspeicher, wie wir ihn kennen, revolutioniert werden. Statt der binären Zustände „0“ und „1“ werden die Informationen im Quantenzustand gesichert und abgerufen, also in sogenannten „Qubits“. Durch die Überlagerung mehrerer möglicher Zustände des Qubits könnten vielfach leistungsstärkere Speicherlösungen erzeugt werden.

Helium-Laufwerke
Auch die Helium-Laufwerke werden wohl noch stärker optimiert und verbreitet werden: denn heliumgefüllte Festplatten bieten höhere Kapazitäten, weniger Widerstand, eine bessere Kühlung und einen geringeren Energieverbrauch. Statt mit „normaler“ Luft sind die HDDs mit Helium gefüllt. Durch diese Technik könnte man mehr Daten auf einem einzigen Laufwerk sichern – was sich sowohl platz- und kostentechnisch positiv auswirken könnte als auch hinsichtlich der Skalierbarkeit und Wartung.

Shingled Magnetic Recording (SMR)
Eine weitere Möglichkeit, um die Kapazität einer Festplatte zu erhöhen, nennt sich Shingled Magnetic Recording. Durch eine überlappende Aufzeichnung der Daten, können mehr Informationen auf einer Fläche gesichert werden, was eine höhere Datendichte zur Folge hat. Die eingesetzten Datenträger könnten durch komplexe Algorithmen und ein erstaunliches Datenmanagement mit der immer wachsenden Datenflut mithalten – allerdings gibt es momentan noch Herausforderungen in Sachen Schreibgeschwindigkeit, die verbessert werden müssen.

DNA-Speicher
Eine Technologie, die gerade erst noch erforscht wird, ist der DNA-Speicher. Ähnlich, wie bei unseren Knochen, aus denen man noch Jahrtausende später Informationen lesen kann, soll auch die Speicherung in Form von DNA einmal funktionieren. Genau wie die Quantentechnologie würde auch diese Möglichkeit die Speicherung unserer Daten revolutionieren. Denn so könnte eine extrem hohe Datendichte erreicht werden, mehr Umweltfreundlichkeit, da DNA-Speicher kaum Platz oder Energie benötigt und dadurch, dass DNA sehr stabil ist, eine besondere Langlebigkeit. Allerdings steht momentan der enorme Kostenfaktor der Forschung noch im Weg.

Phasenwechsel-Speicher (PCM-Chips)
PCM-Chips – die Nachfolger des Flash-Speichers? Das könnte sein, denn in Smartphones wird die Speichertechnologie bereits eingesetzt. Durch Stromimpulse wird das spezielle Material eines PCM-Chips erhitzt und so sein Zustand verändert – dadurch können Daten gespeichert werden. Im Gegensatz zum Flash-Speicher erreicht man mit dem PCM-Speicher wesentlich höhere Speicherkapazitäten – zudem hat PCM keine „Ermüdungserscheinungen“, was bedeutet, dass die Phasenwechsel-Speicher viel häufiger beschrieben werden können. Neben einer hohen Speicherdichte hat man also auch eine längere Lebensdauer. Momentan ist die Herstellung von PCM jedoch noch extrem kostenintensiv.
Wir sehen – die Art, wie wir unsere Daten sichern und für die Nachwelt aufbewahren, hat sich mit dem stetig neuen Fortschritt der Technik unglaublich rasant weiterentwickelt. Der „explosionsartige“ Innovationstrend der letzten 20 Jahre, wird sich durch die Einführung von AI wohl nochmal um ein Wesentliches steigern – ganz zu schweigen, wenn Quantencomputer „salonfähig“ gemacht wurden. Seien wir gespannt, was noch auf uns zukommt.
Möchten Sie noch mehr zur Entwicklung der Technik oder zu KI-Systemen wissen, haben wir hier weitere interessante Blogbeiträge aus unserem Archiv für Sie: