Ein Laptop, der tagelang ohne Aufladen durchhält. Ein Handy, das ganze Filmbibliotheken speichern kann. Computer, die sofort nach dem Einschalten bereit wären, bei denen man nichts starten oder stoppen müsste, nein, jedes Programm, jede Datei wäre einfach da. Sofort. Sanduhr ade. Das wären doch Geräte, von denen nicht nur Technik-Nerds träumen. Und sie könnten schon in ein paar Jahren in den Regalen stehen, wenn Forschung und Industrie Erfolg haben mit ihren Ideen.
Zum Beispiel von HP. Der Silicon-Valley-Pionier will den Computer neu erfinden. Von winzigen Sensoren bis hin zum Superrechner – die neue Technologie (siehe links), die HP selbstbewusst, aber auch ein wenig irreführend The Machine nennt, könnte all diese Geräte künftig um einige Größenordnungen schneller und kleiner, dazu noch viel energiesparender machen. „Die neue Technik gibt uns die Gelegenheit, die Art und Weise zu überdenken, wie wir Computer bauen“, sagt Kirk Bresniker, der Chief Architect für das Projekt The Machine.
Es wird auch höchste Zeit, etwas zu ändern. Denn die bisher verwendete Technik stößt in spätestens ein, zwei Jahrzehnten an ihre physikalischen Grenzen. Dann wäre es vorbei damit, dass bezahlbare Computerchips seit den 1960er-Jahren etwa alle anderthalb Jahre doppelt so schnell rechnen wie ihre Vorgänger. Lange hat das funktioniert, und noch länger arbeiten Computer nach der immer gleichen Methode: „Wir haben mal ein bisschen in den Archiven gegraben“, erzählt Bresniker, „da gab es tatsächlich schon vor Jahrzehnten einen britischen Rechner, der im Grunde nach demselben Prinzip gearbeitet hat wie die von heute.“
Lerncomputer aus den 80ern: Wie sieht der PC der Zukunft aus?
Die Technik nach dem alten Design aus dem vorigen Jahrhundert ist aber nicht mehr fit für eine ihrer wichtigsten Aufgaben: nämlich die unvorstellbar großen Datenmengen zu bewältigen, die entstehen, wenn nicht nur Menschen miteinander kommunizieren, sondern auch Maschinen. Intelligente Autos, Haushaltsgeräte, Körpersensoren und vieles andere mehr – die Datenmenge, die von solchen Geräten produziert wird, steigt ständig. Das aber ist erst der Anfang dieser Entwicklung. Schon in wenigen Jahrzehnten könnten 300 Milliarden solcher intelligenten Geräte im Einsatz sein, sagt Bresniker. „Das wird unsere Welt sein, und alle diese Geräte produzieren Unmengen an Daten.“
Doch diese Daten zentral zu sammeln und auszuwerten, so wie man sich das bisher stets vorgestellt habe, werde kaum funktionieren, glaubt Bresniker. Weder gebe es genug schnelle Leitungen, die Daten alle zu übertragen, noch unbegrenzt Rechenzentren, sie auszuwerten. „Denn“, so sagt der Experte, „das Auswerten muss ja schnell gehen, damit man aus den Daten auch Schlüsse ziehen und etwas unternehmen kann.“
„Das ökonomischere Modell wäre: Die Daten bleiben draußen bei dem Gerät“, sagt Kirk Bresniker, „dort laufen Algorithmen, die die Daten auswerten und bloß noch das Ergebnis weitergeben. Das könnte viel Platz in den Netzen und Energie sparen.“
Um das zu erreichen, muss aber nicht nur die Hardware fundamental verändert werden. Denn die besten Bauteile sind nur so gut wie die Programme, die mit ihnen arbeiten. Doch das ist kein leichtes Unterfangen, weiß Bresniker. „Wir müssen zu den mathematischen Grundlagen zurückkehren. Software wurde bisher immer nur in einer Richtung entwickelt“, nach dem Modell, mit dem Computer bisher arbeiteten mit Input/Output, Speicher und Recheneinheit. Wie schwer es ist, das zu verändern, zeigt sich daran, dass Software schon die Fähigkeiten heutiger Chips meistens nicht richtig nutzt. Die Mehrzahl moderner Prozessoren haben nämlich mehrere Rechenkerne, die parallel arbeiten könnten. Meistens tun sie es aber nicht, einfach weil die Programmierer schlicht nicht wissen, wie sie ihre Programme parallelisieren können. Kirk Bresniker räumt daher auch ein: „Bei der Software kratzen wir erst an der Oberfläche.“
Software, die ganz anders an die Daten herangeht, ist aber künftig unverzichtbar, wenn die Daten und die damit verbundenen Möglichkeiten ins nahezu Unermessliche steigen. „Was sollen wir tun, wenn wir plötzlich Petabytes oder gar Exabytes an schnellem Speicher haben?“, fragt der Forscher aus Palo Alto. Um die Dimension klar zu machen: Ein Exabyte, das sind 1000000000000000000 Bytes. Die digitale Ausgabe des Brockhaus mit allen Texten, Bildern und Videos könnte man darauf eine Milliarde Mal speichern. Eine ungeheure Datenmenge – und sie läge in einem Speicher vor, auf den Prozessoren über optische Verbindungen um Größenordnungen schneller zugreifen könnten als jetzt auf den sündteuren Speicher direkt auf dem Prozessorchip.
Die Umwälzung, die das mit sich bringt, wird aber nicht von heute auf morgen und nicht auf einmal passieren. Bresniker glaubt, dass die neue Computertechnik Schritt für Schritt eingeführt werden wird. Den Anfang könnten Speichersysteme machen, die mit neuen Chips, sogenannten Memristoren, arbeiten. „Das könnte in fünf Jahren so weit sein“, sagt der Forscher, „manche Software wird dagegen länger brauchen.“ Aber auch bei der Hardware kann es durchaus Verzögerungen geben. HP musste die Serienfertigung von Memristoren bereits verschieben. Und andere Firmen und Forscher arbeiten an konkurrierenden Techniken. Stan Williams, der die Forschung am Memristor bei HP leitet, befürchtet schon länger, dass sich am Ende eine technisch schlechtere Lösung durchsetzen könnte – einfach weil sie schneller auf dem Markt ist.
Denn auch andere Firmen forschen an Möglichkeiten, wie man die Entwicklung von Computern und deren Chips vorantreiben kann. Das amerikanische Start-up-Unternehmen Crossbar etwa hat ein ähnliches Speicherverfahren namens RRAM vorgestellt, das auf einem Chip von der Größe einer Briefmarke ein Terabyte Daten speichern kann und das dabei 20-mal schneller arbeitet und 20-mal weniger Energie schluckt als heute verfügbare Speicher. Noch sind zwar eine Reihe von technischen Hürden zu nehmen. Dass Computer früher stets hochfahren mussten, das werden unsere Enkel aber wohl nur noch vom Hörensagen kennen.
Zum Beispiel von HP. Der Silicon-Valley-Pionier will den Computer neu erfinden. Von winzigen Sensoren bis hin zum Superrechner – die neue Technologie (siehe links), die HP selbstbewusst, aber auch ein wenig irreführend The Machine nennt, könnte all diese Geräte künftig um einige Größenordnungen schneller und kleiner, dazu noch viel energiesparender machen. „Die neue Technik gibt uns die Gelegenheit, die Art und Weise zu überdenken, wie wir Computer bauen“, sagt Kirk Bresniker, der Chief Architect für das Projekt The Machine.
Es wird auch höchste Zeit, etwas zu ändern. Denn die bisher verwendete Technik stößt in spätestens ein, zwei Jahrzehnten an ihre physikalischen Grenzen. Dann wäre es vorbei damit, dass bezahlbare Computerchips seit den 1960er-Jahren etwa alle anderthalb Jahre doppelt so schnell rechnen wie ihre Vorgänger. Lange hat das funktioniert, und noch länger arbeiten Computer nach der immer gleichen Methode: „Wir haben mal ein bisschen in den Archiven gegraben“, erzählt Bresniker, „da gab es tatsächlich schon vor Jahrzehnten einen britischen Rechner, der im Grunde nach demselben Prinzip gearbeitet hat wie die von heute.“
Lerncomputer aus den 80ern: Wie sieht der PC der Zukunft aus?
Die Technik nach dem alten Design aus dem vorigen Jahrhundert ist aber nicht mehr fit für eine ihrer wichtigsten Aufgaben: nämlich die unvorstellbar großen Datenmengen zu bewältigen, die entstehen, wenn nicht nur Menschen miteinander kommunizieren, sondern auch Maschinen. Intelligente Autos, Haushaltsgeräte, Körpersensoren und vieles andere mehr – die Datenmenge, die von solchen Geräten produziert wird, steigt ständig. Das aber ist erst der Anfang dieser Entwicklung. Schon in wenigen Jahrzehnten könnten 300 Milliarden solcher intelligenten Geräte im Einsatz sein, sagt Bresniker. „Das wird unsere Welt sein, und alle diese Geräte produzieren Unmengen an Daten.“
Doch diese Daten zentral zu sammeln und auszuwerten, so wie man sich das bisher stets vorgestellt habe, werde kaum funktionieren, glaubt Bresniker. Weder gebe es genug schnelle Leitungen, die Daten alle zu übertragen, noch unbegrenzt Rechenzentren, sie auszuwerten. „Denn“, so sagt der Experte, „das Auswerten muss ja schnell gehen, damit man aus den Daten auch Schlüsse ziehen und etwas unternehmen kann.“
„Das ökonomischere Modell wäre: Die Daten bleiben draußen bei dem Gerät“, sagt Kirk Bresniker, „dort laufen Algorithmen, die die Daten auswerten und bloß noch das Ergebnis weitergeben. Das könnte viel Platz in den Netzen und Energie sparen.“
Um das zu erreichen, muss aber nicht nur die Hardware fundamental verändert werden. Denn die besten Bauteile sind nur so gut wie die Programme, die mit ihnen arbeiten. Doch das ist kein leichtes Unterfangen, weiß Bresniker. „Wir müssen zu den mathematischen Grundlagen zurückkehren. Software wurde bisher immer nur in einer Richtung entwickelt“, nach dem Modell, mit dem Computer bisher arbeiteten mit Input/Output, Speicher und Recheneinheit. Wie schwer es ist, das zu verändern, zeigt sich daran, dass Software schon die Fähigkeiten heutiger Chips meistens nicht richtig nutzt. Die Mehrzahl moderner Prozessoren haben nämlich mehrere Rechenkerne, die parallel arbeiten könnten. Meistens tun sie es aber nicht, einfach weil die Programmierer schlicht nicht wissen, wie sie ihre Programme parallelisieren können. Kirk Bresniker räumt daher auch ein: „Bei der Software kratzen wir erst an der Oberfläche.“
Software, die ganz anders an die Daten herangeht, ist aber künftig unverzichtbar, wenn die Daten und die damit verbundenen Möglichkeiten ins nahezu Unermessliche steigen. „Was sollen wir tun, wenn wir plötzlich Petabytes oder gar Exabytes an schnellem Speicher haben?“, fragt der Forscher aus Palo Alto. Um die Dimension klar zu machen: Ein Exabyte, das sind 1000000000000000000 Bytes. Die digitale Ausgabe des Brockhaus mit allen Texten, Bildern und Videos könnte man darauf eine Milliarde Mal speichern. Eine ungeheure Datenmenge – und sie läge in einem Speicher vor, auf den Prozessoren über optische Verbindungen um Größenordnungen schneller zugreifen könnten als jetzt auf den sündteuren Speicher direkt auf dem Prozessorchip.
Die Umwälzung, die das mit sich bringt, wird aber nicht von heute auf morgen und nicht auf einmal passieren. Bresniker glaubt, dass die neue Computertechnik Schritt für Schritt eingeführt werden wird. Den Anfang könnten Speichersysteme machen, die mit neuen Chips, sogenannten Memristoren, arbeiten. „Das könnte in fünf Jahren so weit sein“, sagt der Forscher, „manche Software wird dagegen länger brauchen.“ Aber auch bei der Hardware kann es durchaus Verzögerungen geben. HP musste die Serienfertigung von Memristoren bereits verschieben. Und andere Firmen und Forscher arbeiten an konkurrierenden Techniken. Stan Williams, der die Forschung am Memristor bei HP leitet, befürchtet schon länger, dass sich am Ende eine technisch schlechtere Lösung durchsetzen könnte – einfach weil sie schneller auf dem Markt ist.
Denn auch andere Firmen forschen an Möglichkeiten, wie man die Entwicklung von Computern und deren Chips vorantreiben kann. Das amerikanische Start-up-Unternehmen Crossbar etwa hat ein ähnliches Speicherverfahren namens RRAM vorgestellt, das auf einem Chip von der Größe einer Briefmarke ein Terabyte Daten speichern kann und das dabei 20-mal schneller arbeitet und 20-mal weniger Energie schluckt als heute verfügbare Speicher. Noch sind zwar eine Reihe von technischen Hürden zu nehmen. Dass Computer früher stets hochfahren mussten, das werden unsere Enkel aber wohl nur noch vom Hörensagen kennen.