Früher war der Zugang zum Internet auf diejenigen beschränkt, die sich ein Hardwaremodem leisten und betreiben konnten. Das disharmonische Kreischen der Hardware und der Hayes-Befehlssatz haben sich unauslöschlich in die Köpfe derer eingebrannt, die diese dunklen Zeiten durchlebt haben.
Einen breiteren Zugang zum aufstrebenden Internet gab es erst mit der Einführung von Software wie CompuServe und AOL, deren Software es denjenigen ermöglichte, „im World Wide Web zu surfen“, die sich zwar ein Modem leisten konnten, aber nicht über eines verfügten.
Heute verfügen über 4 Milliarden Menschen – mehr als die Hälfte der Weltbevölkerung – über einen Internetzugang.
Die Mittel dazu haben sich nicht geändert. Es gibt immer noch eine Infrastruktur, die die harte Arbeit leistet, eine Verbindung zwischen den durchschnittlich 7,8 Geräten im Haushalt und den Apps im Internet, mit denen sie verbunden sind, aufrechtzuerhalten. Was sich geändert hat, sind die Anforderungen an die Benutzer zum Betrieb der Infrastruktur und die Anforderungen an die Software zur Nutzung der darin angebotenen Dienste. Modems und Router sind heute Massenware, deren wichtigste Verkaufsargumente die Benutzerfreundlichkeit und Bedienung sind.
Es gibt jedoch eine wachsende Gruppe von Verbrauchern, die mehr an technischen Möglichkeiten, an Optimierung und Optionen zur Leistungssteigerung – auch zu höheren Kosten – interessiert sind. Sie wünschen sich eine optimierte Infrastruktur, die eine Antwort auf Leistungsprobleme bietet. „Pro“-Geräte, die mit solchen Vorteilen werben, können einen höheren Preis erzielen – und werden auch dafür bezahlt. So hält Netgear derzeit 51 % des Marktes für „High-End“-WLAN-Router, was größtenteils auf seine „Pro“-Reihe von Gaming-Routern zurückzuführen ist. Ich gestehe hier, dass ich eins besitze … oder zwei …, denn wir alle wissen, dass Lags beim Gaming tödlich sind.
Dieser technologische Zyklus wird häufig durch die S-Kurven-Theorie der Innovation dargestellt.
Dieser Zyklus ist in nahezu jeder Branche zu beobachten. Von der Spezialisierung über die Kommerzialisierung bis hin zur Innovation durchlaufen Produkte den gleichen Wandel. Wir stehen derzeit am Rande eines Innovationsfensters; einer Infrastruktur-Renaissance, wenn man so will.
Die Kommerzialisierung der Infrastruktur hat zu Ineffizienzen geführt, auch wenn die Anwendungsarbeitslasten unterschiedlich ausfallen und sich spezialisieren.
Infrastruktur konzentriert sich nicht mehr darauf, Ressourcen speziell für eine bestimmte Arbeitslast wie Kryptografie oder fortgeschrittene Analytik bereitzustellen. Das Wachstum von Geschwindigkeit und Volumen im Internetverkehr zwingt dazu, Skalierungsstrategien von vertikalem zu horizontalem Modell zu verändern. Da das Mooresche Gesetz nachlässt (oder zumindest nicht mit der steigenden Nachfrage nach Rechenleistung mithält), begrenzen sich die Skaleneffekte eines horizontalen, rein softwarebasierten Systems. Steigt die Nachfrage nach digitalen Diensten, steigen auch die Skalierungskosten; bleibt die Leistung stabil, erhöht sich somit der Gewinn. Dieses Modell funktioniert zwar, ist aber ineffizient und lässt Potenzial an ungenutzter Rechenleistung liegen, das zur besseren Skaleneffizienz beitragen könnte.
Aufgrund der zyklischen Natur der Technologie besteht dringender Bedarf nach einer optimierten Infrastruktur, die diese ungenutzte Verarbeitungsleistung nutzbar macht.
Infrastruktur hat einen Wert. Wir sehen es in unseren Häusern, auf dem Markt und in unseren Schulen. Der Wert der Infrastruktur und optimierter Komponenten ist nicht die Frage. Bedenken Sie:
Anbieter in der Public Cloud wissen um die Notwendigkeit und schaffen die Grundlagen für eine optimierte Infrastruktur. Von den 266 Instanztypen, die Amazon anbietet, sind bereits viele auf Optimierung ausgerichtet. Jede Instanz fokussiert sich darauf, durch die Optimierung einer Ressource Werte aus der Infrastruktur zu ziehen: Speicher, I/O, Rechenleistung, Speicherplatz. Sie erzielen Kosteneinsparungen, indem sie Ihre Anforderungen mit der passenden optimierten Infrastruktur abgleichen. Die Anzahl GPU- und FPGA-fähiger Instanzen wächst, um effizient hochvolumige Echtzeit-Analysen zu ermöglichen.
Diese gezielten Instanzen existieren, weil der Leistungs- und Kapazitätsbedarf weitgehend davon abhängt, welche Art von KI-/ML-Funktionen verarbeitet werden müssen . Einige Funktionen werden durch mehr Speicherbits und eine schnellere Speicherbandbreite besser erfüllt, während andere mit schnelleren Taktraten oder mehr CUDA-Kernen eine bessere Leistung erzielen. Der konkrete Anwendungszweck bestimmt die Anforderungen an die Infrastruktur.
Denken Sie an die kürzliche Übernahme von Arm durch NVIDIA . Der atemberaubende Preis von 40 Milliarden Dollar ist als Investition in eine Zukunft gerechtfertigt, die teilweise von verteilter KI angetrieben wird. Diese Fähigkeit wird teilweise durch die Nutzung spezialisierter Hardware ermöglicht:
Wenn Unternehmen immer mehr Daten generieren und daraus geschäftlichen Nutzen ziehen wollen, werden KI- und ML-gestützte Analysen und Automatisierungstechnologien sicherlich eine Rolle spielen. Dies sind genau die Arten von Workloads, die von einer optimierten Infrastruktur profitieren würden, und dennoch sind sie diejenigen, die diese Vorteile heute am wenigsten nutzen können.
Während Rechenzentren und öffentliche Clouds heute am besten in der Lage sind, von dieser Infrastruktur-Renaissance zu profitieren, deuten jüngste Bestrebungen, allen Unternehmen den Zugang zu den Vorteilen leistungsfähiger Hardware zu ermöglichen, darauf hin, dass sich dieser Trend fortsetzen wird. So wie die Technologie nicht mehr länger auf Rechenzentren beschränkt ist und nun in unseren Kaffeekannen und Smartphones steckt, wird eine erneute Konzentration auf die Optimierung der Hardware die Verteilung leistungsstarker Computer bis an die Ränder des Internets ermöglichen, wo sie mehr Verarbeitungsleistung und Daten für die KI-basierte Analytik bereitstellen wird.
Die Fähigkeit jedes Unternehmens, die Vorteile von KI und Analytik zu nutzen, ist eine der Herausforderungen, die gelöst werden müssen, wenn wir die Customer Journey durch die drei Phasen der digitalen Transformation beschleunigen möchten. Und dies ist eine Herausforderung, deren Lösung letztlich zum Teil in einer Renaissance der Infrastruktur liegen wird.