Man stelle sich einmal vor, der Erfinder des Telefons glaubt eher nicht an seinen Erfolg, eigentlich würde er die Telefonnummern, der Übersicht zu Liebe, am liebsten auf sechs Stellen limitieren – unvorstellbar, dass jemals mehr als eine Million Menschen einen Telefonanschluss haben werden.
So abwegig, wie das klingen mag, ist es bei weitem nicht. Die meisten dürften sich noch daran zurück erinnern, dass auch im Großherzogtum Telefonnummern lediglich aus drei, fünf, dann sechs Zahlen bestanden. In der Tat haben sich, neben den reinen Anschlüssen für die Mensch-zu-Mensch-Kommunikation, auch immer mehr Anbindungen für automatische beziehungsweise Überwachungszwecke etabliert. Jedes dieser Geräte braucht eine eindeutige Identifizierung in Form einer Telefonnummer. Schnell wird ersichtlich, dass bei knapp hundertausend Anschlüssen Schluss wäre, selbst für das kleine Luxemburg eine erschreckend niedrige Zahl.
Verschlimmernd kommt hinzu, dass die Telefonnummern nicht einfach seriell vergeben wurden, sondern einem Schema entsprechend. In der Tat wurden den Telefonzentralen eine definierte erste Stelle fest zugeordnet. Durch diese – aus damaliger Sicht durchaus sinnvolle, teilweise sogar technisch notwendige – Einschränkung sank natürlich die Anzahl der zur Verfügung stehenden Telefonnummern. Um einer Knappheit von Telefonnummern vorzubeugen, wurde der “plan de numérotation” erweitert. Heute sieht er acht Stellen vor und kann damit den Bedarf abdecken.
Demnach ist es beim Designen eines Systems extrem wichtig, die sogenannte Skalabilität im Auge zu haben. Dies ist allerdings umso schwieriger, je weniger genau man abschätzen kann, zu welcher Ausbreitung das System zu einem späteren Zeitpunkt kommen wird. Nicht immer ist das Problem so klar definiert wie beim sogenannten Y2K oder Millennium Bug. Durch Sparen an der falschen Stelle wurde hier eindrucksvoll demonstriert, welche fatalen Auswirkungen ein kleiner Designfehler haben kann. Durch das Limitieren der Datumsdarstellung auf zwei Stellen entstanden weltweit Schäden in Milliardenhöhe, zum Teil durch Beheben eines Fehlers, zum Teil aber auch nur durch Studien, welche zeigen sollten, ob Y2K die jeweiligen Studienobjekte schädigen würde oder nicht. Wie oft in solchen Situationen ist eine eindeutige Bilanzierung nicht einfach, da Y2K der um die Jahrtausendwende angeschlagenen IT-Industrie viele neue Aufträge bescherte.
Auch das Internet kämpfte und kämpft mit Designproblemen: Als 1981 die bereits sechste Auflage eines Protokols für die Adressierung im Internet erarbeitet wurde, handelte es sich um die vierte Version des Internetprotokolls. Diesem waren bereits zwei Versionen Arpanet vorausgegangen. Das IP-Protokol in der Version 4 – IPv4 – trat zusammen mit dem Internet seinen Siegeszug an.
Theoretisch würde IPv4 das Adressieren von knapp über vier Milliarden Computern erlauben. Durch die Einteilung in Blöcke kann diese theoretische Obergrenze allerdings nie erreicht werden. So wurde zum Beispiel ein Teil der Adressen für spezielle Anwendungen beziehungsweise die reine private Nutzung reserviert.
Zu allem Überfluss wurden in den Geburtsstunden des Internets einzelne Adressblöcke mit mehreren Millio[-]nen Adressen fest zugewiesen; vor allem die USA haben sich hier eingedeckt, aber auch in Europa gab es Zeiten, in denen man ohne weitere Nachfragen einen Adressblock mit 65 536 Adressen zugeteilt bekam1.
Zu diesem Zeitpunkt konnte natürlich noch niemand ahnen, dass in absehbarer Zukunft neben Servern, Computern, Notebooks und Druckern auch Smartphones, Tablets, Kühlschränke und Autos sich gerne mit dem Internet verbinden würden und somit auch Bedarf für eine IP-Adresse anmelden würden.
Die daraus sehr schnell resultierende IP-Knappheit ist dann auch keine Erkenntnis rezenter Zeit. Immerhin wurden die definitiv letzten freien IP- Adressblöcke vor einem knappen Jahr zugeteilt2.
Allerdings, anstatt zu reagieren und das bereits seit 1998 zur Verfügung stehende Nachfolgeprotokol IPv63 zum Einsatz zu bringen, nutzt die Industrie mehrere Krücken, die so nie gedacht waren.
Da gäbe es einmal die dynamische Adresszuweisung. Zu Zeiten des Modems durchaus noch sinnvoll, hat dieser Trick im Zeitalter der Flat-Fees- und Always-On-DSL und -Kabelanschlüsse längst an Wirksamkeit eingebüßt.
Bereits 1995 starteten die Bemühungen zu IPv64, welche 1998 in einem offiziellen Standard gipfelten. Doch IPv6 hatte nun nicht etwa seine Geburtsstunde, stattdessen griff man in die Trickkiste und zu NAT, Network Adress Translation. Damit wurde es nun möglich, die eigentlich für den privaten Gebrauch reservierten Adressen auch mit dem Internet in Verbindung zu bringen. Theoretisch kann man so hinter einer einzelnen IP-Adresse über die Kaskadierung der Adress[-]umsetzung unendlich viele Adressen verstecken, was zu der falschen Annahme führt, mit NAT könne man Sicherheit erwerben.
Technisch ist NAT zwar ein Krücke, aber vor allem eine Katastrophe, die direkte Verbindung von A nach B (end-to-end principle6) wird damit unwiederbringlich zerstört. Weitere Krücken sind notwending, um Abhilfe zu schaffen, denn gerade so beliebte Anwendungen wie Sprach- und Videophonie funktionieren eigentlich nur bei direkten Verbindungen.
Über die vielen Warum und Weshalb der späten Einführung von IPv6 kann nur spekuliert werden hoher Invest bei geringer Rendite für die einzelnen Provider, technische Unausgereiftheit undsoweiter sind sicher nur Teilaspekte. Interessant ist aber, dass ein riesiger Aufschrei ausgeblieben ist.
In der Tat kann man NAT – um zu unserer Telefonanalogie zurückzukehren – mit einer Art „automatisiertem Fräulein vom Amt“ vergleichen. Anstatt also von sechs auf acht Stellen bei den Telefonnummern umzusteigen, hätte man auch hingehen können und Billiglohnkräfte in die Zentralen setzen, diese würden dann jeweils in ihrem Zuständigkeitsbereich die Anrufe entgegennehmen, herausfinden, für wen die Nachricht ist, diesen anrufen und (mit je nach eigener Herkunft anders gefärbtem Akzent) die vorher aufgenommene Nachricht wiedergeben, die Antwort notieren und wiederum dem initialen Absender mitteilen. Das Gespräch fände nicht mehr direkt zwischen den beiden Telefonierenden statt, sondern über den Umweg der Umsetzung.
Genau das passiert bei NAT. Selbst die Provider sind auf den Geschmack gekommen und setzen mit LSN (Large Scale NAT) noch einen drauf. Natives IPv6 tut sich weiterhin schwer, vielleicht gehen aber auch nur die Rufe seiner Befürworter an den Grenzen der Adressumsetzung verloren.