Breitband: Wie geht denn das?

 

Es gibt unterschiedliche Möglichkeiten breitbandig im Internet zu surfen. Die bekannteste und am weitesten verbreitete Variante ist der Zugang mit ADSL-Anschlüssen. Es gibt aber noch weit aus mehr Technologien für Breitbandinternetzugänge, zum Beispiel Kabel oder Funk. Lernen Sie diese und andere Zugangsarten kennen. Wir zeigen Ihnen die wichtigsten Vor-und Nachteile der jeweiligen Anschlüsse auf. Darüber hinaus erfahren Sie weitere interessante Details zu den verschiedenen Breitbandtechnologien:

DSL

Die Anforderungen an Internetzugänge haben sich seit Mitte der neunziger Jahre dramatisch verändert. Zu Beginn des Internetbooms erfolgte die Einwahl ins Internet noch mit Hilfe eines Analogmodem. Dieses leistet Geschwindigkeiten von 28kbps und später auch 56kbps auf der Telefonleitung. Einen besseren Internetzugang bieten ISDN-Anschlüsse. Nicht nur, dass bei der Belegung eines ISDN B-Kanals, die telefonische Erreichbarkeit nicht durch ein Dauerbesetzt gestört ist: Durch Kanalbündelung lassen sich zwei ISDN-Kanäle gleichzeitig nutzen, so dass 128Kbit/s zur Verfügung stehen.

ISDN ist nahezu flächendeckend verfügbar. Andere Internetanschlüsse als diese Einwahlzugänge waren im letzten Jahrzehnt zwar vorhanden, aber entweder auf Grund von Kosten oder mangelnder Marktverfügbarkeit nicht relevant. Dies änderte sich jedoch mit der Einführung von DSL-Anschlüssen mit 768Kbit/s zur Jahrtausendwende. Für den Großteil der Internetnutzer waren die ersten Angebote aber noch zu teuer.

Schleichend stellte sich jedoch eine Zweiteilung bei der Nutzung des Internets ein. Mit den neuen Zugangsgeschwindigkeiten begannen die Entwickler von Websites die damit einhergehenden Möglichkeiten auch auszunutzen. Die Grafiken wurden vom Volumen her größer und die Seiten aufwendiger gestaltet. Wurde zunächst auf der Startseite noch eine Auswahl angeboten, ob man nun per ISDN/Modem oder DSL, die Seite ansurfte, verschwand diese Auswahlmöglichkeit mit der Zeit immer mehr. Einerseits wuchs der Anteil derjenigen langsam aber stetig, die sich DSL „leisteten“, andererseits wurden die Inhalte für diese wachsende Zielgruppe aber auch so umfangreich, dass auf eine Anpassung für langsamere Internetzugänge immer öfter verzichtet wurde.

Parallel entstand aber auch eine erste infrastrukturelle Separierung. Die verfügbare DSL-Geschwindigkeit war zu diesem Zeitpunkt noch nicht das entscheidende Kriterium, sondern der generelle Ausbau eines Anschlussbereiches. Während in größeren Gebietseinheiten, mit vielen Telefonkunden, oftmals schnell DSL seitens der Deutschen Telekom oder eines alternativen Telefonanbieters bereitgestellt wurde, blieben kleinere Bereiche, auch in den Städten, zunächst bei der Versorgung außen vor. Diese Disparität verschwand mit dem Preisverfall und der zunehmenden Verbreitung der DSL-Technik. Mit DSL generell unversorgte Ortsnetze finden sich heute fast ausschließlich nur noch in OPAL-Anschlussbereichen, wo herkömmliches ADSL nicht technisch realisierbar ist.

Ein anderer wichtiger Aspekt zur DSL-Verfügbarkeit und somit dem Zugang zum schnellen Internet, kristallisierte sich für den Verbraucher mit der Differenzierung der verschiedenen Zugangsgeschwindigkeiten heraus. Schon bei dem erstverfügbaren DSL-Produkt konnten einige Interessenten trotz Buchung keinen DSL-Zugang erhalten. Diese waren einfach zu weit von der Vermittlungsstelle entfernt. Die Leitungsdämpfung war nach Maßgaben des Anbieters zu hoch, um noch zuverlässig DSL bereitzustellen und dauerhaft zu betreiben. Dies waren jedoch wenige Einzelfälle, da in den zuerst erschlossenen Bereichen die Dichte an Hauptverteilern so hoch ist, dass kaum lange Leitungsführungen auftreten. Dies änderte sich als bald DSL1500-Anschlüsse vermarktet wurden. Ein recht geringer Prozentsatz der Nutzer konnte nicht den schnelleren Anschluss buchen. Dies resultiert aus den verschiedenen Dämpfungsgrenzen für unterschiedliche Geschwindigkeiten. DSL1500 benötigt eine kürzere Kupferleitung als ein DSL768-Anschluß.

Diese Problematik intensivierte sich immer weiter mit dem Aufkommen von DSL2000, 3000 etc. bis hin zu ADSL2+ mit 16MBit/s. Die Schaltungsgrenzen verschärfen sich mit jeder höheren angebotenen Geschwindigkeit. Nur die Option auf einen alternativen Anbieter, mit dem Verzicht auf starre Zugangsprofile, konnte eventuell zu einem schnelleren DSL-Anschluss verhelfen. Diese Differenzen in der Schaltungspraxis haben sich im Laufe der Zeit, auf Grund der Vielzahl der geschalteten DSL-Anschlüsse und einer allgemeinen Marktangleichung, jedoch stark einander angenähert.

In ein anderes Problemfeld hinein schwenkten die ländlichen Anschlussbereiche. Diese wurden ebenfalls zunehmend mit DSL erschlossen und die Dämpfungsproblematik trat hier, auf Grund der längeren zu überbrückenden Distanzen, noch verstärkt auf. Durch eine zu große Entfernung zum DSLAM in der Vermittlungsstelle bedingt, konnten viele Kunden in diesen Vorwahlbereichen gar keinen DSL-Anschluss erhalten. Der große Anteil dieser nicht anschließbaren Haushalte führte dazu, dass eine stark in der Leistung eingeschränkte DSL-Variante eingeführt wurde: Der sogenannte DSL-light-Anschluss mit einer Downstream-Geschwindigkeit von 384Kbit/s und einem Upstream von 64Kbit/s. Die Sendegeschwindigkeit entspricht in der Leistungsfähigkeit also sogar nur einem herkömmlichen ISDN-Anschluss. Die DSL-Verfügbarkeit wurde so prozentual mit simplen Mitteln drastisch erhöht, ohne jedoch eine tatsächliche Verbesserung der Infrastruktur zu erreichen, wie zum Beispiel mit dem nachhaltigen Bau eines Outdoor-DSLAM. An der Situation dieser Anschlüsse kann bis heute, wie ebenfalls bei den komplett unversorgten Haushalten, die DSL-Versorgung nur mit dem „Heranrücken“ an den Endkunden verbessert werden.

2006 wird mit dem VDSL-Ausbau in den Großstädten die Leistungsschere zwischen Stadt und Land bei den verfügbaren Anschlüssen weiter geöffnet. Mit nun in den Ballungsszentren angebotenen Geschwindigkeiten von bis zu 50MBit/s bei VDSL hat sich, allein über die im Markt verfügbaren verschiedenen DSL-Varianten hinweg, eine Differenz von über 49MBit/s in der höchstmöglichen Zugangsgeschwindigkeit ergeben. Andere Breitbandtechnologien sind hierbei noch nicht berücksichtigt. Die DSL-Anschlüsse haben heute fast ihre Leistungsgrenze erreicht. Verbesserung bei der Versorgung kann hier nur durch eine Verschiebung der Gegenstelle an den Kunden heran erfolgen.

Kabel

Das Breitbandkabelnetz wurde in den 80er Jahren sukzessive mit dem Ziel aufgebaut, eine bundesweit flächendeckende Versorgung mit Kabelfernsehen zu erreichen. Die damalige Deutsche Bundespost begann 1984 mit dem Ausbau zunächst in Pilotkabelnetzen in Ludwigshafen und Berlin; 1985 auch in München und Dortmund. Nach der erfolgreichen Errichtung dieser Pilotnetze erfolgte der weiträumige Ausbau in Deutschland. Dieser beschränkte sich von Beginn an nicht nur auf Ballungsgebiete, sondern auch kleinere Gemeinden, unter 10.000 Einwohnern, profitierten von dem Ausbau der Infrastruktur.
Bis Mitte der 90ziger Jahre erreichte die Verbreitung des Kabelfernsehens bundesweit einen Versorgungsgrad von 64,7 Prozent. Die Kabelnetze waren zu diesem Zeitpunkt auf reine Fernseh- und Radioübertragung ausgelegt. Reservekapazitäten für erste digitale Fernsehangebote waren jedoch noch verfügbar. Der genutzte Frequenzbereich endete bei 470Mhz. Die höheren Frequenzbereiche blieben frei. Der Fokus lag bei der Vermarktung der Kabelanschlüsse auf Privathaushalte, was eine ausschließliche Versorgung von Wohngebieten zur Folge hatte.

Dieser Zustand blieb auch noch viele Jahre so bestehen. 1997 wurde de
r Deutschen Telekom von der Monopolkommision auferlegt, das gesamte Kabelnetz, auf Grund der Vormachtstellung im Telekommunikations- und Rundfunkbereich, zu verkaufen. Interventionen gegen diese Entscheidung, seitens der Bundesregierung und Versuche mit den damaligen Betreibern der großen privaten Fernsehprogramme eine gemeinsame Kabelbetreiberplattform zu errichten, scheiterten. Erst ab dem Jahr 2000 verkaufte die Deutsche Telekom sukzessive an verschiedene neue Betreiber. Daraus sind schlussendlich die Gesellschaften Kabel BW, Unitymedia und Kabel Deutschland entstanden. Letzterer Anbieter versorgt auch Niedersachsen.

Das zuvor schon erwähnte WLAN hingegen ist in einem gänzlich konträren Einsatzgebiet zu verorten. WLAN ist für die Versorgung von sehr kleinen Einheiten gedacht und erreicht auf freier Fläche bis zu 100m-Strecke, in Gebäuden deutlich weniger. Gesendet wird in verschiedenen Frequenzbereichen um 2,4GHz und 5,4GHz. Auf diesen Frequenzen sind verschiedene Kanäle definiert, auf welchen gesendet werden kann. Um Störungen zu vermeiden, sollte man beachten, dass verschiedene WLAN-Netze in Reichweite unterschiedliche Kanäle nutzen. Je nach eingesetztem Standard sind Übertragungsgeschwindigkeiten zwischen ca. 5Mbit/s und 120MBit/s erreichbar. WLAN-Netze wurden zunächst hauptsächlich zur Versorgung öffentlicher Plätze eingesetzt, um dort einen Internetzugang bereitzustellen: Die sogenannten Hot-Spots. Häufig müssen solche Zugänge nach Zeit bezahlt werden. Konkurrenz bekommen die Hot-Spots aber zunehmend durch Mobilfunktechniken, wie UMTS und verlieren so an Bedeutung. Hingegen steigt aber die private Nutzung von WLAN: Denn mit der Bereitstellung eines Internetzugangs erfolgt oft auch die Abgabe eines subventionierten WLAN-Routers durch die Provider. WLAN ist breit verfügbar und soll den kabellosen Internetzugang in den eigenen Räumen gewährleisten. Wichtig ist es hier auf eine sichere Verschlüsselung des WLAN-Netzes zu achten. Denn diese Netze sollen nicht öffentlich zugänglich sein. Ein WLAN-Besitzer ist für alle Aktionen an seinem Anschluss verantwortlich!

Trotzdem kann ein WLAN einen Breitbandzugang für eine kleine Nutzergruppe bereitstellen, wenn kein Breitbandanschluss für alle Nutzer verfügbar ist. So kann ein verfügbarer Internetanschluss auf andere unversorgte Nachbarn weiterverteilt werden. Manche Provider schließen jedoch eine solche Nutzung in ihren Allgemeinen Geschäftsbedingungen aus.
In die WiMAX-Technologie wurden große Hoffnungen gesetzt als Breitbandanbindung für bisher unterversorgte Gebiete. Basierend auf WLAN ist es so konzipiert worden weitaus größere Regionen versorgen zu können, typischerweise im 5 Kilometer Radius um den Sendestandort herum. Die Geschwindigkeit einer Zelle (bis zu 108MBIt/s) teilen sich alle in deren Reichweite befindlichen Nutzer. Ein besonderes Augenmerk bei der Entwicklung lag bei der Priorisierung von Sprach- und Videoübertragungen. WiMAX sollte somit genauso leistungsfähig wie herkömmliche kabelgebundene Breitbandverbindungen sein. Bis auf einige Pilotnetze sind in Deutschland jedoch keine WiMAX-Funknetze errichtet worden. Die Inhaber der Frequenzen haben diese teilweise sogar zurückgegeben. Die Technologie konnte sich nicht kommerziell durchsetzen. Insbesondere durch die zunehmende Unterstützung der Netzwerkausrüster von LTE-Mobilfunk ist WiMAX letztendlich gescheitert.

Funk

Wenn man heute von Funk und Internetzugängen spricht, ist der Gedanke an das eigene heimische WLAN-Netz naheliegend. Tatsächlich ist WLAN auch eine weitverbreitete und lokal begrenzte Möglichkeit einen Breitbandinternetzugang bereitzustellen. Darüber hinaus gibt es aber noch weitere Funktechnologien mit unterschiedlichen Einsatzfeldern.
Die älteste Funktechnologie, um Daten schnell und sicher kabellos zu transpo

rtieren, ist die Richtfunktechnik. Diese Technologie wird in Deutschland schon seit den 50iger Jahren eingesetzt. Die Deutsche Bundespost nutzte Richtfunkstrecken, um so Verbindungen zwischen ihren Vermittlungsstellen einzurichten. Die Folge war ein dichtes und breitbandiges Verbindungsnetz, welches im Laufe der Jahre aufgebaut wurde. Neben der Übertragung von vielen Telefonaten gleichzeitig, wurden später auch Fernsehprogramme mit Richtfunk verteilt. Einerseits als Zuführung zu den Sendetürmen der Programmveranstalter, später auch zur Bereitstellung der Programme an die in den 80iger Jahren errichten Kabelnetze. Heute dienen Richtfunkstrecken auch zur Anbindung von Mobilfunkstandorten, um so die Schnittstelle zwischen Mobilfunkantenne und Kernnetz des Mobilfunkbetreibers zu bilden.

Die genannten Beispiele zeigen, dass Richtfunkstrecken sehr hohe Bandbreiten über große Strecken übertragen können. Erreicht wird dies durch den Einsatz von stark auf die Gegenstelle fokussierender Antennen. In der Regel sind dies Punkt-zu-Punkt-Verbindungen, welche zwei Standorte miteinander verbinden. Für kleinflächig zu versorgende Gebiete können Punkt-zu-Multipunktverbindungen errichtet werden, so dass ein Antennenstandort mehrere Empfänger versorgt. Die erzielbare Reichweite ist jedoch hier wesentlich geringer. Eine wesentliche Vorrausetzung für beide Verbindungsvarianten ist eine „freie Sicht“ zwischen den Antennen, ohne störende Hindernisse, wie zum Beispiel Bäume oder hohe Schornsteine. Daraus resultieren oftmals hoch gelegene Senderstandorte und eine exakte und aufwändige Funkplanung muss vor der Errichtung geleistet werden. Für die Versorgung mit Breitbandanschlüssen kann Richtfunk als Zuführungsmedium an unterversorgte Regionen dienen, so dass vor Ort die Daten mittels anderer Technologien weiterverteilt werden.
Das zuvor schon erwähnte WLAN hingegen ist in einem gänzlich konträren Einsatzgebiet zu verorten. WLAN ist für die Versorgung von sehr kleinen Einheiten gedacht und erreicht auf freier Fläche bis zu 100m-Strecke, in Gebäuden deutlich weniger. Gesendet wird in verschiedenen Frequenzbereichen um 2,4GHz und 5,4GHz. Auf diesen Frequenzen sind verschiedene Kanäle definiert, auf welchen gesendet werden kann. Um Störungen zu vermeiden, sollte man beachten, dass verschiedene WLAN-Netze in Reichweite unterschiedliche Kanäle nutzen. Je nach eingesetztem Standard sind Übertragungsgeschwindigkeiten zwischen ca. 5Mbit/s und 120MBit/s erreichbar. WLAN-Netze wurden zunächst hauptsächlich zur Versorgung öffentlicher Plätze eingesetzt, um dort einen Internetzugang bereitzustellen: Die sogenannten Hot-Spots. Häufig müssen solche Zugänge nach Zeit bezahlt werden. Konkurrenz bekommen die Hot-Spots aber zunehmend durch Mobilfunktechniken, wie UMTS und verlieren so an Bedeutung. Hingegen steigt aber die private Nutzung von WLAN: Denn mit der Bereitstellung eines Internetzugangs erfolgt oft auch die Abgabe eines subventionierten WLAN-Routers durch die Provider. WLAN ist breit verfügbar und soll den kabellosen Internetzugang in den eigenen Räumen gewährleisten. Wichtig ist es hier auf eine sichere Verschlüsselung des WLAN-Netzes zu achten. Denn diese Netze sollen nicht öffentlich zugänglich sein. Ein WLAN-Besitzer ist für alle Aktionen an seinem Anschluss verantwortlich!

Trotzdem kann ein WLAN einen Breitbandzugang für eine kleine Nutzergruppe bereitstellen, wenn kein Breitbandanschluss für alle Nutzer verfügbar ist. So kann ein verfügbarer Internetanschluss auf andere unversorgte Nachbarn weiterverteilt werden. Manche Provider schließen jedoch eine solche Nutzung in ihren Allgemeinen Geschäftsbedingungen aus.
In die WiMAX-Technologie wurden große Hoffnungen gesetzt als Breitbandanbindung für bisher unterversorgte Gebiete. Basierend auf WLAN ist es so konzipiert worden weitaus größere Regionen versorgen zu können, typischerweise im 5 Kilometer Radius um den Sendestandort herum. Die Geschwindigkeit einer Zelle (bis zu 108MBIt/s) teilen sich alle in deren Reichweite befindlichen Nutzer. Ein besonderes Augenmerk bei der Entwic
klung lag bei der Priorisierung von Sprach- und Videoübertragungen. WiMAX sollte somit genauso leistungsfähig wie herkömmliche kabelgebundene Breitbandverbindungen sein. Bis auf einige Pilotnetze sind in Deutschland jedoch keine WiMAX-Funknetze errichtet worden. Die Inhaber der Frequenzen haben diese teilweise sogar zurückgegeben. Die Technologie konnte sich nicht kommerziell durchsetzen. Insbesondere durch die zunehmende Unterstützung der Netzwerkausrüster von LTE-Mobilfunk ist WiMAX letztendlich gescheitert.

Satellit

Neben der Übertragung von Fernsehprogrammen werden über Satellit auch Internetzugänge angeboten. Mit dem Ausbau der Kapazitäten auf den verschiedenen Orbitalpositionen sind auf vielen Satelliten mittlerweile Transponder für Internetdienste reserviert, die sich in der Vermarktung auch an Privatkunden richten. Klassische Zielgruppe eines Satelliteninternetzugangs sind Haushalte und Unternehmen in Regionen, welche weder mit kabelgebundenen noch mit anderen kabellosen Breitbandtechnologien erschlossen sind. Der Satellit kann hier eine Alternative zum ISDN-Anschluss als Internetzugang darstellen. Er ermöglicht zu einem höhere Zugangsgeschwindigkeiten zum Internet und ist zum anderen auch überall verfügbar.

Als Nutzer muss man sich allerdings dessen bewusst sein, dass ein Satellitenzugang technischen Restriktionen unterliegt. Auf Grund der langen Wegstrecke, welche das Signal auf dem Weg von und zum Satelliten zurücklegen muss, liegen die Antwortzeiten bei sehr hohen Werten von 600ms bis 800ms. Ein typischer DSL-Anschluss zum Beispiel besitzt Latenzen von ca. 50ms. Dadurch werden Echtzeitanwendungen, wie Sprachübertragungen oder Videokonferenzen nahezu unmöglich. Ebenfalls kann die Nutzung von auf Deutschland begrenzten Internetangeboten problematisch sein. Zumeist ist die IP-Adresse, welche der Satellitenprovider an den Kunden vergibt, aus dem europäischen Ausland. Wenn nun auf einer Internetseite die geographische Herkunft der IP überprüft wird, kann es sein, dass das gewünschte Angebot nicht nutzbar ist. Oft betrifft eine solche Überprüfung Videoportale oder Streams der deutschen Fernsehprogramme. Hintergrund einer solchen Restriktion ist es Urheber- und Lizenzrechte nicht zu verletzen.

Eine weitere Einschränkung des Satellitenzugangs ist das Fehlen von Flatrateangeboten. Oftmals ist nur eine begrenzte Menge an Datenvolumen in den Zugängen pro Monat enthalten. Bei Überschreiten der festgelegten Datenmenge wird der Zugang zum Internet in der Geschwindigkeit gedrosselt. Auch kann eine Drosselung bei einer zu starken gleichzeitigen Beanspruchung des Satellitentransponders durch zu viele Nutzer erfolgen. Die Geschwindigkeit des Zugangs richtet sich nach dem gebuchten Paket. Erschwingliche Zugänge sind bis zu 4MBit/s erhältlich. Es lassen sich aber auch höherwertigere Pakete buchen, die jedoch wesentlich teurer vermarktet werden.

Handelsübliche für den Fernsehempfang konzipierte Satellitenantennen sind nicht für das Senden von Daten nutzbar. Deswegen muss entweder eine bi-direktional taugliche Antenne installiert werden, welche die Signale direkt an den Satelliten sendet oder der Rückkanal zum Satelliten hin muss über den Telefonanschluss realisiert werden. Dies verursacht jedoch weitere zusätzliche Kosten für Telefongebühren.

Internetzugänge über Satellit stellen eine Möglichkeit dar ins Internet zu gelangen, wenn andere Zugangstechnologien nicht verfügbar sind. Jedoch sollte sich der potentielle Nutzer bewusst sein, dass nicht für alle Anwendungen im Internet eine optimale Leistung zu erzielen ist.

 

Glasfaser

Zumeist sind heute ADSL-Anschlüsse die vorherrschende Technologie mit welcher Haushalte breitbandig ins Internet gehen. Ein DSL-Anschluss wird über die Kupferdoppeladern der Telefonleitungen realisiert. Somit ist die zu erzielende Bandbreite sehr stark abhängig von den physikalischen Eigenschaften der verwendeten Leitung, also deren Durchmesser und Länge, aber auch von anderen äußeren Einflüssen. Die Leistungsfähigkeit dieser Technologie ist heute nahezu ausgereizt und die Telefonprovider müssen neue Mittel finden, um mit den Übertragungsraten in den Kabelfernsehnetzen von über 100MBit/s mitzuhalten. Ideal wäre für die Telefongesellschaften ein kompletter Ausbau des Netzes mit Glasfasern, denn diese bieten nahezu unbegrenzt Bandbreite. Die sogenannten Backbones der Provider, also der Teil des Netzes, welcher sich vom Kunden gesehen hinter der Vermittlungsstelle befindet, basieren zu großen Teilen auf Glasfaserinfrastrukturen. Glasfasernetze zeigen kaum Dämpfungsverluste auf der Übertragungsstrecke. Somit können auch auf sehr langen Distanzen die Informationen verlustfrei, mit hoher Bandbreite, transportiert werden. Die Übertragung findet auf der Glasfaser mit Lichtsignalen, sowohl im sichtbaren, als auch im ultravioletten und infraroten Bereich, statt.

Da das Medium Kupfer jedoch immer noch den Zugang auf der letzten Meile zum Kunden bildet und ein Austausch der Kabel bis ins Haus nur sehr aufwendig und mit sehr teuren Tiefbauarbeiten zu realisieren ist, sollen zunächst Zwischenlösungen Besserung bringen. Die Glasfaser muss von der Vermittlungsstelle also näher an den Kunden herangeführt werden. Dies hat den Vorteil, dass sich die zu überbrückende Kupferstrecke verringert und somit eine höhere Bandbreite auf der verbleibenden Kupferdoppeladerstrecke erreichbar ist. Dieser Bandbreitenzuwachs resultiert unter anderem durch die nun mögliche Nutzung von Frequenzbereichen, welche sonst, auf Grund der Dämpfungseigenschaften des Kupfers, auf längeren Strecken nicht verwendet werden können. Die VDSL-Angebote der Telefongesellschaften basieren auf diesem Prinzip. Optisch auffällig sind in solch versorgten Gebieten, die sogenannten Outdoor-DSLAM, die großen Verteilerkästen an Straßen und Fußwegen. Diese sind quasi Außenposten der jeweilig zugehörigen Vermittlungsstelle. Die Glasfaseranbindung ist somit bis zum Outdoor-DSLAM verlängert worden. Diese Variante eines Glasfaserausbaus wird auch FTTC (Fibre To The Curb – „Glasfaser bis an den Bordstein“) genannt.

Dieser Ausbau wird voraussichtlich jedoch auch nur eine Zwischenlösung sein. Denn es werden im Idealfall nur bis zu 75MBit/s erreicht. Dreistellige Megabit-Werte sind mit dieser Ausbauvariante nicht darzustellen. In Asien und Skandinavien hingegen werden schon heute massiv Glasfaserinfrastrukturen bis zum Endkunden hin verlegt. Aber auch in Deutschland sind insbesondere in den Großstädten lokale Versorger bestrebt, in Siedlungsgebieten mit hoher Bevölkerungsdichte, Glasfaser bis in das Haus zu etablieren. Gewählt werden solch dichtbesiedelten Regionen natürlich aus rein marktwirtschaftlichen Erwägungen. Denn mit vielen Kunden auf engem Raum lässt sich schneller ein Gewinn mit der verbauten Infrastruktur erzielen. Die Investition pro Haushalt ist so natürlich geringer. Allerdings hat die Migration auf Glasfasernetze für den Netzbetreiber jedoch auch noch einen weiteren Vorteil: In einer rein glasfaserbasierenden Infrastruktur sind die Netzwartungskosten geringer, als in den herkömmlichen Kupfernetzen. Dazu kommt natürlich ein weiteres absolutes Alleinstellungsmerkmal: Die Bandbreite.

Mit FTTB (Building) bzw. FTTH (Home)-Anschlüssen lassen sich nahezu unbegrenzt Geschwindigkeiten nach oben hin skalieren. So können durchaus Internetzugänge mit 100 MBit/s und mehr beim Endkunden bereitgestellt werden. Bei den genannten Abkürzungen handelt es sich um Glasfaseranschlüsse, die bis ins Haus geführt werden. Der Unterschied zwischen den Anschlusstypen besteht in einer noch verbleibenden kurzen Restkupferstrecke im angeschlossenen Haus bei der FTTB-Variante. D
er FTTH-Anschluss hingegen ist durchgängig nur mit Glasfasern realisiert. Auf Grund des Verzichts auf eine Kupferstrecke, ist ein FTTH-Anschluss dementsprechend auch noch leistungsfähiger. Geschwindigkeiten von 1GBit/s und mehr sind hier realisierbar. Auf breiter Basis werden solche Anschlüsse in Deutschland aber in den nächsten Jahren nicht zur Verfügung stehen. Zu teuer und aufwendig ist der Ausbau für größere Gebiete. Somit werden weiterhin einige Stadtteile in den Großstädten und Speckgürteln Inseln mit Gigabit-Anschlüssen bleiben. Desweiteren ist eine Standardisierung dieser FTTH- Anschlüsse auch noch nicht vollzogen. So konkurrieren zwei unterschiedliche Architekturen um die Gunst der Netzbetreiber. Auf der einen Seite stehen Anschlussvarianten basierend auf der PON (Passive Optical Network)-Technologie, auf der anderen Seite PtP-Ethernet-Anschlüsse (Punkt zu Punkt-Verbindung). PtP-Architekturen stellen für jeden Anschluss eine eigene Faser zur Verfügung, so dass statt einer Kupferdoppelader eine Faser bis zum Hausanschluss führt. Bei auf PON basierenden Zugängen werden stattdessen mehrere Anschlüsse auf einer Glasfaser gebündelt, wobei ein individueller Zeitschlitz dem jeweiligen Anschluss zugeordnet wird, auf dem er Daten senden und empfangen darf.
Glasfaserzugängen wird auf lange Sicht die Zukunft gehören. Als Frage wird bleiben, wie lange es dauert solche Anschlüsse weiträumig, auch außerhalb der Ballungszentren, zu etablieren. In den nächsten Jahren wird dies sicher nicht zu realisieren sein. Wichtig ist es aber das Augenmerk auf den ländlichen Raum zu richten, wo solche Netze nicht aus dem Wettbewerb heraus gebaut werden. Wenn dort jetzt schon durch die Verlegung von FTTC-Netzen ein Grundstein zu einer verbesserten Glasfaserversorgung gelegt ist, wird der nächste Schritt zu FTTH auch dort leichter zu bewältigen sein.

Mobilfunk

Der Internetzugang über das Mobiltelefon gilt noch heute oft als ruinöses Vergnügen und dazu obendrein als langsam und unausgereift. Bei Altverträgen ist der „Bankrottfaktor“ durchaus noch gegeben und der Nutzer sollte sich tunlichst darüber informieren zu welchen Konditionen er den Internetzugang nutzen kann. Aber die letzten zehn Jahre hat sich eine Menge im Mobilfunkmarkt getan und die Netze haben massiv an Leistung gewonnen.
Rückblick auf das Jahr 2000. Die Mobilfunklizenzen für den neuen Standard UMTS wurden an sechs Bewerber vergeben. Der Staat nahm knapp 51 Milliarden Euro an Ersteigerungserlös ein. Die Hoffnungen der Gewinner waren groß, die ihnen aufgebürdete Last aber wog schwerer. Zwei Lizenzinhaber scheiterten schnell und es dauerte noch lange vier lange weitere Jahre bis das erste UMTS-Netz in Deutschland öffentlich nutzbar war. Bis dahin war der Zugang per GPRS Stand der Dinge. 2001 erstmals gestartet, bietet GPRS eine Geschwindigkeit von knapp über 50Kbps und liegt somit auf dem Niveau eines Analogmodem. Damit standen damals dem geneigten Nutzer bei Besitz eines entsprechend tauglichen Mobiltelefons, einer aufgerüsteten Basisstation in Reichweite und einer geringen Netzauslast, zum „Spottpreis“ von zum Beispiel 0,025 Euro, eine übertragene Datenmenge von 1KB zur Verfügung. Für das Hochrechen auf den MB-Preis sollte man besser schwindelfrei sein.
GPRS ist heute flächendeckend in allen GSM-Netzen verfügbar. Es bildet immer noch das Rückgrat für mobile Datenübertragung in weiten Teilen einiger Mobilfunknetze, bei welchen keine zusätzlichen Datendienste, wie zum Beispiel EDGE als GPRS-Erweiterung, angeboten werden.

Mit dem kommerziellen Start der UMTS-Netze in den Jahren 2004 und 2005 wurden entsprechende Endgeräte jedoch kaum nachgefragt. Datenübertragung blieb ein Nischenprodukt. Erste Diskussionen über die teuer erkauften Lizenzen kamen auf, denn UMTS schien ein sehr teurer Flop zu werden. Der große Durchbruch für mobile Datendienste erfolgte erst in den Jahren 2007 und 2008. Drei parallel eintretende Entwicklungen beschleunigten massiv das Interesse an mobilen Internetzugängen bei den Nutzern. Zu einem forcierten einige Netzbetreiber die massive Subventionierung von Datenkarten, um diese im Markt zu etablieren. Dazu wurden Tarife angeboten, welche zu bestimmten Konditionen das „Mobile Surfen“ attraktiv für den Kunden machten, analog zu den ersten Sprachtarifen im Mobilfunk. Ebenfalls einen großen Einfluss auf die zunehmende Nutzung hatten die neu im Markt auftretenden Discountmarken. Diese boten nicht nur zunächst preiswerte Sprachminuten auf Prepaid-Abrechnung an, sondern bald auch ebenso günstige Datenpreise von zunächst 24ct/MB. Der maßgebliche Faktor für den Boom mobiler Internetnutzung ist aber in der massiven Markteinführung von internettauglichen Smartphones zu finden. Angeführt von einem Lifestyletelefon, welches übrigens nicht im UMTS-Netz funkte, folgten weitere Hersteller und sprangen auf den Zug der Application auf. Die „App“ als zentraler Bestandteil des mobilen Alltags veränderte den Umgang mit der Datennutzung auf dem Mobiltelefon nachhaltig.
Für die Mobilfunkanbieter hat dies zur Konsequenz, dass sie nun ihren Netzaufbau auch gezielt dahin ausrichten müssen, einen möglichst flächendeckend dem Bedarf entsprechenden Ausbau der Datendienste zu gewährleisten. Denn nicht nur die Applications auf den Mobiltelefonen, sondern auch die Nutzung des Internets per Laptop wurde durch entsprechende Tarife nun erschwinglich. Dabei sind zwei Faktoren für eine zufriedenstellende Nutzbarkeit der Dienste zu gewährleisten: Einerseits die Bereitstellung einer der Nachfrage entsprechenden Dienstverfügbarkeit, also zum Beispiel eine HSDPA-Funkversorgung. Andererseits ist aber auch die Kapazität im Netz des Anbieters selbst von großer Bedeutung, also in seinem sogenannten Backbone und in den Zuführungen zu den Mobilfunkstandorten. Die Menge der aufkommenden Daten sind auch hier ohne Verzögerung zu transportieren und abzuarbeiten. Insbesondere der zweite Faktor ist als wesentlich zu bewerten und dürfe wohl auch ein Grund für das Fehlen von „echten Flatrates“ bei Mobilfunkdatenzugängen sein. Bis zu 10GB im Monat sind auf dem Markt mit vollem Geschwindigkeitszugang momentan erhältlich. Weitere Grenzen sind beispielsweise 5, 3 oder 1GB. Nach dem Erreichen dieser Datenmenge wird, je nach Vertragsgestaltung, bis zum nächsten Kalendermonat auf eine Geschwindigkeit auf GPRS-Niveau gedrosselt. Der schnelle Zugang kann also durch die Nutzung von datenintensiven Diensten, wie zum Beispiel Videoportalen oder umfangreichen Updates, rasch aufgebraucht sein.

Eine Versorgung mit EDGE ist für viele einfache Anwendungen und E-Mail-Versand ausreichend. Als Ersatz für kabelgebundene Internetzugänge, zum Beispiel eines DSL-Anschlusses, ist allerdings eine HSPDA-Versorgung vorzuziehen. Angeboten wird dieser Dienst in Ausbaustufen von 1,8MBit/s bis 21,6MBit/s. Der Versorgungsgrad und die Geschwindigkeit variieren sehr stark abhängig vom Netzbetreiber. Deshalb sollte eine Überprüfung der Netzabdeckung, vor allem bei vorwiegend stationärem Einsatz eines HSPA-Modems, zwingend erfolgen. Der Zugang zum Internet kann sowohl per Datenkarte, USB-Stick oder mittlerweile auch per UMTS-Router erfolgen. Die Vernetzung von mehreren Rechnern hinter dem Router ist per Mobilfunk, auch wie bei einem kabelgebundenen Internetzugang, einfach einzurichten.
Mit LTE wird nun der nächste Schritt im Mobilfunk erfolgen und es scheint, als ob sich diese Technologie schneller verbreiten wird, als es bei UMTS der Fall war. Durch Ausbauvorgaben seitens der Bundesnetzagentur und einen im Vergleich zur letzten Auktion geringen Auktionsergebnis von über 4Mrd. Euro scheint sich der Start von LTE im Markt einfacher zu gestalten. Theoretisch können Geschwindigkeiten von 100MBit/s pro Funkzelle erreicht werden. Auf dem Land, über die Digitale Dividende, sollen zunächst 3MBit/s angeboten werden. Der breite Ausbau soll in 201
1 erfolgen. Interessant wird dabei sein, welche Geschwindigkeiten von den Netzbetreibern langfristig zur Verfügung gestellt und welche Datenvolumen darin inkludiert sein werden. Diese Kriterien werden auch mit darüber entscheiden, ob sich LTE zu einer Alternative für kabelgebundene breitbandige Internetanschlüsse entwickeln wird.

Weitere Überarbeitung

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s

%d Bloggern gefällt das: