- Viele DSL-Anschlüsse werden nunmal von mehr als nur einer Person benutzt. Das sind doch oft Familienanschlüsse für 3 und mehr Personen. Da geht die Rechnung schonmal nicht mehr auf.
Auch dann geht die Rechnung auf. weil 75GB einfach sauviel ist, leider hast Du zwar einen Stapel "Argumente" - von Chip oder so? Da habe ich nämlich einen ähnlichen Beitrag gesehen, aber allen ist gemein, dass keine konkreten Berechnungen angestellt werden.
- die "Cloud" erfreut sich mehr und mehr Beliebtheit. Dienste wie Dropbox, SkyDrive, CloudDrive, etc verursachen entsprechend Traffic.
Sehe ich nicht. Zum einen sind alle Dienste nur mit sehr kleinen Platzvolumen im Standardtarif (frei) versehen, zum anderen leiden sie alle an der gleichen Crux, dass die Uploadspeed sowieso schon so beschränkt ist (pi mal Daumen), wie die Downloadspeed beschränkt werden soll (nach dem Erreichen der Limits). Wer lädt denn die ganze Zeit noch und nöcher denselben Inhalt aus seiner Cloud herunter, der doch sowieso lokal auch vorhanden ist?
- Systemupdates: Alleine die allwöchentlichen Patches und Updates für z.B. Windows, Flash, Java & Acrobat verursachen bereits ordentliches Volumen.
Wieder schreibst Du nur "drdentlich Volumen", selbst wenn es pro Woche 1GB wäre (was um Faktoren zu viel sein dürfte), käme man nur auf 4GB im Monat und hätte weitere 71GB frei.
- Online-Spielevertriebe wie die Steam-Platform verursachen ebenfalls einen großes Daten-Volumen (Downloads + Patches).
- Neben Video-Streaming ist auch Game-Streaming auf dem Vormarsch. Stichwort: die in Kürze erscheinende PS4 und XBox 720. "Always online"-Geräte. Von "Cloud-Gaming" ist die Rede.
- Online-Zocken verbraucht auch ordentlich Bandbreite. Jüngstes Negativbeispiel ist Sim City 2013. Selbst DSL-6000 Kunden klagen über Unspielbarkeit wegen Lags.
"Unspielbarkeit" führt ja dann allenfalls zu weniger Einsatz und weniger Traffic. Aber auch hier: keine konkreten Zahlen, genau das ist mir auch an dem Chip Beitrag so negativ aufgefallen - warum wird nicht mit konkreten Zahlen gerechnet? Die stehen doch zur Verfügung. Ganz einfach: weil das Ergebnis zeigen würde, dass nur wenige Power-Surfer überhaupt so hohe Volumen haben.
- es hängen immer mehr Geräte gleichzeitig an einer DSL-Leitung (PC, Notebook, Tablet, Handy, Spielkonsole, Media-Player).
Tendenz: nach oben offen.
Aber nur ein Nutzer, dem das alles gehört. Und wie gesagt: wenn man nicht mit HighSpeed fette Datenvolumen herunterlädt (wofür ein Handy beispielsweise ziemlich ungeeignet ist, was soll man mit einem 10GB HD-Video auf einem Smartphone??), dann "kleckert" es nur noch. Typische Apps sind WhatsApp (braucht so gut wie nix), Twitter (braucht auch nichts), Facebook (braucht auch sehr wenig) usw. - immer wenn "kommuniziert" wird, statt im Batch über Nacht herunterzuladen, wird man den das Volumen nicht erreichen können. Bei Mediaplayern muss man unterscheiden, ob die nur im LAN aktiv sind, oder ob es eine Box von Telekom beispielsweise ist, aber letztere wird nicht auf den limitierten Traffic angerechnet.
Diese "beeindruckende" Liste schwächelt definitiv daran, dass sie abstrakt ist.
Kurz gesagt: Die 75 GB-Grenze halte ich für lächerlich gering im Jahr 2016.
Ich persönlich finde die Einschränkung zwar auch nicht richtig, aber der Lärm, der darum gemacht wird, ist ziemlich übertrieben. Und gerade weil es erst in drei Jahren(!) aktiv wird - wer weiß wenn heute, was in drei Jahren ist? Last not least hat die Telekom vielleicht nicht Unrecht, wenn sie sagt, Großverbraucher sollen mehr bezahlen. Das trifft nicht nur auf Unverständnis, es gibt durchaus Menschen die sagen, ich surfe super wenig, muss aber dasselbe zahlen wie die Dauersurfer - das ist ungerecht. Das kann man nachvollziehen. Ob dieser Lösungsansatz richtig ist, das kann ich nicht beurteilen, weil es eben überhaupt noch nicht aktiv ist.
Last not least weiß heute keiner, ob das dann in drei Jahren wirklich so umgesetzt wird.
Braucht das wirklich jemand?
Das erinnert mich stark an den legendären Spruch von Bill Gates aus dem Jahr 1981: "640 kB Arbeitsspeicher sollten eigentlich genug für jeden sein."
Bill Gates hat auch gesagt, dass das Internet nie eine strategische Rolle spielen wird - und der Chef von IBM hat angezweifelt, ob es jemals einen Grund gäbe, dass jemand zu Hause einen Computer haben muss.
Und Adenauer hat gesagt "was interessiert mich mein Geschwätz von gestern" - und wer weiß, ob es nicht in drei Jahren einen kleinen Adenauer bei der Telekom geben wird.
1. Die "Flatrate". Was die Telekom da plant darf sie einfach nicht mehr Flatrate nennen. Das sind dann nämlich wieder stinknormale Volumentarife.
Das Argument habe ich noch nie verstanden - es ist auch so ein Volumentarif (wenn man schon so seltsam denken will), denn selbst wenn man die ganze Zeit mit Highspeed herunterlädt, ist das Volumen begrenzt, weil ein Monat nun einmal nur endlich lang ist.
2. Durch das Ausschließen der eigenen Dienste von der Drosselung ist die Netzneutralität nicht mehr gegeben. Und die betrachte ich definitiv als heilige Kuh.
Wenn das wäre, würde es sicherlich von der Netzagentur entsprechend gewürdigt. Die Prüfung steht aber noch aus und die Telekom argumentiert nicht ganz dumm, dass diese Dienste einen Aufpreis kosten und in diesem Aufpreis ist der Mehrtraffic inkludiert. Jeder andere Diensteanbieter könne den Mehrtraffic genauso kommerzialisieren (und wenn Du das UseNEXT Preismodell kennst, dann fällt auf, dass es so etwas schon gibt, nur dass UseNEXT das Geld selbst einsteckt).
Ein lesenswerter Artikel zur angeblichen Netzüberlastung in Deutschland:
Denn die Telekom hatte in ihrer Mitteilung den Eindruck erweckt, dass das stetig steigende Datenvolumen ihre Netze überlastet und deshalb Milliarden in deren Ausbau investiert werden müssten. Seitens der Firma Viprinet, die Router für den Business-Bereich anbietet, bezeichnete man dies als "hanebüchen". In Deutschland gebe es gigantische Backbone-Überkapazitäten, hieß es. Der Datenverkehr in diesem Rückgrat des Internets sei zu Spottpreisen zu realisieren. "Bei einem DSL-Zugang macht das in der Gesamtkalkulation des Providers nur Centbeträge aus.
-> http://winfuture.de/news,75745.html
Das Backbone allein macht es aber nicht (das ist eine genauso einseitige Betrachtung), das Dauerproblem ist die letzte Meile, der Anschluss an den ersten Knotenpunkt. Und da wird genauso ein Ausbau betrieben, der sicherlich ein Schweinegeld kostet. Was nutzt das beste Backbone, wenn die Daten nicht beim Anwender ankommen? Das ist mir wesentlich zu einseitig argumentiert.
Noch eine interessante Zahl: Der Betriebsgewinn der Telekom betrug 2012 auf dem Heimatmarkt 9,2 Milliarden Euro.
Dafür haben sie in den USA zig Milliarden versenkt. Natürlich wird immer die Kuh gemolken, die am meisten Milch gibt. Das ist aber für das eigentliche Thema, wie sehr die geplante Drosselung wirklich für Kunden eine Behinderung darstellt, nicht relevant.
Last not least haben wir in Deutschland eine gute Infrastruktur zu vertretbaren Preisen - das ist mir immer besonders bewusst, wenn ich aus einem USA Urlaub nach Hause komme. Die haben teilweise so grottig schlechte Anschlüsse (und das liegt bei weitem nicht immer am WLAN des Motels), da ist es wie eine Erlösung, endlich wieder mit der gewohnten Geschwindigkeit zu surfen.
Offtopic: was mir bei der Gelegenheit auch in den Sinn kommt - wieso gibt es in USA immer noch so viele Sender, die in 4:3 ausstrahlen? Und warum sind dort überall (egal ob auf dem Zimmer oder in einer Sportsbar oder bei Applebees) die Fernseher falsch eingestellt (selbst wenn das Sendeformat 16:9 ist - dann wird es noch mehr zusammengepresst), so dass alles in die Breite gezogen wird? Fiel mir nur gerade so ein, dass diese beiden Punkte (Internet, TV) überraschend unzeitgemäß wirken.