Das offizielle Blog der h8u.de Gemeinde | |
Der Beweis: so blöd kann einer alleine nun wirklich nicht sein! |
Tuesday, 24. April 2012Geplante Obsoleszenz
Ich hatte mich mit der vermutlich ältesten Hardware des Congresses befasst, immerhin nähert sich dieses Jahr das 35 jährige Jubiläum der Markteinführung des Atari 2600 VCS. Und so wurde ich als Fachmann zu diesem Thema befragt. Später habe ich ihr dann versprochen, nochmal meine Gedanken in einem Blogbeitrag zusammenzufassen. Hier ist er also, wenn auch gefühlt viel zu spät. Aber ich bin ja auch so kaum zum Bloggen gekommen. Als Auftakt will ich mal meine erste und meine letzte PC-Aufrüstung vergleichen. Begonnen habe ich mit einem 486DX2/66, mit damals beeindruckenden 16MB RAM, rückblickend aber nicht schnell genug um ein mp3 abzuspielen, war aber damals der Stand der Technik. Trotzdem wurde er nach weniger als zwei Jahren aufgerüstet: aus dem 486DX2/66 wurde ein 5x86DX4/133, also ein Prozessor, der doppelt so schnell war. Diese Geschwindigkeitssteigerung kam auch bei der täglichen Arbeit an: der Rechner fühlte sich deutlich schneller an. Die nächsten Aufrüstschritte folgten immer noch so alle ein bis zwei Jahre, und brachten in den meisten Fällen einen ähnlichen Performance-Schub. Nicht immer wurde der Prozessor aufgerüstet, manchmal das RAM, mal gab es eine zusätzliche oder schnellere Festplatte. Allerdings wurde der Zeitabstand zwischen den einzelnen Aufrüstschritten deutlich größer. Die letzte Aufrüstung war der Sprung von einem Core 2 Quad 9300 auf einen Core i7 2600S. Der Grund war diesmal weit weniger der Performance-Schub, als das Versprechen, dass das neue System in Sachen Stromverbrauch besser skaliert, also im Leerlauf weniger Strom verbraucht, aber bei Bedarf trotzdem mehr Leistung entfaltet. Auch diesmal dürfte der Zuwachs an Rechenleistung knapp unter dem Faktor 2 gelegen haben. Im Gegensatz zu meiner ersten PC-Aufrüstung merke ich aber davon nicht wirklich etwas, es sei denn, ich lege es drauf an, und lasse eine Uhr mitlaufen. Früher wurden die Prozessoren hauptsächlich über die Taktfrequenz beschleunigt. Außerdem wurde versucht pro Taktzyklus möglichst viel Arbeit zu verrichten. In letzter Zeit ist man an diesen beiden Punkten aber an Grenzen gestoßen, die sich nur noch schwer verschieben lassen. So ist zum Beispiel seit Jahren ist eine dieser Schallgrenzen die Taktfrequenz von 4GHz. Stattdessen werden neue Wege gesucht, die Prozessoren zu beschleunigen. Der gängigste Ansatz ist es mehrere CPU-Kerne in einen Chip zu packen: in einem Chipgehäuse befinden sich mittlerweile bis zu sechs Prozessoren, die quasi eigenständig sind. Allerdings steigt dadurch die Gesamtleistung nicht auch automatisch auf das Sechsfache. Die Programme müssen nun so geschrieben werden, das nun mehrere Aufgaben parallel abgearbeitet werden können. So werden von den Programmierern ganz neue Problemlösungen gefordert, so grundlegend haben sich die Paradigmen der Programmierung seit Beginn der "Computerära" noch nie geändert. Was lässt mich das folgern? Gibt es im Bereich der Computer eine geplante Obsoleszenz wie zum Beispiel bei dem Drucker in dem Arte-Film? Das glaube ich nicht. Bisher gab es einfach zu viel Innovation, so ist es zum Beispiel erst seit relativ kurzer Zeit möglich Filme mit einem Computer zu hause zu bearbeiten. Die vorherigen Computergenerationen hatte schlicht und einfach zu wenig Rechenleistung und nicht genug Speicherkapazität für diese anspruchsvolle Aufgaben. So sorgen die schneller werdenden Rechner immer wieder dafür, dass es ganz neue Ansätze für den Einsatz von Computern gibt. Und das gilt nicht nur für die Anwendungsfälle in denen Computer eingesetzt werden, sondern auch die Art und Weise wie die Umsetzung von Aufgaben ausfällt: auf dem Atari 2600 VCS oder dem Commodore 64 ist es nötig den Prozessor und den Rest des Gerätes genau zu kennen, um leistungsfähige Programme zu schrieben. Wenn ich auf einem PC programmiere, liegen zwischen meinem Programm und der CPU viele Schichten: Betriebssystem, Programmiersprachen / Compiler, Laufzeitumgebungen und vieles andere mehr nehmen mir einen Großteil der Arbeit ab. Das alles kostet aber seinen Preis: das Programm wird deutlich langsamer. Würde ich heute auf dem PC immer noch Software schreiben, so wie ich es auf dem Commodore 64 getan habe, würde das 100-fache an Zeit nicht ausreichen, um ein vergleichbares Ergebnis zu erlangen. Dem "Leistungsverfall" hingegen wirken die immer schneller werdenden Prozessoren entgegen. Ein Programm schneller zu machen ist in der Regel um ein vielfaches aufwändiger, als es einfach zu schreiben. Und ein Programmierer kostet im Vergleich zu einem neuen Computer viel Geld. So ist es also durchaus offensichtlich, dass wenn zum Beispiel die Software zusammen mit der Hardware verkauft wird, einfach auf neue Hardware gesetzt wird. Besonders gut lässt sich dieser Trend bei den Smartphones beobachten: auch sie sind nichts anderes als Computer ohne Tastatur und mit einem eingebauten Funkmodul. Das Gerät, das ich zur Zeit benutze ist ein G1 von Telekom/HTC/Google. Vom Hersteller wurde es schon vor ungefähr zwei Jahren ausgemustert, so dass keine Updates mehr zu bekommen sind. Glücklicherweise erfreut es sich aber einer gewissen Beliebtheit in Hackerkreisen, so dass es eine durchaus beachtliche Vielfalt an inoffiziellen Firmware-Versionen gibt. Allerdings gerät die Hardware mittlerweile an ihre Grenzen: soll heißen, dass das Gerät wird allmählich unerträglich langsam wird. Da zollen die neuen Features ihren Tribut, genauso, wie es bei den PCs der Fall ist, nur halt um einiges schneller. Einen drei Jahre alten "Durchschnitts-PC" kann ich heute noch jedem empfehlen, der mit dem Gerät "einfach nur arbeiten" will. Eventuell noch etwas Geld investieren in etwas mehr RAM, und die Kiste wird aller Voraussicht nach auch noch die nächsten drei Jahre ihren Dienst tun. Genau genommen werden heutzutage auch "veraltete" Rechner verkauft. Das beste Beispiel dafür sind die sogenannten Netbooks, also abgespeckte Notebooks. Diese haben einen Leistungsumfang, der sich auf dem Niveau von circa fünf Jahre alten Notebooks bewegt. Diese verkaufen sich heute gut, weil man eben auch mit diesem Leistungsniveau noch gut arbeiten kann. Als ich mit PCs angefangen hatte, Mitte der 90er, taugte ein fünf Jahre alter Rechner bestenfalls als "Retro-Spielzeug": nachdem man es geschafft hatte, ihn wieder halbwegs anständig in Betrieb zu nehmen (zum Beispiel mit DOS), war man froh, dass das Vorhaben "Restauration" geklappt hat, und hat sich dann wieder anderen Spielzeugen zugewandt. Damit über längere Zeit gearbeitet hat niemand, den ich kenne. Gelegentlich hat man die veraltete Hardware auch einem Spezialzweck zugeführt. Mein erster PC wurde zum Beispiel ein Vorgänger dessen, was man heute gerne als "Fritz-Box" bezeichnet: ein Router, der das Heimnetzwerk an das Internet anbindet. Es trat auch gerne mal "Schwund" auf, Hardware ist einfach gestorben, aber so weit ich das Beurteilen kann nicht an Sollbruchstellen im Stile von "geplanter Obsoleszenz". Mittlerweile habe ich auch schon noch funktionierende Hardware entsorgt, weil mir einfach der Platz zum Lagern ausgeht und die Einsicht einkehrt: "das Ding brauchst Du nie wieder; und selbst wenn, so hast Du noch genug andere Hardware, die Du stattdessen verwenden kannst". Entsorgen bedeutet übrigens bei mir: verschenken an Leute, die damit meiner Meinung nach noch etwas anfangen können. Im Moment sehe ich den Erneuerungsprozess im Bereich Computer noch durch Innovation getrieben. Ein anderes Beispiel ist wie der Computer die (elektrische) Schreibmaschine überflügelt und verdrängt hat: am Anfang konnte eine Textverarbeitung kaum mehr als eine Schreibmaschine, nur dass man besser Tippfehler korrigieren konnte. Die Zeichen waren noch alle gleich breit, man konnte genauso viele "i"s in einer Zeile unterbringen wie "m"s. Später kam dann der Grafikdruck, so dass nicht nur Bilder eingebunden werden konnten, sondern auch der Text wurde als Grafik gedruckt, so dass auch ein natürlicheres Schriftbild entstanden ist. Und auch die Drucker haben sich weiterentwickelt, aus meinem ersten Drucker, einem Nadeldrucker, der nur schwarz drucken konnte, wurde in mehreren Schritten ein Farblaserdrucker, den ich gekauft habe, weil mir andauernd die Tinte eingetrocknet ist. Heutzutage werden so ziemlich alle Druckerzeugnisse am Computer erstellt. Diese Evolution wurde aber erst durch Computer möglich, die über bessere Grafikkarten und schnellere Prozessoren verfügten. In den ersten Jahren wurden die Hardware deutlich schneller obsolet, weil die Entwicklungsschritte deutlich größer waren als heute. Die Art und Weise, wie ich eine Textverarbeitung benutze, hat sich in den letzten 10 Jahren kaum geändert, also brauche ich auch dafür keine schnelleren Computer. Andererseits gibt es aber auch Beispiele für etwas, dass man durchaus als "geplante Obsoleszenz" bezeichnen kann. Als Windows Vista angekündigt wurde, gab es eine Art "Gütesiegel" namens "Windows Vista Capable", mit dem Rechner ausgezeichnet wurden, die die Kriterien für Vista erfüllen werden, so dass man beim Kauf eines Rechners, schon Monate bevor Vista auf den Markt kam, sicher sein konnte, dass man das neue tolle Windows drauf laufen lassen kann. Leider saß Intel noch auf einem riesigem Berg von Chips, deren Grafik nicht vollständig von Vista unterstützt wird: normalerweise sind bei Windows Vista und Windows 7 die Rahmen um die Fenster halb transparent. Dies funktioniert nicht mit den sogenannten 915 Chipsätzen. Also wurden in einer Nacht und Nebel-Aktion die Kriterien von "Windows Vista Capable" geändert, so dass eine Art "Gütesiegel light" daraus wurde: Vista läuft da zwar drauf, aber es wird nicht alles von Vista darauf laufen. Um das Ganze noch undurchsichtiger zu machen, war dies außerdem nur eins von vier verschiedenen "Gütesiegeln" für Windows Vista. Das Ganze gipfelte in einem Gerichtsverfahren, in dem Intel und Microsoft alles andere als gut aussahen. Auf Tom's Hardware wird in einem Artikel erwähnt, dass der Marktanteil von Windows XP im letzten Jahr wieder gestiegen ist. Egal, ob es nun die sogenannten Schwellenländer sind, oder ob die Benutzer einfach nicht auf die ihnen bekannte Arbeitsumgebung verzichten wollen, auf jeden Fall ist es immer noch gut möglich mit dem 10 Jahre alten System zu arbeiten. Ich kenne niemanden, der 2005 noch mit einem Windows 95 gearbeitet hat, was für mich ein weiteres Indiz ist, dass sich der Erneuerungsprozess im Bereich Alltags-Computer deutlich verlangsamt hat. Schlussfolgerung: meiner Meinung nach gibt es zur Zeit keine geplante Obsoleszenz im "Kernbereich Computer". Warum "Arbeit" in geplante Obsoleszenz stecken, wenn die Leute aufgrund des Fortschritts und neue Möglichkeiten, die sich für den Computer eröffnet haben, sowieso regelmäßig neue Computer kaufen? Der technische Fortschritt und die neuen Möglichkeiten haben dem Erneuerungsprozess genug Antrieb gegeben. Wenn man sich allerdings jetzt zum Beispiel den 28c3-Betrag zum Thema "The coming war on general computation" (deutsche Übersetzung) ansieht, könnte man aber davon ausgehen, dass die Bemühungen Alltags-Computer gegen schicke Pads auszutauschen, auf denen man keine eigene Software mehr laufen lassen kann, durchaus mit einer geplanten Obsoleszenz kommen werden. Aber auch aus dem Bereich der Hardware kann es aber durchaus eine geplante Obsoleszenz geben: als ich mich mit einem Hardware-Entwickler über dieses Thema mal unterhalten hatte, meinte er dazu, dass es durchaus üblich ist, im Bereich des "Mobile Computing" die meist ARM-basierten Prozessoren mit einer eigentlich eher ungenügenden Kühlung betrieben werden. Der einfache Gedankengang dahinter: so kann man Geld für eine aufwendigere Kühlung sparen und kaum jemand nutzt sein Smartphone mehr als drei Jahre, selbst wenn die CPU dann kaputt geht ist es auch egal. Bei guter Kühlung laufen die CPUs über 10 Jahre problemlos. In einem Satz zusammengefasst: noch gibt es keine geplante Obsoleszenz im Bereich Computer, aber wenn wir nicht aufpassen, wird sie kommen. P.S.: Jetzt auch in der c't 15/2012 Seite 75. |
SucheKategorienStatische SeitenAnsicht auswählenKommentareJochen zu Was für eine CD #7: Clowns & Helden
Tue, 22.09.2015 15:13
Sorry - Alter Post aber ich an
tworte trotzdem.
Es sind durc
haus noch mehr Mitglieder musi
kalisch aktiv. Jürgen Le [...]
Glenn Condrey zu Das Anadigiding - Teil 1
Sat, 16.05.2015 21:09
Hey there SvOlli. Greetings fr
om the USA!
I am a EEE PC owne
r...I currently have a EEE PC
701SD, and I just bought [...]
CHris zu Das Anadigiding - Teil 1
Thu, 19.03.2015 14:08
Lieber Sven Oliver,
ich habe
über eine Freundin von dem "An
adigiding" gehört. Es klang se
hr sehr spannend, gerade [...]
SvOlli zu Auf der CeBIT
Mon, 25.08.2014 11:16
Hallo Susann, aber den Link zu
Toiletten Deckeln habe ich en
tfernt, wie im Kommentarformul
ar angekündigt.
|
Kommentare
Bei Motherboards, egal ob Desktop oder Notebook, gibt es auch so eine Schwachstelle, die CMOS-Batterie. Nach 5-10 Jahren hinüber, in der Regel auswechselbar – aber auch nicht immer. Hab gelesen, es gibt Chipsätze mit fest integrierter Batterie, hatte ich zum Glück noch nicht. Wenn die CMOS-Batterie nicht mehr geht, ist das nicht notwendigerweise das komplette Aus, aber es ist lästig. Es gibt aber auch Boards, die ohne funktionierende Batterie überhaupt nicht mehr starten, wenn die dann nicht mehr wechselbar ist, Ende Gelände.
Wenn ein neuer, dann mit SSD. Da geht ja vieles enorm schnell - bis die Faulheit der Programmierer in ein paar Jahren alles wieder langsamer werden lässt.
Ich denke da an die sich immer mehr häufenden Berichte über geplatzte Elkos die ich auch aus eigener Erfahrung(Hardware Service Center) bestätigen kann.
Eine Absicht kann man da zwar unterstellen, aber kaum nachweisen. Aber welcher Ingenieur bringt einen Elko in unmittelbarer Nähe einer sich stark aufheizenden Spule auf der Platine unter, wenn es auch andere Möglichkeiten gegeben hätte?
Eine andere Sache mit der ich mich vor kurzem beschäftigen mußte. Eine Webcam von Logitech(Quickcam S5500) wurde per Windowsupdate mit einem neuen Treiber versorgt. Daraufhin gab es diverse Probleme mit verschiedenster Software. Hängenbleiben des Flashplayers, File Explorers, usw., sobald die Cam angesteckt wurde.
Ein downgrade auf den Windows Standardtreiber löste das Problem vorerst.
Abgesehen davon das die Treiberversorgung von Logitech für ältere Hardware sehr undurchsichtig ist und es daher auch einfach ein ungewollter Fehler sein kann. Als geplante Obsoleszenz wäre eine solche Vorgehensweise auch mehr als brauchbar.
Der Besitzer der betroffenen Hardware war schon halb beim Einkauf einer neuen Cam, da die alte ja "offensichtlich" defekt war.