Windows reboot / Linux be root

Windows reboot / Linux be root

Weshalb es sich lohnt, im Sinne der Offenheit, Stabilität und Produktivität den proprietären Microsoft-Pfad zu verlassen und zu Linux zu wechseln. Gründe für einen Umstieg bei Desktop-Rechnern und Laptops erörtert in fünf Kapiteln.

1. Fenster, Desktop und Startleiste

Eine Familie zieht aus ihrer Stadtwohnung in ein Haus am Stadtrand um. Im neuen Haus sind die Zimmer anders geschnitten, die Küche ist größer und hat einen Gas- anstatt eines Elektroherds. Es gibt nun einen Garten mit einem Gartenzaun und Bäumen darum. Statt einer gibt es nun zwei Etagen sowie einen Dachboden und einen Keller. Die Familie findet sich im neuen Haus schnell zurecht und ist froh, dass sie umgezogen ist.

Ein Computernutzer wechselt das Betriebssystem und steigt von Windows auf Linux um. Er hat jetzt ein leistungsfähigeres und zuverlässigeres System, das ebenso über Fenster, einen Desktop und eine Startleiste verfügt, aber etwas anders aussieht. Alle gewohnten Elemente sind noch an der gleichen Stelle auf dem Bildschirm zu finden. Die Namen einiger Programme haben sich geändert, sie werden aber wie gehabt in einem Fenster dargestellt, haben oben einen Balken mit dem Programmtitel und ein Menü mit Menüpunkten wie “Datei” “Bearbeiten” und “Ansicht”. Der Computernutzer erleidet sogleich einen Nervenzusammenbruch, läuft in einen Laden und läßt sich für 150 Euro schnell wieder Windows installieren.

Wo genau liegt der Unterschied zwischen der Familie die umzieht und zufrieden damit ist und dem Computernutzer, der einen Nervenzusammenbruch erleidet? Diese Frage und das Unverständnis gegenüber einem solchen Verhalten motivieren den Autor zur Erörterung dieses Themas und der Gründe für seinen Umstieg.

Wie geht der “normale Nutzer” mit dem Computer um? Der Rechner wird eingeschaltet, fährt hoch und der Desktop wird sichtbar. Auf dem Desktop befinden sich meist Icons für Programme und eventuell einige Dateien. Unten befindet sich die Startleiste mit dem Startknopf und dem Startmenü. Gearbeitet wird dann meist mit einem Email- und einem Schreibprogramm, gesurft mit einem der Standard-Browser. USB-Sticks werden angeschlossen und vom Betriebssystem erkannt, Dokumente können betrachtet und editiert werden; im Dateimanager oder von Programm zu Programm lassen sich Dateien per drag&drop kopieren (oder mit den Kürzeln Strg+C und Strg+V bzw. mit Hilfe des Kontextmenüs der rechten Maustaste). All diese Grundfunktionen sind bei Windows und bei den meisten Linux-Distributionen gleich (und bei Apples OSX so ähnlich).

Natürlich bestehen auch einige Unterschiede zwischen den großen Betriebssystemen – in der alltäglichen Bedienung gibt es aber keine grundsätzlichen Unterschiede, die das Verhalten des oben dargestellten Nutzers rechtfertigen würden.[1]

2. Für jeden Anwendungszweck das richtige System

Informatiker rümpfen häufig über die vergleichende Bewertung von Betriebssystemen die Nase. Für viele von ihnen gibt es für jeden Anwendungszweck das richtige System. Es gebe kein besser und kein schlechter, nur ein anders. Das sind berechtigte Argumente von Liberalen, die eine möglichst große Vielfalt von parallel bestehenden Systemen befürworten. Sie würden die Nutzung von Windows daher niemals “falsch” heißen. Genau genommen ist diese Ansicht in sich nicht logisch, da die Existenz eines Quasi-Monopols – Windows – eben gerade verhindert, dass eine größtmögliche Vielfalt entstehen kann.

Natürlich gibt es für verschiedene Anwendungszwecke unterschiedlich gut geeignete Systeme. dass man sie aber nicht vergleichen könnte, stimmt nicht unbedingt. So ist es legitim, eine Linux-Distribution wie z.B. Debian Stable oder Linux Mint mit Windows 7 direkt zu vergleichen. Schließlich kann der Nutzer mit beiden Systemen etwa die gleichen Aufgaben erledigen. Ob das Betriebssystem nun für einen Bürorechner oder einen Druckerserver verwendet werden soll.

Leider bedarf bestimmte, spezialisierte Software zum Teil des Einsatzes bestimmter Betriebssysteme – für Standardnutzer zu Hause[2] oder für professionell arbeitende Unternehmen, die ausschließlich plattformübergreifend funktionierende Software einsetzen, ist Linux aber sehr gut geeignet.

Durch den Einsatz virtueller Maschinen kann zudem jedes beliebige Betriebssystem im Fenster parallel zu Linux laufen, falls dies für Spezialanwendungen unerläßlich ist. Darüber hinaus ermöglicht Wine (eine Art Windows-Emulator) die nahtlose, unkomplizierte Nutzung sehr vieler Windows-Programme unter Linux.

Viele Einschränkungen für den Einsatz von Linux sind in den letzten Jahren hinfällig geworden. Die Aussage etwa, Linux sei für aktuelle Computerspiele ungeeignet, muß revidiert werden. Zum einen da einige aktuelle Spiele für Linux verfügbar sind und zum anderen, da graphisch aufwändige Spiele inzwischen unabhängig vom Betriebssystem über das Internet gestreamt werden können.

3. Gründe für einen Umstieg

3.1 Struktur- und Sicherheitsprobleme

Vom Zeitpunkt der Installation an wird Windows von Tag zu Tag der Nutzung langsamer. Wer nur drei Programme verwendet und nie irgend etwas updatet, wird das Problem zwar nicht haben, aber durchschnittliche Nutzer und erst recht Intensivnutzer leiden besonders unter dem Geschwindigkeitsverlust. Jedes Programm das installiert wird macht das System langsamer. Wird das Programm wieder deinstalliert, wird Windows noch langsamer. Zudem installieren sich regelmäßig ungefragt zusätzliche Programme mit anderen mit oder Programme “erdreisten” sich, Autostart-Prozesse samt kleiner Autostart-Icons bei jedem Systemstart zu laden. Manchmal werden sogar Werbepopups bei jedem Start angezeigt. Die Vielzahl automatisch startender Programme und Prozesse führt dann dazu, dass die recht flotten Systemstarts zu Anfang der Windows-Installation schon bald zu quälend langwierigen Durststrecken werden. Obendrein wird der Nutzer mit ständig hochkommenden Windows-eigenen Popupnachrichten malträtiert.

Mit der Installation von Programmen müllt auch das Startmenü von Windows im Laufe der Zeit immer mehr zu – mit jedem Programm werden hier Ordner, Unterordner, Hilfe- und Deinstallationsicons unkontrolliert angelegt. Hier Ordnung zu halten, ist praktisch unmöglich. Bei Linux landen installierte Programme automatisch in der richtigen Kategorie im Startmenü. VLC etwa unter ‘Multimedia’, LibreOffice unter ‘Büro’ und Kgeography unter ‘Bildung’.

Beim Vergleich von Windows- und Linux-Zeitschriften im Kiosk-Regal fällt auf, dass die Themen durchaus unterschiedlich liegen. Bei Windows-Zeitschriften sind sehr häufig Titel wie die Folgenden zu lesen[3]:

  • “Jetzt installieren: Windows Service Pack – endlich sicher und schnell”
  • “Auf Knopfdruck: PC wie neu”
  • “Windows flottmachen – Entrümpeln, Trojaner rauswerfen, Konfiguration richten”
  • “Tiefenscan entlarvt alle PC-Bremsen”,
  • “10 schnelle Lösungen für Windows-Bugs”
  • “PC-Reparatur – Microsoft Fix it löst automatisch alle Windows-Probleme”
  • “So beschützen Sie sich vor Roboter-Viren!”
  • “Registry als Datenfundgrube”
  • “Registry: Clevere Tricks, mit denen Windows mehr Gas gibt”
  • “Mehr Leistung: macht Ihr Windows mit nur einem Klick unglaublich schnell”
  • “Trickreich: Hebeln Sie die 4-GB-RAM-Grenze aus
  • “Warum Windows immer langsamer wird”

Der Hauptgrund für diese Schwerpunktsetzung der Zeitschriften liegt auf der Hand: Bei Windows spielen Geschwindigkeitsverluste und Sicherheitsprobleme eine zentrale Rolle. Der Grund ist, dass Windows auf einer veralteten Grundstruktur fußt, die von Version zu Version um, jedoch nicht neu aufgebaut wird. Der Ausspruch ‘Windows reboot – Linux be root’ weist auf eines der administrativen Defizite dieser Systemstruktur hin: kann bei Linux in der Regel ein komplettes Systemupdate mit hunderten von Megabyte Umfang ohne Neustart durchgeführt werden, muß bei Windows schon für kleinere Updates oder häufig sogar für neu installierte Programme ein Neustart erfolgen. Bei Linux gilt, dass wenn ein bestimmter Dienst – wie etwa der Drucker-Dienst – in einem Ausnahmefall neu gestartet werden muß, dies mit einem einfachen Befehl geschehen kann (oder Wahlweise mit einem Neustart). Dies dauert dann nur etwa zwei Sekunden. Bei Windows geht das nicht.

Das größte strukturelle Dauerproblem von Windows ist die sogenannte Registry. Es handelt sich hierbei um eine Art Datenbank, in der so ziemlich alle Systemeinstellungen eingetragen sind. Einstellungen von Windows selbst neben Einstellungen jeder x-beliebigen Software, die installiert wird. Jedes Programm und jeder Treiber kann ran und Daten(müll) in die Registry schreiben. Das Resultat ist, dass Windows immer langsamer und mit der Zeit auch instabiler wird. Die Registry ist sozusagen zugleich Gehirn und Achillesferse. Werden unter Windows also häufig Programme installiert, steht früher oder später eine Neuinstallation an. Bei Linux ist das nicht der Fall. Hier werden Programme geordnet über ein Paketmanagement installiert. Schadhafte Programme oder Spyware können sich aufgrund der strikten Kontrollen und des mehrstufigen Qualitätsmanagements eigentlich gar nicht einschleichen. Vorbildlich ist dies vor allem bei Debian und allen darauf basierenden Linux-Distributionen gelöst. Linux wird auch dann nicht langsamer, wenn 5.000 Programme installiert und dann wieder deinstalliert werden. Alle zu installierenden Programme werden aus sicherer Quelle auf einmal automatisch installiert. Ohne nervige Rückfragen, Warnungen oder die lästige Frage nach dem Installationspfad.

Bei Windows muß der Nutzer bzw. der Administrator im Netz auf die Herstellerseite eines jeden zu installierenden Programms gehen oder in der Suchmaschine nach dem Programm suchen und die aktuellen Installationsdateien von mehr oder weniger vertrauenswürdigen Internetseiten herunterladen. Anschließend muß von der lokalen Festplatte aus für jedes einzelne Programm ein Installationsprozeß durchlaufen werden. Auch wenn Programme aktualisiert werden sollen, müssen sie zum Teil jedes Mal neu heruntergeladen und installiert werden.

Besonders deutlich wird der beschriebene Installationswahnsinn nach einer Neuinstallation von Windows. Der anspruchsvolle Nutzer verbringt erst einmal Stunden damit, alle Programme die genutzt werden sollen wieder zu installieren. Wenn proprietäre Software dabei ist, müssen zig Seriennummern eingegeben werden (sofern diese überhaupt noch auffindbar sind).[4] Gegebenenfalls müssen viele DVDs und CDs herausgesucht und nacheinander ins Laufwerk gelegt werden.

Dies alles ist ein absolut chaotisches System, das sehr zeitaufwändig und höchst ineffizient ist. Darüber hinaus birgt es erhebliche Risiken, da die installierte Software aus verschiedensten – zum Teil ungeprüften – Quellen stammt.

Bei Linux sieht das Ganze nach der Neuinstallation sehr viel einfacher aus: Zunächst einmal sind von vornherein sehr viele Programme installiert. Die restlichen können über die Paketverwaltung installiert werden, was sehr viel schneller und geordneter abläuft, als bei Windows. Anstatt einer langwierigen Recherche steht eine simple Suche in einem komfortablen Paketverwaltungsprogramm (ähnlich wie bei den “App”-Datenbanken von Smartphones). Die benötigten Programme können alternativ alle auf einmal installiert werden (z.B. mit apt) – und zwar voll automatisch! Es reicht eine einfache Textdatei mit den Namen der Programme. Es werden dann automatisch die jeweils aktuellen Versionen dieser Anwendungen aus sicherer Quelle heruntergeladen und installiert.

Microsoft hat zwar angekündigt, mit der nächsten Windows-Version auch ein Paketmanagement einzuführen (man lernt mal wieder von Linux), allerdings ist kaum anzunehmen, dass dieses Paketmanagement Open-Source-Alternativen zu kommerzieller Microsoft-Software ebenbürtig präsentieren und vollständig ins Sortiment aufnehmen wird. Zudem wird es kein dreistufiges Qualitätsmanagement wie bei debian geben und daher in weit geringerem Maße die Systemstabilität garantiert sein. Weiterhin bleibt es trotz des Paketmanagements ohne Hürden möglich, Software aus unsicheren Quellen einfach per Klick zu installieren. Die strukturellen Grundprobleme werden durch diese Art der Paketverwaltung also nicht gelöst werden.

Neben dem Softwaremanagement werden auch bei der Hardwareerkennung von Windows weitere Unzulänglichkeiten deutlich. Wer schon einmal eine Festplatte mit einer Windows-Installation genommen, diese in einen anderen Rechner mit komplett anderer Hardware geschraubt und zu booten versucht hat, weiß, wie überempfindlich das System auf geänderte Hardware reagiert. Windows wird nicht hochfahren, sondern mit einer kryptischen Fehlermeldung steckenbleiben.

Bei einer beliebigen Linux-Distribution hingegen kann die Festplatte in einen komplett anderen Rechner (gleicher CPU-Architektur) eingesetzt werden und Linux startet ohne Probleme. Dies liegt vor allem daran, dass bei jedem Start die Treiber der vorgefundenen Hardware geladen werden. Die einzige Einschränkung, die bei Linux zu erwähnen ist, ist, dass der Nutzer sich beim Kauf von Hardware über die Kompatibilität zu Linux informieren sollte. Auch wenn inzwischen sogut wie alle Webcams, Wlan-Chips, Scanner u.s.w. ohne spezielle Treiberinstallation erkannt werden, gibt es doch einige Geräte, deren Hersteller eine Kompatibilität zu Linux bewußt oder unbewußt boykottieren.

Was wäre ein Windows-kritischer Artikel ohne die Erwähnung der berühmten “blue screens”. Es handelt sich hierbei um Totalabstürze, die einen blauen Bildschirm samt einer kryptischen Fehlermeldung hervorbringen und einen Neustart erzwingen. Derlei Probleme treten bei Windows inzwischen nur selten auf und das System läuft im Großen und Ganzen relativ stabil (sofern es nicht von Viren befallen oder im Laufe der Zeit langsam geworden ist). Tritt dennoch ein schwerer Systemfehler auf, führt dieser auch heute noch zum erwähnten blauen Bildschirm. In einigen solchen Problemfällen, aber auch wenn das System mit der Zeit langsam geworden ist, führt bei Windows kein Weg an einer Neuinstallation vorbei.

Für die Administration und Reparatur kommt erschwerend hinzu, dass Windows grundsätzlich keinerlei informative Fehlermeldungen ausgibt, die konkrete Lösungsmöglichkeiten aufzeigen. Bei Linux bekommt der Nutzer in solchen Fällen meist einen Hinweis darüber, was das Problem ist und kann es somit auch angehen. Zudem ist hier der Umstand erleichternd, dass Linux ohne graphische Oberfläche betrieben werden kann und zweifarbige Dateimanager (ähnlich wie der Norton Commander unter DOS) oder textbasierte Browser zur Verfügung stehen.

Ein weiteres großes Kapitel der Unzulänglichkeit von Windows ist der Themenkomplex Viren und Trojaner. Zum einen ist Windows als am häufigsten eingesetztes Betriebssystem Hauptziel von “Computerkriminalität”, darüber hinaus spielen aber auch strukturelle Probleme eine große Rolle. Ist bei Linux keine wesentliche systemverändernde Aktion (wie etwa eine Programminstallation) ohne Administrationsrechte durchführbar, fährt Windows die “Strategie”, den Nutzer nicht anstrengen zu wollen – auf kosten der Sicherheit. Hier kann der normale Nutzer in der Regel mit einem Mausklick und OHNE Eingabe des Administrator-Paßworts Administrationsrechte erlangen. Kein Wunder, dass es in den letzten Jahren zu einer Vielzahl von Viren- und Sicherheitsskandalen rund um Windows gekommen ist und aufgrund mangelnder Sicherheitsstruktur Schäden in Milliardenhöhe entstanden. Obwohl Windows in den aktuellen Versionen angeblich relativ sicher sein soll, haben nach wie vor viele Windowsnutzer mit Viren und Trojanern zu kämpfen. Darüber hinaus werden sogenannte Staatstrojaner immer zuerst für Windows-Systeme programmiert und Microsoft steht seit einigen Jahren im Verdacht, zumindest für die US-Geheimdienste diverse Hintertüren in das System einzubauen.

Wer vor allerlei privater und staatlicher Computerkriminalität- und Spionage deutlich sicherer sein will, setzt also auf Linux. Hier ist der Einsatz eines Virenscanners in der Regel nicht einmal notwendig, da das Risiko auf einen der wenigen für Linux programmierten Viren zu treffen, sehr gering ist.

3.2 Konfiguration, Personalisierung, Geschwindigkeit

Ein wichtiger Grund für den Umstieg auf Linux ist insbesondere für den Intensivnutzer die totale Konfigurierbarkeit. Ein wichtiger Aspekt ist hierbei die Möglichkeit, verschiedene graphische Oberflächen zu verwenden. Dies wird durch die Trennung von Kernsystem und graphischer Oberfläche ermöglicht. Der Nutzer ist daher nicht wie bei Windows gezwungen, stets ein recht ressourcenaufwändiges graphisches System laufen zu lassen, sondern kann aus einem breiten Spektrum graphischer Oberflächen wählen. Dieses reicht von sehr schlanken Oberflächen, die auf einem Pentium-II-Rechner mit 200 MB oder weniger Arbeitsspeicher flüssig laufen, bis hin zu sehr umfangreichen mit 3D-Effekten, die die Effekte von Windows und Apples OSX in den Schatten stellen. Das Basissystem darunter ist aber stets das selbe.[5] Es ist auch möglich, verschiedene graphische Oberflächen bei ein und der selben Linux-Installation parallel zu nutzen (ohne Neustart umschaltbar: einfach abmelden und an der anderen Oberfläche anmelden).

Die Systemsteuerung von Windows 7. Ohne Suchfunktion kann man hier nur schwer etwas finden.

Umfangreiche graphische Oberflächen wie KDE ermöglichen eine tiefgehende Konfiguration. Ob Icon-Theme, 3D-Desktopeffekte, Feineinstellungen in der Fensterdekoration oder die Anzahl der virtuellen Desktops – alles kann komfortabel bis ins Kleinste eingestellt und personalisiert werden. Bei Windows gibt es (im Gegensatz zu Apple) auch ein Paar Einstellungsmöglichkeiten, die standardmäßig integrierten reichen jedoch bei weitem nicht an die von KDE heran. KDE ist ein von Anfang bis Ende durchdachtes System mit vielen intelligenten Lösungen für ein produktives Arbeiten.

Die Oberfläche für Systemeinstellungen bei KDE: Aufgeräumt und nach Kategorien sortiert.

Über die Anpaßbarkeit an der Oberfläche hinaus ist auch der Linux-Quellcode komplett offen zugänglich und veränderbar. Dies ermöglicht das Umprogrammieren des Betriebssystems nach den Wünschen der Person oder Organisation, die es verwendet. Es öffnen sich hier unendlich viele Möglichkeiten des Einsatzes von Linux. Bei Windows ist eine solche Anpaßbarkeit nicht gegeben. Es wird als weitgehend abgeschlossenes Komplettpaket verkauft und Modifikationen am Code sind nicht erlaubt.

3.3 Integrierte Programme und Ausstattung

Der Standard-Dateimanager unter Windows – der Explorer – ist ein gutes Beispiel dafür, wie schlecht die mitgelieferten Windowsprogramme im Vergleich zu freien Open-Source-Lösungen sind:

Der Explorer verfügt über einen vergleichsweise sehr kleinen Funktionsumfang und zeichnet sich vor allem durch Unübersichtlichkeit und altbackenes Layout aus. Der Explorer unter Windows 7 ähnelt dem von Windows 3.1 noch immer auf erschreckende Weise. Neu hinzugekommen sind zwar Funktionen zur Vorschau von Grafiken und Dokumenten; praktische Standards anderer Programme wie geteilte Dateifenster oder ein Suchfilter, mit dessen Hilfe unkompliziert im aktuellen Verzeichnis gesucht werden kann, kennt das Programm aber nicht. Auch die Einbindung der Kommandozeile in das Programmfenster oder eine einfache Suchfunktion, die Dateien auf Datenträgern oder in Verzeichnissen findet, fehlen.[6] Darüber hinaus fehlen eine Seiten- oder Menüleiste für häufig verwendete Ordner und ein Addon-Management.

Dateimanager unter Windows: Der Explorer. Altmodisches Layout, wenig Funktionen.

Mit dem Linux-Dateimanager Dolphin kann der Explorer nicht mithalten. Dolphin enthält alle oben genannten Ausstattungsmerkmale, die dem Explorer fehlen. Er ist damit in Bezug auf Funktionsumfang, Übersichtlichkeit, Geschwindigkeit und Produktivität beim Arbeiten um geschätzte zwei Programmgenerationen voraus.[7]

Der Dateimanager von KDE unter Linux: Dolphin. Volle Aussattung und dennoch übersichtlich.

Der Explorer und Windows insgesamt verwirren den Anwender gezielt durch uneinheitliche und blumige Bezeichnungen der Dateipfade und Laufwerksbuchstaben. Die Begriffe “Arbeitsplatz”, “Bibliotheken”, “Computer” oder “Mein Computer” sind wild durcheinandergewürfelt und ändern sich zuweilen von Windows-Version zu Windows-Version. Es ist zum Beispiel nicht logisch, dass sich unter “Mein Computer” die Laufwerke und Dateipfade befinden. Wieso heißt dieser Menüpunkt nicht passenderweise “Datenträger”? Und woher soll der Nutzer wissen, dass die “eigenen Dateien” nun auf einmal “Bibliotheken” heißen?

Ein weiteres absurdes Detail beim Windows-Explorer ist, dass der mit ihm zusammenhängende ausgeführte Prozeß viel zu eng mit dem Betriebssystem verknüpft ist. Wenn dieser Prozeß namens explorer.exe abstürzt, stürzt Windows insgesamt ab.[8]

Das Partitionierungspgrogramm von Windows: Kaum Veränderungen seit Windows 95. Minimaler Funktionsumfang. Beherrscht nur ein Dateisystem.

Neben den Genannten, fallen auch weitere Ausstattungsmerkmale von Windows bescheiden aus. So werden seit Jahren das gleiche spartanische Malprogramm – Paint – die sich nur leicht verändernde, ultra-spartanische Textverarbeitung – Wordpad – der schlechteste Texteditor der Computerwelt – Notepad – sowie ein höchtst beschränktes Partitionierungswerkzeug mitgeliefert. Man fragt sich, weshalb eine so große Firma so schlechte Programme produziert und sich traut, diese beizulegen. Bei Wordpad ist klar, dass man kein zu gutes Produkt liefern will, das als Ersatz für MS Word taugt. Beim Texteditor, dem Malprogramm und dem Partitionierer ist die Strategie Microsofts jedoch unverständlich, da man keine solchen Produkte kommerziell anbietet. Bei Linux wird eine Vielzahl qualitativ hochwertiger System-, Grafik-, Büro- und Multimediaprogramme bereits mitgeliefert. Alle installierten Programme fügen sich harmonisch ins System ein und können ohne suchen mit der Eingabe des Programmnamens ausgeführt werden.

Das Partitionierungspgrogramm der meisten Linux-Distributionen: Gparted. Übersichtliche Oberfläche, riesiger Funktionsumfang. Beherrscht mehr als 12 Dateisysteme.

Im Sinne der Steigerung von Umsatz und Gewinn finden sich auch weitere, wesentlichere Beschränkungen bei kostengünstigeren Windowsversionen unterhalb der überteuerten Windows-7-Super-Ultra-Professional-Black-Edition[9]. Wer die Leistungsreserven eines Standardrechners nutzen möchte, muß also deutlich mehr zahlen, denn bei den meisten günstigen Windows-Varianten ist die maximale Nutzung des Arbeitsspeichers auf 3 Gigabyte begrenzt oder werden die Geschwindigkeitsreserven von 64-Bit-Prozessoren einfach nicht genutzt. Bei Linux gibt es solche Beschränkungen natürlich nicht.

3.4 Programme und Programm-Philosophien

Was viele Nutzer – auch für Neuerungen offene – am Umstieg auf Linux hindert, ist, dass sie bestimmte liebgewonnene Programme nutzen und fürchten, diese unter Linux nicht weiternutzen zu können. Dieses Gefühl dürfte allgemein nachvollziehbar sein. Grundsätzlich gilt aber, dass sogut wie alle Programme durch ebenbürtige oder bessere, meist einfacher zu bedienende, freie und quelloffene Programme unter Linux ersetzt werden können.

Positiv an freier Open-Source-Software ist neben politischen Aspekten, dass sie in der Regel von Menschen aus der Praxis (und nicht von Betriebswirten und PR-Strategen) für einen Anwendungszweck geschaffen wird und ihrem Zweck sehr gut gerecht wird. Die Programmphilosophie hinter den meisten freien, quelloffenen Programmen ist der Purismus und die perfekte Funktion. Schnickschnack wie verwirrende Pseudofunktionen, die vorgaukeln sollen, das Programm sei mehr Wert als tatsächlich der Fall, werden weggelassen.

In der Windows-Welt hingegen trifft man neben einer Vielzahl kleiner, dilettantisch programmierter Anwendungen häufig auf unübersichtliche Programm-“Suiten”, die vorgeben, alles zu können. Eines dieser Programm-Moloche ist Nero. Hier wird vieles mitgeliefert: vom Programm zum DVD-Brennen über Applikationen für die Video- und Bildbetrachtung bis hin zu Backupprogrammen. Die einzelnen Programmkomponenten sind jedoch im Vergleich zu spezialisierter Software häufig schlechter (bis auf das eigentliche Brennprogramm). Das Produkt als Ganzes ist teuer, unübersichtlich und frißt sich in das System, die Registry und die Startprozesse hinein.

4. Die politische Dimension

Der verbreiteten Meinung, man müsse die Bewertung der Funktionalität und politischer Aspekte der Computernutzung scharf voneinander trennen, soll hier widersprochen werden.

Oberflächlich betrachtet stimmt es: Das Produkt einer Firma kann sehr gut sein, obwohl die Firmenpolitik die Welt an den Abgrund führt. Wer aber genauer hinschaut, kann erkennen, dass Zusammenhänge zwischen Funktionalität bzw. Ausstattung eines Produktes und übergeordneten, politischen Aspekten bestehen. Hat ein Produkt etwa eine marktbeherrschende Stellung inne, verhindert dies Innovationen; einerseits dadurch, dass andere Produkte vom Markt verdrängt werden und andererseits dadurch, dass auch das Produkt selber weniger innovativ sein kann, da die Entwickler aus sinnvollen Ideen anderer Produkte nicht lernen können.

Der Zusammenhang zwischen Firmenideologie und Produktgestaltung ist besonders gut erkennbar bei Erzeugnissen der Firma Apple. Hier wirken sich Größenwahn und Kontrollwut eines (Ex-)Firmenchefs ganz explizit aus. Apple-Produkte sind durchzogen von Restriktionen und nehmen dem Nutzer weitgehend individuelle Entscheidungsmöglichkeiten.[10]

Auch bei Microsoft manifestieren sich Firmenpolitik bzw. Weltbeherrschungsanstrengungen in der Software. So versucht man seit Jahren, dem Windowsnutzer einen schlechten, unsicheren Browser aufzuzwingen – mit dem durchsichtigen Ziel, das erfolglose eigene Internet-Geschäft (Hotmail, Bing etc.) voranzutreiben. Die Minderwertigkeit der mitgelieferten Programme kann nur mit einer arroganten Behäbigkeit erklärt werden (und soll wohl auch zur Stärkung der eigene Office-Sparte beitragen). Die mangelhafte Kompatibilität zu offenen Dokumentformaten soll entstehende Konkurrenz im Office-Bereich im Keim ersticken – alles auch zum Nachteil der Nutzer von Microsoft-Produkten.

Besonders schwerwiegend wirken sich marktpolitische Aspekte auf den Kauf neuer Computer aus: so kann sich der Käufer nur selten aussuchen, ob ein Windows-Betriebssystem vorinstalliert ist oder nicht und damit mitbezahlt werden muß. Kein Wunder, denn Microsoft beschäftigt tausende von Lobbyisten und PR-Leute, die mit Computerherstellern, Elektronikketten und Behörden zum Teil illegale Verträge zur Bindung an ihre Produkte abschließen. Auch macht Microsoft viel bunte Werbung und vermag sogar mediale Meinungen geschickt zu manipulieren.[11]

Auf die Vielzahl von Skandalen und Gerichtsverfahren rund um Microsoft soll hier nicht näher eingegangen werden. Nur erwähnt sein soll, dass sich das Spektrum der Kritik vor allem auf die folgenden Bereiche ausdehnt:

  • Microsoft nutzt die eigene marktbeherrschende Stellung aus und verhält sich wettbewerbswidrig. Dies hat bereits zu vielfältigen von EU und USA verhängten Strafgeldern geführt.
  • Microsoft ignoriert so weit wie möglich offene Dateiformate, um selbst erfundene, inkompatiblere Standards durchzusetzen. So geschehen zum Beispiel beim Dokumentenformat docx, welches von Microsoft samt einer Spezifikationen auf absurd umfangreichen 6.000 Seiten veröffentlicht wurde. 6.000 Seiten offensichtlich daher, um Konkurrenten oder Open-Source-Projekte wie LibreOffice davon abzuhalten, die Spezifikation korrekt umsetzen zu können (und damit vollständig kompatibel zu Microsoft-Produkten zu sein).
  • Microsoft setzt sich mit einem dreisten Patentwahn in Szene, indem Konkurrenten, die das Linux-basierte Mobil-Betriebssystem Android einsetzen, mit Lizenzzahlungsforderungen überzogen werden und die Zahlung von Lizenzgebühren für Trivialpatente eingefordert wird.

Die einzigen, die diese teils dreiste, teils kriminelle Cowboy-Manier von Microsoft nicht zu stören scheint, sind die Anwender von Windows. Ob nun zu Hause oder in Firmen – es wird Version für Version zu überhöhten Preisen ohne Murren gekauft.

Linux stellt in gewisser Weise einen Gegenentwurf zum Konzept und zur Ideologie von Microsoft und ähnlich agierenden Unternehmen dar. Linux, wie auch andere Open-Source-Projekte, wird in einer Community entwickelt, die sich frei zusammengeschlossen hat, um ein gutes System zu programmieren und für die Allgmeinheit kostenlos zur Verfügung zu stellen. Zwar mischen auch zum Teil Großunternehmen in der Entwicklung von Linux und quelloffener Software mit, jedoch ist die allgemeine Richtung positiv zu bewerten, da es sich um eine Demokratisierung der Softwarewelt handelt. Die Entwicklung wird eben nicht in einem geschlossenen System eines gewinnorientierten Unternehmens vorangetrieben, sondern vor allem in einem Umfeld der Kooperation und des Teilens von Wissen. Die Vielzahl bunter Communities rund um quelloffene Sofwareprojekte bringt Leben und Mitbestimmungsmöglichkeiten in die Computerwelt. Diese Kultur hilft nebenbei auch, der Isolation von “Computermenschen” entgegenzuwirken, denn im Rahmen dieser Projekte findet intensive soziale Interaktion statt. Man engagiert sich gemeinsam für positive Ziele und für das Gemeinwohl.

Mit einer solchen “Vergemeinschaftung” tun sich auch hervorragende (kostenlose) Supportmöglichkeiten für die Nutzer auf. Ob man sich nun auf einer Mailing-Liste direkt mit den Entwicklern unterhalten und Ideen einbringen möchte, in einem Forum Hilfe sucht, oder sich in einen Chat für Live-Support einklinkt – im Rahmen fast aller Open-Source-Projekte wird jeder einzelne Nutzer der Software einzigartig unterstützt. Was für einen Wert dies im Vergleich etwa zu Telephon-Hotlines kommerzieller Softwarefirmen hat, muß hier wohl nicht weiter ausgeführt werden.

5. Abschließende Bemerkungen

Die Frage ob der Einsatz von Linux oder Windows im PC-Bereich von Vorteil ist, kann auf der technischen Ebene relativ eindeutig beantwortet werden.

Was die subjektiven Empfindungen von Computernutzern angeht, so ist die Antwort sehr viel komplizierter, da sich Menschen zum Teil mit Händen und Füßen gegen Veränderungen und alternative Strukturen stemmen – seien sie auch noch so geringfügig. Auch spielt zum Teil ein Technologie-Lockin eine Rolle. Dies betrifft etwa Unternehmen und Organisationen, die aufgrund von Fehlentscheidungen nicht plattformübergreifend funktionierende Programme einsetzen und sich außerstande sehen, das Betriebssystem zu wechseln bzw. unterschiedliche parallel einzusetzen. Darüber hinaus werden Entscheidungen über das eingesetzte Betriebssystem leider selten objektiv getroffen. Wenn der Chef die Icons in Outlook hübscher findet als in Thunderbird oder Kontakt, dann kann die IT-Abteilung noch so kompetent und rational sein – dann werden eben für tausende oder Millionen Euro Jahr für Jahr neue M$-Office- und Windows-Lizenzen für alle Arbeitsplatzrechner des Unternehmens gekauft. Sogar Technologieunternehmen, die elektronische Geräte Produzieren, auf denen Linux läuft, setzen häufig Windows und MS Office auf den Rechnern der Mitarbeiter ein.

Bei der ganzen Diskussion könnte man sich fragen, ob nicht Apples Betriebssystem OSX ein guter Kompromiß und eine echte Alternative zu Windows und Linux sein könnte. Dies ist aus Sicht des Autors nicht der Fall, zumal Apple dem Nutzer mit Kauf der Software auch die eigene überteuerte Hardware aufzwingen möchte.

OSX läuft zwar auf Unix-Basis und ist daher stabil wie Linux, es ist in seiner Funktion aber noch viel eingeschränkter als Windows, ist auch teuer und verfügt über kein Paketmanagement. Darüber hinaus handelt es sich bei Apple-Betriebssystemen um extrem “zugenagelte”, kaum personalisierbare und maximal proprietäre Systeme.

Zuguterletzt steht das Unternehmen Apple dem Unternehmen Microsoft in Bezug auf die Niederträchtigkeit im unternehmerischen Handeln um nichts nach. Apple hat sich daneben durch eine Patent-Klagewelle gegen Produkte von Mitbewerbern zu einem sehr unbeliebten Marktteilnehmer gemacht.

Wer offen für positive Veränderungen ist, kann sofort handeln, sich die richtige Linux-Distribution für die eigenen Zwecke kostenlos herunterladen und installieren[12]. Lediglich wenige Gewohnheiten müssen überwunden werden und die Bereitschaft vorhanden sein, drei veränderte Grundprinzipien von Linux zu akzeptieren: Die anders aufgebaute Verzeichnisstruktur, das Paketmanagement und die Paßworteingabe für administrative Tätigkeiten.

Es gehört für den Normalnutzer nicht viel dazu, diese Grundprinzipien zu verstehen. Ist dies geschehen, wird der Nutzer mit Linux viel Freude haben und sich nur in den seltensten Fällen nach Windows zurücksehnen. Dies gilt um so mehr für “Intensivnutzer”, die Serveranwendungen, Scripte und wissenschaftliche Programme einsetzen und oder das System stets genauestens konfigurieren und personalisieren wollen. Hierfür ist Linux mit Abstand das am besten geeignete Betriebssystem – insbesondere in Kombination mit der Oberfläche KDE.

Die Vorteile des Einsatzes von Linux
System und Ausstattung
  • Läuft ‘out of the box’ (Zeitersparnis). Eine Vielzahl hochwertiger Programme ist bereits vorinstalliert
  • Bleibt langfristig schnell. Keine Registry, kein schleichendes Zumüllen des Systems
  • Kaum Neustarts – auch nach umfangreichen System-Updates
  • System kann frei angepaßt und verändert werden, da quelloffen
  • Modernste und am besten konfigurierbare 3D Desktops (Kwin oder Compiz) unter allen verfügbaren Betriebssystemen
Sicherheit
  • In der Regel keine Antiviren- oder Anti-Spionage-Software notwendig
  • Schlüssiges Sicherheitskonzept des gesamten Betriebssystems
  • Keine Hintertüren für Spionage eingebaut da quelloffen und vollständig transparent
  • Update- und Paketmanagement. Organisiertes und sicheres Installieren von Programmen
Effizienz
  • Alle installierten Programme können über die simple Eingabe des Programmnamens gestartet werden
  • Programminstallation über Paketmanagement
  • Schlankes Linux statt neuer Hardware (Web-Server schon mit 600 Mhz und 512 MB Ram bei 13 Watt)[13]
  • Weitgehender Verzicht auf Treiberinstallationen
  • Liste installierter Programme kann gespeichert werden. Mit einem einzigen Befehl können bei einer neuen Installation alle diese Programme automatisch installiert werden
  • Startmenü stets automatisch aufgeräumt. Neue Programme erscheinen in der richtigen Kategorie
Kosten
  • Keine Lizenzkosten für Linux und nur in Ausnahmefällen Kosten für unter Linux verwendete Programme
  • Kostenloser Support durch altruistische Communities
  • Keine Kosten für Virenschutzprogramme
Sonstiges
  • Alle Linux-Varianten können als Live-Medium eingesetzt, also z.B. direkt von DVD oder USB-Stick gestartet werden
  • Grafische Oberfläche insgesamt und Widget-System deutlich durchdachter und vielseitiger konfigurierbar als bei Windows (v.a. bei KDE)
  • Lebendige Communities und ethisch positiv zu bewertende Gesamtentwicklung im Softwarebereich
  • Interoperabilität: Bei Linux und Linux-Programmen wird stets großen Wert auf Interoperabilität gelegt (also die Kompatibilität zu anderen Softwaresystemen)

Source : http://www.heise.de/tp/artikel/36/36245/1.html

Von : Christopher Stark in Telepolis > Politik > Meinung

Photoshop-Manipulationen machen aus einem Foto ein geistiges Konzept

Photoshop-Manipulationen machen aus einem Foto ein geistiges Konzept

Eine interessante Entscheidung zum Thema Urheberrecht hat am 12. Januar der Patents County Court in London getroffen. Gegenstand waren Fotografien, die mit Photoshop auf ähnliche Weise verändert wurden. Der Fall wurde von der Zeitschrift Amateur Photographer aufgegriffen. Dort spricht von einem “schockierenden Urteil”.

Der Souvenirhersteller Temple Island Collection konnte sich gegen die Teefirma New English Teas durchsetzen, weil auch hier auf einer schwarz-weißen Fotografie ein knallig roter Bus auf der Westminster Bridge vor dem Hintergrund von Big Ben und der Houses of Parliament dargestellt wurde. Das Bild wurde auf Verpackungen verwendet. Es handelt sich, wie man hier sehen kann, um ansonsten unterschiedliche Fotos von unterschiedlichen Orten mit einer unterschiedlichen Perspektive und unterschiedlichen Aufnahmen eines Busses.

Der rote Bus als Original und als Plagiat. Bild aus dem Urteil des Gerichts

Justin Fielder von Temple Island Collection bezichtigte die andere Firma, sie habe sich unrechtmäßig das “Produktkonzept” des Bildes angeeignet, gab sich aber konziliant, da er als derjenige, der das bekannte Rote-Bus-Bild geschaffen habe, der Firma die Möglichkeit angeboten habe, das Bild zu lizenzieren. Weil diese das ablehnte, zog er vor Gericht.

Der Richter strich in seinem Urteil das Konzept und die mühsame Arbeit an der Manipulation des Fotos heraus, also dass das Rot des Busses verstärkt, der Himmel entfernt, bis auf den Bus alles schwarz-weiß gemacht, einige Personen entfernt und das Bild gedehnt wurde. Und der Richter betont, dass für das Bild der Teefirma keine Form der Kopie verwendet wurde, sondern neue Fotos gemacht und entsprechend bearbeitet wurden. Da beide Firmen schon zuvor wegen des Roten-Bus-Bildes aneinandergeraten waren, hatte die Teefirma säuberlich vermieden, direkt etwas zu reproduzieren und erklärt, das Urheberrecht könne nicht beansprucht werden, um ein Monopol auf ein SW-Bild von den Houses of Parliament mit einem roten Bus davor zu erlangen.

Nach einer länglichen Darlegung des Falls und des Urheberrechts kam der Richter zu dem Urteil, dass es sich bei allen Bedenken um eine Urheberverletzung handelt. Fielder habe mit seinem Bild nämlich eine eigenständige “ästhetische Qualität” durch seine Arbeit geschaffen, die eine geistige Schöpfung darstelle. So gebe der leere Himmel dem ganzen Bild ein “dramatisches Aussehen”, wodurch auch der rote Bus mehr hervorsteche. Dieser Effekt sei reproduziert worden. Auch sei der Bus ähnlich in Bezug auf die Architektur gestellt worden etc. Wichtiger aber war dem Richter, dass das Bild von Fielder eben keine bloße Fotografie sei, sondern das Produkt von bewussten Entscheidungen und Manipulationen. Letztlich ist der Vorwurf, man habe den Effekt des Bildes reproduzieren wollen, weil es so “attraktiv” ist – und das scheint dann das Urheberrecht zu verletzen.

Cory Doctorow bezeichnet das Urteil als “verrückt”, schließlich sei zu erwarten, dass jeder, der eine große Sammlung an Fotografien hat, mal schnell alle durchschaut, dann nach anderen Fotos sucht, die ähnliche Motive haben, und zu klagen beginnt: “Wir haben das Copyright auf “zwei Typen trinken Bier und richten den Boden ihrer Gläser gen Himmel!” Doctorow kann sich kaum halten: “It’s an apocalyptically bad ruling, and an utter disaster in the making.”

Source : http://www.heise.de/tp/blogs/6/151307

Von : Florian Rötzer in Telepolis > Kultur und Medien-News

Internetnutzer wollen gar nicht kriminell sein

Dass die Unterstützung für SOPA und den Protect-IP-Act zumindest in ihrer aktuellen Form selbst in der US-amerikanischen Legislative nachlässt (inzwischen sind nicht nur die Abstimmungen auf unbestimmte Zeit verschoben, es rudern auch mehrere der ursprünglichen Antragsteller zurück) hat nicht zuletzt mit dem öffentlichkeitswirksamen massiven Lobbying von Internetfirmen zu tun. Zu Recht sehen sich diese in ihren Geschäftsmodellen bedroht, die nun einmal ganz wesentlich auf einem möglichst freien Verkehr aller möglichen, auch urheberrechtsgeschützten, Daten beruhen. Die ganz prinzipielle Notwendigkeit einer Ausweitung, respektive Neuanpassung von Copyright-Regelungen wird dabei eher selten in Frage gestellt. Die Idee, dass “geistiges Eigentum” eines besonderen Schutzes zu seiner kommerziellen Verwertung bedarf, begründet sich dabei in einer auf den ersten Blick plausiblen Annahme: Wenn eine Ware (zum Beispiel Musik) kostenlos zur Verfügung stünde, würde niemand willens sein, für den Genuss selbiger zu bezahlen.

Selbst wenn man den vorausgesetzten Warencharakter von Kunst und Kultur und die pauschale Unterstellung der kriminellen Energie breiter Bevölkerungsschichten nicht in Frage stellen möchte, ist bereits mehrfach angemerkt worden, dass diese Rechnung nur zur Hälfte aufgeht. Genauso plausibel lässt sich nämlich vermuten, dass ein illegal kopiertes Lied nicht zuallererst ein finanzieller Verlust für den Erzeuger ist, sondern eine höhere Reichweite des Kunstwerkes bedeutet. Menschen, die sich heute ein Album auf der Pirate Bay besorgen, hätten selbiges unter anderen Umständen nicht unbedingt gekauft, sondern in den meisten Fällen schlicht nicht gehört. Die durch illegale Downloads verursachten finanziellen Einbußen der Künstler und der Musikindustrie dürften sich demzufolge auf einem weitaus niedrigeren Niveau, als dem immer wieder kolportierten, bewegen.

Ein weiteres, den Nutzen des verschärften Urheberrechts in Frage stellendes Argument ist die Annahme, dass Konsumenten von Kulturprodukten auch in Zeiten des Internet durchaus willens seien, für Musik, Filme und dergleichen zu bezahlen, solange es nur funktionale, niedrigschwellig zugängliche, zuverlässige und möglichst umfassende Angebote gibt, die nicht völlig überteuert wirken. Eine indirekte Bestätigung findet diese Annahme im Erfolg des iTunes-Store, der Amazon-Downloadabteilung und diverser Film- und Musikstreamingdienste. Obwohl die dortigen Angebote in weiten Teilen auch kostenlos zu haben wären, bezahlen Millionen für den legalen Zugang. Dass das kein Zufall ist, ist das erste Ergebnis einer Studie des US-amerikanischen Think-Tanks American Assembly.

Durchgeführt vom unabhängigen Institut “Princeton Survey Research Associates International” kommt die Studie in einer vorab veröffentlichten Zusammenfassung für den amerikanischen Teil der Untersuchung unter anderem zu dem Ergebnis, dass mit dem besseren Zugang zu legalen Streamingdiensten gut 40% der früheren Filesharer und Downloader inzwischen eher auf diese zurückgreifen. Interessant ist dabei auch, dass sich nur rund 30% der Befragten überhaupt in nennenswertem Umfang Musik und Filme auf nicht legalen Wegen besorgen und dies wiederum nur 1-2% in “hohem Maße” (mehr als 1000 Musiktitel und/oder 100 Filme) tun. Von einer zerstörerischen Epidemie der Piraterie kann überhaupt nicht die Rede sein.

Zu möglichen strafrechtlichen Folgen illegalen Filesharings und dergleichen gibt die Mehrheit der Befragten Antworten, die Anti-SOPA-Lobbyisten ein Fest sein dürften. Bereits die nicht weiter spezifizierte allgemeine Forderung nach Bestrafung findet nur eine sehr knappe Mehrheit. Über Verwarnungen und Geldstrafen hinausgehende Optionen für das Strafmaß schneiden erwartungsgemäß schlecht ab: Gefängnisstrafen (20% Unterstützung), Sperrung des Netzzugangs (26%), eingeschränkter Netzzugang (46%). Außerdem glauben rund 70% der Befragten, dass die angemessene Strafzahlung für den illegalen Download eines Musiktitels maximal 100 Dollar betragen sollte, die knappe Hälfte davon setzt das Limit sogar bei 10 Dollar an. Beides sind Summen, die sich in gänzlich anderen Sphären bewegen, als die üblicherweise angesetzten astronomischen Schadensersatzforderungen der Musikindustrie.

Die verschiedenen Vorschläge zum technischen Schutz der Urheberrechte stoßen ebenfalls auf wenig Gegenliebe. Allein schon der direkte Zugriff der Rechteinhaber wie Musik- oder Filmfirmen auf Internetinhalte (vgl. Universals Sperrmöglichkeit auf Youtube) findet nur 18% Unterstützer, die Filterung von Ergebnissen in Suchmaschinen oder durch Internetprovider noch weniger. Netzsperren allgemein finden ohnehin nur eine ganz knappe Mehrheit, werden sie in der konkreten Frage mit dem Wort “Zensur” verbunden, schwindet selbst diese. Wie überhaupt die Verbindung der Fragen mit Hinweisen auf Persönlichkeitsrechte und das Recht auf freie Rede die Antworten bezüglich staatlicher oder sonstiger Sanktionen insgesamt ablehnender werden lässt. So wird die Frage, ob Anbieter wie Facebook und Dropbox den Datenverkehr auf illegale Inhalte überprüfen sollten mit deutlicher Mehrheit (61%) bejaht, wird jedoch gefragt “Sollte Ihr Internetgebrauch zum Schutz vor Urheberrechtsverletzungen überwacht werden?”, dreht sich das Verhältnis ins genaue Gegenteil (69% Nein).

Die voraussichtlich Anfang März erscheinende komplette Studie ist auch in Deutschland durchgeführt worden. Diese Daten sind noch nicht vollständig aufbereitet. Joe Karaganis, Vize-Präsident der American Assembly, erklärte auf Nachfrage jedoch, dass die deutschen Ergebnisse sich im Großen und Ganzen mit den amerikanischen decken. Unterschiede seien dahingehend zu bemerken, dass in Deutschland anscheinend weniger kopiert werde und die Unterstützung für Netzsperren höher sei.

Für die Kampagnen gegen SOPA und das auch auf europäischer Ebene wirksame Geheimabkommen ACTA kann eine Lehre aus der Studie sein, dass die Bürgerrechtler eine Mehrheit des Souveräns auf ihrer Seite haben, solange es gelingt, die Folgen der geplanten gesetzlichen Eingriffe in den Internetverkehr und die Kriminalisierung eines bestimmten Nutzungsverhaltens als massive Einschränkung von Grundrechten und dem Anlass nicht angemessene Überreaktionen zu beschreiben. Ob das aber ausreicht, die Parlamente zu überzeugen, ist keineswegs sicher, werden ebensolche Grundrechtsbrüche und Überreaktionen doch immer wieder gegen den Willen der Wählermehrheit durchgesetzt, wenn es ein hinreichendes wirtschaftliches oder ordnungspolitisches Interesse an diesen Maßnahmen gibt.

Source : http://www.heise.de/tp/artikel/36/36265/1.html

Von : Daniél Kretschmar in Telepolis > Politik > Copyright

Warum erzielen Frauen weniger Spitzenleistungen in der Mathematik?

Warum erzielen Frauen weniger Spitzenleistungen in der Mathematik?

Ein lange gehegtes Vorurteil ist, dass sich Frauen mit Mathematik schwerer tun und daher auch von ihr nicht angezogen werden sowie schlechter abschneiden. Dass Männer besser in Mathe seien als Frauen, ist auch das Selbstverständnis mancher Frauen. Dass diese zumindest in geringerem Maße herausragende mathematische Leistungen erbringen, scheint der Umstand zu belegen, dass es kaum Spitzenmathematikerinnen gibt und dieses Feld von Männern beherrscht wird. Aber warum ist dies so?

Zwar erreichen Männer und Frauen in den meisten Bereichen der Mathematik vergleichbare Leistungen (Frauen können Mathe, Männer auch), allerdings bleibt die empirische Tatsache, dass sich mehr Männer als Frauen im Spitzenbereich der Mathematik befinden. Gerne wird dieser Unterschied mit der 1999 geprägten Theorie des “stereotype threat” (Bedrohung durch ein Stereotyp) erklärt, also dass eben die Existenz des Vorurteils bei Frauen dazu führt, dass sie sich als mathematisch eher unbegabt einschätzen und deswegen auch schlechtere Ergebnisse erzielen. Belegt wurde die Hypothese durch Tests, bei denen Frauen und Männer vor der Lösung einer visuellen räumlichen Aufgabe daran erinnert wurden, dass sie Frauen und Männer sind. Während Männer daraufhin nicht schlechter abschnitten, war dies aber bei den Frauen so.

Nach den Psychologen David Geary von der University of Missouri und Gijsbert Stoet von der University of Leeds haben andere Studien die Ergebnisse, auf die sich die Theorie stützt, nur teilweise wiederholen können. Die Psychologen haben eine in der Zeitschrift Review of General Psychology vorab online veröffentlichte Metastudie durchgeführt und dabei herausgefunden, dass Studien, die angeblich nachgewiesen haben, dass Männer in Mathematik aufgrund des Geschlechtsvorurteils besser sind, methodische Fehler wie das Fehlen einer männlichen Kontrollgruppe aufweisen und/oder ungeeignete statistische Verfahren eingesetzt haben. Zudem werde in vielen Studien überhaupt kein wissenschaftlicher Beweis für das Stereotyp angeboten. Zwar könne das Stereotyp manche Frauen beeinflussen, konzedieren sie, der Unterschied in den mathematischen Hochleistungen könne damit aber wissenschaftlich nicht erklärt werden.

Für die Autoren hat die Theorie des “stereotype threat” daher unbegründet so viel Erfolg bei Wissenschaftlern und Politikern gefunden, die glaubten, dass der Geschlechterunterschied verschwinden werde, wenn das Vorurteil bekämpft wird. “Selbst mit vielen Programmen, die eingerichtet wurden, um dieses Problem zu lösen”, so David Geary, “blieb es weiterhin bestehen. Wir glauben nun, dass das falsche Problem angegangen wird.” Wenn man Versuchspersonen vor einem Test nahelegt, dass Angehörige einer Gruppe, zu der sie gehören, gewöhnlich bei einem solchem Test schlechter abschneiden, dann sei es nicht überraschend, dass sie dann auch tatsächlich schlechtere Ergebnisse produzieren. Das würde bei Männern genauso geschehen. Nach einer statistischen Überprüfung hätten sie jedenfalls bei den 20 untersuchten Studien keine signifikanten Wirkungen im Sinne der Theorie vom prägenden Vorurteil bemerken können.

Vermutlich würden Versuche, auf der Grundlage der Theorie das Vorurteil bekämpfen, das Problem nur verschlimmern, weil man wichtige Ressourcen für ein nicht existierendes Problem einsetze, während es weiterhin ein “unverhältnismäßig große Gruppe von Männern an der Spitze von Wissenschaft, Technik, Ingenieurwesen und Mathematik” gebe. Das müsse sich ändern. Fragt sich nur wie? Die Autoren fordern, dass eine wirkliche Erklärung für den Geschlechterunterschied in dieser Hinsicht gefunden werden müsse, um Veränderungen zu bewirken.

Source : http://www.heise.de/tp/blogs/10/151244

Von : Florian Rötzer in Telepolis > Science-News

Wünsch Dir was!

Wünsch Dir was!

Das Comeback von Karl-Theodor zu Guttenberg als “Botschafter für die Freiheit im Internet” kam offenbar bereits kurz nach seinem unrühmlichen Abgang als deutscher Verteidigungsminister aufgrund seiner Plagiatsaffäre zustande. Dies belegen interne Dokumente der EU-Kommission, die Telepolis vorliegen. Demnach kontaktierte ihn ein Mitarbeiter der Kommissionsvizepräsidentin Neelie Kroes bereits am 20. April 2011 und signalisierte den Gesprächsbedarf seiner Chefin. Die für die Digitale Agenda zuständige Kommissarin plane eine politische Initiative gegen das Abschalten von Kommunikationsinfrastrukturen im Zusammenhang mit Protesten gegen autokratische Systeme in bestimmten Ländern. Sie wolle ihn gern daran beteiligen und mit ihm beraten, welche Rolle ihm selbst dabei gefallen würde.

Karl-Theodor zu Guttenberg und Kommissarin Neelie Kroes während der Pressekonferenz am 12.12.2011 zum Start der No Disconnect Strategy. Bild: EU

Zu diesem Zeitpunkt hatte das Ermittlungsverfahren der Staatsanwaltschaft Bayreuth wegen des Verdachts der vorsätzlichen Urheberrechtsverletzung gegen zu Guttenberg, das letztlich gegen Zahlung einer hohen Geldbuße eingestellt wurde, gerade erst begonnen. Die Absicht der Kommissarin zur Beschäftigung zu Guttenbergs sollte dann auch über lange Zeit vertraulich behandelt werden, heißt es in einem internen Dokument der Kommission.

Nun soll Kommissarin Kroes, die erklärte, sie habe “Talent, aber keinen Heiligen gesucht”, im Europäischen Parlament Rede und Antwort zur Personalie Guttenberg stehen. Jan Phillip Albrecht, der für die Grünen im EU-Parlament sitzt, hat bereits am Tag der Pressekonferenz mit zu Guttenberg zwölf Fragen an Kommissarin Kroes zu ihrer “No Disconect Strategy” und der Beteiligung zu Guttenbergs daran eingereicht. Albrecht will wissen, wie sich die Einbeziehung zu Guttenbergs mit der Diffamierung des Blogs guttenplag.de im Zuge seiner Plagiatsaffäre und mit der Tatsache vereinbaren lässt, dass er in seiner Amtszeit als Wirtschaftsminister einem umstrittenen Gesetz zur Sperrung von Webseiten zugestimmt habe.

Die Antworten auch auf die Fragen nach dem Mehrwehrt, den sich die Kommissarin vom Engagement Guttenbergs verspricht, dürften indessen schwerfallen. Schon die Umstände, wie es zu der Beteiligung Guttenbergs kam, sind höchst merkwürdig. Einen inhaltlichen Beitrag zur Erarbeitung der Strategie hat der Ex-Minister ausweislich der vorliegenden Korrespondenz nicht geleistet. Vielmehr fragte er den Stab von Kroes, was er in seinem Statement vor der Presse am 12. Dezember sagen solle. Was man auf die all die zu erwartenden Fragen antworten soll, warum ausgerechnet er die Rolle des “Speziellen Beraters” spielen soll, weiß der auch nach seinem unfreiwilligen Rückzug selbstbewusste Guttenberg natürlich: Seine Erfahrungen in der Außen- und Sicherheitspolitik sollen dafür herhalten.

Für diesen Politikbereich ist auf EU-Ebene eigentlich nicht Kroes, sondern die Hohe Vertreterin für Außen- und Sicherheitspolitik und Kommissionsvizepräsidentin Catherine Ashton zuständig. Konsequenterweise fragt der Abgeordnete Albrecht auch danach, ob sich die “no disconnect”-Strategie nur an Staaten außerhalb der EU richte oder ob die Kommission auch darauf hinwirken werde, dass Menschenrechte und Grundfreiheiten auch innerhalb der EU sowohl online als auch offline gewahrt werden. Ob zu Guttenberg auch dabei eine Rolle spielen soll, will der Parlamentarier wissen.

Die Telepolis vorliegende Korrespondenz mit dem deutschen Ex-Minister gibt darüber kaum Aufschluss. Was er inhaltlich dazu beizutragen hat, wird in der gesamten, sich über ein dreiviertel Jahr ziehenden Korrespondenz nicht ersichtlich. Selbst der Titel, unter dem die Beteiligung laufen sollte, bleibt bis zuletzt unklar. Noch am 2. Dezember, wenige Tage vor Guttenbergs öffentlichem Auftritt mit der Kommissarin, ist vom “Botschafter für Internetfreiheit” die Rede oder von einem “Speziellen Berater der Kommissarin für die Freiheit des Internet”. Die protokollarischen Grundlagen für den Titel müssten noch geklärt werden. Nach alledem, was aus den vorliegenden Papieren ersichtlich ist, soll zu Guttenberg seine Kontakte nutzen, um für die Vorhaben der Kommissarin auf internationaler Bühne zu werben. Man kann es aber auch so interpretieren, dass zu Guttenberg eine Rolle bekommt, die es ihm erlaubt, auch als Privatier seine Kontakte weiter zu pflegen – auf Kosten von Europas Steuerzahlern, die für die Spesen aufkommen.

Und inwieweit chinesische Blogger oder weißrussische Internetdissidenten, die meist anonym bleiben müssen, weil ihnen Repressionen drohen, besonderen Wert auf Treffen mit dem schillernden Plagiator legen, ist fraglich. Dass Regierungskritiker im Internet besser anonym bleiben, ist beileibe kein außereuropäisches Phänomen mehr. Nach den neuen Pressegesetzen und der Verfassungsänderung ziehen es inzwischen auch Polit-Blogger aus Ungarn vor, ihre Identität nicht preiszugeben.

Mit ihrem Beharren auf der Vorratsdatenspeicherung und Vorschlägen für Netzsperren habe sich die EU-Kommission bislang nicht gerade als Vorreiter für die Netz-Freiheit positioniert, kritisiert der Grüne Albrecht. Zu den von ihm seinerzeit verteidigten Sperren von kinderpornographischen Seiten hatte zu Guttenberg gesagt, solch legitime Beschränkungen in Staaten seien “etwas anderes als Zensur”. Dabei war die Hauptkritik gegen das inzwischen zurückgenommene Gesetz, dass darin dem Bundeskriminalamt weitgehende Rechte zu Sperrungsverfügungen eingeräumt werden sollten, die kaum zu kontrollieren waren.

Auffällig ist auch, dass die Kommissarin den Privatmann zu Guttenberg frühzeitig in ihre strategische Planung einbezieht und ihm brisante, der Geheimhaltung unterliegende Dokumente der Kommission übermittelt. Eine Erklärung zu Guttenbergs, dass er diese Informationen vertraulich behandeln wird, findet sich nicht in der Korrespondenz. Ein Dokument übermittelt ihr Kabinett an zu Guttenberg mit dem Hinweis, das sei alles noch nicht innerhalb der Kommission abgestimmt und man müsse erst “die Stimmung testen”.

Bis heute hält die Kommission alle an zu Guttenberg übermittelten Dokumente unter Verschluss mit der Begründung, deren Weitergabe könne sich negativ auf die internationalen Beziehungen auswirken. Warum eine Privatperson wie zu Guttenberg, der seinen Wohnsitz außerhalb der EU hat und für einen US-amerikanischen Think-Tank arbeiten soll, solche Dokumente bekommt, wird sich Kommissarin Kroes auch fragen lassen müssen, denn auch das findet der Abgeordnete Albrecht nicht nachvollziehbar.

“Seien Sie transparent – tragen Sie sich in das Transparenzregister der Europäischen Kommission für interessierte Vertreter ein”, steht in der Signatur eines Kommissionsschreibens an zu Guttenberg. In dem Register “für Organisationen und selbstständige Einzelpersonen, die sich mit der Gestaltung und Umsetzung von EU-Politik befassen” findet sich bis heute weder das US-amerikanische “Center for Strategic and International Studies”, für das zu Guttenberg verschiedenen Verlautbarungen zufolge arbeiten soll, noch der “Botschafter der Internetfreiheit” selbst. Die Einträge unter “G” enden mit der “Gütegemeinschaft Kulissenschalldämpfer e.V.”, jene unter “Z” mit den “Zwiebelfreunden”. Kommissarin Kroes, die stets für mehr Transparenz und Informationsfreiheit wirbt, hat also noch einen Baustelle vor der eigenen Haustür.

Source : http://www.heise.de/tp/artikel/36/36252/1.html

Von : Tim Gerber in Telepolis > Politik