Zur Version mit Bildern
freiesMagazin Mai 2011 (ISSN 1867-7991)
Topthemen dieser Ausgabe
Python-Programmierung: Teil 7 – Iteratoren
Im vorherigen Teil dieser Reihe wurde eine kleine Musikdatenbank implementiert. Diese ist nun in der Lage, Verzeichnisse nach Musikdateien zu durchforsten und diese in eine SQLite-Datenbank abzulegen. Außerdem kann diese Datenbank natürlich durchsucht werden. In diesem Teil werden nun Iteratoren behandelt – und damit eine Technik, die zu den zentralen Konzepten von Python gezählt werden kann. (weiterlesen)
Dateigrößenoptimierung von Bildern
In Zeiten von Breitbandanschlüssen mit über 16 MBit machen sich nur noch wenige Menschen Gedanken über die Größe von Inhalten, die sie ins Netz stellen bzw. per E-Mail verschicken. Leider wird dabei oft vergessen, dass nicht jeder mit einem DSL-Anschluss gesegnet ist. Vor allem in ländlichen Gegenden ist es keine Seltenheit, dass man auf einen Surfstick angewiesen ist, der dann mit seinen 64 kbit/s an die gute alte ISDN-Zeit erinnert. Der Artikel soll zeigen, wie man Bilder so optimieren kann, dass diese platzsparender gespeichert werden können, ohne dabei aber zu viel Qualität zu verlieren. (weiterlesen)
Ryzom – Das freie MMORPG
Bereits 2005 öffnete mit „The Saga of Ryzom“ ein Online-Rollenspiel der etwas anderen Art seine Pforten. Statt Orks, Elfen, Goblins oder Drachen erwartete den Spieler der Zauber einer neuen Welt, mit eigenen Gesetzen, Regeln, einem ausgeklügelten Fertigkeiten- und innovativen Kampfsystem. Mittlerweile im Quellcode unter den Bedingungen der AGPLv3 verfügbar und auch für Linux freigegeben, ist es auch für die Nutzer des offenen Betriebssystems interessant. Doch taugt das Spiel etwas und wenn ja, warum ist es nicht weiter verbreitet? (weiterlesen)
Zum Index
Linux allgemein
Was Natty antreibt: Ein Blick auf den Kernel von Ubuntu 11.04
Der April im Kernelrückblick
Anleitungen
Python-Programmierung: Teil 7 – Iteratoren
Parallelisierung mit Scala
Dateigrößenoptimierung von Bildern
Wurmkur ohne Nebenwirkung – Virenentfernung mittels LiveCDs
Software
Ryzom – Das freie MMORPG
Zehn Jahre Warenwirtschaft C.U.O.N.
Community
Rezension: Coding for Fun mit Python
Magazin
Editorial
Leserbriefe
Veranstaltungen
Vorschau
Konventionen
Impressum
Zum Index
Reine Konsumgesellschaft?
Ende des Grafikwettbewerbs
An dieser Stelle würden wir gerne verkünden, dass der Grafikwettbewerb,
den wir zum fünften Geburtstag von freiesMagazin gestartet
haben [1],
ein voller Erfolg war. Der Konjunktiv des Satzes deutet es aber an:
Er war es nicht!
Wir wollten mit dem Wettbewerb allen Lesern etwas zum Mitmachen
bieten, die nicht gut schreiben oder gut programmieren können und
sich sonst nicht angesprochen fühlten. freiesMagazin hat um die zehntausend
Leser jeden Monat und dennoch hat es gerade einmal einer
(der dazu auch noch ab und an als Autor
tätig ist) geschafft, ein Bild zu unserem Geburtstag zu erstellen [2].
Im Endeffekt erleichtert uns das aber die Wahl eines
Gewinners, sodass Herr Michael Schwarz mit eindeutiger Mehrheit
den ersten Platz des Grafikwettbewerb einnehmen konnte. Das heißt,
er erhält einen 30-Euro-Gutschein von Amazon und darüber hinaus
die CD von „The Nuri“ als kleinen Bonus. Herzlichen Glückwunsch!
Natürlich stellt sich uns dabei aber auch die Frage, ob
die Linux- und Open-Source-Community zu einer reinen Konsumgesellschaft
verkommt, sodass man selbst nur noch konsumiert, aber nichts mehr
beiträgt. Dieser Trend zeichnet sich bereits seit einigen Monaten ab,
da sich immer weniger Autoren melden, um Beiträge für freiesMagazin
beizusteuern.
Die Frage ist: Woran liegt das? Wenn Sie eine Theorie haben, schreiben
Sie uns Ihre Meinung unter .
Python-Sonderausgabe
Auf den Wunsch der Leser hin haben wir alle bisher erschienen
Python-Programmier-Artikel in einer Sonderausgabe
zusammengefasst [3].
In dieser findet man die sechs Artikel von Daniel Nögel, die in den
freiesMagazin-Ausgaben Oktober 2010 bis März 2011 erschienen sind.
Auf die Art kann jeder Python-interessierte Neuling die ersten
Schritte in der Python-Welt wagen und lernt so neben den
Grundstrukturen und Elemente der Sprache in den fortgeschrittenen
Teilen auch die Anbindung an eine Datenbank, um eine
Musikverwaltung aufzubauen.
Und nun wünschen wir Ihnen viel Spaß mit der neuen Ausgabe.
Ihre freiesMagazin-Redaktion
Links
[1] http://www.freiesmagazin.de/20110318-grafikwettbewerb-zum-fuenften-geburtstag
[2] http://www.freiesmagazin.de/20110430-gewinner-des-grafikwettbewerbs
[3] http://www.freiesmagazin.de/freiesMagazin-2011-04-02
Das Editorial kommentieren
Zum Index
von Mathias Menzer Die neueste Version von Ubuntu wurde nach etwa einem halben Jahr Entwicklungszeit vor kurzem veröffentlicht [1]. Insbesondere die Änderungen an der grafischen Oberfläche der Standardumgebung wurden kontrovers diskutiert und standen im Rampenlicht von Blogs und Nachrichtenseiten [2]. Doch auch im Kern gibt es einige Neuerungen seit Ubuntu 10.10 „Maverick Meerkat“ veröffentlicht wurde. Zeit also, einen Blick auf den Kernel zu werfen, der in Ubuntu 11.04 „Natty Narwhal“ steckt.
Redaktioneller Hinweis: Der Artikel „Was Natty antreibt: Ein Blick auf den Kernel von Ubuntu 11.04“ erschien erstmals in Ikhaya [3] und wird
mit Genehmigung des Autors unter der Creative Commons BY-SA 3.0 Unported [4] veröffentlicht.
Die Qual der Kernelwahl
Es war lange Zeit nur „wahrscheinlich“, dass 2.6.38 in den jüngsten Spross der Ubuntu-Familie einziehen sollte. Bereits Ende Januar wurde der Kernel in Natty auf die Entwicklerversion 2.6.38 umgestellt und mittlerweile von den Kernel-Entwicklern als stabile Version veröffentlicht. Der Sprung über drei Kernel-Versionen (2.6.36, .37 und .38) hinweg muss nicht immer gleich eine Verheißung auf weltbewegende Neuerungen sein, aber den einen oder anderen Leckerbissen hat der Natty-Kernel dann doch zu bieten.
Zu den Funktionen, die beim Arbeiten an einem Desktop-PC oder Notebook auffallen, werden in jedem Fall die automatischen Task-Gruppen zählen. Diese Funktion verbessert das Antwortverhalten, wenn der Rechner unter hoher Last steht, indem die zur Verfügung stehenden Prozessorressourcen gleichmäßig auf Prozess-Gruppen verteilt werden. Diese sind nach dem Terminal sortiert, von dem aus sie ausgeführt werden. So erhält zum Beispiel ein Kompilierungsvorgang mit vielen Prozessen die gleiche Priorität wie ein Web-Browser oder E-Mail-Programm.
Fanotify kommt, BKL geht
Mehr im Hintergrund, letztlich jedoch mit positiven Auswirkungen auf die Leistungsfähigkeit des Rechners, wurde der Big Kernel Lock (BKL) [5] entfernt. Dieser Locking-Mechanismus gilt als besonders uneffektiv, da er den gesamten Kernel sperrt und wurde daher durch weniger gierige Locking-Mechanismen ersetzt. Dieses Projekt zog sich nun fast drei Jahre hin, in denen nach und nach alle Stellen, an denen der BKL zum Einsatz kam, überarbeitet wurden. Bereits seit 2.6.37 war es möglich, den Kernel ohne BKL-Unterstützung zu installieren, da nur noch wenige Treiber, wie zum Beispiel der Intel-Treiber i810, auf den BKL-Code angewiesen waren. Mit dem Natty-Kernel (2.6.38) ist BKL weitgehend passé und bereits in der Standard-Konfiguration deaktiviert. Der Code für den Lock wird jedoch erst mit dem Linux-Kernel 2.6.39 verschwinden, der sich derzeit in der Entwicklung befindet.
Ein neues Benachrichtigungssystem für Dateisysteme ist Fanotify. So, wie der Nutzer durch die Notifications [6] auf dem Laufenden gehalten wird, wann immer Anwendungen Neuigkeiten zu vermelden haben, können sich Programme über Änderungen am Dateisystem informieren lassen. In diesem Punkt stellt Fanotify eine Ablösung für inotify [7] dar, geht aber noch einen Schritt weiter: Es kann auf eine Antwort des benachrichtigten Programms warten und einen Prozess so lange blockieren. Damit können zum Beispiel On-Access-Virenscanner [8] Dateien noch schnell prüfen, bevor sie gelesen oder ausgeführt werden, wie dies auf Windows-Systemen bereits gang und gäbe ist. Künftig können Virenscanner unter Linux auf diese einheitliche Schnittstelle zurückgreifen, bislang nutzen diese meist das (derzeit nicht gepflegte) Kernel-Modul Dazuko [9] oder verzichten auf eine Echtzeitprüfung.
Weitere Änderungen und Verbesserungen
Weitere Änderungen, die beim Umgang mit dem Linux-Desktop zum Tragen kommen, sind zum Beispiel der Einsatz von FS-Cache im Zusammenhang mit Windows-Freigaben. FS-Cache ist ein Zwischenspeicher für Netzwerkdateisysteme, der nun auch den Zugriff auf Windows-Freigaben mittels CIFS [10] beschleunigt.
Verbesserungen an der Virtuellen Speicherverwaltung [11] sollen scheinbar eingefrorenen Systemen vorbeugen, die zum Beispiel bei Schreibvorgängen auf langsame USB-Geräte auftreten, wenn der zur Verfügung stehende Arbeitsspeicher ausgelastet ist – im Zeitalter von Netbooks mit teilweise nur 1 GB vorinstalliertem RAM ein nicht allzu fern liegendes Szenario.
Wird ein Rechner in den Ruhezustand versetzt, so sichert er ein Abbild des Speichers auf Festplatte, um später wieder im gleichen Zustand aufwachen zu können. Dieses wird nun mittels LZO [12] komprimiert. LZO gilt zwar nicht gerade als der effizienteste Algorithmus, um eine hohe Kompressionsrate zu erzielen, punktet jedoch bei der Geschwindigkeit, mit der die Komprimierung und Dekomprimierung vonstatten gehen und somit auch bei der Zeit, die zum Einschlafen und Aufwachen benötigt wird.
Und zuletzt kann Ubuntu 11.04 bereits mit AMDs neuester Generation von Chipsätzen umgehen, da Nattys Kernel Unterstützung für die Fusion-Plattform [13] bietet, die Prozessor und Grafikkern auf einem Chip vereinen. Erste Geräte mit diesen Chips wurden zum Beispiel von Acer und MSI angekündigt und dürften in Kürze im Handel auftauchen.
Fazit
Dies war nur ein kurzer Abriss der wichtigsten Neuerungen, die nicht nur irgendwo im Dunkeln dämmern, sondern für den Nutzer am Desktop greifbar sind. Darüber hinaus wurden im Hintergrund unter anderem Verbesserungen an den Werkzeugen zur Leistungsmessung des Kernels vorgenommen, mit deren Hilfe die Entwickler bewerten können, wo die Bremsen im System sitzen und wo optimiert werden kann. Mit B.A.T.M.A.N. [14] wurde ein neues Routingprotokoll für vermaschte drahtlose Netze [15] aufgenommen, das unter anderem nach Naturkatastrophen zum Einsatz kommen kann, um wieder Kommunikationsmöglichkeiten zu schaffen. Dabei ist jeder Teilnehmer am Netz nicht nur Endpunkt sondern auch Teil der Verbindung zu Anderen oder kann als Zugangspunkt zum Beispiel per Satellitenfunk zum Internet dienen. Der Nutzerkreis dürfte zwar eher eingeschränkt sein, nichtsdestotrotz handelt es sich um eine interessante Technik.
Das bereits von Ubuntu genutzte AppArmor [16], ein System, das die Berechtigungen von Prozessen beschränken und damit die Sicherheit des Systems gegenüber eingeschleustem Code verbessern soll, ist jetzt nun offiziell Bestandteil des Linux-Kernels. AppArmor muss nun nicht mehr von den Distributionen selbst eingefügt werden, was diesen einigen Aufwand abnimmt, letztlich für den Nutzer jedoch keinen Unterschied macht.
Links
[1] http://ikhaya.ubuntuusers.de/2011/04/28/ubuntu-11-04-natty-narwhal-ist-erschienen/
[2] http://kofler.info/blog/154/126/Unity----Der-Anfang-vom-Ende-fuer-Ubuntu/
[3] http://ikhaya.ubuntuusers.de
[4] http://creativecommons.org/licenses/by-sa/3.0/deed.de
[5] https://secure.wikimedia.org/wikipedia/de/wiki/Big_Kernel_Lock
[6] http://wiki.ubuntuusers.de/Benachrichtigungsdienst
[7] http://wiki.ubuntuusers.de/inotify
[8] https://secure.wikimedia.org/wikipedia/de/wiki/Antivirenprogramm#Echtzeitscanner
[9] https://secure.wikimedia.org/wikipedia/de/wiki/Dazuko
[10] https://secure.wikimedia.org/wikipedia/de/wiki/Server_Message_Block
[11] https://secure.wikimedia.org/wikipedia/de/wiki/Virtuelle_Speicherverwaltung
[12] https://secure.wikimedia.org/wikipedia/de/wiki/Lempel-Ziv-Oberhumer
[13] https://secure.wikimedia.org/wikipedia/en/wiki/AMD_Fusion
[14] https://secure.wikimedia.org/wikipedia/de/wiki/B.A.T.M.A.N.
[15] https://secure.wikimedia.org/wikipedia/de/wiki/Vermaschtes_Netz
[16] http://wiki.ubuntuusers.de/AppArmor
Autoreninformation |
Mathias Menzer (Webseite)
hält einen Blick auf die Entwicklung des Linux-Kernels. Als Nutzer eines (fast) unmodifizierten Ubuntu-Desktops interessiert er sich besonders dafür, was für ihn als Anwender bei all der Entwicklung relevant ist.
|
|
Diesen Artikel kommentieren
Zum Index
von Mathias Menzer Basis aller Distributionen ist der Linux-Kernel, der
fortwährend weiterentwickelt wird. Welche Geräte in einem halben
Jahr unterstützt werden und welche Funktionen neu hinzukommen,
erfährt man, wenn man den aktuellen Entwickler-Kernel im Auge
behält.
Das Fenster für die Aufnahme von Neuerungen in den Linux Kernel 2.6.39 wurde bereits Ende März mit Erscheinen der ersten Vorabversion [1] geschlossen. Ein alter Bekannter hat uns verlassen: Nachdem der Big Kernel Lock zuletzt nur noch wenigen Treibern vorbehalten und in der Standardkonfiguration abgeschaltet war, verschwindet er mit den Worten „Total BKL removal, finally“ („vollständiges Entfernen des BKL, endlich“; Betreff der E-Mail an die Linux Kernel Mailing List [2]) nun endgültig aus dem Kernel. Damit geht ein fast drei Jahre dauerndes Projekt zu Ende, das Ingo Molnar im Mai 2008 gestartet hatte [3]. Das Ergebnis ist ein Kernel, dessen Bestandteile nun auf Mehrprozessorsystemen besser skalieren als dies bislang der Fall war.
Weiterhin wurde das „Block Device Plugging“ umgestellt, sodass dieses nun auf Threads bezogen ausgeführt wird, nicht wie zuletzt gerätebezogen, wodurch sich Aufrufe effizienter nutzen lassen. Als angenehmer Nebeneffekt wurde der Quellcode dabei aufgeräumt. Plugging und Unplugging bezeichnen das Deaktivieren bzw. Aktivieren des Treibers eines Block-orientierten Gerätes beziehungsweise seiner zugehörigen
Warteschlange. 2.6.39-rc2 [4] wurde von Torvalds selbst als „ungewöhnlich ruhig“ bezeichnet, konnte aber dennoch einen
neuen Treiber für LGs USB-LTE-Modem VL600 wie auch noch Neuerungen am Wacom-Treiber, der Zwei-Finger-Gesten an Multitouch-Tablets ermöglichen soll, vorweisen. Die dritte Vorabversion [5] brachte auf den ersten Blick zwar große Änderungen, diese waren jedoch auf eine automatisierte Rechtschreibkorrektur hauptsächlich der Dokumentation und der Kommentare im Kernel-Code zurückzuführen. In über 2400 Dateien wurden Fehler wie zum Beispiel „Maintainence“ statt „Maintenance“ behoben, was damit über 90 % der Dateien betraf. Die Änderungen am Block Layer Plugging sorgten auch für verschiedene Probleme, die mit dem -rc4 [6] teilweise behoben werden konnten. Ein verbliebener Effekt, der einen stetigen Strom von Meldungen über einen – imaginären – Wechsel der CD-ROM erzeugte, wurde mit dem -rc5 [7] beseitigt. Darin enthalten waren dann ebenfalls neue Geräte-IDs für Intels kommende Chipsatz-Generation „Panther Point“, die erstmals USB 3.0 ohne Zusatzchip unterstützen werden.
Kurz erläutert: „Big Kernel Lock (BKL)“
Der Big Kernel Lock ist ein Mechanismus, mit dem verhindert wird, dass von mehreren Prozessoren oder Kernen der gleiche Kernel-Code gleichzeitig ausgeführt wird. Dieser Sperr-Mechanismus wurde beim Übergang zu Linux 2.2 1996 eingeführt, um Mehrprozessor-Systeme effektiver nutzen zu können. Er war von Anfang an als zeitweilige Lösung gedacht, bis bessere Mechanismen ein feineres Locking erlauben würden, da der BKL nicht nur Teile, sondern gleich den ganzen Kernel sperrt. Mittlerweile stehen Mechanismen zur Verfügung, die nur kleine Teile des Kernel sperren, wodurch die anderen, nicht gesperrten Bereiche weiterhin zugriffsbereit bleiben und eine wesentlich bessere Nutzung mehrerer vorhandener Prozessoren erreicht wird.
|
Links
[1] http://lkml.org/lkml/2011/3/29/351
[2] http://lkml.org/lkml/2011/3/16/420
[3] http://lkml.org/lkml/2008/5/14/324
[4] http://lkml.org/lkml/2011/3/29/351
[5] http://lkml.org/lkml/2011/4/11/378
[6] http://lkml.org/lkml/2011/4/19/6
[7] http://lkml.org/lkml/2011/4/27/8
Autoreninformation |
Mathias Menzer (Webseite)
hält einen Blick auf die Entwicklung des Linux-Kernels. Dafür erfährt er frühzeitig Details über neue Treiber und interessante Funktionen.
|
|
Diesen Artikel kommentieren
Zum Index
von Daniel Nögel
Im vorherigen Teil wurde eine kleine Musikdatenbank implementiert (siehe
freiesMagazin 03/2011 [1]).
Diese ist nun in der Lage, Verzeichnisse nach Musikdateien zu
durchforsten und diese in eine SQLite-Datenbank abzulegen. Außerdem
kann diese Datenbank natürlich durchsucht werden. In diesem Teil
werden nun Iteratoren behandelt – und damit eine Technik, die zu den
zentralen Konzepten von Python gezählt werden kann.
Nachtrag
Im letzten Teil wurde gefragt, wie die Shuffle-Methode unter
Zuhilfenahme von SQL zu verbessern sei. Dazu ist die Klasse
DatabaseConnector schlicht um diese Methode zu erweitern:
def shuffle(self, num):
sql = "SELECT * FROM mp3s ORDER BY RANDOM() LIMIT {0}".format(num)
with Cursor(self.connection) as cursor:
return cursor.execute(sql).fetchall()
Mit der Anweisung ORDER BY RANDOM() werden die Einträge in der
Tabelle mp3s in zufälliger Reihenfolge geordnet. Die Anweisung
LIMIT {ZAHL} sorgt dafür, dass nur eine gegebene Anzahl von
Einträgen ausgelesen wird.
Anschließend muss noch der Aufruf der Zufallsroutine im Skript
umgebogen werden. Dazu wird der Teil
songs = database.get_all_songs()
shuffle(songs)
songs = songs[:options.shuffle
durch diese Zeile ersetzt:
songs = database.shuffle(options.shuffle)
Eine weitere Anmerkung im vorherigen Teil zielte auf den
Generator-Ausdruck in der Funktion generate_simple_playlist():
u"\n".join(hit["path"] for hit in songs)
Es wurde bereits angemerkt, dass es sich hierbei um eine sehr
effiziente Alternative zu folgendem Code handelt:
paths = []
for hit in songs:
paths.append(hit["song"])
return u"\n".join(paths)
Um aber genau zu klären, was es mit Generator-Ausdrücken auf sich
hat, sollen in diesem Teil zunächst „klassische“ Iteratoren
vorgestellt werden. Im nächsten Teil kommen dann Iterator- und
Generator-Ausdrücke zur Sprache.
Iteratoren
Schon in den vorherigen Teilen dieser Einführung wurde mehrfach das
Verb „iterieren“ verwendet. Mit Hilfe der for-Schleife wurde
beispielsweise über eine Liste „iteriert“. Wie bereits zuvor
erörtert wurde, werden beim Iterieren letztlich bestimmte
Datenstrukturen schrittweise durchlaufen. Es wird beispielsweise
nacheinander auf die Elemente einer Liste zugegriffen. Iteratoren in
Python sind letztlich nichts anderes als ein einheitlicher Standard,
mit dem Objekte um diese Funktionalität erweitert werden können.
class TestIterator(object):
def __iter__(self):
self.current = 1
return self
def next(self):
self.current += 1
return self.current
for i in TestIterator():
print i
Die beiden Methoden __iter__() und next() gehören zu diesem
Iterator-Standard (allgemein spricht man vom „Iterator-Protokoll“).
Die Methoden lassen sich wie folgt erklären.
In der for-Schleife wird zunächst eine Instanz von TestIterator
erzeugt. Beim Versuch über ein Objekt zu iterieren, wird nun
zunächst die __iter__()-Methode des gegebenen Objektes aufgerufen.
Hat das Objekt keine solche Methode, wird beim Versuch über das
Objekt zu iterieren ein Fehler ausgegeben:
>>> for i in 4:
... print i
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
TypeError: 'int' object is not iterable
Diese Methode __iter__() leitet die Iteration also letztlich ein.
Ihre Aufgabe ist es, ein Objekt zurückzugeben, über das iteriert
werden soll. Das könnte beispielsweise eine Liste sein. Da hier ein
eigenständiger Iterator umgesetzt werden soll, gibt __iter__() mit
self schlicht eine Referenz auf die aktuelle TestIterator-Instanz
zurück. Nun beginnt das eigentliche Iterieren: Die for-Schleife
ruft für jeden Schleifendurchgang die next()-Methode des von
__iter__() zurückgegebenen Objektes auf – in diesem Fall also die
next()-Methode von TestIterator. Der Rückgabewert von next() wird in
diesem Beispiel jeweils an den Namen i gebunden und steht damit im
Schleifenrumpf zur Verfügung.
Achtung: Es ist die Aufgabe des Iterators, bei jedem Aufruf von
next() den internen Zähler (hier: self.current) zu erhöhen.
Beim Ausführen des obigen Beispiels wird schnell deutlich, dass
TestIterator() in Einerschritten hochzählt. Die einzige Möglichkeit,
das Skript zu unterbrechen, ist ein beherzter Griff zu „Strg“ + „C“. Wie
lassen sich nun Abbruchbedingungen implementieren?
Es gibt zwei Möglichkeiten, dieses Problem zu lösen. Zum einen
könnte in der Schleife selbst eine Abbruchbedingung formuliert werden:
for i in TestIterator():
print i
if i >= 1000:
break
Schon bricht die Schleife ab, sobald i >= 1000 ist.
Zum anderen aber kann das Iterator-Objekt auch selbst anzeigen, dass
die Iteration beendet ist. Dies ist beispielsweise bei Listen
sinnvoll. Wenn eine Liste keine weiteren Elemente mehr enthält, muss
der for-Schleife irgendwie angezeigt werden, dass die Iteration
beendet ist. Dazu gibt es die StopIteration-Exception:
class TestIterator(object):
def __iter__(self):
self.current = 1
return self
def next(self):
if self.current >= 1000:
raise StopIteration
self.current += 1
return self.current
for i in TestIterator():
print i
Hier wurde die Methode next() nun so erweitert, dass die Exception
StopIteration geworfen wird, sobald der interne Zähler
(self.current) einen Wert größer oder gleich 1000 annimmt. Zum
Auslösen dieses „Fehlers“ wird das Schlüsselword raise eingesetzt.
Keine Sorge: Wenngleich hier von Fehler oder Exception gesprochen
wird, dient StopIteration lediglich dazu, das Ende der Iteration
auszulösen.
Kurzes Zwischenfazit
Bisher wurden drei wichtige Elemente des Iterator-Protokolls
vorgestellt: Die Methode __iter__() wird zu Beginn der Iteration
ausgeführt und muss ein iterierbares Objekt zurückgeben. Dieses
iterierbare Objekt muss wiederum eine Methode next()
implementieren. Diese Methode wird bei jedem Schleifendurchlauf
ausgeführt, ihr Rückgabewert ist der aktuelle Wert des Iterators.
Schließlich wurde die Exception StopIteration vorgestellt. Sie
wird geworfen, wenn der Iterator anzeigen soll, dass keine weiteren
Werte zur Verfügung stehen. Die for-Schleife, mit der über den
Iterator iteriert wird, endet in diesem Fall.
Viele Wege führen nach Rom
Neben Iteratoren, die mit __iter__() und next() arbeiten, gibt
es noch eine zweite Möglichkeit, Iteratoren zu erstellen. Für diesen zweiten Fall
wird
lediglich die Methode __getitem__() benötigt. Diese Methode kommt
für gewöhnlich bei der Nutzung des Listen-Operators zum Einsatz.
>>> numbers = [1, 2, 3]
>>> numbers[0]
1
Der Ausdruck numbers[0] macht dabei nichts anderes, als die
Methode __getitem__() der bezeichneten Liste aufzurufen:
>>> numbers.__getitem__(0)
1
Es wird auch deutlich, dass __getitem__() einen Parameter kennt,
der den jeweiligen Listenindex (hier: 0) bezeichnet. Python ist nun
in der Lage, auch Objekte, die nur die Methode __getitem__()
implementieren, wie Iteratoren zu behandeln. Ein Beispiel:
class AnotherIterator(object):
def __getitem__(self, item):
if item > 1000:
raise IndexError
return item
for i in AnotherIterator():
print i
Im Unterschied zur __iter__()/next()-Variante muss der Iterator aber
hier nicht unbedingt einen internen Zähler mitführen: Bei jedem
Schleifendurchlauf wird nämlich der Methode __getitem__() ein
Indexwert (hier: item) übergeben, der letztlich nichts anderes als
die Nummer des jeweiligen Schleifendurchlaufs repräsentiert.
Es gibt noch einen weiteren Unterschied: Statt einer
StopIteration-Exception, wirft der __getitem__()-Generator einen
IndexError. Das hängt damit zusammen, dass auch Listen einen
IndexError werfen, wenn über __getitem__() ein Index ausgelesen
werden soll, der größer ist, als die Zahl der Einträge der Liste.
Beispiel
Bereits in einem der ersten Teile dieser Einführung
(siehe freiesMagazin 10/2010 [2])
wurde die
Funktion range() besprochen. In Python 2.x wird damit eine Liste
im angegebenen Wertebereich erstellt. Ab Python 3.x erzeugt die
Funktion range() keine Liste mehr, sondern einen Iterator. Zwar lässt
sich über beide Objekte gleichermaßen iterieren, die
Iterator-Variante hat aber den Vorteil, dass keine „Wegwerf-Liste“
erzeugt wird, über welche dann doch nur ein Mal iteriert wird.
Weiterhin ist der Generator speichereffizenter: Während in Python
2.x range(0, 1000) zunächst eine Liste mit 1000 Integer-Werten
erstellen muss, die ca. 16.000 Byte Speicher benötigt, belegt der
durch range(0, 1000) in Python 3.x erzeugte Iterator gerade einmal
20 Bytes im Speicher (Angaben jeweils für ein 32-Bit-Python).
Im Folgenden wird ein solcher range()-Iterator auch für Python 2.x
erstellt. Dabei kommen die beiden oben erörterten Varianten zum
Einsatz:
class RangeIterator(object):
def __init__(self, start, step, stop=None):
self.start = start-step
self.step = step
self.stop = stop
def __iter__(self):
self.current = self.start
return self
def next(self):
self.current += self.step
if self.stop and self.current >= self.stop:
raise StopIteration
return self.current
Die Syntax dieses Iterators unterscheidet sich etwas von der Syntax
der range()-Funktion. Das soll an dieser Stelle aber nicht weiter
stören. Ein Aufruf könnte wie folgt aussehen:
for i in RangeIterator(0, 2, 10):
print i
Mit diesem Aufruf werden also von 0 beginnend alle Zahlen bis 10 in
Zweierschritten ausgegeben. Würde kein Parameter für stop
angegeben, würde der Iterator beliebig viele Zahlen in
Zweierschritten ausgeben. Wesentlich zum Verständnis sind – wie
nicht anders zu erwarten – die Methoden __iter__() und next().
Dadurch, dass erst in __iter__() der Wert von self.current auf den
Anfangswert gesetzt wird, ist jede Instanz des Iterators
letztlich wiederverwertbar: Bei einem zweiten Einsatz in einer
anderen Schleife würde wieder zunächst die Methode __iter__()
aufgerufen werden, sodass der gewünschte Anfangswert erneut gesetzt
würde. Bei jedem einzelnen Schleifendurchlauf wird dann die Methode
next() aufgerufen. Hier wird zunächst der aktuelle Wert um
self.step erhöht und dann überprüft, ob ein Maximalwert
self.stop gesetzt und erreicht wurde. In diesem Fall wird die
Exception StopIteration geworfen. Andernfalls wird der aktuelle
Wert mittels return zurückgegeben.
Die gleiche Funktionalität wird nun mit einem Iterator mit
__getitem__()-Methode implementiert:
class RangeIterator2(object):
def __init__(self, start, step, stop=None):
self.start = start
self.step = step
self.stop = stop
def __getitem__(self, num):
cur_value = self.step * num + self.start
if self.stop and cur_value >= self.stop:
raise IndexError
return cur_value
Der Aufruf mit
for i in RangeIterator2(0, 2, 10):
print i
führt zum gleichen Ergebnis wie oben. Allerdings wirkt der Iterator
etwas kompakter. Weil der jeweilige Schleifendurchlauf beim Aufruf
von __getitem__() als Parameter num übergeben wird, kann der jeweils
gewünschte Wert „aus dem Stand“ berechnet werden, es ist also kein
Klassenattribut wie self.current nötig, das den Wert
zwischenspeichert. Diese Variante hat noch einen anderen
interessanten Vorteil gegenüber der ersten Variante des Iterators, denn
es lassen sich gezielt bestimmte „Positionen“ im Iterator ansprechen:
>>> print RangeIterator2(0, 2, 999)[55]
110
Das macht diese Form eines Iterators besonders interessant für
Anwendungsfälle, in denen Berechnungen für bestimmte Indizes nicht
sukzessiv aufeinander aufbauen, sondern jeweils eigenständig
erfolgen können.
Fazit
Vorgestellt wurden zwei Varianten, einen eigenen Iterator
zu implementieren. Tatsächlich handelt es sich aber hierbei in
erster Linie um die Möglichkeit, ein eigenes Objekt um diese
Funktionalität zu erweitern. Wer also beispielsweise eine
Welt-Klasse hat, möchte diese eventuell um die Möglichkeit
erweitern, über die Welt zu iterieren und dabei alle Länder
auszugeben.
Für viele Anwendungsfälle ist das Erstellen von Iteratorklassen aber
sehr umständlich und letztlich auch überflüssig: Mit Iterator- und
Generator-Ausdrücken sowie mit Generator-Funktionen lassen sich in
Python sehr schnell und einfach Iteratoren implementieren. Der
Betrachtung dieser Techniken widmet sich der folgende achte Teil
dieser Reihe.
Links
[1] http://www.freiesmagazin.de/freiesMagazin-2011-03
[2] http://www.freiesmagazin.de/freiesMagazin-2010-10
Autoreninformation |
Daniel Nögel (Webseite)
beschäftigt sich seit drei Jahren mit Python. Ihn überzeugt
besonders die intuitive Syntax und die Vielzahl der unterstützten
Bibliotheken, die Python mitbringt. |
|
Diesen Artikel kommentieren
Zum Index
von Stefan Bradl
Viele Programmierer haben Probleme mit der Programmierung von
Nebenläufigkeit [1] [2].
Aufgrund der aktuellen Entwicklung der Hardware ist dies ein großer Nachteil. Durch die
Nutzung der Programmiersprache Scala, welche Nebenläufigkeit mittels des
Actor-Modells auf einem sehr hohen Abstraktionsniveau unterstützt, kann
dieses Problem in vielen Fällen behoben werden. Dadurch können Programme
geschrieben werden, welche gut skalieren [3]
und somit die vorhandene Rechenleistung besser ausnutzen. Eine gute Einführung
in die Programmiersprache bietet das, von O'Reilly per HTML zur Verfügung gestellte,
Buch „Programming Scala“ [4].
Außerdem bietet die Webseite des Scala-Projekts viele weitere
Informationen [5].
Das Actor-Modell
Die meisten Programmierer verbinden nebenläufige Programme mit
Threads [6], gemeinsam genutztem
Speicher und vor allem mit viel Arbeit. Dazu gehören die Verwendung von
Mutexen [7],
Semaphoren [8], kritischen
Abschnitten [9] und vielen
weiteren. Auf diesem niedrigen Abstraktionsniveau ist die Programmierung nebenläufiger
Programme tatsächlich ein sehr aufwändiges Unterfangen. In den meisten
Anwendungen ist diese Arbeit jedoch nicht nötig, wenn man sich des Actor-Modells
bedient.
Das Grundprinzip, welches beim Actor-Modell angewendet wird, ist die Eliminierung
gemeinsam genutzten Speichers. Dieser ist die Hauptursache der meisten Probleme,
welche Programmierer mit Nebenläufigkeit in Verbindung bringen.
Wenn zwei Programmteile allerdings auf die selben Daten zugreifen wollen,
wie kann man dann diesen Zugriff ohne die Verwendung eines Mutex
bewerkstelligen? Dazu stelle man sich eine Anwendung für eine Bank vor. Um
Fehler innerhalb der Bankkonten zu vermeiden, muss sichergestellt werden,
dass nur ein einziger Vorgang zu einer bestimmten Zeit ausgeführt wird. Gibt
es also zwei Kunden, welche jeweils eine Überweisung vornehmen, so sorgt die
Implementation des Actor-Modells dafür, dass die Transaktionen nacheinander
durchgeführt werden. Wenn beide Kunden auf das Konto des jeweils anderen
diese Überweisung vornehmen, so kann es vorkommen, dass die Abbuchung bei
dem ersten Kunden zu demselben Zeitpunkt stattfindet wie die Gutschrift.
Dadurch kann der Kontostand fehlerhaft sein.
Nun stelle man sich vor, dass die zwei Kunden nicht direkt auf ihre Konten
zugreifen, sondern der Bank mitteilen, was sie tun wollen. Der erste Kunde
sendet also eine Nachricht an die Bank, dass er einen bestimmten Betrag von
seinem Konto auf das Konto des zweiten Kunden überweisen möchte. Der zweite
Kunde verfährt analog. Die zwei Nachrichten kommen nun im Briefkasten der
Bank an. Dort werden sie von einem Mitarbeiter der Reihe nach bearbeitet.
Die Vorgänge werden also nacheinander ausgeführt, wodurch der oben
besprochene Fehler nicht auftreten kann.
Genau diesen Ansatz des Nachrichtenaustauschs verfolgt das Actor-Modell. Die
zwei Kunden und die Bank werden als die Akteure bezeichnet. Jeder dieser
Akteure besitzt seinen eigenen Briefkasten. Die Nachrichten, die sich die
Akteure zusenden, werden im Briefkasten des jeweiligen Empfängers abgelegt.
Actors in Scala
In der Programmiersprache Scala ist das Actor-Modell bereits integriert. Man
muss lediglich die Akteure und das Senden bzw. Empfangen der
Nachrichten implementieren. Um einen Akteur zu generieren, wird zuerst eine Klasse erstellt,
welche von der Klasse Actor abgeleitet wird. Um diese Basisklasse zu nutzen,
werden zusätzlich noch die zwei Pakete scala.actors.Actor und
scala.actors.Actor._ importiert. Die eigentliche Arbeit erledigen die
Akteure in der Methode act(). In den meisten Anwendungsfällen besteht diese
Methode aus einer Schleife, in der die eingehenden Nachrichten abgearbeitet
werden. Als Abkürzung für while(true) kann loop verwendet werden. Um die
einzelnen eingehenden Nachrichten zu unterscheiden, wird das sehr mächtige
Sprachmittel der Mustererkennung (Pattern-Matching) verwendet. Das
Grundgerüst könnte also wie folgt aussehen:
import scala.actors.Actor
import scala.actors.Actor._
object Bank extends Actor {
betrag: Int = 0
def act() {
loop {
react {
}
}
}
}
Listing: actor_basic.scala
Um Nachrichten zu definieren, gibt es in Scala verschiedene Möglichkeiten.
Der Einfachheit halber
werden hier die sogenannte Case-Klassen verwendet.
Für die
Beispielanwendung werden die Nachrichten Einzahlen und Abheben verwendet.
case class Einzahlen(betrag: Int)
case class Abheben(betrag: Int)
Damit die Bank auf diese Nachrichten reagieren kann, muss die Methode act
angepasst werden:
react {
case e: Einzahlen => {
this.betrag += e.betrag
}
case a: Abheben => {
this.betrag -= a.betrag
}
}
Der gesamte Quelltext des Akteurs sowie ein Beispiel zu dessen Verwendung
ist im Folgenden zu sehen. Außer dem Einzahlen und Abheben werden an dieser
Stelle auch Nachrichten zum Abfragen des Kontostandes und zum Beenden
definiert.
import scala.actors.Actor
import scala.actors.Actor._
case class Einzahlen(betrag: Int)
case class Abheben(betrag: Int)
case object Kontostand
case object Stopp
object Bank extends Actor {
var betrag = 0
def act() {
loop {
receive {
case e: Einzahlen => {
this.betrag += e.betrag
}
case a: Abheben => {
this.betrag -= a.betrag
}
case Kontostand => {
reply(this.betrag)
}
case Stopp => exit()
}
}
}
}
Listing: Bank.scala
object Demo {
def main(args: Array[String]) {
Bank.start
println("Kontostand: " + (Bank !? Kontostand))
Bank ! Einzahlen(400)
println("Kontostand: " + (Bank !? Kontostand))
Bank ! Einzahlen(300)
Bank ! Abheben(200)
println("Kontostand: " + (Bank !? Kontostand))
Bank ! Stopp
}
}
Listing: Demo.scala
Durch die Verwendung von Case-Klassen wird automatisch einiger Quelltext
generiert, welcher es erlaubt, auf die Variable betrag zuzugreifen. Bevor
man einem Akteur eine Nachricht senden kann, muss dessen
Nachrichtenverarbeitung mittels der Methode start angestoßen werden. Für das
eigentliche Senden von Nachrichten gibt es mehrere Methoden. Im Beispiel
werden die Methoden ! und !? verwendet. Um eine Nachricht zu senden und
diese asynchron zu bearbeiten, wird ! verwendet. Erwartet man auf eine
Nachricht eine Antwort – wie bei der Abfrage des Kontostandes – so wird !?
benötigt. Hierbei wird eine Nachricht gesendet und auf das Ergebnis der
Abarbeitung gewartet. Das Ergebnis wird mit der Methode reply von der Bank
zurückgesendet. Es gibt noch weitere Möglichkeiten zum Senden von
Nachrichten, welche in der
API-Dokumentation [10]
nachgeschlagen werden können.
Das Beispiel zeigt auf einfache Weise, wie nebenläufig programmiert werden
kann, ohne sich darüber direkt Gedanken machen zu müssen. Natürlich bietet
das Beispiel nur einen kleinen Einblick in die Verwendung von Akteuren. Für
eine echte Anwendung würde der Quelltext aber sehr ähnlich aussehen. Man
könnte zum Beispiel Scalas RemoteActors verwenden. Mit diesen können
Akteure über ein Netzwerk miteinander Nachrichten austauschen. Auf einem
Server würde dann der Akteur für Bank laufen. Die Konteninhaber könnten dann
mit diesem Akteur kommunizieren. Selbst wenn mehrere Nachrichten zum selben
Zeitpunkt abgeschickt werden kommt es nicht zu Problemen. Der einzige
Speicherbereich, welcher von mehreren Threads gleichzeitig genutzt wird, ist
die Nachrichtenbox. Da diese durch das Actor-Modell verwaltet wird, wird dem
Programmierer viel Arbeit abgenommen. Man kann sich somit um das Wesentliche
kümmern.
Parallelisierung von Algorithmen
Mit den bisherigen Sprachmitteln ist es nur begrenzt möglich, Algorithmen zu
parallelisieren. Ein einfacher und beliebter Algorithmus für
Demonstrationszwecke ist die Berechnung der
Fibonaccizahlen [11]. In Scala wird
dieser wie folgt implementiert:
def fib(n: Int): Int = {
if ( n <= 0 ) 0
else if ( n == 1 ) 1
else fib(n - 1) + fib(n - 2)
}
Um diesen Algorithmus nebenläufig zu implementieren, muss man zuerst nach
Stellen im
Quelltext suchen, welche unabhängig voneinander abgearbeitet
werden können. Da der Algorithmus sehr übersichtlich ist, fällt die Suche
eher kurz aus. Die Berechnung der beiden Vorgänger ist ein guter Kandidat
für eine nebenläufige Abarbeitung.
Konkret bedeutet das, dass zwei Akteure erstellt werden müssen, von denen
jeder einen Vorgänger berechnet und das Ergebnis zurücksendet.
Verwendet man
dafür die Methode !?, ergibt sich ein Problem: Sendet man dem Akteur eine
Nachricht, so wird diese sofort behandelt und auf das Ergebnis gewartet. Das
heißt der zweite Vorgänger könnte nicht parallel zum ersten berechnet
werden. Für solche Fälle gibt es das Sprachmittel Future. Mit diesen ist
es möglich, die Antwort auf eine Nachricht erst zu einem späteren Zeitpunkt
abzuwarten. Um eine Nachricht an einen Akteur zu senden und ein
Future-Objekt zurückzuerhalten verwendet man die Methode !!.
Um nun die Berechnung der Fibonaccizahlen nebenläufig zu implementieren,
erstellt man zuerst eine Klasse namens Arbeiter. Diese wird von der Klasse
Actor abgeleitet. Da der Arbeiter eine bestimmte Fibonaccizahl berechnen
soll, muss er auf Nachrichten vom Typ Int reagieren. Um die Nachricht zu
bearbeiten, werden zuerst zwei neue Arbeiter benötigt. Diesen wird mittels
der Methode !! jeweils der zu berechnende Vorgänger zugesendet. Durch die
Verwendung von Futures kann man zu einem späteren Zeitpunkt auf die
Ergebnisse warten – nämlich nachdem beide Arbeiter ihre Nachrichten erhalten
haben. Die Ergebnisse werden dann einfach addiert und zurückgesendet.
class Arbeiter extends Actor {
def act() {
loop {
react {
case n: Int => {
if(n < 2) {
reply(fib.fib(n))
} else {
val arbeiter1 = new Arbeiter
val arbeiter2 = new Arbeiter
arbeiter1.start
arbeiter2.start
val future1 = arbeiter1 !! (n-1)
val future2 = arbeiter2 !! (n-2)
reply(future1().asInstanceOf[Int]
+ future2().asInstanceOf[Int])
}
exit()
}
}
}
}
}
Listing: Arbeiter.scala
Verwendet wird die Klasse, indem eine Instanz erzeugt wird. Anschließend
wird mit !? die zu berechnende Zahl an den Arbeiter gesendet und das
Ergebnis kann ausgegeben werden:
def main(args: Array[String]) {
val arbeiter = new Arbeiter
arbeiter.start
val ergebnis = (arbeiter !? args(0).toInt).asInstanceOf[Int]
println(ergebnis)
}
Fazit
Das Actor-Modell bietet eine sehr gute Möglichkeit zur Programmierung
nebenläufiger Programme. Die Abstraktion geht dabei sogar soweit, dass der
Programmierer nicht einmal mehr wissen muss, dass er etwas nebenläufig
implementiert. Vielmehr bildet er nur die reale Welt nach, indem er Akteure
und deren Kommunikation modelliert. Dazu kommt, dass Quelltexte in Scala zum
Teil deutlich kürzer und aussagekräftiger sind als in Java. Außerdem können
alle Java-APIs auch in Scala verwendet werden.
Links
[1] http://de.wikipedia.org/wiki/Nebenläufigkeit
[2] http://de.wikipedia.org/wiki/Parallele_Programmierung
[3] http://de.wikipedia.org/wiki/Skalierbarkeit
[4] http://programming-scala.labs.oreilly.com/index.html
[5] http://www.scala-lang.org/
[6] http://de.wikipedia.org/wiki/Thread\_(Informatik)
[7] http://de.wikipedia.org/wiki/Mutex
[8] http://de.wikipedia.org/wiki/Semaphor\_(Informatik)
[9] http://de.wikipedia.org/wiki/Kritischer\_Abschnitt
[10] http://www.scala-lang.org/api/current/index.html
[11] http://de.wikipedia.org/wiki/Fibonacci-Folge
Autoreninformation |
Stefan Bradl
ist Informatikstudent an der Hochschule
Zittau/Görlitz. Während seines Praktikums hat er sich
mit der Programmiersprache Scala vertraut gemacht und seine Bachelorarbeit
zum Thema „Parallelisierung funktionaler Programme“ geschrieben.
|
|
Diesen Artikel kommentieren
Zum Index
von Dominik Wagenführ In Zeiten von Breitbandanschlüssen mit über 16 MBit machen sich nur
noch wenige Menschen Gedanken über die Größe von Inhalten, die sie
ins Netz stellen bzw. per E-Mail verschicken. Leider wird dabei oft
vergessen, dass nicht jeder mit einem DSL-Anschluss gesegnet ist.
Vor allem in ländlichen Gegenden ist es keine Seltenheit, dass man
auf einen Surfstick angewiesen ist, der dann mit seinen 64 kbit/s an
die gute alte ISDN-Zeit erinnert. Der Artikel soll zeigen, wie man
Bilder so optimieren kann, dass diese platzsparender gespeichert
werden können, ohne dabei aber zu viel Qualität zu verlieren.
Vorwort
Zuerst sei gesagt, dass es Optimierungen ohne Qualitätsverlust nur
selten gibt. Zwar gibt es so etwas wie verlustfreie Komprimierung,
aber auch diese hat ihre Grenzen und kann nicht bei jedem Bild gleich
gut wirken.
Für den Artikel wird der Einfachheit halber GIMP als Programm für die Umsetzung der
Optimierungen herangezogen, da es auf den
meisten Systemen leicht installiert werden kann. Die Optimierungen
können aber mit jedem Programm vollzogen werden, das diese
Optimierungstechniken beherrscht.
Rastergrafik vs. Vektorgrafik
Ein kurzes Wort vorab zum Thema
Rastergrafiken [1] und
Vektorgrafiken [2].
Grob gesprochen wird in Rastergrafiken die Bildinformation für jeden
Pixel (Bildpunkt) einzeln gespeichert. Das heißt, bei einem Bild mit
1024 Pixeln Breite und 768 Pixeln Höhe werden in der Rastergrafik
normalerweise 786 432 Informationen darüber gespeichert, wie jeder Punkt
aussieht. Dies kann auf unterschiedliche Art und Weise geschehen,
oft wird der Rot-, Grün- und Blauanteil jedes Punktes gespeichert.
Zu den bekanntesten Rastergrafikformaten gehören Windows-Bitmap
(BMP [3]),
welches zwar ohne Qualitätsverlust, aber auch ohne jegliche
Komprimierung daherkommt, sowie die unten genutzten Bildformate
PNG und JPG.
Bei Vektorgrafiken wird im Gegensatz zu Rastergrafiken gespeichert,
was in einem Bild zu sehen ist. Anstatt jeden Bildpunkt für einen
zu zeichnenden Kreis abzuspeichern, merkt sich das Format also nur,
wo der Kreismittelpunkt im Bild liegt und welchen Radius der Kreis
hat. (Daneben werden natürlich noch andere Daten wie
Linienstärke, Farbe etc. gespeichert.)
Das bekannteste Vektorgrafikformat ist wahrscheinlich SVG (Scalable Vector
Graphics [4]),
was die meisten modernen Browser unterstützen. Einzig der Internet
Explorer 8 unter Windows kann mit dem Format nicht
umgehen [5].
Ein Vorteil von Vektorgrafiken ist, dass diese sich verlustfrei
skalieren lassen. Das heißt, egal ob das Bild bei einer Größe von 100×100
Pixel oder bei 1000×1000 Pixel angezeigt wird, die Elemente sind
immer klar erkennbar.
Der Nachteil von Vektorgrafiken ist aber auch, dass sich nur
einfache Grafikobjekte damit darstellen lassen. Mit „einfach“ ist
dabei nicht zwingend gemeint, dass man nur Linien oder Figuren
darstellen kann (siehe „Bildformat SVG verstehen“, freiesMagazin
12/2010 [6] als
Gegenbeispiel), aber ein freies Malen ist nur schwer möglich. Fotos
von Digitalkameras, die meist aus mehreren Millionen Punkten
bestehen, die sich dabei oft auch noch alle unterscheiden, werden
daher auch immer als Rastergrafik gespeichert.
Aus diesem Grund werden für den Artikel auch nur Rastergrafikformate
betrachtet.
Bildformate
Derzeit gibt es eigentlich nur zwei Bildformate (für Rastergrafiken),
die von den meisten Menschen standardmäßig auf dem Rechner angeschaut
werden können und eine Art der Komprimierung beherrschen. (Es gibt
natürlich noch mehr, aber es wird sich im Artikel auf die zwei
verbreitetsten beschränkt.)
Portable Network Graphics
Auf der einen Seite ist da das bereits erwähnte PNG (Portable Network
Graphics [7]).
Dies ist ein Grafikformat für Rastergrafiken, welches die Bilddaten
verlustfrei komprimieren kann. Dabei hat PNG seine Stärke vor allem
bei Bildern, die wenige Farben haben und bei denen viele Flächen
einfarbig sind – kurz gesprochen kann PNG vor allem bei Screenshots
von Desktop-Anwendungen punkten. Dies liegt an der verwendeten
Kompromierungstechnik [8],
bei der gleichfarbige „aufeinanderfolgende“ Punkte zusammen
gespeichert werden.
Ein weiterer Vorteil von PNG ist die Transparenzeigenschaft. Das
heißt, man kann Objekte mit einem transparenten Hintergrund versehen
und das Bild dann beispielweise in einer Webseite einfügen, sodass
es sich nahtlos in die Umgebung einpasst. Auf diesen Aspekt wird
hier aber nicht eingegangen. Es werden nur Bilder ohne Transparenz
betrachtet.
JPEG File Interchange Format
JPG-Bilder (auch JPEG [9])
sind vor allem für Fotos mit vielen unterschiedlichen Farben
geeignet. Zusätzlich lässt das Format eine sehr starke Komprimierung
der Bilder zu, die aber mit einem Verlust der Qualität einhergeht.
Die Frage ist: Wieso sollte man überhaupt Qualitätseinbußen in Kauf
nehmen? – Weil man es oft nicht sieht. Bei einem Qualitätsgrad ≥ 90
(wobei 100 keine Komprimierung bedeutet) fällt die Komprimierung bei
Fotos nur selten auf. Selbst bei einem noch geringerem Qualitätsgrad
fällt vielen Betrachtern kein Unterschied zum Original auf – vor
allem dann nicht, wenn sie das Originalbild nicht zum Vergleich
vorliegen haben.
Beispiele, Beispiele und Beispiele
Bevor noch mehr Worte über irgendwelche technischen Details
vergeudet werden, sollen besser Beispiele für sich selbst sprechen.
Die Aussage „Ein Bild sagt mehr als tausend Worte“ ist bei diesem
Artikel wörtlich zu nehmen.
Screenshot der freiesMagazin-Webseite
Zumindest bei freiesMagazin ist die häufigste Anwendung von Bildern
in Form von
Screenshots diverser Anwendungen. Die meisten
Fenster-Themes sind dabei so aufgebaut, dass sie wenige und
einheitliche Farben haben, was sie für eine Speicherung im
PNG-Format prädestiniert.
Als Beispiel wurde die freiesMagazin-Webseite in Firefox geöffnet
und mittels GIMP über „Datei -> Erstellen -> Bildschirmfoto“ ein
Screenshot erstellt. Natürlich könnte man dies auch mittels
„Alt“ + „Druck“ machen und dann das Bild abspeichern. Da der Screenshot aber
sowieso in GIMP weiterverarbeitet werden soll, kann man ihn auch
gleich darüber erstellen.
Als erstes wird das Bild als PNG gespeichert. Dafür geht man auf
„Datei -> Speichern“, wählt im oberen Eingabefeld als Dateiname
beispielsweise webseite.png und klickt dann unten rechts auf
„Speichern“. Es erscheint nun ein spezieller Dialog, über den man
verschiedene Informationen speichern kann.
Für die Dateigröße ist vor allem der Kompressionsgrad wichtig, der
immer auf 9 stehen sollte. Die restlichen Optionen kann man so
eingestellt lassen, wie sie sind. Man sollte nur wissen, dass einzig
die Option „Interlacing (Adam7)“ zu einer relevanten Erhöhung der
Dateigröße führt.
So gespeichert hat das Bild eine Dateigröße von 200,1 KB, was optimiert
werden soll.
Bild skalieren
Im ersten Versuch soll das Bild physisch verkleinert (skaliert)
werden, um Platz zu sparen. Als Beispiel sei angenommen, dass alle
Bilder in eine Galerie eingefügt werden sollen, die nur eine
Einheitsbreite von maximal 800 Bildpunkten zulässt. Verkleinern kann
man das Bild unter „Bild -> Bild skalieren“ und wählt dort als
„Breite“ den Wert 800.
Man merkt, dass das Bild nach der Skalierung etwas verwaschener
wirkt, aber man kann noch alles lesen. Dies speichert man mit den
gleichen Einstellungen wie zuvor als webseite-800px.png ab. Was
jedem jetzt auffallen und für Verwunderung sorgen sollte: Das neue
Bild hat 300,1 KB, obwohl man es verkleinert hat.
Der Grund dafür ist, wie oben geschrieben, dass PNG vor allem
punkten kann, wenn man aufeinanderfolgende Pixel mit gleicher Farbe
hat. Vergleicht man beide Bilder nebeneinander, vor allem bei hoher
Zoomstufe, sieht man (z. B. bei dem Wort „Ansicht“ im Firefox-Menü),
dass die skalierte Version viel mehr Farben enthält. Der Grund ist,
dass bei der Skalierung aus der schwarzen Schrift und dem grauen
Hintergrund an manchen Stellen nur noch Platz für ein Pixel war. An
der Stelle versucht GIMP dann eine Mischung beider Farben zu
erzeugen, was zu dem Mehr an Farben führt.
Bild als JPG
Als zweiter Versuch soll das Bild in Originalgröße als JPG gespeichert werden. Hierzu
geht man auf „Datei -> Speichern unter“ und wählt webseite.jpg als
Dateiname. Nach dem Klick auf „Speichern“ sieht man den
JPG-Optionsdialog. Per Standard sieht man nur die Einstellung für
die „Qualität“. Diese ist aber nicht die einzige, die sich auf die
Qualität und Bildgröße auswirkt. Wenn man auf „Erweiterte Optionen“
klickt, sieht man alle Optionen.
Stellt man die Qualität auf 100 und entfernt den Haken bei
„Optimieren“, erhält man eine Dateigröße von 497,2 KB. Setzt man den
Haken wieder bei „Optimierung“, spart man fast 100 KB. Sehr schön
ist, dass die Dateigröße immer gleich angezeigt wird, soweit der
Haken bei „Vorschau im Bildfenster anzeigen“ angekreuzt ist. Die
Option „Progressiv“ spart noch einmal ein paar Kilobyte, die aber
fast zu vernachlässigen sind. In der Regel kann man die
Einstellungen aber so lassen, wie sie sind.
Von der Option „Glättung“ sollte man aber die Finger lassen. Nicht
nur, dass ein geringer Glättungsgrad die Dateigröße erhöht (bei
Glättung 0,0 hat man noch 399,2 KB, bei einer Glättung
von 0,2 aber
406,9 KB, erst ab einer Glättung von fast 0,5 ist die Dateigröße
wieder so wie beim Originalbild), zusätzlich wird das Bild auch sehr
unscharf.
Als einzigen Regler ist es sinnvoll, an der „Qualität“ drehen. Wenn
man eine ähnliche Dateigröße wie beim PNG oben erzielen will, muss
man die Qualität auf 85 stellen. Hierbei muss man aufpassen: Nach
dem Speichern zeigt GIMP nach wie vor die Originalqualität des
Bildes an. Wer mit dem geänderten Bild weiterarbeiten will, muss
dieses neu öffnen.
Wer gute Augen hat, dem fällt auf, dass das Bild vor allem bei den
Schriften unruhiger und etwas kriselig wirkt. In der Tat sind solche
Artefakte bei JPG-Bildern sehr oft zu finden und charakteristisch
für die Komprimierungstechnik. Wenn man sich beispielsweise die
Wortwolke auf der
rechten Seite genauer anschaut, wirkt die ehemals
graue Fläche hinter den Worten wie ein Mischmasch aus vielen Farben.
Ob man diese Qualität nun als annehmbar empfindet oder nicht, ist
wohl Geschmackssache. Einige Menschen sehen kein Problem darin und
können selbst mit einer noch geringeren Qualität (und dafür noch
mehr Artefakten) leben. In freiesMagazin wird aber immer versucht,
den besten Kompromiss zu finden, wobei mehr Augenmerk auf Qualität
gelegt wird. Als Ergebnis lässt sich festhalten, dass ein PNG für
diesen Screenshot die bessere Wahl ist.
Hinweis: Mit einem skalierten Bild, welches man als JPG
speichert, könnte man dagegen wieder im Vorteil sein. Dabei sollte
man aber nie vergessen, dass eine Skalierung immer die Qualität
negativ beeinflusst, da gezwungenermaßen Bildinformationen wegfallen.
Indiziertes PNG
Zum Schluss soll der Screenshot indiziert werden. Unter Indizierung
versteht man nicht etwa den Verschluss des Bildes vor der
Öffentlichkeit, sondern die Reduzierung der Farben auf eine
bestimmte Farbpalette oder auf eine bestimmte Anzahl von Farben. Den
Dialog zum Indizieren findet man unter „Bild -> Modus -> Indiziert“.
Unter „Farbtabelle“ kann man verschiedene Paletten auswählen. Auch
wenn „Internet-optimierte Palette verwenden“ verlockend klingt,
sieht das Ergebnis nicht gut aus, da zu viele Farben entfernt
werden. Die einfachste und meist auch beste Wahl (für die hier
angebrachten Beispiele) ist der Punkt „Optimale Palette erzeugen“
mit 256 Farben (Standard). Man sollte auf alle
Fälle darauf achten,
dass keine „Farbrasterung“ ausgewählt ist, da dieses ein Rastermuster über farbige Flächen legt.
Wandelt man das Bild nun um, fällt einem vielleicht gar kein
Unterschied auf. Dass aber einer da ist, merkt man, wenn man mittels
der Tastenkombinationen „Strg“ + „Z“ und „Strg“ + „Y“ den Effekt rückgängig
macht und wieder einblendet. So kann man sehr leicht zwischen
Original und indiziertem Bild vergleichen.
Wenn man also genauer hinschaut, fällt auf, dass der ehemals graue
Dialog (Menüleiste, Tabs etc.) einen leicht rötlichen Stich bekommen
hat. Daneben ist das Hintergrundweiß der Seite etwas
gelblich gefärbt. Wenn man auf die Farbpipette im Werkzeugkasten (Taste „O“) und nun auf eine freie, weiße Stelle klickt, kann man
sich mit einem Linksklick auf die Vordergrundfarbe im Werkzeugkasten
überzeugen, dass der Wert von ehemals „255, 255, 255“ („#FFFFFF“) auf „254, 255, 252“ („#FEFFFC“) geändert wurde.
Mit diesen geringen Änderungen kann man aber gut leben. Das
gespeicherte PNG hat dann im Endergebnis nur noch 64,8 KB.
Als Vergleich: Bei einem JPG müsste man die Qualität auf 16
herunterdrehen, was zu deutlich sichtbaren Artefakten führt und
nicht mehr annehmbar ist.
Hinweis: Es ist nicht möglich, ein JPG mit Indizierung zu speichern,
da das Bildformat keine Farbpalette unterstützt. Daher ist man
bei einem indizierten Bild auf PNG angewiesen.
Screenshot eines Spiels
Als zweites Bild soll ein Screenshot des Spieles SpaceChem (siehe
freiesMagazin 04/2011 [10])
herhalten. Im Rohzustand (d. h. als
unverändertes PNG) hat das Bild eine Dateigröße von 908,3 KB, die
es zu optimieren gilt.
Indiziertes PNG
Aus den Erfahrungen des ersten Beispiel versucht man es dieses Mal
zuerst mit einem indizierten PNG. Und in der Tat: Die Indizierung
bringt keinerlei Veränderungen am Aussehen und ist so nur noch 384,4
KB groß.
Bild als JPG
Die Frage ist aber, ob man die Dateigröße noch weiter optimieren
kann. Daher soll das Bild versuchsweise als JPG gespeichert werden.
Bereits
bei einer Qualität von 98, bei der man keinen Unterschied
zum Original mit bloßem Auge sieht, ist das Bild kleiner als das
indizierte PNG.
Testweise kann man die Qualität sogar auf 80 setzen. Was fällt auf?
Sehr wenig offen gestanden. Die roten Deckel der Container wirken
etwas verwaschener und die rote Bahn in der Mitte verliert etwas
Kontrast. Ansonsten ergibt sich aber keinerlei (offensichtliche)
Verschlechterung.
Wenn man näher an die Schrift heranzoomt, sieht man aber dennoch die
gleichen Artefakte wie oben auch. Diese fallen auf einem dunklen
Hintergrund aber grundsätzlich weniger auf als auf einem hellen.
Daher ist die Speicherung als JPG
in einer so geringen Qualität
immer noch akzeptabel.
Ausschlaggebend für das „Scheitern“ der PNG-Optimierung ist die Grafik
der Planetenoberfläche. Sie hat zwar nur wenige Farben, diese wechseln
sich aber von Pixel zu Pixel ab, sodass der Komprimierungsalgorithmus
von PNG nicht gut wirken kann.
Hinweis: Natürlich gibt es aber auch Spiele bzw. Anwendungen, bei denen
ein indiziertes PNG vorne liegt, weil es viele einfarbige Flächen gibt,
die gut komprimiert werden können.
Screenshot vom Desktop
Sehr beliebt sind in verschiedenen Foren Vorstellungsthreads, bei
denen man einen Screenshot seines Desktops zeigen kann (z. B. bei
ubuntuusers.de [11]).
Desktophintergründe haben aber oft eines gemeinsam: Sie sind selten
einfarbig, sondern enthalten Farbverläufe und andere farbintensive
Objekte.
Ein Screenshot des Xfce-Desktops (Ubuntu 10.04 „Lucid Lynx“) soll als
Beispiel für die Optimierung dienen. Das benutzte Hintergrundbild heißt
xfce-in-the-moon.png und zeigt eine Maus (das Xfce-Maskottchen) in
einem Mond, der gerade im Meer versinkt (mit viel Phantasie zumindest).
Ein gespeicherter Screenshot über die „Druck“-Taste hat als PNG eine
Größe von 205,4 KB.
Indiziertes PNG
Zuerst soll das Bild indiziert werden. Selbst wenn man aber das
Maximum von 256 Farben zulässt, fällt der Qualitätsverlust auf – vor
allem, wenn
man über die obige Methode mit „Strg“ + „Z“ und „Strg“ + „Y“
arbeitet.
Der ehemals recht feine Farbverlauf wirkt nun sehr kantig, was bei
der Welle unten im Bild extrem auffällt. Eine Indizierung des Bildes
ist also keine Option.
Bild als JPG
Speichert man das originale Bild als JPG bei maximaler Qualität von
100, ist die Dateigröße mit 177,6 KB bereits kleiner als das PNG. Das
heißt, bei gleicher Qualität ist JPG aufgrund der Farbfülle und
Farbwechsel besser für den Desktop-Screenshot geeignet.
Man kann nun noch mit dem Qualitätsregler spielen und diesen langsam
absenken. Erst ab einer
Qualitätstufe unter 80 fallen leichte
Veränderungen bei den Icons auf. Zu dem Zeitpunkt hat das Bild nur
noch eine Größe von unter 40 KB, was sicherlich mehr als annehmbar
ist.
Foto von Flickr
Zum Schluss soll ein Foto von Flickr als Beispiel für ein normales
Digitalkamerabild herhalten. Es wird dafür das Bild „Nostalgia“ von Joel
Montes de Oca [12]
benutzt, welches unter der Creative-Commons-Lizenz
CC-BY-SA-2.0 [13]
veröffentlicht wurde und einigen Lesern bereits aus dem Artikel
„GIMP-Tutorial: Farben durch Graustufen hervorheben (Colorkey)“ aus
freiesMagazin 03/2011 [14]
bekannt sein könnte. Das Bild liegt im Original als JPG bei einer
Bildgröße von 4576×3051 Pixeln vor. Bei einer Qualität von 100 hat es
damit eine Größe von 7,4 MB.
Natürlich würde man das Bild für eine Verarbeitung
immer mit der
höchstmöglichen Qualität weitergeben. Für eine Veröffentlichung
im Internet oder
in freiesMagazin empfiehlt sich aber vorab eine Skalierung des
Bildes. Wenn man die Bildbreite auf 800 Pixel reduziert, ergibt
sich
eine Dateigröße von 311 KB, was schon wesentlich besser ist.
Das Bild wirkt nach der Skalierung aber etwas weichgezeichnet. Wer
möchte, kann über „Filter -> Verbessern -> Schärfen“
das Bild etwas nachschärfen. Als Faustregel kann man dabei in etwa sagen:
Prozentzahl der Skalierung geteilt durch 3 entspricht dem Schärfegrad. Das heißt, das Bild
wurde von 4576 Pixel Breite auf 800 verkleinert, was einer
Skalierung von 83 % entspricht. Dies durch 3 geteilt, ergibt also
einen Schärfegrad von 28. Das ist natürlich nur ein Richtwert und es
ist immer sinnvoll, sich durch die kleine Vorschau im Schärfendialog
verschiedene Regionen des Bildes anzuschauen, ob Kanten oder Objekte
nicht zu scharf hervorgehoben werden. Nach dem Speichern wächst die
Bildgröße auf 336,1 KB an.
Eine Indizierung des Bildes muss man erst gar nicht versuchen. Traut
man sich doch, wirkt das Ergebnis eher wie ein künstlerischer
Filter, da es bei Fotos durch Licht und Schatten naturgemäß feine
Farbabstufungen gibt, die, wie im obigen Desktop-Screenshot zu sehen
ist, bei einer Indizierung nur noch stufig dargestellt werden. Dies
fällt vor allem bei den Grashalmen im Vordergrund, beim Hals und an
der Hand des Mädchens auf.
Mit welcher Qualität man das Bild nun endgültig speichert, bleibt jedem
selbst überlassen. Im direkten Vergleich fallen auch bei einer Qualität
von 80 leichte Unterschiede zum Originalbild auf.
Fazit
Der Artikel hat anhand einiger Beispiele gezeigt, wie man die
Dateigröße von Bildern mithilfe von GIMP optimieren kann. Dabei kann
aber keine grundsätzliche Anleitung gegeben werden, wann man –
sozusagen ohne nachzudenken – die eine oder andere Optimierungsstrategie
wählen sollte. Die Entscheidung variiert immer von Bild zu Bild, wobei aber
natürlich für jeden Bildtyp zumindest eine Richtlinie genannt wurde.
Im Endeffekt ist immer ausschlaggebend, wie viel Qualitätsverlust
man bei der Reduzierung der Dateigröße in Kauf nimmt. Und dies muss
jeder für sich selbst entscheiden.
Links
[1] https://secure.wikimedia.org/wikipedia/de/wiki/Rastergrafik
[2] https://secure.wikimedia.org/wikipedia/de/wiki/Vektorgrafik
[3] https://secure.wikimedia.org/wikipedia/de/wiki/Windows_Bitmap
[4] https://secure.wikimedia.org/wikipedia/de/wiki/Scalable_Vector_Graphics
[5] https://secure.wikimedia.org/wikipedia/de/wiki/Scalable_Vector_Graphics#SVG-Unterstützung_in_Browsern
[6] http://www.freiesmagazin.de/freiesMagazin-2010-12
[7] https://secure.wikimedia.org/wikipedia/de/wiki/Portable_Network_Graphics
[8] https://secure.wikimedia.org/wikipedia/de/wiki/Portable_Network_Graphics#Komprimierung
[9] https://secure.wikimedia.org/wikipedia/de/wiki/JPG
[10] http://www.freiesmagazin.de/freiesMagazin-2011-04
[11] http://forum.ubuntuusers.de/topic/vorstellungsthread:-mein-ubuntu-desktop/
[12] http://www.flickr.com/photos/joelmontes/4952740989/
[13] http://creativecommons.org/licenses/by-sa/2.0/deed.de
[14] http://www.freiesmagazin.de/freiesMagazin-2011-03
Autoreninformation |
Dominik Wagenführ (Webseite)
ist Chefredakteur von freiesMagazin und übernimmt
ab und zu auch die Arbeit, die Bilder für das Magazin zu optimieren,
damit das fertige PDF nicht die Datenleitungen sprengt.
|
|
Diesen Artikel kommentieren
Zum Index
von Bodo Schmitz
Neben den zumeist kostenpflichtigen Virenscannerlösungen gibt es auch einige
– zumeist linuxbasierte – Angebote, die sich wunderbar dazu eignen,
digitalem Ungeziefer unter Windows zu Leibe zu rücken. Teilweise basieren sie
auf freien Virenscanner-Engines (z. B. clamav) oder sie stellen freie
Varianten ansonsten kostenpflichtiger Lösungen dar.
Es ist vergleichbar zum realen Leben: Die Erkältung erwischt einen immer im falschen
Moment! Genau so fällt die Infektion des Windows-PCs immer genau dann auf,
wenn ein zeitkritischer Job zu erledigen ist. Dem lässt sich neben einer
Gesamtsicherung des Systems mit möglichst mehreren der hier vorgestellten
CDs beikommen.
Das Ganze hat aber noch eine Besonderheit: Inzwischen gibt es Schädlinge,
die erkennen können, ob ein bestimmter Virenscanner installiert ist. Finden
sie einen Scanner, werfen sie diesen kurzerhand aus dem Speicher,
deinstallieren ihn oder manipulieren schlichtweg dessen Scan-Ergebnisse.
Somit kann man sich heutzutage nicht mehr auf die Resultate eines
installierten Virenscanners verlassen und sollte seinen Rechner ergänzend
mit – garantiert nicht manipulierbaren – Live-CDs überprüfen. Selbst wenn man mit Windows arbeiten muss oder will und keine Ahnung von Linux hat, ist der
Einsatz der hier beschriebenen CDs somit sinnvoll, um die Chancen, das
lästige digitale Ungeziefer loszuwerden, beträchtlich zu erhöhen. Vielleicht
weckt das dann darüber hinaus noch die Lust auf eine höhere Dosis Linux ...
Die meisten CDs beinhalten inzwischen das Paket
ntfs-3g [1], welches nahezu perfekten
Schreibzugriff auf NTFS-formatierte Festplatten ermöglicht, sodass eine
Vielzahl gefundener Viren zuverlässig entfernt, oder zumindest umbenannt
bzw. in Quarantäne geschickt werden kann. Da sich Desinfektionsleistung
sowie Scan-Ergebnisse der verschiedenen CDs unterscheiden, sollten unbedingt
mehrere CDs eingesetzt werden. Der Einsatz mehrerer CDs nacheinander verhindert
außerdem, dass sich die verschiedenen Virenscanner in die Quere
kommen.
Nicht alle CDs können große Dateien, Postfächer, Archive oder die
Windows-Auslagerungsdatei scannen. Bei einigen lassen sich entsprechende
Optionen setzen, einige der anderen quittieren den Versuch lediglich mit
einer Fehlermeldung. Dies birgt natürlich ein gewisses Gefahrenpotential
aufgrund möglicherweise nicht erkannter Schädlinge. Daher ist ein
möglichst zahlreicher Einsatz der hier vorgestellten CDs ratsam.
Die Scan-Geschwindigkeit der einzelnen Programme variiert teilweise sehr
stark, sodass für die vollständige Untersuchung des Rechners ein paar
Stunden freigehalten werden sollten. Möglichst sollte der Scan-Vorgang auf
Zeiten gelegt werden, in denen der Rechner nicht dringend benötigt wird.
Die Bedienung der häufig eingedeutschten CDs ist meist selbsterklärend und
graphisch geführt, dennoch sollen hier einige Hinweise zu deren Bedienung
und Besonderheiten folgen. Eine Ausnahme stellt die konsolenbasierte
OpenDiagnostics-Live-CD dar, die mit ein paar (Debian-)Linux-Kenntnissen aber
auch leicht einsetzbar ist.
Bei sämtlichen der hier getesteten CDs funktionieren USB-Tastaturen am
Bootprompt nicht. Somit wird eine PS/2-Tastatur bzw. ein passender Adapter
benötigt, da sonst am Bootprompt keine Optionen gesetzt werden können. Nach
dem Booten des Rechners funktionieren USB-Tastaturen selbstverständlich wie
gewohnt.
Obwohl der aktuelle Bootmanager grub2 inzwischen ISOs booten kann, ließ sich
keine der hier getesteten CDs auf diesem Wege vom USB-Stick starten.
UNetbootin [2] kann laut Herstellerangaben
einige der hier behandelten CDs starten, daher bieten sich weitere
Experimente mit diesem und ähnlichen Programmen oder Skripten an. Kaspersky
bietet ein Windows-Programm zum Download an.
Die Überprüfung verschlüsselter Linux-Partitionen klappt bei keiner der hier
vorgestellten CDs out-of-the-box, ist aber prinzipiell möglich, soweit der
Anwender den Umgang mit cryptsetup [3]
in der Konsole beherrscht und das Paket vorhanden ist oder sich im
Live-Betrieb nachinstallieren lässt. Dies darf auch als Aufruf an die
Hersteller verstanden werden, denn dass das automatische Einhängen
verschlüsselter Partitionen beim Bootvorgang funktionieren kann, beweist
die Finnix-Live-CD [4].
Mit der für Windows geeigneten Variante TrueCrypt [5]
ist bei einigen der hier vorgestellten CDs der Zugriff auf verschlüsselte
Festplatten per Hand möglich, seitdem der Hersteller das Programm so umgebaut
hat, dass die lästige Kernel-Kompilierung nicht mehr nötig ist. Wenn man den
Installer anweist, die Programmdateien auszupacken, statt sie zu installieren,
kann man diese anschließend via USB-Stick über eine root-Shell ins laufende
Live-System kopieren (z. B. per mc) und dann das verschlüsselte Windows-System
händisch einbinden. Gegebenenfalls muss dann noch der Virenscanner neu gestartet werden,
damit er das eingebundene Windows-System erkennt. Da bei manchen Virenscanner-CDs
nur Zugriff über die Konsole besteht und das Hauptprogramm den gesamten Desktop
ausfüllt, empfiehlt es sich, sowohl die GUI- als auch die Konsolenvariante von
TrueCrypt auf dem USB-Stick bereitzuhalten. Grundlagen zur Konsolenvariante
sind im Wiki von ubuntuusers.de nachzulesen [6].
Informativ ist auch die TrueCrypt-eigene Hilfe mittels
$ truecrypt --help
Verschlüsselte Partitionen bzw. Container lassen sich in der Konsole
folgendermaßen einhängen; entsprechende Mount-Punkte müssen eventuell vorher
manuell angelegt werden:
# truecrypt --mount /dev/sda1 /mnt/windows # bzw.
# truecrypt --mount container.tc /mnt/windows
Sämtliche verschlüsselte Datenträger werden über
# truecrypt -d
wieder ausgehängt.
Hinweis: Um bei den Ubuntu-basierten CDs nicht – wie in unzähligen
Quellen angegeben – bei jeder Befehlszeile sudo BEFEHL … regelmäßig das
Benutzerpasswort eintippen zu müssen, wechselt man lieber direkt per sudo -i
in den root-Kontext [7].
Verlassen kann man diesen wieder mit dem Befehl exit und sich für die Dauer der root-Sitzung das sudo sparen.
Achtung: Im BIOS des Rechners muss die richtige Boot-Reihenfolge eingestellt
sein, damit die Virenscanner-CDs starten können. Moderne Rechner können
inzwischen per Tastendruck (meist eine der Funktionstasten) ein manuelles
Boot-Auswahlmenü aufrufen.
Die Reihenfolge der hier vorgestellten CDs ist alphabetisch und stellt keine
Wertung dar. Von Zeit zu Zeit ändern sich die Links der Webseiten, sodass
die Quellen der CDs gegebenenfalls neu gesucht werden müssen.
Neben den hier vorgestellten sieben Live-CDs finden sich im Netz weitere Angebote.
Außerdem liegt der Computerzeitschrift c't [8] alle sechs
Monate die Variante Desinfec't [9] (früher Knoppicillin)
bei, die jeweils mit zwei bis drei
Virenscannern mit zeitlich befristeten
Lizenzschlüsseln (die aber den sechsmonatigen Zeitraum abdecken) ausgestattet
ist; allerdings ohne Download-Möglichkeit der aktuellen ISO-Datei.
Das Übel an der Wurzel packen – Rootkit-Suche über Live-CDs
Für Linux gibt es
zwei Lösungen, um nach diesen perfiden Schädlingen zu suchen. Eine gute
Anleitung zu Einrichtung und Betrieb von chkrootkit und rkhunter findet
sich auf Uçkanleitungen [10]. Packt man die
genannten tar.gz-Archive auf einem USB-Stick aus, lassen sich diese
Programme auch bei den Live-CDs, welche eine root-Shell beinhalten,
einsetzen. Eine detaillierte Beschreibung zu Installation und Einsatz dieser
Werkzeuge passen leider nicht in den Rahmen dieses Artikels.
Avira AntiVir Rescue CD
Die Avira AntiVir Rescue CD (ISO-Image [11])
bootet nach ca. 20 Sekunden selbstständig oder durch Druck auf die
Eingabetaste. Sie bindet automatisch die gefundenen Partitionen ein und
startet die graphische Oberfläche mitsamt dem Virenscanner. Sie beinhaltet
ntfs-3g, basiert auf einem Standard-Linux-Kernel und bemerkt eine fehlende
Netzverbindung sowie eine veraltete Viren-Datenbank. Eine manuelle Einrichtung
des Netzwerks, mitsamt anschließender Aktualisierung der Viren-Datenbank ist
aber möglich. Die Lokalisierung ist vollständig und kann ohne Neustart des
Programms geändert
werden. Linuxtypisch kann man per „Strg“ + „Alt“ + „F1“
auf die Konsole wechseln; die Rückkehr zum
Hauptfenster erfolgt per „Strg“ + „Alt“ + „F7“. Die Konfiguration des Programms ist selbsterklärend und auch
für Normalanwender verständlich. Nach dem Herunterfahren des Rechners muss
man sich beim Entnehmen der CD beeilen, da die Schublade des Laufwerks nach
1-2 Sekunden automatisch geschlossen wird. Der Zugriff auf verschlüsselte
Linux-Festplatten ist mangels cryptsetup nicht möglich und lässt sich
aufgrund eines fehlenden Paketmanagers nicht nachinstallieren. TrueCrypt
lässt sich aber nach der oben beschriebenen Vorgehensweise in der
Konsolen-Variante ins Livesystem kopieren. Die verschlüsselten Datenträger
sollten irgendwo unterhalb von /media/Devices/ eingebunden werden. Gegebenenfalls
müssen die Mount-Punkte händisch angelegt werden.
Bitdefender Rescue CD
Die Bitdefender Rescue CD (ISO-Image [12]) basiert
zurzeit auf Ubuntu 9.10 „Karmic Koala“ [13]
und lässt somit den Zugriff auf die Konsole zu. Nach dem Start der graphischen
Oberfläche müssen zunächst die Lizenzbedingungen abgenickt werden. Ganz
ubuntutypisch wechselt man per
$ sudo bash
in den root-Kontext. Fehlt die
Internetverbindung wird der Anwender darauf hingewiesen. Ansonsten aktualisiert
der automatisch gestartete Scanner seine Datenbank und startet anschließend
selbstständig den Scan-Vorgang. Per „Strg“ + „Alt“ + „F1“ geht es zur
Konsolenvariante des Scanners. Diese Variante wird auch gezeigt, falls die
graphische Oberfläche nicht gestartet werden kann. Auf den folgenden
Funktionstasten liegen die üblichen normalen Textkonsolen. Zurück zur
graphischen Oberfläche geht es per „Strg“ + „Alt“ + „F7“.
Der Bitdefender Rescue CD fehlt das Paket cryptsetup; seit Ubuntu 9.10
„Karmic Koala“ lässt es sich aber im Live-Betrieb lauffähig nachinstallieren.
Dazu ist als root Folgendes auszuführen:
# apt-get update
# apt-get install cryptsetup
TrueCrypt lässt sich per root-Shell in der GUI-Variante ins laufende System
kopieren. Der zugehörige Startmenü-Eintrag ist direkt vorhanden. Die
verschlüsselten Datenträger sollten manuell unterhalb von /media eingebunden
werden. Anschließend empfiehlt es sich den Virenscanner neu zu starten, damit
er die verschlüsselten Datenträger zuverlässig erkennt.
Achtung: Sowohl die Textkonsole, als auch das graphische Terminal unterstützen
ausschließlich die amerikanische Tastaturbelegung! Eine manuelle Konfiguration und
Aktualisierung ist aber möglich. ntfs-3g ist enthalten, sodass ein zuverlässiger
Schreibzugriff auf Windows-Systeme möglich ist. Truecrypt lässt sich per
USB-Stick ins Live-System übertragen und von Hand „nachinstallieren“.
F-Secure Rescue CD 3.11
Auch diese nur auf englisch laufende MicroKnoppix-basierte CD
von F-Secure [14] [15]
startet
nach 15 Sekunden Wartezeit automatisch mit amerikanischem Tastaturlayout.
cryptsetup fehlt ebenfalls, lässt sich aber wie bei der Bitdefender Rescue CD beschrieben zur Laufzeit „nachinstallieren“. ntfs-3g ist aber vorhanden.
TrueCrypt lässt sich in der Konsolen-Variante benutzen. Damit der
Virenscanner die verschlüsselten Datenträger auch zuverlässig erkennt, müssen
diese bis spätestens zum Punkt Lizenzbedingungen manuell unterhalb von /mnt
eingebunden werden.
Während des Bootvorgangs wird der Anwender auf die Möglichkeit, dass nach
einer Desinfektion virenbefallener Systemdateien das installierte System
möglicherweise nicht mehr startet, hingewiesen, was mit Druck auf „Next“ zur
Kenntnis genommen werden muss. Nach Meldung der evtl. nicht erreichbaren
Viren-Datenbank müssen noch die Lizenzbedingungen akzeptiert werden (Druck
auf „Next“, „I Agree“). Nach Auswahl der (standardmäßig bereits ausgewählten)
zu scannenden Laufwerke und des Master Boot Records
(MBR [16]) kann der Scan-Vorgang
gestartet werden. Zwar startet diese CD keine graphische Oberfläche, die
konsolenbasierte Navigation ist allerdings laientauglich. Mit „Alt“ + „F5“
wird die Liste der gescannten Dateien angezeigt, „Alt“ + „F6“ listet die
gefundenen Schädlinge und „Alt“ + „F1“ führt zum Hauptfenster zurück. Hinter
den anderen Funktionstasten-Kombinationen liegen die linuxtypischen Konsolen
im root-Kontext.
Nach dem Beenden des Scan-Vorgangs kann durch Druck auf die Eingabetaste der
Bericht angezeigt werden.
Abschließend kann die Viren-Datenbank aktualisiert und der Rechner erneut
gescannt oder neu gestartet werden.
Kaspersky Rescue Disc 10
Am Bootprompt dieser Gentoo-basierten CD von Kaspersky
(ISO-Image [17]) kann
man innerhalb von zehn Sekunden per Tastendruck zur Sprachauswahl gelangen. Auf
dem nächsten Schirm erfolgt die Wahl der Startart. Die Option „Kaspersky
Rescue Disk. Grafikmodus“ stellt eine gute Wahl dar. Anschließend werden die
Lizenzbedingungen akzeptiert. Der Startvorgang kann recht lange dauern und so
erscheinen, als ob
sich der Rechner aufgehängt hat. Daher sollte länger als
sonst üblich gewartet werden, bis sich der Rechner wieder meldet und auf
Eingaben reagiert. Nach dem Start der graphischen Oberfläche wird – soweit
verfügbar – die Netzverbindung eingerichtet und der Scanner wartet auf
Anweisungen des Benutzers. Die rote Lampe zeigt, dass noch nicht alle
Einstellungen korrekt vorgenommen wurden bzw. die Viren-Datenbank veraltet
ist. Daher sollte das Programm zunächst durch Klick auf „Einstellungen“
rechts oben konfiguriert werden. Im Reiter „Update“ wird die Viren-Datenbank
aktualisiert und dann der Scan-Vorgang des Rechners durch Klick auf
„Untersuchung von Objekten starten“ gestartet.
ntfs-3g ist vorhanden, die Unterstützung für verschlüsselte
Laufwerke fehlt dagegen vollständig. Aufgrund eines fehlenden Paketmanagers
lässt sich cryptsetup nicht nachinstallieren. Darüber hinaus fehlt ebenfalls
die Unterstützung für Overlay-Dateisysteme wie „UnionFS“ [18]
oder „aufs“ [19]. Daher lässt sich TrueCrypt
ebenfalls nicht „installieren“.
Die CD wird nach dem Herunterfahren bzw. vor dem Neustart des Rechners nicht
ausgeworfen; daher muss sie von Hand entfernt werden.
Unter der o. g. Download-Adresse findet sich übrigens ein Windows-Programm, mit
dem man die CD auf einen USB-Stick übertragen kann („Rescue2usb“).
OpenDiagnostics Live-CD
Die OpenDiagnostics Live-CD [20] stellt die Weiterentwicklung der ClamAV-Live-CD dar und wird per Konsole mit
amerikanischer Tastenbelegung bedient. Somit ist hier eine etwas ausführlichere
Beschreibung nötig, um diese CD
auch Linux-Anfängern zugänglich zu machen. Debian- bzw. Ubuntu-Anwendern wird
das meiste davon bekannt vorkommen.
Nach dem Booten sollte man zunächst per
$ sudo -i
in den root-Kontext wechseln.
Soweit der Rechner über genügend Arbeitsspeicher verfügt, kann per
# apt-get update
# apt-get upgrade
die CD virtuell „aktualisiert“ werden. Das
betrifft dann auch den Virenscanner selbst. Unterstützung für NTFS und
verschlüsselte Festplatten kann per
# apt-get update
# apt-get install ntfs-3g
# apt-get install cryptsetup
nachgerüstet werden. Die Konsolen-Variante von TrueCrypt
lässt sich ebenfalls per USB-Stick einspielen. Für eine angenehmere
Navigation durch die Konsole kommt je nach Wunsch noch der Midnight Commander
per
# apt-get install mc
dazu. Um wieder mehr Arbeitsspeicher frei zu
bekommen, kann anschließend per
# apt-get clean
aufgeräumt werden. Die
aktuellen Viren-Datenbanken kommen durch freshclam und
clamav-unofficial-sigs aus dem Netz.
Die Partitionen der Festplatte(n) werden per
# fdisk -l
aufgelistet, da die
Mount-Punkte manuell angelegt werden müssen; z. B. durch
# mkdir /mnt/sda1
Pro
Partition wird je ein Mount-Punkt nach diesem Schema angelegt.
Die Partitionen werden nun wie folgt eingebunden: Linux- und FAT-Dateisysteme
werden z. B. per
# mount /dev/sda1 /mnt/sda1
eingehängt. NTFS-Partitionen
dagegen werden per
# ntfs-3g /dev/sda1 /mnt/sda1
eingehängt.
Anschließend wird der Scanner per
# clamscan -r -v /mnt/sda1
gestartet. Die
Option -r steht dabei für rekursives scannen, -v macht den Virenscanner
gesprächiger („verbose“).
Nach Beendigung der Arbeiten werden alle Partitionen nach dem bekannten
Schema per
# umount /mnt/sda1
wieder ausgehängt. Der „Affengriff“ („Strg“ + „Alt“ + „Entf“)
startet den Rechner neu; der Befehl halt fährt ihn herunter.
Panda SafeDisc
Nach dem Start der Panda SafeDisc (ISO-Images [21] [22] kommt
zuerst die Frage nach der gewünschten Spracheinstellung, allerdings werden nur
Englisch und Spanisch angeboten. Im nächsten Fenster werden die Partitionen
ermittelt, die Netzverbindung hergestellt und das Programm konfiguriert. Ohne
eine stehende Internetverbindung kann der Scanner nur mit den auf der Disk
befindlichen Viren-Datenbanken verwendet werden. Alternativ bleibt nur
Abschalten oder Neustart des Rechners. Die wenigen Optionen des Programms sind
allerdings selbsterklärend. Der Zugriff auf verschlüsselte Dateisysteme ist
aufgrund fehlender Konsole weder möglich noch nachrüstbar.
PC Tools Alternate Operating System Scanner (AOSS)
Die AOSS-CD [23] startet
sofort und ohne Bootprompt. Nach kurzer Zeit erscheint der Sprachauswahldialog,
der bereits mit der Maus bedient werden kann. Im nächsten Fenster sind die
Lizenzbedingungen abzusegnen. Anschließend erscheint das Hauptmenü der
CD-Oberfläche. Dort finden sich neben dem Virenscanner weitere Dienste (z. B.
die Möglichkeit der Datenwiederherstellung bzw. -löschung, eine Konsole, sowie
„Scripting“). Hier soll aber nur der Virenscanner behandelt werden.
Nach Auswahl der Partitionen legt der Scanner direkt los. Der
Virenscanner selbst bietet nicht viele Optionen. Es lassen sich aber sog.
„deaktivierte Dateien“ wiederherstellen. Das bietet sich an, wenn infizierte
Systemdateien in die Quarantäne gesteckt wurden, und das installierte System
daher nicht mehr hochfährt. Man sollte aber bedenken, dass man damit
höchstwahrscheinlich den Schädling ebenfalls wiederherstellt.
Eine Unterstützung für cryptsetup fehlt, TrueCrypt kann man über die
Systemshell vom Hauptmenü aus nach der unten bei der VBA-Rescue CD
beschriebenen Methode manuell „installieren“. Zusätzlich muss man noch von Hand
Zugriffsrechte per
# chmod +x /usr/bin/truecrypt
setzen. Die Shell mit
amerikanischer Tastenbelegung verlässt man mit exit.
VBA Rescue
Die Abbild-Datei [24] der VBA Rescue CD
wird nahezu täglich neu erzeugt. Am Grub1-Bootprompt hat der Benutzer fünf
Sekunden Zeit, um eine Auswahl zu treffen. Neben der Standard-Bootmethode gibt es
auch die Wahl alles in den Arbeitsspeicher zu laden („2ram“; das ist für
Rechner mit nur einem Laufwerk interessant, da die CD bei dieser Option nach
dem Booten ausgeworfen wird), den Speichertest Memtest86+, sowie das
Festplatten-Analyse-Tool mhdd. Nach Auswahl des vba32rescue-Images wird die
gewünschte Bildschirmauflösung ausgewählt. Auch hier muss sich der Anwender
zügig entscheiden. Als nächstes folgt die Sprachauswahl, gefolgt von Hinweisen
zur Navigation per Tastatur. In den graphischen Auflösungen funktioniert die
Maus allerdings auch. Anschließend gelangt man ins Hauptfenster des Programms.
Die möglichen Optionen sind selbsterklärend und gut voreingestellt. Die CD ist
zeitlich befristet lizenziert, der Zeitraum verlängert sich aber durch
Herunterladen der häufig erneuerten aktuellen Version. Eine Unterstützung für
cryptsetup fehlt. TrueCrypt ist aufgrund fehlender Systembibliotheken nicht
direkt lauffähig. Von einem installierten Linux-System (z. B. Debian 5.0
„Lenny“) lassen sich die benötigten drei Systembibliothek aber möglicherweise per
USB-Stick „ausleihen“. Benötigt werden /usr/lib/libfuse.so.2,
/usr/lib/libstdc++.so.6 und sowie /lib/libgcc_s.so.1. ntfs-3g ist aber mit an
Bord. Die per Druck auf „Alt“ + „Funktionstaste“ erreichbaren Konsolen
beinhalten trotz deutscher Lokalisierung englische Tastaturbelegung. Das
Hauptfenster liegt auf der sechsten Konsole.
Fazit
Ergänzend zum regulär installierten Duo Virenscanner und Firewall ist gerade
auf den stets infektionsgefährdeten proprietären Betriebssystemen der
regelmäßige Einsatz der hier exemplarisch vorgestellten Live-CDs sinnvoll, um
dem Problem zugriffsgesperrter infektiöser Dateien, manipulierter
Scan-Ergebnisse durch Schädlinge oder gar hinauskatapultierter Virenscanner
vorzubeugen. Seit der komfortablen
Integration von ntfs-3g stellt die
zuverlässige Entfernung der Schädlinge auf Windows-Systemen kein wirkliches
Problem mehr da. Vorsicht ist nur bei leichtfertiger
Entfernung infizierter
Systemdateien geboten,
da dies in einem nicht mehr lauffähigen System enden kann.
Aufgrund der häufig aktualisierten CD-Abbilder mit jeweils den neusten
Versionen von Scanner-Engine und Virendatenbank empfiehlt es sich die
ISO-Dateien erst bei Bedarf herunterzuladen und auf wiederbeschreibbare
Rohlinge (RW) zu brennen, um erhöhtem „Silberschrott“ vorzubeugen.
Da die Scan-Vorgänge teils sehr lange dauern und der Rechner aufgrund des
Bootens vom Live-Medium ohnehin nicht anders eingesetzt werden kann, ist es
ratsam die Virensuche auf freie Zeiten zu legen. Beim Einsatz der hier
gezeigten sieben CDs würde sich beispielsweise eine pro Nacht anbieten. Da die
Scan-Ergebnisse bei den jeweiligen CDs voneinander abweichen, ist der Einsatz
mehrerer Datenträger unbedingt zu empfehlen.
Die Untersuchung verschlüsselter Linux-Systeme ist leider nur mit einigen der
hier vorgestellten CDs möglich. Hier könnten die Hersteller noch Entwicklungszeit investieren, um dem Normalanwender eine klickbare Lösung anzubieten, denn seit mit dem Debian 4.0 „Etch“ Verschlüsselung fast problemlos
einrichtbar geworden ist, dürfte diesbezüglich auch entsprechender Bedarf
bestehen.
Auf der anderen Seite ist Windows mit Einführung der
Pre-Boot-Authentication [25]
in TrueCrypt ebenfalls voll-verschlüsselbar geworden.
Ergänzende Sicherheitshinweise
Durch stetigen Einsatz dieser CDs sollte man sich aber nicht in scheinbarer
Sicherheit wiegen. Sicherheit ist ein steter und komplizierter Prozess, in dem
diese CDs nur einen Teilschritt darstellen. Zusätzlich sollten weitere mögliche
Fehlerquellen ausgeschlossen werden:
Wechseldatenträger wie CDs und USB-Sticks legt man unter Windows per Druck auf
die „Umschalt“-Taste ein und hält diese bis
zum Beenden der Datenträgerindexierung
fest. Das deaktiviert die sogenannte Autorun-Funktion, die sich zur automatischen
Infektion von Windows-Rechnern „zweckentfremden“ lässt. Anschließend „öffnet“
man den Datenträger per rechter Maustaste statt ihn zu „starten“, da sonst die
Autorun-Funktion nachträglich ausgeführt würde. Wechseldatenträger sollten
generell auf Viren überprüft werden – auch diejenigen von guten Freunden!
Das System sollte sicherheitsbewusst konfiguriert werden, denn Sicherheit geht
immer vor Komfort. Die eingesetzten Browser sollten durch Erweiterungen
abgedichtet werden (siehe z. B. „Gesunde Datenkekse backen – Firefox mit Erweiterungen absichern“ freiesMagazin 03/2011 [26]).
Im Übrigen sind die hier beschriebenen CDs allesamt kostenlos erhältlich, was
auch die Linux-Anwender freuen dürfte.
Daneben sind die Live-CDs hilfreich, dass man nicht unbemerkt
verseuchte Dateien weiter an Dritte gibt und so möglicherweise
deren Rechner infiziert, selst wenn der eigene (Linux-)Rechner nicht
befallen ist.
Links
[1] https://secure.wikimedia.org/wikipedia/de/wiki/NTFS-3G
[2] http://unetbootin.sourceforge.net/
[3] https://secure.wikimedia.org/wikipedia/de/wiki/Dm-crypt
[4] http://www.finnix.org/
[5] http://www.truecrypt.org/
[6] http://wiki.ubuntuusers.de/Archiv/TrueCrypt
[7] http://www.griessler.org/sudo-su-vs-sudo-bash-vs-sudo-i.php
[8] http://www.heise.de/ct/
[9] https://secure.wikimedia.org/wikipedia/de/wiki/Desinfec't
[10] http://uckanleitungen.de/rootkit-scanner-linux/
[11] http://dl.antivir.de/down/vdf/rescuecd/rescuecd.iso
[12] http://download.bitdefender.com/rescue_cd/bitdefender-rescue-cd.iso
[13] http://wiki.ubuntuusers.de/Karmic_Koala
[14] http://www.f-secure.com/linux-weblog/2009/09/22/rescue-cd-311/
[15] http://www.f-secure.com/en_EMEA-Labs/security-threats/tools/rescue-cd
[16] https://secure.wikimedia.org/wikipedia/de/wiki/Master_Boot_Record
[17] http://devbuilds.kaspersky-labs.com/devbuilds/RescueDisk10/kav_rescue_10.iso
[18] https://secure.wikimedia.org/wikipedia/de/wiki/UnionFS
[19] https://secure.wikimedia.org/wikipedia/de/wiki/Aufs
[20] http://volatileminds.net/node/6/release
[21] http://www.pandasecurity.com/resources/tools/SafeCD.iso
[22] http://www.pandasecurity.com/resources/sop/SafeCD/PandaSafeCD.iso
[23] http://www.pctools.com/aoss/details/
[24] http://anti-virus.by/pub/vbarescue.iso
[25] https://secure.wikimedia.org/wikipedia/de/wiki/Pre-Boot_Authentication
[26] http://www.freiesmagazin.de/freiesMagazin-2011-03
Autoreninformation |
Bodo Schmitz (Webseite)
hat durch seinen Beruf, Zugriff auf eine Vielzahl
vireninfizierter Windows-PCs und dadurch die Erkenntnis
gewonnen, dass man den
Scan-Ergebnissen innerhalb eines bereits infizierten Systems nicht wirklich
trauen kann.
|
|
Diesen Artikel kommentieren
Zum Index
von Mirko Lindner
Bereits 2005 öffnete mit „The Saga of Ryzom“ ein Online-Rollenspiel
der etwas anderen Art seine Pforten. Statt Orks, Elfen, Goblins oder
Drachen erwartete den Spieler der Zauber einer neuen Welt, mit
eigenen Gesetzen, Regeln, einem ausgeklügelten Fertigkeiten- und
innovativen Kampfsystem. Mittlerweile im Quellcode unter den
Bedingungen der AGPLv3 verfügbar und auch für Linux freigegeben, ist
es auch für die Nutzer des offenen Betriebssystems interessant. Doch
taugt das Spiel etwas und wenn ja, warum ist es nicht weiter
verbreitet?
Redaktioneller Hinweis: Der Artikel „Ryzom – Das freie MMORPG“ erschien erstmals bei
Pro-Linux [1].
Eine lange Geschichte
Ryzom [2], früher unter dem Namen „The Saga of
Ryzom“ bekannt, stellt ein Massively Multiplayer Online Role-Playing
Game (MMORPG [3])
für diverse Betriebssysteme dar. Die Handlung spielt etliche Jahre
in der Zukunft und beinhaltet sowohl Science-Fiction- als auch
diverse Fantasy-Elemente, die in einer komplexen Geschichte verpackt
wurden.
Das Spiel wird bereits seit dem Jahr 2000 entwickelt und erblickte
im September 2004 das Licht der Welt. Rückwirkend betrachtet konnte
der Hersteller allerdings kaum einen schlechteren Zeitpunkt für eine
Freigabe auswählen, denn nur wenige Monate zuvor hatte NCSoft mit
„Lineage II“ [4] den Nachfolger des
MMORPG-Pioniers in Westeuropa veröffentlicht. Fast zeitgleich mit
der Freigabe von „The Saga of Ryzom“ stellte auch der MMORPG-Veteran
Sony Online Entertainment (SoE) mit „Everquest II“ [5]
einen Nachfolger des bisherigen Branchenprimus vor und nur zwei
Monate später sollte Blizzard mit „World of Warcraft“ [6]
das Genre förmlich aus seiner Nische herauskatapultieren.
Bereits am 5. April 2005 war Ryzom deshalb vermeintlich Geschichte,
denn der französische Hersteller Nevrax stellte einen Antrag auf
Gläubigerschutz. Am 9. August 2005 bestätigte die
Gemeinschaftsvertreterin des Unternehmens, dass dem Hersteller
aufgrund von Neuerungen im Spiel ein Aufschub bis Ende 2006 gewährt
wurde. Doch Ende 2006 gingen bei Ryzom tatsächlich die Lichter aus.
Zugleich startete auch eine Gruppe ehemaliger Nevrax-Angestellter
und
Mitglieder der Gemeinschaft, unterstützt von der FSF, eine
Initiative [7],
das Spiel ähnlich Blender [8]
aufzukaufen und es unter eine freie Lizenz zu stellen. Die Engine
NeL, auf der Ryzom aufbaute, stand schon seit Anfang 2000 unter den
Bedingungen der GNU GPL [9].
Doch auch als der Versuch scheiterte und Ryzom zum ersten Mal im
Dezember 2006 den Eigentümer wechselte, waren die Turbulenzen nicht
vorbei. Denn auch der neue Rechteinhaber, die Gameforge AG aus
Karlsruhe, die mit ihrer
neuen Tochterfirma das Spiel vermarkten
lassen wollte, wurde mit Ryzom nicht glücklich. Nicht einmal ein
Jahr später musste auch Gameforge France SARL Insolvenz anmelden.
Ryzom hörte auf zu existieren.
Mitte 2008 mehrten sich allerdings zunehmend Anzeichen, dass das
Spiel reanimiert werden könnte. Nachdem im Juni 2008 die Foren
freigeschaltet wurden, öffnete der neue Eigentümer, die Winch Gate
Properties, auch die Server. Im Mai 2010 wurde Ryzom schlussendlich
auch im Quellcode geöffnet [10]
und unter die Bedingungen der GNU Affero General Public License Version
3 (AGPLv3 [11]) gestellt. Die
insgesamt über 13 GB umfassenden Grafiken, Modelle und Texturen wurde
dagegen unter die Creative Commons Attribution-Share Alike 3.0 Lizenz
(CC-BY-SA 3.0 [12])
gestellt. Ende 2010 folgte ein nativer
Client für Linux [13],
der auf Grundlage der Freigabe mit Unterstützung der Free Software
Foundation [14] entwickelt wurde.
Klassensystem und Fertigkeiten
Ryzom spielt in der Fantasywelt Atys, die von vier verschiedenen
humanoiden Völkern, auch Homins genannt, bewohnt wird. Dem
gegenüber stehen zwei weitere Fraktionen: Die Kami, magische
Naturgeister, und die Karavan, ein Volk von hochtechnisierten
Kriegern aus den Tiefen des Alls. Das Spiel vereint Fantasy und
Science Fiction mit einer komplexen Hintergrundgeschichte, die hier zu
erklären den Rahmen sprengen würde. Der Spieler erkundet dabei die
Welt in einer Beobachter- oder Ich-Perspektive.
Das Besondere an Ryzoms Welt ist ihr Detailreichtum. Dank einer
ausgeklügelten Engine
sieht Ryzom auch Jahre nach seiner Freigabe
nicht nur für ein MMORPG gut aus, sondern bietet Funktionen, die in
diesem Genre nicht selbstverständlich sind. So unterliegt die
komplette Welt dem Spiel der Naturkräfte. Neben Tag- und Nachtphasen
wechseln auch die Jahreszeiten. Die Bäume erblühen im Frühling und
im Herbst versinkt Ryzom an manchen Tagen im Regen.
Eine mächtige KI lässt die Flora und Fauna dynamisch miteinander
interagieren. So ziehen Herden im Rhythmus der Jahreszeiten umher.
Pflanzenfresser kommen neugierig zum Spieler, folgen ihm oder
flüchten instinktiv. Fleischfresser jagen dagegen aktiv ihre Beute,
die wahlweise aus Pflanzenfressern oder den Spielern bestehen kann.
Gegner greifen, je nach Art, alleine oder in Horden an und folgen
dem Spieler je nach Aggressivität auch über längere Distanzen.
Wilde
Tiere durchstreifen zudem die Welt. Wo noch vorhin eine vermeintlich
sichere Stelle war, kann schon bald ein Gegner-Lager sein.
Eine Besonderheit von Ryzom ist die horizontale Ausrichtung des
Spiels. Springen kann man in der Welt genauso wenig wie sich von
Gebäuden oder steilen Abhängen fallen lassen oder klettern. Das
Schwimmen erfolgt ausschließlich oberhalb der Wasseroberfläche.
Spieler, die in anderen Titeln von Klippen heruntergefallen sind
oder gar durch Fallschaden starben, werden sich womöglich anfänglich
freuen. Spätestens aber, wenn man einen Umweg machen muss, weil ein
Ort nicht durch einen gekonnten Sprung über eine Wurzel erreicht
werden kann, ist die Freude getrübt.
Das Klassensystem
Ein Klassensystem, wie beispielsweise in
„Everquest“ [15] oder „World of Warcraft“,
gibt es in Ryzom nicht. Beginnende Charaktere haben, von geringen
Unterschieden abgesehen, anfänglich dieselben Voraussetzungen. Jede
der insgesamt vier Startrassen oder Berufe hat eigene Talente und
Fertigkeitspunkte, die unabhängig voneinander entwickelt werden. Zu
den Hauptkategorien gehören Kämpfer, Magier, Handwerker und
Rohstoffsammler. Hat ein Spieler in einer der Kategorien Punkte
gesammelt, steigert er diese. Dies hat den Vorteil, dass sich die
Klasse automatisch der Spielweise anpasst. Ist ein Spieler
beispielsweise überwiegend damit beschäftigt, andere Spieler zu
heilen, wird er Punkte in Magie sammeln und sich im Laufe der Zeit
immer mehr Richtung defensivem Magiekampf verschieben, bis er
schlussendlich ein Heiler wird. Dasselbe Prinzip funktioniert auch
mit den klassischen Kämpferklassen. Wählt der Spieler am Anfang den
Weg des Kämpfers, wird irgendwann für ihn die Entscheidung
getroffen, ob er Nah- oder Fernkampf bevorzugt. Spielt er weiterhin
nur im Nahkampf, wird irgendwann unterschieden, ob er in Einhand-
und Zweihandwaffen aufsteigt, gefolgt von den Waffengattungen und so
weiter.
Entscheidet sich der Spieler zu einem späteren Zeitpunkt, dass ihm
beispielsweise der Schwertkampf nicht zusagt, braucht er nicht
seinen Charakter zu löschen oder seine Fertigkeiten zu vergessen,
sondern kann einfach nur seinen Kampfstil umstellen und fortan
Fertigkeiten in seiner neuen Richtung sammeln. Des Weiteren ist es
möglich, mit ein und demselben Charakter in einer Gruppe
verschiedene Positionen einzunehmen. Wird beispielsweise ein Heiler
benötigt, kann ein Magier diesen Platz einnehmen. Und wenn dem
Spieler danach ist, kann er noch ein Handwerk betreiben und sich
selbst Waffen oder Rüstungen bauen.
Der Vorteil des Systems ist, dass es nahezu vollständig
rollenspielgerecht aufgebaut ist. Das System ermöglicht extrem viele
Variationen und bedient fast jeden Geschmack. Anderseits limitiert
es aber den Spieler, da es kaum Spezialklassen jenseits eines
Magiers und eines Kämpfers ermöglicht. Ein aus den
Dungeons & Dragons-Spielen [16] bekannter Barde
ist damit schlicht nicht machbar.
Die Fertigkeiten
Das Fertigkeitensystem in Ryzom basiert auf so genannten Stanzas. Im
Gegensatz zu statischen Fähigkeiten, wie sie nahezu in jedem MMO
anzutreffen sind, beinhaltet Ryzom ein anpassbares System, das sich
von dem Spieler nahezu unendlich umbauen und in die eigene Spielweise
übertragen lässt. Denn jede Fertigkeit besteht aus mehreren
Komponenten. Vereinfacht gesehen sind es drei: eine Basiskomponente,
die die Art der Fertigkeit beschreibt, eine Wirkkomponente, die die
Aktion durchführt und eine Kreditkomponente als Gegengewicht. Ein
Heilzauber besteht demnach aus der Basiskomponente „Zauber“, der
Aktionskomponente „Heilen“ und einem Kredit, der besagt, dass er
eine bestimmte Zahl an Mana verbraucht und eine bestimmte Zeit zum
Zaubern braucht.
Will der Spieler nun, dass sein Heilzauber schneller gezaubert wird,
kann er ihn mühelos umbauen. Dazu muss er nur einen neuen Zauber
erstellen, der dieselben Komponenten wie Heilen enthält, und anstatt
„Zeit“ eine der anderen Kreditkomponenten einbinden. Diese wäre
beispielsweise mehr Mana oder eine Reichweitenreduktion des Zauberspruchs. Wichtig ist
nur, dass der als Aktion verbrauchte Kredit wieder ausgeglichen wird.
Was recht kompliziert aussieht, erweist sich in
der Praxis als extrem intuitiv und mächtig. Mit den erworbenen Stanzas
lassen sich die vielfältigsten Zaubersprüche erstellen oder an die
eigene Spielweise anpassen. Eine Heilbombe, gepaart mit einem
Manaspender gefällig? Einfach die benötigten Stanzas
integrieren und als Gegengewicht Kreditkomponenten einbinden.
Dasselbe funktioniert nicht nur beim Zaubern, sondern auch bei
Krieger-, Handwerk- oder Sammelberufen. Alle Aktionen sind nach
demselben Prinzip der Stanzas aufgebaut und lassen sich nach den
eigenen Vorlieben anpassen.
Handwerk und Sammeln
Das Handwerk und das Sammeln stellen, wie eingangs erwähnt, eigene
Berufe dar, die unabhängig vom Charakter entwickelt werden können.
Wer erfolgreich auf diesen Gebieten werden will, muss deshalb genauso
üben und seine Fertigkeiten stetig verbessern. Dies geschieht durch
das Aufsammeln von Ressourcen oder durch das Erstellen von
Gegenständen.
Während das Sammeln von Ressourcen sich auf das Auffinden und das
Ernten beschränkt, stellt das Herstellen beinahe eine eigene
Wissenschaft im Spiel dar, mit der sich Tage verbringen lassen. Die
eigentliche Herstellung erfolgt wie der Kampf oder das Aufsammeln
über diverse Stanzas. Durch das Hinzufügen von zusätzlichen Stanzas
lassen sich beispielsweise Zusatzfunktionen in die Kleidung
einweben. Weit mehr bringt es aber, qualitativ hochwertige
Werkstoffe zu benutzen. Diese können entweder durch das Sammeln
gewonnen oder in den Kadavern von Monstern gefunden werden. Je
wertvoller die verbrauchten Ressourcen, desto besser die
hergestellte Komponente. Hinzu kommt, dass bestimmte Ressourcen in der
Summe eine besondere Komponente zu Folge haben können. Dies zu
finden dauert nicht nur, sondern kann mitunter auch extrem teuer
werden, weshalb viele seltene Rezepte vor allem in den Anfängen von
Ryzom von ihren Entdeckern unter Verschluss gehalten, oder für
teures Geld an andere Spieler verkauft wurden. Erschwerend kommt
noch hinzu, dass manche Gegenstände besonders begehrte Ressourcen
benötigen die nur von extrem schweren Gegnern beim Ableben fallen
gelassen werden.
Da in Ryzom fast sämtliche Ausrüstung von Spielern hergestellt wird
und lediglich die Länderbosse in High-Level-Bereichen im geringen
Umfang Ausrüstung fallen lassen können, hat natürlich die
Herstellung von Gegenständen und das Sammeln einen hohen
Stellenwert. Im Gegensatz zu anderen Spielen ist das sogenannte
„Crafting“ deshalb keine brotlose Kunst, sondern eine Tätigkeit, die
durchaus Sinn ergibt und Profit bringen kann.
Quests
Die ersten Erfahrungen, die neue Spieler in Ryzom machen, erstrecken
sich über die Insel Silan. Dort angekommen erhalten Spieler eine
ausführliche Einführung in die Welt in Form zahlreicher Quests. In
diversen kleineren und größeren Aufgaben müssen die Flora und Fauna
dezimiert, Räuber ausgeschaltet, fiese Übermonster ausgelöscht oder
aber diverse Materialien gesammelt und verschiedenste Gegenstände
hergestellt werden. Doch das war's schon, denn das Startgebiet
vermittelt einen falschen Eindruck über Ryzom und täuscht dem
Spieler etwas vor, was es nicht halten kann.
Das Spiel unterscheidet sich massiv von PvE-Titeln (Player versus
Environment) wie „Everquest 2“, „Herr der Ringe
Online“ [17] oder „World of Warcraft“.
Sieht man von einer überschaubaren Anzahl an Spezialquests ab, ist
Ryzom ein
Sandkastenspiel. Die Aufgaben, auch Quests
genannt,
ergeben sich in dem Spiel aus verschiedensten Situationen. Mal
werden sie direkt von Spielern erstellt, mal von einem Event-Team
oder ergeben sich aus einer Situation oder einer Mission. Neue
Quests können von Spielern selbst mittels eines Editors erstellt
werden.
Wer der Jagd nach Gegenständen in Instanzen oder durch Quests
nacheifert, wird das Konzept von Ryzom mit großer Wahrscheinlichkeit
hassen. Rollenspielinteressenten werden es wohl mögen. Alle anderen
müssen für sich selbst entscheiden, ob sie mittels Quests durch eine
Welt geführt werden wollen oder lieber auf eigene Faust die Welt
erkunden möchten. Eins bleibt allerdings klar: Der Grat zwischen
einem Sandkastenspiel und so genannten
„Asia-Grinder“ [18]
ist sehr schmal und kann mitunter ziemlich flott überschritten werden.
Die Gemeinschaft und die Kosten
Es wird behauptet, Ryzom hätte eine der reifsten und nettesten
Gemeinschaften. Ob das stimmt, kann man nur schwerlich beurteilen,
denn oftmals wird als Referenz ein bestimmter Branchenprimus
herangezogen, dessen Gemeinschaft sich nicht wirklich durch ihre
Nettigkeit auszeichnet. Fakt ist allerdings, dass die Gemeinschaft
von Ryzom sehr erwachsen wirkt, sich gegenseitig respektiert und
durchaus einer gesonderten Erwähnung bedarf. Überwiegend
freundlicher, höchstens mürrischer Umgangston, ist die gängige
Praxis. Die Gemeinschaft von Ryzom ist zwar nicht übermenschlich,
doch sicherlich gehört sie zu den nettesten und freundlichsten, die
man in diesem Genre findet.
Ryzom stellt ein freies Spiel im Sinne der FSF dar. Die Quellen des
Clients und des Servers sowie die kompletten Grafik- und Musikdaten
des Spiels sind unter einer freien Lizenz
verfügbar [19].
Dementsprechend kann das Spiel auch von jedem verändert, angepasst
oder verbessert werden. Die Entwicklung selbst findet auf einer
eigens eingerichteten Seite statt und wird von einem Core-Team
koordiniert.
Um die Fantasy-Welt zu betreten, muss eine monatliche Gebühr an den
Betreiber der Server entrichtet werden. Ein Monatsabonnement kostet
7,95 Euro, ein dreimonatiges 7,50 Euro pro Monat und ein
sechsmonatiges 6,99 Euro pro Monat. Wer sich gar für ein Jahr
bindet, zahlt 6,50 Euro pro Monat. Es gibt aber
auch einen zeitlich nicht limitierten Probeaccount bis Level 125.
Die Bezahlung erfolgt über Bibit oder PayByCash.
Fazit
Kaum ein Spiel hat während seines Bestehens solch heftige Turbulenzen
überstehen müssen wie Ryzom. Während das Spiel sowohl
technisch als auch spielerisch durchaus überzeugen kann, krankt es
aber an zu geringen Spielerzahlen.
Ironischerweise sticht aber gerade Ryzom aus der Masse von „Free to
Play“- und „Pay to Play“-MMORPGs wohltuend heraus. Wie auch diverse
Bewertungen des Spiels auf einschlägigen Seiten bestätigen, ist
Ryzom ein vollkommen unterbewerteter Rohdiamant des Genres. Es ist
schwer, das Spiel nicht gut zu finden. Dazu bietet es schlicht zu
viele Funktionen. Das Kampfsystem ist durchdacht, das
Handwerkssystem gleicht einem Minispiel. Die wohl größte Stärke von
Ryzom ist aber das Level- und Fertigkeitensystem. Selten bot ein
MMORPG eine solche Freiheit bei der Gestaltung des Charakters.
Selbstverständlich hat auch Ryzom seine Schwächen. Das
Inventarsystem sucht zweifelsohne seinesgleichen, was
Umständlichkeit anbetrifft. Auch die Limitierungen der Spielwelt in
der Horizontalen sind anfänglich befremdlich – vorbei scheinen die
Zeiten von Fallschaden zu sein. Doch gravierende Probleme sind bei
Ryzom nicht wirklich vorhanden.
Ein abschließendes Urteil über Ryzom fällt deshalb extrem schwer.
Einerseits brilliert das Spiel durch zahlreiche Ideen, eine epische
Welt, eine gute Grafik und zahlreiche Besonderheiten. Anderseits
aber ist es in manchen Gebieten so leer, dass es kaum Spaß macht –
denn nichts ist trostloser als ein leeres MMORPG. Nichtsdestotrotz
lohnt es sich, einen Blick in Ryzom zu werfen. Das faire
Accountsystem erlaubt es jedem, einen nicht limitierten Testaccount
anzulegen und kostenlos in die Welt von Ryzom einzutauchen. Mit
knapp acht Euro Monatsgebühr gehört das Spiel zudem auch in der
regulären Phase zu den günstigeren Vertretern des Genres.
Links
[1] http://www.pro-linux.de/artikel/2/1494/ryzom-das-freie-mmorpg.html
[2] http://www.ryzom.de/de/
[3] https://secure.wikimedia.org/wikipedia/de/wiki/MMORPG
[4] http://www.lineage2.com/
[5] http://www.everquest2.com/
[6] http://eu.battle.net/wow/de/
[7] http://www.pro-linux.de/news/1/10545/the-saga-of-ryzom-soll-frei-werden.html
[8] http://www.pro-linux.de/news/1/4682/blender-endgueltig-frei.html
[9] http://www.gnu.org/licenses/lgpl.html
[10] http://www.pro-linux.de/news/1/15649/rollenspiel-ryzom-wird-freie-software.html
[11] http://www.gnu.org/licenses/agpl.html
[12] http://creativecommons.org/licenses/by-sa/3.0/de/
[13] http://www.pro-linux.de/news/1/16458/linux-client-fuer-ryzom-vorgestellt.html
[14] http://www.fsf.org/
[15] http://www.everquest.com/
[16] http://www.ddo.com/
[17] http://www.lotro.com/?lang=de&
[18] https://secure.wikimedia.org/wikipedia/de/wiki/MMORPG-Jargon
[19] http://sourceforge.net/projects/ryzom/files/ryzom_client.7z/download
Autoreninformation |
Mirko Lindner (Webseite)
befasst sich seit 1990 mit Unix. Seit 1998 ist er aktiv in die
Entwicklung des Kernels eingebunden und verantwortlich für diverse
Treiber und Subsysteme für Linux und andere freie Plattformen.
Daneben ist er einer der Betreiber von Pro-Linux.de.
|
|
Diesen Artikel kommentieren
Zum Index
von Jürgen Hamel
Das C.U.O.N.-System [1] sowie der Client pyCuon
stellen eine Suite zur Auftragsbearbeitung, Warenwirtschaft und allgemeinen
Datenverwaltung dar. Außerdem beinhaltet diese ein Dokument Management
System (DMS). Das komplette System steht unter der GNU General Public
License v3 [2]. Gerade das
DMS kann sehr vielseitig angewendet werden. Als neuestes C.U.O.N.-Modul
wird in diesem Artikel die Supportticketverwaltung vorgestellt.
Vorwort
Vor 10 Jahren sah die Situation in der Desktop-Linux-Welt noch nicht
so rosig aus. Der Desktop lief zwar schon recht nett, aber alles in
allem war das noch sehr holprig. GNOME 1.4 stand vor der Tür und KDE
war als Version 1.1 verfügbar. Damals hatte sich ein Programmierer
überlegt, vielleicht ein kleines Programm zu schreiben, das die
Rechnungen verwaltet. Und jetzt nach zehn Jahren ist aus dem
Progrämmchen ein umfangreiches Client/Server-Programm geworden.
Die Geschichte
Der Anfang
Am Anfang der Entwicklung wurde C++ als Programmiersprache und MySQL
als Datenbank genutzt. Das Projekt wurde 2001 bei
SourceForge [3] angemeldet,
das Versionskontrollsystem CVS (Concurrent Version System) und später
SVN (Subversion) [4] eingerichtet und
am 7.1.2002 erschien das erste Release 0.01 zum Download. Schon bald
wurde die Idee des Applikationsservers als innovativer empfunden und so
wurde Zope [5] als Applikationsserver und das
leistungsfähigere Postgresql [6] als
Datenbankserver gewählt. Auch erschien Python als die besser
geeignete Sprache für C.U.O.N. und es wurde entsprechend umgestellt.
Nach viel zu großen Problemen mit Zope wurde der Applikationsserver
durch das sehr stabile Python-Twisted-Framework [7]
realisiert. C.U.O.N. wuchs rasch
weiter, es wurde eine stabile Client/Server-Struktur angelegt.
Zur Vorschichte kann man auch die Artikel „C.U.O.N. im täglichen
Büroeinsatz“ aus freiesMagazin 03/2008 [8]
und „C.U.O.N. und mobile Dienste“ aus freiesMagazin 07/2009 [9] zu Rate ziehen.
Wo ist das Projekt heute?
Jetzt, im zehnten Jahr, wird C.U.O.N. immer noch weiter entwickelt.
Es hat Module für Gärtnereien, besitzt ein DMS (Document Management
System), eine Projektverwaltung und viele andere Module.
Daneben gibt eine Unterstützung von vielen Personen, die das
Programm testen und ohne deren Anregungen, Fehlerberichte und
Engagement C.U.O.N. in der jetzigen Form nicht existieren würde.
Inzwischen gibt es Installer für alle gängigen Distributionen im DEB-
und RPM-Format sowie ein standardisiertes TGZ-Paket zum Download auf
den C.U.O.N.-Projektseiten [10].
Ebenfalls existiert jetzt ein VirtualBox-Image im
Download-Bereich [11], in dem ein
komplettes C.U.O.N. mit Client und Server eingerichtet ist.
Die Zukunft
Für die nächsten zwei Jahre stehen eine komplette Überarbeitung des
Rechnungswesens sowie ein GUI-Frontend für den Reportgenerator an.
Ebenso wird versucht, den C.U.O.N.-Client für Windows auf einem
USB-Stick zum Funktionieren zu bewegen, unter Linux ist die
Client-Installation kein Problem.
Hauptsächlich das E-Mail-dms-Modul und die neue
Supportticketverwaltung werden im ersten Halbjahr 2011 Vorrang haben
und sollen hier vorgestellt werden.
E-Mails effektiv archivieren
Das E-Mail-Problem
E-Mails sind heute aus dem Unternehmenseinsatz nicht mehr
wegzudenken. Mit dem IMAP-Protokoll [12]
wurden auch einige entscheidende Verbesserungen gegenüber
POP3 [13] erzielt.
Aber die typischen E-Mails werden in Lösungen von „alles in einem Ordner“ bis
hin zu „500 verschiedene Ordner“ verwaltet – und zwar bei
verschiedenen Benutzern. Das Wiederfinden einer drei Jahre alten E-Mail
endet meistens erfolglos.
E-Mail war als flüchtiges, schnelles Medium gestartet, aber es
werden immer mehr wichtige Daten in Anhängen mitgeschickt. Das zu
sortieren, zu pflegen und bei Bedarf auch abzurufen, ist eine
Heidenarbeit. Und erst das Suchen! Manchmal ist man nicht einmal
mehr sicher, welcher Mitarbeiter die E-Mail bekommen hat.
E-Mails archivieren
C.U.O.N. verspricht jetzt Abhilfe. Mit dem dms_IMAP-Modul gibt es
eine effiziente Lösung dieses Problems. Soll ein DMS erfolgreich
sein, muss die Pflege stark vereinfacht und möglichst mit wenig
Zeitaufwand verbunden sein. Natürlich konnte man schon vorher die
E-Mails in C.U.O.N. archivieren, aber es war ein komplexer Prozess,
der in etwa so ablief:
- E-Mail-Text und alle Anhänge abspeichern,
- Adresse suchen und zum DMS gehen,
- Text und jeden Anhang ins DMS einfügen,
- zu jedem Eintrag eine kurze Zusammenfassung abspeichern.
Machbar, aber zeitaufwendig!
E-Mails automatisch archivieren
Mit der neuen Version von C.U.O.N. (ab Version 11.1.0) wird das
wesentlich vereinfacht. Voraussetzung ist ein IMAP-E-Mail-Konto,
welches allerdings heutzutage zum Standard gehört. Für die Anwendung
muss man einfach in einem beliebigen E-Mail-Programm einen neuen
Ordner namens „AUTOMATIC_CUON“ anlegen und mit Filterregeln oder
manuell E-Mails in diesen Ordner kopieren. Selbstverständlich kann
auch der Systemadministrator die E-Mails mit procmail oder sieve
einsortieren.
C.U.O.N. schaut regelmäßig jede halbe Stunde
in diesem Ordner nach
und erfasst die darin liegenden E-Mails. Anhand der E-Mail-Adresse
wird die E-Mail automatisch der korrespondierenden Adresse oder dem
Gesprächspartner zugeordnet, der E-Mail-Text und die Anhänge werden
im DMS entsprechend abgespeichert. Zusätzlich werden PDF, Texte,
HTML und OpenOffice.org- bzw. LibreOffice-Dokumente analysiert und
ein Extrakt für die Volltextsuche abgespeichert. Natürlich kann
dieser Extrakt anschließend überarbeitet oder – z. B. bei Bildern –
komplett selbst erstellt werden.
Mit diesem System sind alle Voraussetzungen für eine vernünftige
E-Mail-Speicherung und -Nutzung gegeben. Kunden, Lieferanten und andere
Adressen-bezogene Vorgänge können direkt im DMS nachvollzogen
und müssen nicht
über verschiedene Mitarbeiter zusammengetragen
werden. Durch die Volltextsuche auf dem Extrakt-Eintrag sollte es
möglich sein, jedes gewünschte Dokument zu finden. Dies ist eine
wesentliche Erleichterung und auch noch nach Jahren können die
Dokumente schnell und einfach gefunden werden.
Die Supportticketverwaltung
Integration der STV in C.U.O.N.
C.U.O.N. hat als neuestes Modul jetzt eine Supportticketverwaltung
(STV). Damit können Reklamationen und selbstverständlich auch
Bugreports direkt in C.U.O.N. bearbeitet werden.
Die STV arbeitet eng mit der Projektverwaltung zusammen. Natürlich
gibt es andere, sehr effektive Ticketverwaltungen, Bugtracker usw.
Aber ein Großteil dieser System konzentriert sich auf den
Softwarebereich und viele sind relativ isoliert zu sehen.
Mit der STV in C.U.O.N. soll vor allem eine Ticketverwaltung
geschafft werden, die für eine Maschinenfabrik genauso gut geeignet
ist wie für Software-Projekte. Und natürlich sollte eine Verbindung
zur Projektverwaltung bestehen, um z. B. eine Rechnung dafür zu
schreiben, eine Nachkalkulation durchzuführen oder einfach eine
Übersicht über den Aufwand der Nachbearbeitung zu bekommen. Es kann
ja durchaus passieren, dass eine Reklamation nicht in zwei Stunden
erledigt ist, sondern dass eine schwierige und kostenintensive
Nacharbeitung nötig ist.
Projekt-Ressourcen erfassen
Es ist möglich, über die Projektverwaltung jeweils geplante und
realisierte personenbezogene aber auch reine Materialressourcen zu
erfassen. Damit ist es dann möglich, eine genaue Übersicht über die
Nacharbeitung zu bekommen. Um die Projektverwaltung effektiver zu
gestalten, ist geplant, bis zum Sommer 2011 eine Chart-Generierung
einzubinden. Damit wären die Statistiken effektiver und in der
Projektverwaltung die Darstellung der Zeitabläufe als
Gantt-Diagramm [14]
möglich.
Die Dateneingabe kann über das C.U.O.N.-Modul direkt oder über ein
Webinterface erfolgen. Deshalb wurde die STV in zwei Bereiche
unterteilt.
Die STV als Modul
In dem Modul wird die STV direkt in C.U.O.N. als ganz normales
Verwaltungsfenster eingebunden. Im ersten Tab kann das Projekt
ausgewählt werden, im zweiten Tab werden die dazugehörigen Tickets
angezeigt. Dieses Modul kann alle Vorgänge bearbeiten und hat
Verbindung zu anderen Modulen wie z. B. der Adress- oder
Projektverwaltung. So können dem Ticket nicht nur eine Adresse und
Gesprächspartner zugeordnet werden, sondern auch eine Projektphase
mit entsprechenden Projekttasks. Neben den normalen Standardeingaben
für ein Ticket ist hier aber zusätzlich noch eine Verbindung zum DMS
möglich. Das bedeutet, dass alle relevanten Informationen in der STV
zusammenfließen.
Das Webinterface
Der zweite Bereich ist ein Webinterface, das mit dem
Bottle-Framework [15] aufgebaut wird (siehe
„Bottle – Ein WSGI-Microframework für Python“, freiesMagazin
02/2011 [16]).
Dieses in
Python geschriebene Framework erlaubt es, schnell und
effizient mit Hilfe von Dekoratoren eine Webanwendung zu konzipieren.
Das Webinterface soll alle als „public“ gekennzeichnete Projekte
anzeigen und bearbeiten können. Dies ist optional und muss nicht
gestartet bzw. benutzt werden. Aus Sicherheitsgründen hat es keine
Verbindung zu anderen Daten.
Der C.U.O.N.-eigene Webserver kann also mit einer Weboberfläche
zur Ticketeingabe gestartet werden – er muss es aber nicht. Wichtig
ist außerdem die Kennzeichnung der Tickets in den Bereichen „PUBLIC“
und „NO PUBLIC“. Das heißt, dass „NO PUBLIC“-Vorgänge nicht im
Webinterface abgebildet werden.
Die Technik
Die Warenwirtschaft besteht im Wesentlichen aus drei Teilen.
Der SQL-Server
Als Datenbankserver wird Postgresql benutzt, wobei derzeit 191
Tabellen sowie 31 interne Funktionen (in PL/PGSQL [17]
geschrieben) und Hunderte Trigger, Sequenzen usw. installiert sind.
Als DB-Cache und Replikationstool kann pgpool benutzt werden.
Die Applikationsserver
Die Applikationsserver bestehen aus Python-Twisted-Web-Modulen und
können in mehreren Instanzen auf verschiedenen Ports gestartet
werden. Die XMLRPC-Server nehmen die Anfragen entgegen, bearbeiten
sie und senden sie zur Datenbank, zum Report-Server oder zum
AI-Server weiter.
Es wurde bewusst das XMLRPC-Format gewählt, da fast alle
Programmiersprachen einen entsprechenden Aufruf nutzen können. So
ist es möglich, verschiedene Thin-Clients zu bilden, die nur einen
Teilbereich der Funktionen abbilden.
Der Client
Der Client ist ebenfalls in Python geschrieben, kann aber
grundsätzlich auch in jeder anderen Sprache programmiert werden. Er
ist für die Benutzerinteraktion zuständig und informiert über
Termine, Kontakte, Statistiken und liefert alle Informationen, die
benötigt werden. Dabei wurde Programmlogik und GUI getrennt, sodass
prinzipiell jede Firma und sogar jeder Benutzer eigene Masken
benutzen kann, die mit Glade [18] erstellt werden. Die Benutzereingaben werden über XMLRPC
zum Server gesendet.
Eine wichtiges Ziel des Projektes war und ist es, einen möglichst
schlanken Client zu programmieren. Deshalb wird versucht, immer mehr
Funktionalität in den XMLRPC-Server zu verlagern. Um eine höhere
Geschwindigkeit
und einfachere Module im Applikationsserver zu
erreichen, werden dort SQL-Abfragen als PL/PGSQL-Prozeduren in die
Datenbank ausgelagert. Das hat den Vorteil, das SQL-Operationen
nicht nur schneller ablaufen, sondern auch komplexer gestaltet
werden können.
Auch werden im Applikationsserver die aufwändigeren Module
verwendet, um den Client zu entlasten und dort nur einfache Routinen
zu benutzen. Als Beispiel dafür dient z. B. das Anzeigen einer Liste.
Der Server bearbeitet die Anfrage, die Datenbank liefert die
Ergebnisse und das Report-Modul generiert daraus eine PDF-Datei.
Diese PDF-Datei ist dann vom Client auf den meisten Endgeräten lesbar.
Einsatzgebiete
C.U.O.N. wurde für den Einsatz im Unternehmen entworfen, dabei gilt
für den Client allerdings immer die Möglichkeit bzw. die Präferenz,
als wirksame Unterstützung in der Tele-Arbeit zu dienen. Der Client
ist optimal an mobiles Arbeiten angepasst, alle Dokumente sind im
DMS, die Verbindung über Intra- oder Internet Standard. Sogar Faxe
können über den Firmenfaxserver (Hylafax [19])
von zu Hause oder von unterwegs aus verschickt werden.
So wird das Programm in verschiedenen Bereichen genutzt, von der
Maschinenfabrik bis zum Finanzdienstleister, im Büro, zu Hause auf
dem Desktop oder mobil beim Kunden mit dem Note- oder Netbook. Und
die neuen mobilen Endgeräte versprechen neue Einsatzgebiete.
Hilfe, Dokumentation, Installer und Sourcen
Hilfe ist natürlich immer willkommen, gerade im Bereich XML, HTML
und CSS, aber auch für Dokumentation (Docbook-Format) und
Übersetzungen werden Helfer benötigt. Ein weites Betätigungsfeld
bieten die alternativen Bildschirmmasken, um C.U.O.N. ein variables,
moderneres Aussehen zu verleihen.
Ein umfangreiches Handbuch mit dem Administrations-, Benutzer- und
Beispielbeschreibungen in Deutsch und Englisch ist auf der
Projekt-Homepage [1] als PDF bzw. als HTML
vorhanden.
Ebenfalls stehen dort sowie auf Berlios [20]
oder SourceForge [3]
Downloadmöglichkeiten (Installer für Debian/Ubuntu, SuSE/Red Hat und
TGZ als plattformunabhängiges Format) zur Verfügung. Aktuelle
Schnappschüsse kann man über das SVN von Berlios beziehen.
Auch ein komplett eingerichtetes C.U.O.N.-System steht als
VirtualBox-Image auf der Homepage zum Download
bereit [11].
Links
[1] http://www.cuon.org/
[2] http://www.gnu.org/licenses/gpl-3.0.html
[3] http://sourceforge.net/projects/cuon/
[4] http://subversion.tigris.org/
[5] http://www.zope.de/
[6] http://www.postgresql.org/
[7] http://twistedmatrix.com/
[8] http://www.freiesmagazin.de/freiesMagazin-2008-03
[9] http://www.freiesmagazin.de/freiesMagazin-2009-07
[10] http://cuon.org/Downloads/Download.html
[11] http://www.cuon.org/Downloads/VirtualBox.html
[12] https://secure.wikimedia.org/wikipedia/de/wiki/IMAP
[13] https://secure.wikimedia.org/wikipedia/de/wiki/POP3
[14] https://secure.wikimedia.org/wikipedia/de/wiki/Gantt-Diagramm
[15] http://bottlepy.org/
[16] http://www.freiesmagazin.de/freiesMagazin-2011-02
[17] http://www.postgresql.org/files/documentation/books/pghandbuch/html/plpgsql.html
[18] http://glade.gnome.org/
[19] http://www.hylafax.org/
[20] http://developer.berlios.de/projects/cuon/
Autoreninformation |
Jürgen Hamel
ist der Hauptentwickler von C.U.O.N. Warenwirtschaft
und ist per E-Mail unter cuon[AT]cyrus[DOT]de, per Jabber über
jhamel[AT]cuonsim4[DOT]de zu erreichen.
|
|
Diesen Artikel kommentieren
Zum Index
von Jochen Schnelle Hält man das Buch „Coding for Fun mit Python“ in den Händen, weckt schon allein das Lesen des Covers eine
gewisse Erwartungshaltung. Sätze wie „Der nächste Level für Python-Programmierer!“,
„Spannende Programme verstehen und selbst entwickeln“ und „Python neu entdecken:
vom Klassiker bis Hi-Tech!“ sind dort zu finden.
Die „Voraussetzungen“ für das Buch sind dabei gut: Es handelt sich um die
Weiterführung der „Coding for Fun“-Reihe, welche mit dem gleichnamigen Buch
gestartet wurde (siehe „Rezension: Coding for Fun – IT-Geschichte zum
Nachprogrammieren“, freiesMagazin 04/2009 [1].)
Weitere Titel dieser
Reihe sind „Coding for Fun mit C++“ sowie „Coding for Fun mit C#“.
Bunte Mischung
Das Python-Buch umfasst zwölf Kapitel, welche jeweils ein Thema bzw. eine
Aufgabenstellung enthalten, für die dann in Python eine Lösung programmiert
wird. Die Themen sind dabei recht bunt gemischt: So findet man von der
graphischen Darstellung einer Analoguhr über Webcrawler und Kryptographie bis
hin zu Spielen wie Snake und TicTacToe eine breite Themenvielfalt. Wie sich
anhand der Aufgaben schon vermuten lässt, arbeitet ein Teil der Programme rein
textbasiert. Andere haben eine graphische Darstellung, wobei hier durchgehend
PyGame [2] verwendet wird. Ansonsten setzt das Buch fast
ausschließlich auf die in Python enthaltenen Standardbibliotheken; lediglich
bei der Programmierung des Webcrawlers wird auf
BeautifulSoup [3], einen
renommierten HTML/XML-Parser für Python, zurückgegriffen. Das Buch setzt
durchgängig auf Python 2. Hinweise zur Nutzung von Python 3 findet man kaum.
Alle Kapitel sind in sich abgeschlossen und bauen in keiner Weise aufeinander
auf. Dies bedeutet, dass man diese auch in einer beliebiger Reihenfolge lesen
kann. Sollte man sich für ein Thema überhaupt nicht interessieren, kann man
auch einfach ganze Kapitel überspringen. Das Schema des Aufbaus ist in allen
Kapiteln gleich: Als erstes wird kurz in den Inhalt und das Ziel des Kapitels
eingeführt, dann folgt eine theoretische Einführung in das Thema. Dies bedeutet,
dass die notwendigen Grundlagen zur programmiertechnischen Umsetzung des
Problems erklärt werden. Dabei kommen, wo notwendig, auch Diagramme oder Skizzen
zum Einsatz, alles durchweg in Graustufen gedruckt. An einigen Stellen wird
zusätzlich noch ein wenig Historie eingestreut. Danach geht es an die
eigentliche Programmierung, wobei alle Programme schrittweise entwickelt werden.
Bei umfangreicheren Programmen erfolgt teilweise im Laufe des Kapitels das
Refactoring [4] des Codes, sodass
dieser am Ende „sauberer“ ist. Jedes Kapitel schließt damit, dass der Autor des
Buchs noch ein paar Tipps und Anregungen gibt, wie das entwickelte Programm sich
noch erweitern ließe oder auf welche ähnlich gelagerten Probleme man den Code
auch anwenden könnte. Den Abschluss des Buches bildet ein Crash-Kurs zu
OpenGL [5] sowie ein Kapitel zur Installation der
erforderlichen Software. Dem Buch liegt eine CD bei, die alle im Buch
entwickelten Programme sowie Python 2.6, die verwendeten Bibliotheken sowie die
Entwicklungsumgebung Eclipse und PyDev enthält.
Das Buch setzt grundlegende Python-Kenntnisse voraus, ist also für reine
Anfänger ungeeignet. Wer jedoch ein Grundverständnis in Bezug auf Klassen,
Funktionen, Kontrollstrukturen, die Python-Built-ins sowie die gängigen String-,
Listen- und Dictionary-Methoden hat, der kann die Codebeispiele im Buch durchaus
nachvollziehen. Eine Erläuterung zu Python an sich gibt es nicht. Werden
externe Module wie PyGame verwendet, so werden deren Module und Funktionen aber
zumindest kurz erklärt.
Licht und Schatten
Wirklich gut sind die grundlegenden Einführungen zu den verschiedenen Themen.
Hier gelingen dem Autor durchweg kompakte, aber trotzdem gut verständliche
Erklärungen der Sachverhalte. Besonders zu erwähnen ist dabei das Kapitel zum
Thema Kryptographie, welches geschickt einen Bogen von antiken
Verschlüsselungsmethoden wie der einfachen Buchstabenverschiebung bis hin zu
modernen und sicheren Verschlüsselungsmethoden wie der RSA-Verschlüsselung schlägt.
Im direkten Vergleich
dazu fallen die praktischen Umsetzungen in Python leider
etwas ab. Diese sind zwar grundsolide und handwerklich gut umgesetzt – mehr aber
auch nicht. Der auf dem Cover angekündigte „nächste Level“ wird des Öfteren nur
schwerlich erreicht. Wer die weiter oben bereits erwähnten Kenntnisse besitzt,
nutzt diese zur Umsetzung des Themas in ein Python-Programm. Neues entdeckt man
dabei aber kaum. Überhaupt hat man beim Lesen des Buchs immer wieder das Gefühl,
dass Python hier auch nur Mittel zum Zweck ist. Würden im Buch alle Programme
z. B. in Perl ausgeführt und das Buch entsprechend „Coding for Fun mit Perl“
heißen – es würde nicht weiter auffallen. Insofern kann jeder, der eine
Programmiersprache beherrscht, das Buch auch als Inspiration für eine neue
Programmieraufgabe nehmen, die theoretische Einführung lesen, den Python-Teil
weglassen und die Lösung dann in der Programmiersprache seiner Wahl umsetzen.
Alle Programme werden im Buch schrittweise entwickelt, d. h. der Code ist auch
„häppchenweise“ abgedruckt. Für das Verstehen von Funktionen und Klassen ist
dies sicherlich nicht verkehrt, allerdings ist es so schwierig, gerade bei den
längeren Programmen den Gesamtüberblick zu behalten, zumal es zu keinem
Programm ein komplettes Listing gibt, was sich z. B. am Kapitelende angeboten
hätte. Zwar sind alle Programme auch auf der beiliegenden CD enthalten,
allerdings möchte oder kann man nicht unbedingt immer den Computer beim Lesen
neben sich stehen haben. Etwas irritierend ist weiterhin, dass im Anhang des
Buchs die Installation von Eclipse und PyDev erklärt wird. Zwar empfiehlt der
Autor diese Entwicklungsumgebung, allerdings wird im gesamten Buch sonst
überhaupt kein Bezug darauf genommen, noch nicht einmal ansatzweise. Insofern
erschließt sich hier der Sinn nicht wirklich.
Fazit
„Coding for Fun mit Python“ ist sicherlich kein schlechtes Buch – allerdings
auch kein ausgesprochen gutes Python-Buch. Die Einleitung und grundlegenden
Einführungen zu den verschiedenen Themen sind sehr gut, der Rest ist dann eher
„Durchschnitts-pythonisch“. Die Erwartungshaltung, die die Aussagen auf dem
Cover wecken, hält das Buch nur mit Mühe ein. Ob man nach der Lektüre des
Buchs den nächsten Level der Python-Programmierung erreicht hat, hängt dann auch
primär von den eigenen Ansprüchen und Zielen ab. Lediglich wer eine
deutschsprachige Einführung in PyGame und OpenGL mit Python sucht, könnte an dem
Buch Gefallen finden, allerdings macht dies nur ungefähr die Hälfte des Buches
aus. Abgesehen davon ist es ja nicht das erklärte Ziel des Buches, explizit in
diese Thematik einzuführen. Wer sich für das Buch interessiert, sollte daher
besser beim Buchhändler seines Vertrauens einen Blick hineinwerfen und prüfen,
ob man die darin enthaltenen Themen wirklich spannend findet und Spaß daran
hat, diese mit Python zu programmieren und zu lösen. Wer einen tieferen
Einblick in Python und dessen Module bekommen möchte, der sollte sich
vielleicht besser nach einem anderen Buch umschauen.
Buchinformationen |
Titel | Coding for Fun mit Python |
Autor | Lars Heppert |
Verlag | Galileo Computing 2010 |
Umfang | 325 Seiten |
ISBN | 978-3-8362-1513-8 |
Preis | 24,90 Euro |
|
Links
[1] http://www.freiesmagazin.de/freiesMagazin-2009-04
[2] http://www.pygame.org/
[3] http://www.crummy.com/software/BeautifulSoup/
[4] https://secure.wikimedia.org/wikipedia/de/wiki/Refactoring
[5] http://www.opengl.org/
Autoreninformation |
Jochen Schnelle
programmiert selber gerne (und fast ausschließlich)
in Python. Die Lektüre des Buches hat ihn leider nicht auf den
nächsten Level in Sachen Python gehoben.
|
|
Diesen Artikel kommentieren
Zum Index
Für Leserbriefe steht unsere E-Mailadresse
zur Verfügung - wir freuen uns über Lob,
Kritik und Anregungen zum Magazin.
An dieser Stelle möchten wir alle Leser ausdrücklich ermuntern,
uns auch zu schreiben, was nicht so gut gefällt. Wir bekommen
sehr viel Lob (was uns natürlich freut), aber vor allem durch
Kritik und neue Ideen können wir uns verbessern.
Leserbriefe und Anmerkungen
Wayland
->
Wow, ein super Artikel! Wunderbar die Technik erklärt und gute
Argumente für Wayland geliefert. Ich kann es kaum erwarten die
ersten Ergebnisse live zu sehen, auch wenn das wohl noch etwas
dauern wird. Ich wünsche den Wayland-Entwicklern viel Erfolg. Ich
verspreche mir davon auch einen Schub für Linux im
Desktopbereich. Jetzt müssen wir nur noch hoffen, dass AMD und NVIDIA
mitziehen und gute (und wenn möglich Open Source) Treiber dafür
liefern, denn ohne performante und stabile Treiber hat man leider
nichts gewonnen. :(
Frieder (Kommentar)
OpenDocument-Format im Test
->
Der Bericht öffnet einem die Augen und ist ernüchternd. Was mir aber
doch noch fehlt, sind MS Office 07 und 10 (böses Word), denn die
werden am meisten in Unternehmen und privat genutzt. Da offiziell MS
Office ab Version 2007 ODF unterstützt, wäre das noch interessant.
Das würde zumindest OpenOffice.org/LibreOffice für den Alltag in
Unternehmen prüfen und man hätte einen Test, der über den freien
Software-Tellerrand hinwegsieht. Ich weiß, dass OpenOffice.org schon in
Unternehmen und Behörden eingesetzt wird […] und ich weiß,
was das Magazin sich zum Ziel gesetzt hat, aber in der Praxis spielt
meistens die proprietäre und die freie Software nebenher und sogar
miteinander.
Ich habe die ODF-Dateien mal kurz getestet und bin zum folgenden
Ergebnis [gekommen]: Bloß das mit OpenOffice.org erstellte Dokument ist
vertretbar, auch hier versagen die Exoten (MS wird es wahrscheinlich
auch nur auf OOo optimiert haben). Es werden Kopf und Fusszeile
sowie die Tabelle übernommen als auch die Feldbefehle Datum,
Seite und Anzahl [der] Seiten. Optisch ist das Dokument absolut
vertretbar.
Spite (Kommentar)
<-
Wir hätten die Kompatibilität mit Microsoft Office gerne getestet,
aber haben keinerlei Exemplar dieser Software zum Test vorliegen,
vor allem keine so neue Version.
Vielen Dank daher für den Test, der hilft dem einen oder anderen
Leser sicherlich weiter.
Dominik Wagenführ
->
Ihre Argumentation lässt sich problemlos auf PDF adaptieren. Man
sagt, PDF sei standardisiert und sähe überall gleich aus. Sobald
sich ein Programm findet, bei dem mindestens ein Pixel anders gefärbt
ist, wäre die These widerlegt. Und ich bin überzeugt davon, dass
sich so ein Programm finden lässt, Fehler gibt es immer. Dass die
Fehler in ODF größer sind, liegt einzig am viel komplexeren Format.
Nun sind Sie folgender Aussage im Lead, die ja die Leitfrage
darstellt, gar nicht weiter nachgegangen: „Sprich, das Problem wie
bei Microsoft Office, dass ein Dokument (auch bei gleicher
MS-Office-Version) auf jedem Rechner anders aussehen kann, gibt es
angeblich nicht.“
Wir sind uns einig, dass von den zahlreichen getesteten Office-Suiten
allein [Open - Libre]Office fähig ist, das ODF in vollem Umfang
auszureizen. Um der These nachzugehen, müsste man somit nur
verschiedene Versionen von OpenOffice.org betrachten. Was dabei
herauskommt, weiss ich nicht, es wird aus dem Artikel auch nicht
ersichtlich.
Gast (Kommentar)
<-
Die These, dass ein Dokumentenstandard – egal welcher – in
verschiedenen Programmen nicht immer gleich aussieht, ist eigentlich
keine These, sondern kann man beinahe als Fakt abtun. Es gibt
natürlich auch Ausnahmen, aber nur selten beherrscht bei einem
komplexen Format ein Lese- oder Schreibprogramm alle Funktionen.
Gleiches gilt natürlich auch für PDF, welches nicht immer überall
gleich aussieht. Glücklicherweise hält sich das in Grenzen. Bei
Yalm [1]
war es früher so, dass der PDF-Reader die falsche Schriftart oder
-formatierung genommen hat. Aber wie Sie auch festgestellt haben,
ist PDF etwas einfacher als ODF. Ich denke aber auch, dass es
„besser“ standardisiert ist und schon länger existiert, weswegen die
meisten PDF-Reader wenig Probleme haben.
Die Leitfrage war darüber hinaus ja nicht, ob die MS-Dokumente
wirklich auf verschiedenen Rechnern immer anders aussehen (auf einem
standardisierten Firmenrechner sehen sie in der Regel nämlich gleich
aus), sondern ob es bei ODF wirklich überall gleich ausschaut, egal
welches Programm man nutzt (was manch einer gerne als Argument pro
ODF anbringt). Und da war das Resultat ja, dass das Dokument nicht
zwingend gleich ausschauen muss.
Ob es da noch Unterschiede macht, dass das ODF in OpenOffice.org 2.0
ggf. anders aussieht als in OOo 2.3, denke ich, kann man
vernachlässigen, da man nur wenig Mehrwert erhalten würde. Sähe es
gleich aus, wäre es gut und dennoch gäbe es genügend andere
Programme, die es nicht gleich darstellen. Und gäbe es Unterschiede
zwischen der Darstellung beider Versionen, wäre das nur ein weiteres
Programm, was beim Test „durchgefallen ist”.
Also sicherheitshalber, falls es nicht klar im Artikel
herausgekommen ist: Es sollte getestet werden, ob ein ODF-Dokument,
welches in Programm A erstellt wurde, beim Öffnen mit Programm B
identisch (oder zumindest ähnlich) aussieht oder nicht.
PS: Zur Aussage des Ausreizens bin ich nicht ganz sicher. Der
Funktionsumfang der SoftMaker-Suite sieht wirklich nicht
schlecht aus und kann u. U. OpenOffice.org das Wasser reichen. (Das
wurde aber nicht getestet.)
Dominik Wagenführ
Firefox mit Erweiterungen absichern
->
Danke für die hilfreiche Übersicht über Plug-ins. Eine weitere
nennenswerte Erweiterung ist „Ghostery“ [2].
Diese zeigt an, welche Tracker auf Webseiten verwendet werden und
erlaubt deren Blockierung. Zudem werden pixelgroße Grafiken
blockiert, die alternativ zu Cookies verwendet werden, um das
Surfverhalten zu verfolgen.
Gast (Kommentar)
Links
[1] http://www.freiesmagazin.de/yalm
[2] http://www.ghostery.com/
Die Redaktion behält sich vor, Leserbriefe gegebenenfalls zu
kürzen. Redaktionelle Ergänzungen finden sich in eckigen Klammern.
Die Leserbriefe kommentieren
Zum Index
(Alle Angaben ohne Gewähr!)
Sie kennen eine Linux-Messe, welche noch nicht auf der Liste zu
finden ist? Dann schreiben Sie eine E-Mail mit den Informationen zu
Datum und Ort an.
Zum Index
freiesMagazin erscheint immer am ersten Sonntag eines Monats. Die Juni-Ausgabe wird voraussichtlich am 5. Juni unter anderem mit folgenden Themen veröffentlicht:
- GNOME 3.0: Bruch mit Paradigmen
- UnrealIRC – gestern „Flurfunk“, heute „Chat“
Es kann leider vorkommen, dass wir aus internen Gründen angekündigte Artikel verschieben müssen. Wir bitten dafür um Verständnis.
Zum Index
An einigen Stellen benutzen wir Sonderzeichen mit einer bestimmten
Bedeutung. Diese sind hier zusammengefasst:
$: | Shell-Prompt |
#: | Prompt einer Root-Shell – Ubuntu-Nutzer können
hier auch einfach in einer normalen Shell ein
sudo vor die Befehle setzen. |
~: | Abkürzung für das eigene Benutzerverzeichnis
/home/BENUTZERNAME |
Zum Index
|
Erscheinungsdatum: 1. Mai 2011 |
|
|
Redaktion |
| Frank Brungräber | Thorsten Schmidt |
| Dominik Wagenführ (Verantwortlicher Redakteur) |
| |
Satz und Layout |
| Ralf Damaschke | Yannic Haupenthal |
| Nico Maikowski | Matthias Sitte |
| |
Korrektur |
| Daniel Braun | Stefan Fangmeier |
| Mathias Menzer | Karsten Schuldt |
| Stephan Walter | |
| |
Veranstaltungen |
| Ronny Fischer |
| |
Logo-Design |
| Arne Weinberg (GNU FDL) |
|
Dieses Magazin wurde mit LaTeX erstellt. Mit vollem Namen
gekennzeichnete Beiträge geben nicht notwendigerweise die Meinung
der Redaktion wieder. Wenn Sie
freiesMagazin ausdrucken möchten, dann
denken Sie bitte an die Umwelt und drucken Sie nur im Notfall. Die
Bäume werden es Ihnen danken. ;-)
Soweit nicht anders angegeben, stehen alle Artikel, Beiträge und Bilder in
freiesMagazin unter der
Creative-Commons-Lizenz CC-BY-SA 3.0 Unported. Das Copyright liegt
beim jeweiligen Autor.
freiesMagazin unterliegt als Gesamtwerk ebenso
der
Creative-Commons-Lizenz CC-BY-SA 3.0 Unported mit Ausnahme der
Inhalte, die unter einer anderen Lizenz hierin veröffentlicht
werden. Das Copyright liegt bei Dominik Wagenführ. Es wird erlaubt,
das Werk/die Werke unter den Bestimmungen der Creative-Commons-Lizenz
zu kopieren, zu verteilen und/oder zu modifizieren. Das
freiesMagazin-Logo
wurde von Arne Weinberg erstellt und unterliegt der
GFDL.
Die xkcd-Comics stehen separat unter der
Creative-Commons-Lizenz CC-BY-NC 2.5 Generic. Das Copyright liegt
bei
Randall Munroe.
Zum Index
File translated from
TEX
by
TTH,
version 3.89.
On 11 May 2011, 18:42.