Spaß mit der Telekom

Von | 06.12.2006

DSl 16000 muss her.. Yeah Baby.
Ich hab sogar Glück, es is sogar verfügbar, was ich nicht gedacht hätte.

Unser kleines schnuckeliges Büro hat inzwischen die Leistungsgrenze unserer Mühsam der Telekom abgerungenen DSL6000 Leitung deutlich überschritten, so dass der Umstieg auf DSL16000 mehr als nur angebracht ist. Über die Wirren und Ärgernisse der DSL6000 Umstellung hatte ich in meinem alten Blog schon berichtet, es war eine lange und mühsame Prozedur – die sich über Monate hinweg zog. Und noch heute nicht abgeschlossen ist. Ich zahle immer noch für ein Fastpath, dass nie geschalten wurde. Wenn ich mal viel Zeit hab, stelle ich die 8 teiligen Artikelserie dazu wieder online.

Frisch froh fröhlich frei

..ans Werk gehen wir nun mit der DSL 16000 Geschichte, die auch schon wieder bestens beginnt und schon so richtig Laune auf mehr macht. Irgendwann vor 8 Wochen fasste ich den Entschluß, DSL 16000 muss her. Als Business Kunde haben wir einen festen Ansprechpartner bei der Telekom Niederlassung vor Ort, der bei solchen Sachen behilflich sein sollte. Nach etwa einer Woche jeden Tag mal anrufen, hatte ich den Herren dann tatsächlich mal an der Strippe. Ahnung hatte er allerdings keine, weder von DSl, noch von den eigenen Angeboten. Was will der eigentlich beraten?

Ich wollte DSL 16000 Business Flat, mit Router R800 (ein umgelabelter LanCom Router btw.) und BusinessCall Flat.  Tags drauf der Rückruf, ja sollte klar gehen. Stichtag für die Umstellung sollte der 11.12. sein. Ob ich den Auftrag erteilen will. „Januar würd auch noch reichen, aber ja, klar“, sagte ich, „aber denken Sie bitte dran, durch den Wechsel auf ADSL2 steht bei uns der Laden still, wenn Sie uns nicht rechtzeitig den neuen Router VOR DER UMSTELLUNG der Leitung schicken“. „Kein Problem“, tönte es vom anderen Ende her. Ich häts wissen müssen.

Die nächsten 1-2 Wochen dachte ich mir relativ wenig. Ein bissl gewundert hab ich mich über die fehlende Auftragsbestätigung. Normalerweise kommt da immer ne schriftliche Auftragsbestätigung. Diesmal nicht. Nachdem auch kein Router ankam, dachte ich, jetzt rufste mal nochmal an und frägst nach, was da los ist. Sicher ist sicher.

Frage: Warum verschickt die Telekom keine Auftragsbestätigungen mehr?

Mein Kundenberater war mal wieder verschwunden, die Hotline gab mit zunächst keine Auskünfte sondern immer nur die alte Rufnummer, an der niemand mehr ran ging. Nach ein paar weiteren Telefonaten bekam ich die Handynummer des Teamleiters für den Geschäftskundenvertrieb, er versprach mir via Handy im Auto(?!), sich der Sache anzunehmen.

Tipp: So dringend is das dann doch wieder nicht, dass ich Leuts im Auto anrufen muss.. die können mir da in dem Moment eh ned helfen. Habt ihr bei der Telekom keine Supervisor mehr, die ein Büro haben?

Resultat: Trotzdem wieder nix. Immer noch keine Ahnung, was los ist, immer noch kein Router, der Tag der Umstellung rückt näher und näher. Jede Hotline Nummer die ich gefunden hab angerufen wusste nix, niemand konnte mir irgendwas sagen, ausser, rufen Sie Ihren Kundenberater an, der hat die Nummer XYZ. Schön und gut, nur die Nummer XYZ existiert inzwischen schon gar nicht mehr. „Kein Anschluss unter dieser Nummer“. Anscheinend wurde der Telekom Standort hier wegrationalisiert? Rufumleitung kennen die bei der Telekom nicht?

Die letzten Jahren wurden die Telefonnummern der lokalen Telekom Filialen Stück für Stück abgeschafft, vor Jahren noch konnte ich ein Telefonbuch aufschlagen und dort die Rufnummer der kleinen Telekomniederlassung hier raussuchen und mich dort über die Telefonzentrale verbinden lassen. Das geht heute nicht mehr. Alles wird an das große Callcenter umgeleitet, wo man da rauskommt, ist Glücksache. Wenn man einen gezielten Ansprechpartner erreichen muss, ist man verloren, wie ich schmerzlich feststellen musste. „Der Herr XYZ ist ihr Betreuer, der Hat Rufnummer ABC“. „Rufnummer ABC gibts nicht mehr“. „Doch die steht da.“ „Dann rufen Sie doch mal da an, kein Anschluss unter dieser Nummer klingt komisch, oder?“. „Ja, dann weiss ich auch nicht.“

Am Montag nochmal 4 Stunden alle Hotlines abtelefoniert. 

Wenn mich das nächste Mal jemand für 20 Minuten auf einer kostenpflichtigen (1.99 pro Minute waren es glaub) PREMIUM Hotline auf die Warteschleife hängt, werd ich zum Tier, ich sags Euch. Gott, was ist denn das für ein Scheiss. Lieber Callcenter Mitarbeiter, wenn du keinen Plan hast, dann sags, aber lass mich ned in der Leitung verhungern.

Zufällig stellte mich die ganz normale 0800 Nummer diesesmal zu einem sehr kompetenten Techniker im fernen Schwabenländle durch, der wirklich nen Plan hatte. Er konnte mir bestätigen, dass der Auftrag und die geplante Umstellung tatsächlich im System für nächste Woche vermerkt sind und er sah auch, dass noch kein Router geliefert wurde. Sein Kommentar: „da kümmere ich mich drum, Sie bekommen spätestens in 4 Tagen Ihren Router geliefert. Ohne den geht gar nix, denn ihr jetziges Modem kann an ADSL2 nicht mehr funktionieren. Sie wären dann also die letzten 2 Wochen im Weihnachtsgeschäft offline, denn zurückstellen auf ADSL dauert auch ein paar Tage. Ich kümmere mich drum.“ Wenige Minuten später der Rückruf: Ihr Router geht heute noch in den Versand, sollte Donnerstag bei Ihnen sein, wenn er Donnerstag nicht da ist, rufen Sie mich bitte Freitag an, dann halten wir die Umstellung der Leitung noch zurück. Gab mir seinen Namen und seine Rufnummer.

Nun, heute ist Mittwoch. Ich bin gespannt wie ein Flitzebogen, ob was und wann heute oder morgen geliefert wird. Ich warte auch drauf, ob meine Zusatzleistungen wie FastPath, Feste IP und erweiterter Upstream diesesmal auch wirklich geschalten werden, oder obs nur auf der Rechnung stehen wird, ohne entsprechende Leistung. Ich werde berichten.

Norton Frust ist Gibsons Lust – oder: Festplattendiagnose-Tool

Von | 21.08.2006

Ok, das Reimen lass ich lieber bleiben. Zum Topic: Schon seit Jahren bemerke ich, wie die Qualität der Symantec Produkte in der Norton Reihe immer weiter den Bach runter geht. Im Zuge meiner Festplatten Basteleien kam der Wunsch nach einem vernünftigen Plattendiagnose Programm auf, als alter Sack denkt man da natürlich primär an den guten alten Norton Diskdoktor, NDD.EXE. Früher war der echt brauchbar, es gab ihn für ein paar Mark und er funktionierte recht gut und hatte eine informative Anzeige, wo auf der Platte sich denn nun defekte Sektoren breitgemacht hatten.

Da das XP eigene Boardmittel chckdsk für die Analyse und Reparatur logsicher Probleme im Dateisystem zwar sehr gut, aber für eine hardwarenahe Untersuchung der Platte, inkl. Controller und Plattenoberfläche nur mäßig geeignet ist, entschloss ich mich nach vielen Jahren mein System mal wieder mit einer Symantec Software zu verseuchen. Dank „Sofort Online Kaufen & Download“-Funktion im Symantec Shop hat man heute schneller einer Vollversion von Norton auf seinem Rechner installiert, als man se wieder los werden kann, wenn man die Nase voll davon hat. (Übrigens: wer im Norton Online Store Download Versionen einkauft, sollte schnell mal vorübergehend in die USA auswandern – wer den Shop mit „beschönigten“ Daten füttert spart bei den niedrigeren US Preisen und dem schwachen Dollarkurs  ordentlich Geld. Ist bei vielen Download Shops so und funktioniert eigentlich immer problemlos)

Doch noch vor dem Kauf kam schon der erste Schrecken.. NDD.EXE einzeln gibbet nicht mehr. Ok, halb so wild, dann nimmt man halt die Toolsammlung „Norton Utilities“.. Pfeiffendeckel.. gibts auch nicht mehr, ist jetzt Bestandteil von Norton Systemworks.   Ok, dann halt das.. Nun gibt es Norton Systemworks 2006 in 3 Editionen: „Basic“ für 39.99 Euro, „Normal“ für 79,99 Euro und „Premier“ für stolze 99.99 Euro.

Nun ratet mal, was nirgends auf der Symantec Homepage steht und auch in kaum einen Testbericht oder im Web zu finden ist: Richtig, Norton Diskdoktor gibts nicht in der günstigen Basic Version. Nein wieso auch, wer ein wirklich nützliches (dachte ich zumindest) Tool von Norton will, der hat gefälligst 99,99 Euro hinzublättern, auch wenn er den ganzen anderen Kram nicht braucht und auch nicht will. An dieser Stelle verliess mich die Kaufwut und ich entschloss mich, doch erst mal die kostenlose Demoversion auszutesten. Welch ein Glück!

Die Installation der Systemworks 2006 Premier Demo verlief soweit problemlos, wichtig für mich war es, den ganzen anderen Kram gar nicht erst installieren zu lassen, sondern nur Diskdoctor und Co. Alles kein Thema. Dann aber der Schock:

Symantec, was habt ihr aus Diskdoktor gemacht?

Ein popeliges Frontend für chkdsk.. nichts mehr da vom alten Klassiker NDD.EXE aus vergangen Tagen. Aber rein gar nix mehr. Wo sind die Details, wo die Sektoransicht? Ein einsilbger, einseiter Report in dem auch nix anderes steht, als Chkdsk anzeigt. Welche Test macht ihr überhaupt noch, ausser im Hintergrund chkdsk zu starten? Denn wenn man gar versucht, die Bootplatte mit Norton Diskdoktor zu untersuchen, was wegen dem exklusiven Zugriff nicht gehen kann, ist die einzige Funktion von Norton Diskdoctor, das original CHKDSK beim nächten Systemstart zu starten. Das ist alles. Das ist traurig. Das ist reine Geldverschwendung!

Ich frage mich, was Peter Norton sagt, wenn er heute mal zurückschaut und sieht, wie Symantec „seine“ Produkte und den Namen Norton, die damals für Qualität standen, in den Graben fährt. Ich hoffe, er hat genug Geld dafür bekommen.

Was bleibt also noch?

Nun, ein weiteres Urgestein der Computer Szene gibt es auch heute noch: Steve Gibson, Inhaber der Gibson Research Corporation, www.grc.com. Zwischenzeitlich wegen seinen Anti-Hacker Bemühungen immer wieder mal in der Presse zu finden – immer mit intelligenten Lösungen, hilfreichen Diensten oder einfach nur interessante Szene Berichten, siehe z.b. den kostenlosen Portscan Dienst ShieldsUP zum Test, ob die Firewall was taugt, oder die zahlreichen kleinen Sicherheits-Tools, die eigentlich Microsoft hätte liefern sollen. In was ich mittlereile die gute Alte Gibson Manier nenne: kleine, in Assembler programmierte Tools, die exakt den gewollten Zweck erfüllen. Das exakte Gegenteil von Bloatware.

Der selben Tradition folgt auch Gibsons Disk Analyse Programm SpinRite. Ursprünglich noch aus Zeiten der MFM und RLL Platten , wurde es immer weiterentwickelt, stetig verbessert und an heutige Verhältnisse angepasst.Die aktuelle Version 6.0 hat im Gegensatz zu Nortons DiskDoktor nicht s an Nützlichkeit eingebüsst. Im Gegenteil, Spinrite 6 bietet heute alles, was man von einem Plattendiagnose Tool erwartet, ist „blitzschnell“ und bietet alle Informationen, die zur Diagnose von Festplattenfehlern notwendig sind. Dazu die erste mir bekannte vollständige Implementierung des SMART Diagnosesystem, tatsächlich funktionierende Reperaturfunktionen zur Datenrettung von Dateien auf defekten Sektoren, zum Retest als defekt markierter Sektoren, uvm. Was Spinrite alles kann, zeigt am besten dieses Video.

Sicher, Spinrite kostet mit seinen 89 USD (ca. 70 Euro lt. FXConverter) im Sofort Download einen auf den ersten Blick stolzen Preis. Und oben hab ich sogar über die 99,99 Euro für das viel umfangreichere Norton Systemworks gemeckert – jetzt preise ich „nur“ ein Disk Diagnose Programm an, das 70,- Euro kostet? Nein, denn das ist in meinen Augen kein Widerspruch, wer schonmal Daten vonnem defekten Sektor auslesen wollte, oder eine Platte schnell auf physikalische Fehler testen wollte oder die „Fehlerraten“ seines Laufwerks kontrollieren will oder muss, für den ist jeder Cent in Spinrite goldrichtig installiert.

Kleine Kuriosität am Rande: Spinrite ist nur ein paar wenige hundert KB groß, inkl. Installer, der zum Generieren der diversen Bootmedien verwendet wird.  

Kleiner Nachtrag:

Erstaunlicherweise liess sich die Systemworks 2006 Premier Edition – zumindest die wenigen Teile, die ich installiert hatte – problemlos und ohne Verrenkungen restlos wieder entfernen. Dachte schon, ich müsste die Platte neu formatieren, um das wieder los zu werden. Aber darin hab ich ja inzwischen Übung.

Amilo 3438G – nur Schrott?

Von | 21.08.2006

Wenn man den Berichten in diversen Online Foren über dieses Notebook so liest, glaubt man, dass es sich bei diesem Notebook und den größten Mist handelt, den es je gegeben hat.

Ich hab das M3438G nun seit einem halben Jahr im Einsatz und bin absolut zufrieden mit dem Teil. Sicher, die oft genannten Probleme wie BRR Bug und Lagging Issue sind da, aber im normalen Alltagsgebrauch fallen diese überhaupt nicht auf.

Irgendwie kann ich mir das nur so erklären, dass Spielkinder, egal welchen Alters, sich dieses Notebook gekauft haben, in der Hoffnung, dass man für nicht mal ganz 1300,- Euro ein voll spieletaugliches Notebook bekommen würde. Und genau das ist ein Trugschluss, so sind die Centrino CPUs nicht gleich performant wie die Desktop Kollegen, weil letztere nicht zuletzt höher takten Aber vor allem sinds die „GO“ bzw. „Mobile“ Varianten der Grafikchips, sei es nun ATI oder NVIDIA – beim M3438G isses NVIDIA. Die Leistung dieseser Notebook Chips entspricht nicht annährend der Leistungsfähigkeit gleichnamiger Desktop Chips gleichen Namens (aber ohne den GO bzw. Mobility Zusatz).

Ein Notebook ist ein Notebook und keine Spielemaschine. Mit diesem Hintergedanken sollte man also, wenn man am M3438G aus Fujitsu-Siemens Amilo Serie liebäugelt, an die Sache rangehen. Wer Spielen will, kauft sich doch besser nen Desktop, wer auf dem Ding arbeiten will, bekommt für wenig Geld ein Top ausgestattetes Notebook geliefert.

Will nicht heissen, dass man mit dem 3438 nun gar nicht spielen kann, im Gegenteil, wir spielen World of Warcraft auf dieser Kiste, oder auch mal ein Autoassault, ein Battle for Middleearth II und noch viele weitere aktuelle Spiele absolut problemlos.

PHP codiert: OnlineEncoder

Von | 17.08.2006

Alternative für gelegentliche Nutzung / Hobbyautoren.
Im ersten Artikel PHP codiert berichteten wir über den Sinn und Zweck verschlüsselter PHP Quellcodes. Die dort genannten PHP Encoder aus dem Hause Zend und Ioncube sind allerdings preislich für Hobby PHP Autoren wahrscheinlich zu teuer. Eine kostengünstige Variante, seine PHP Dateien sicher verschlüssen zu lassen ist das Online Encoder Werkzeug der Firma Ioncube. Damit können bei gelegentlichem Bedarf schnell, unkompliziert und vor allem preiswert Ihre Quellcodes codiert werden, ohne das man sich zuerst eine teure Lizenz des Vollproduktes kaufen muss.

Zur Nutzung des Online Encoders muss man sich zunächst auf der Ioncube Homepage als Benutzer registrieren lassen und dann in den eigentlichen Kundenbereich einloggen. Die Registrierung selber ist kostenlos.

Als registrierter Benutzer kann man den Online Encoder bereits kostenlos antesten. Dazu wählt man im Kundenbereich einfach mal den Punkt Encode aus dem Hauptmenü. Auf der nun erscheinenden Encode File Seite gibt man mit Hilfe des Durchsuchen Buttons seine zu codierenden Dateien an. Entweder einzelne PHP Scripte oder ein ZIP gepacktes Archiv mir mehreren Scripten, die auf einen Rutsch kodiert werden sollen. Für den kostenlosen Test der Codierung wählt man noch die „Test Encoding“ Checkbox aus und wer will kann sich die benötigten Ioncube Loader kostenlos noch mit in das fertig codierte Archiv mit dazupacken lassen.

Ist das Formular auf dieser Seite ausgefüllt, klickt man auf Upload. Die zu codierenden Dateien werden nun zum Encoder Server übertragen, im nächsten Schritt kann man nun nochmal die Auswahl an zu codierenden Dateien bestätigen und wenige Sekunden später steht die fertig codierte Anwendung zum Download bereit. Das wars schon.

Die kostenlose Test-Verschlüsselung ist Laufzeitbeschränkt auf 8 Stunden, danach sind die codierten Test-Dateien nicht mehr lauffähig. Diese 8 Stunden reichen aber vollkommen aus, um sich von der Funktionalität der codierten Scripts und der Kompatibilität mit Ihrem Webserver zu überzeugen. So erhält man eine kostenlosen Testmöglichkeit für die Leistungsfähigkeit der Codierung und dem Umgang mit codierten PHP Scripten.

Wer seine PHP Scripte nun dauerhaft lauffähig haben möchte, der muss für diesen Encoder Dienst eine kleine Gebühr bezahlen. Dazu lädt man im Bereich MyAccount sein Konto mit Online Encoder Credits auf. Ein Credit kostet 0,10 Euro, Mindestabnahme sind 50 Credits zu 5 Euro. Bezahlt werden kann mit Kreditkarte oder aber per Bankabbuchung aus vielen EU Ländern (darunter auch Deutschland). Käufe mit Kreditkarte werden sofort ausgeführt, man kann also gleich loslegen.

Wir haben mehrere Tests mit unterschiedlichen PHP Projekten gemacht, die Kosten der Codierung richtet sich je nach Größe und Komplexität der Anwendung. Die Codierung kostet immer mindestens 5 Credits, also 50 Cent, das teuerste Script, welches wir zur Codierung eingesandt hatten wäre auf 1 Euro gekommen. So ganz nachvollziehen, wie die Preise berechnet werden können wir nicht, aber man kann stets das Projekt zunächst mal als kostenlosen Test verschlüsseln lassen und erhält dann auf der Downloadseite den exakten Preis, was die Verschlüsselung dann wirklich kosten würde. Eine PHP Anwendung muss nicht komplett verschlüsselt werden, wer sparen will, kann also nur bestimmte Dateien aus der Anwendung verschlüsseln lassen und später codierte und nicht-codierte Dateien mischen, das ist kein Problem.

Fertig verschlüsselte Dateien und Projekte stehen auf der Encoded Files Seite für Sie zum Download bereit. Erst beim Download selber fallen die Kosten für die Verschlüsselung an. Eine einmal bezahlte Anwendung ist weiterhin auf dieser Seite aufgeführt und kann beliebig oft downgeloadet werden – nur beim ersten Download einer kostenpflichtigen Codierung werden Ihnen die entsprechenden Credits als Kaufpreis vom Konto abgezogen.

Wir sind mit dem Online Angebot des Ioncube Encoder sehr zufrieden. Unserer Meinung nach ist es das ideale Angebot, für preisbewusste PHP Programmier, Ihre Quellcodes schnell und preiswert und unkompliziert zu schützen, auch ohne vorher teure Lizenzen erstehen zu müssen. Zwar ist der Online Encoder nicht ganz zu funktioniell wie das kommerzielle Vollprodukt für den heimischen Rechner, es bietet keine Laufzeitbeschränkungen, individuelle Anpassung der codierten Dateien, etc. aber für einen kleinen Preis erhält man wirkungsvoll geschützte Quellcodes. Unbedingt mal antesten!

Übrigens, wer sich nach Tests mit den Online Encoder dazu entschliesst, die Vollversion des Standalone Encoders für seinen PC zu kaufen, kann noch vorhandene Online Encoder Credits wieder zurückgeben und bekommt den entsprechenden Betrag als Gutschrift vom Kaufpreis abgezogen. Ein netter Zug finden wir.

Spamanalyse auf 1und1 Rootserver mit Plesk 8

Von | 02.08.2006

1&1 aktuelle Rootserver, zumindest die Suse Kisten sind mit QMail ausgestattet. Was mir als alter SendMail Fan doch gelegentliches Kopfzerbrechen bereitet, denn zumindest in meiner Online Bibliothek findet sich nur sehr wenig Literatur zum Thema QMail. Was mich in letzter Zeit mehrfach die Wand hochgehen liess, ist die Tatsache, dass diese 1+1 Kisten mit Plesk 8 zumindest in Sachen E-mail Statistik immer noch schmerzlich wenig zu bieten haben. Seit der Plesk 7.5.x Version kam zwar eine in Plesk integrierte Ansicht der Lokalen und Remote eMail Queue hinzu, aber die hilft einem auch nur, wenn die Mails noch nicht zugestellt wurden und man zufällig dann reinguggt.

Nun ist Spam in der letzten Zeit wirklich zum Problem geworden, selbst unsere weniger stark ausgelasteten Server schaufeln gut und gerne 100.000 Nachrichten am Tag in der Gegend herum. Überwiegend Spam, der trotz aktivierten MAPS Blacklisten, Sender Policy Framework, etc. auf der Kiste aufschlägt. Andere Spam Angriffspunkte, die derzeit extrem populär bei der Spambranche sind, sind ungeschütze Kontaktformulare oder allgemein alle Scripts, die irgendwie Mails versenden können. Auch immer wieder gerne gesehen sind Kunden mit verseuchten PCs, die schnell mal ein paar tausend Mails auf den Server blasen.

Um der ganzen Sache etwas besser Herr zu werden und den eMail Traffic etwas besser überwachen zu können, bin ich schliesslich auf das kostenlose ISOQLOG gestossen, was die QMAIL Protokolle des Server analysiert und entsprechende eMail Tagesstatistiken erstellet: Wer hat wann wieviel EMails empfangen, versendet, wieviel Datentransfervolumen hat er verursacht.

Die Installation war leider mal wieder Linux typisch ätzend. Bequeme RPM Installdateien von ISOQLOG sind leider seit zig Versionen veraltet, so dass einem mal wieder nur die Installation per Make bleibt. Die war dann allerdings wenig problematisch, die aktuelle Plesk 8 Suse 9.3 Installation bei 1und1 erfüllte alle Installationsvoraussetzungen ohne nachinstallieren irgendwelche abhängigen Packages. Leider ebenfalls wieder Linux typisch ist die Dokumentation von ISOQLOG so gut wie nicht existent und im Großen und Ganzen eher nutzlos. Bei der Installation sehr nützlich hatte sich die Seite Qmailrocks.org erwiesen.

Für die Installation auf Suse9.3 mit Plesk 8 mussten ein paar Änderungen in der Config Datei gemacht werden, hier die Abweichungen zur Config aus dem Tutorial von Qmailrocks.org:

logtype = „qmail-syslog“
logstore = „/usr/local/psa/var/log/maillog“
outputdir = „/srv/www/vhosts/ihr-server.de/httpdocs/isoqlog“

Der Cronjob zur automatischen Aktualisierung kann bequem über das Plesk Interface eingerichtet werden. Sinnvoll ist es auch, das outputdir zusätzlich noch mit einem .htaccess Verzeichnisschutz zu sichern, das geht auch einfach über die Plesk Oberfläche.

Teilweise kommt es durch die Logrotation zu etwas merkwürdigen Ergebnissen, die sich dann im Laufe des Tages nach der Rotation dann wieder korrigieren. So ganz optimal ist es also noch nicht. Auch gibt ISOQLOG keine Auskünfte über die große Masse an von relaylock abgewiesener Mails, was den erhofften Nutzen von ISOQLOG dann doch wieder etwas reduziert hab, aber hilfreich ist es allemal.

PHP Quellcodes schützen mit Ioncube oder Zend Encoder

Von | 12.07.2006

Ein Problem, das uns immer wieder vor dem Einsatz von PHP im professionellen Einsatz im Agenturumfeld zurückschrecken lies, war die Tatsache, dass in PHP geschriebene Anwendungen immer als mehr oder weniger frei zuänglicher Quellcode ausgeliefert werden mussten. In der klassischen Variante werden PHP Quelltexte frei lesbar und vom Kunden modifizierbar auf deren Homepage abgelegt. Jeder, der FTP Zugang auf den entsprechenden Host hat, ist so in der Lage, die Quelltexte der Anwendungen nicht nur einzusehen, sondern auch beliebig zu modifizieren. Das mag vielleicht gut und recht sein, wenn man sowieso Open Source Lösungen anbieten will, hat aber für den kommerziellen Einsatz einen eklatanten Nachteil:
PHP ist eine Scriptsprache, in der die frei einsehbaren Quellcodes (eingebettet in einer HTML Seite bzw. verlinkten PHP Dateien) einer Anwendung zu Laufzeit interpretiert werden. Das heisst also in der Praxis: Ihre PHP Anwendung ist zu jeder Zeit voll einsehbar. Um eine klassische PHP Anwendungen auf dem Webserver installieren zu können,  muss der komplette Quellcode zu Verfügung gestellten werden. Ein kommerzieller Vertrieb von PHP Anwendungen kommt deshalb kaum in Frage.

Aber auch im Hosting Umfeld ist die Sache problematisch, jeder, der per FTP auf den Host zugreifen kann, auf dem Ihre PHP Anwendung installiert ist, kann sich an den Quellcodes bedienen. Ein weiteres Problem sind experimentierfreudige Kunden, welche eigenmächtig Änderungen oder „Verbesserungen“ an Ihrer PHP Anwendung vornehmen und dann im Problemfall Supportleistungen von Ihnen verlangen, weil nix mehr geht oder Probleme auftauchen. Auf Dauer war es mir dann irgendwann zu dumm, jedesmal die komplette Anwendung erst mal per WinDiff zu prüfen, ob nicht wieder mal jemand dran rum gefummelt hatte.

Die Lösung für all diese Problem heisst: Codierung der PHP Quellcodes. Die 2 bekanntesten und zuverlässigsten Lösungen dafür sind zum einen der Zend Encoder aus dem Hause Zend oder aber der Ioncube Encoder aus dem Hause Ioncube.

Beide Programme sind in der Lage, den PHP Quellcode sicher zu verschlüsseln und so vor neugierigen Blicken, Langfingern und Möchtegerne-Programmverbesserer zu schützen. Die Verschlüsselung ist irreversibel, ein Reverse Engineering oder die Rückverwandlung der verschlüsselten Dateien in lesbaren und bearbeitbaren Quellcodes ist nicht mehr möglich. Bei beiden Lösungen ist uns kein Fall bekannt, in dem die Verschlüsselung jemals geknackt wurde. Dies unterscheidet Zend Encoder und IonCube Encoder auch vor reinen „Obfuscating“-Lösungen, welche zwar das Lesen eines Quellcodes erschweren, aber eine Reverse-Entwicklung nicht verhindern können.

Die Funktionsweise der Encoder ist dabei wie folgt: der frei einsehbare Quellcode in ASCII Text einer PHP Anwendung wird zunächst compiliert und in ein binäres byte-code Interims Format umgewandelt und darüber hinaus mehrere Stufen der Verschlüsselung angewendet. Die beim Verschlüsselungsvorgang entstehenden Dateien sind nun nicht mehr einsehbar/modifizierbar, zuverlässig geschützt und plattformunabhängig einsetzbar. Nur diese codierten Dateien müssen an den Kunden weitergegeben werden, damit die PHP Anwendung eingerichtet und ausgeführt werden kann, die Quellcodes bleiben sicher bei Ihnen.

Weitere Vorteile von codierten PHP Anwendungen:

  • Durch die Verschlüsselung ergeben sich neben der generellen Möglichkeit, PHP Anwendungen kommerziell als „Closed Source“ zu vertreiben auch ein ganz neues Lizenzmodelle für die von Ihnen entwickelten PHP Anwendungen: Verkauf des Produktes inkl. Quelltext an den Kunden oder aber Verkauf eines einfachen Nutzungsrechtes welches keine Quellcodes mehr beinhaltet. Je nach Encoder sind auch Modelle wie Zeitmodelle oder in der Useranzahl beschränkte Linzenzen möglich.
  • Die Ausführung der codierten PHP Programme erfolgt in der Regel schneller als nicht codierte PHP Programme. Das steigert die Performance und kann die Serverlast reduzieren.
  • Nachträgliche Änderungsversuche an den codierten Dateien sind nicht mehr möglich. Eine einmal installierte PHP Anwendung kann vom Kunden nicht mehr verschlimmbessert werden, jeder Versuch einer Änderung würde die jeweilige Datei unbrauchbar machen (die Datei muss dann nochmal aufgespielt werden). Auf diese Weise können Sie sicherstellen, dass Ihre Anwendung unverändert bleibt.
  • Vielleicht etwas zweifelhaft, aber nicht unwichtig in einer Branche, in der mit harten Bandagen gekämpft wird: Codierte PHP Anwendungen binden den Kunden an Sie und verhindern die unbefugte Nutzung durch Dritte. Nehmen Sie an, Sie erstellen für einen Kunden eine PHP Anwendung. Nach einiger Zeit nun will der Kunde mit dem gesamten Projekt zu Ihrer Konkurrenz wechseln. Die Frage, ob der Kunde nun berechtigt ist, die von Ihnen erstellten Quellcodes seiner neuen Agentur zur Weiterbearbeitung zu geben und wie Sie das verhindern können stellt sich erst gar nicht, wenn der Kunde nur ein reines Nutzungsrecht bezahlt hatte und somit nur die codierten Dateien, aber nie die Quellcodes erhalten hat. Der Wechsel zu einer anderen Agentur hieße dann, das die andere Agentur nicht einfach die von Ihnen geschaffene Lösung einheimsen kann.

Nachteile der Codierung:

  • Damit die so kodierten PHP Dateien auf dem Webserver auch wirklich ausgeführt werden können, muss das jeweils passende kostenlose PHP Erweiterungsmodul zur Ausführung der codierten Dateien auf dem WebServer vorhanden sein. Also entweder der Zend Optimizer, oder der Ioncube Loader.
    Wer Zugriff auf die PHP.INI seines Webserver hat, kann die Installation des Zend Optimizers bzw. Ioncube Loaders leicht selbst vornehmen. Aber auch Nutzer günstiger Shared Hosting Angebote ohne die Möglichkeit PHP Erweiterungen zu installieren können codierte PHP Anwendungen ausführen: sowohl der Zend Optimizer als auch der Ioncube Loader sind auf vielen Servern bereits vorinstalliert – Tendenz steigend – oder sie werden auf Anfrage vom Serverbetreiber dann nachinstalliert.
    Kann man aus welchen Gründen auch immer die entsprechende Erweiterung nicht auf seiner Homepage installieren (lassen), dann hat Ioncube übrigens deutlich die Nase vorne:  Unter Linux basierten Servern reicht es schon aus, wenn man den entsprechenden Loader einfach mit in das Hauptverzeichnis der PHP Anwendung kopiert – die Anwendung lädt falls notwendig den entsprechenden Loader automatisch nach. Zend untersützt dieses Nachladen bei Bedarf leider nicht.
  • Codierte PHP Dateien sind etwas zickig im Handling, so müssen die PHP Dateien von FTP Programmen im Binärmodus übertragen werden, damit die Datei nicht während der Übertragung beschädigt wird.
  • Der Preis. Beide Produkte sind kostenpflichtig und für Hobbyautoren nicht gerade billig, wobei der Preis des Ioncube Encoders in der Basisversion mit 199 USD deutlich unter dem Preis des Zend Encoders liegt, welcher in der günstigsten Variante als SmallBusinessEdition mir 395,- USD pro Jahr schon deutlich größere Löcher in das Budget kleiner Entwickler reisst. PHP Programmierer mit knappem Budget sollten mal schnell unseren 2. Artikel zum Thema PHP codiert durchlesen, dort stellen wir den Ioncube Online Encoder vor, mit dem man sehr preiswert, oft unter 1 Euro, seine Projekte verschlüsseln lassen kann.

Digitalkamera kaufen

Von | 17.12.2005

Verarschung mit technischen Angaben

Vor allem die TV Versandhäuser sind prima Beispiele, wie man mit nichtsnutzigen Angaben versucht, Käufer in die Irre zu leiten.. Primitive Billigstkameras werden dort anhand diverser technischer Werte zu wahren Leistungsboliden schön geredet – und in Wirklichkeit hat man nix weiter als ein billiges Spielzeug ergattert. Schauen wir uns mal ein paar Punkte an, was dahinter steckt und wie man hier in die Irre geführt wird.

Die Auflösung:

Da wird marktschreierisch mit MegaPixel Auflösungen um sich geworfen, Kameras für 50 Euro mit mehr als 6 Millionen Pixeln – oder 6 MegaPixeln. Unwahrscheinlich. Wie schon vor zig Jahren bei den Scannern bedient man sich hier einer interpolierten Auflösung, das heißt, die tatsächliche Auflösung wird einfach per Software hoch gerechnet. So kommt das Bild dann am Ende zwar auch auf seine Pixelanzahl, nur wenn ich ein „1-Megapixel“-Bild um den Faktor 5 per Software aufblase – das genau passiert bei der Interpolation, dann hab ich die selben 1 Million Pixel wie ohne Interpolation, nur ist nun jeder Pixel 5 Mal größer als vorher. Das bringt rein gar nix. Und das sowas natürlich nicht die selbe Qualität hat, wie eine Kamera welche 5 Megapixel von Haus aus ohne Interpolation auflösen kann, dürfte wohl jedem klar sein. Die interpolierte Auflösung ist also völlig für die Katz. Es bringt nicht mehr Qualität und verbraucht zusätzlich noch wesentlich mehr Platz auf der Speicherkarte, so dass man weniger Bilder speichern kann. Entscheidend ist nur die wirkliche Auflösung. Diese Interpolierung kann man dann beim Ausdruck am PC / am Drucker selber noch anwenden – bzw. der Druckertreiber erledigt dass dann automatisch.

Dazu will ich gleich mal anmerken, das ein Anwender, der nur Bilder für die Homepage oder zum Betrachten am TV oder Computer machen will, wahrscheinlich mit 1 Megapixel auskommt. Wer Standard Bildformate 10x15cm ausdrucken will, dem reichen  2 bis 3 Megapixel. Nur wer größere Formate drucken will, braucht mehr Pixel. Wer seine Bilder in A4 Format drucken will, sollte so 4-5 MegaPixel ins Auge fassen – aber bitte nicht interpolierte Megapixel. 8+ Megapixel bieten eh nur Kameras aus dem Profi Lager mit entsprechendem Preisschild, da geht es primär darum, Bilder in einer Auflösung zu erhalten, die auch im klassischen Druck (Kataloge, Zeitschriften) noch eingesetzt werden können – dazu bedarf es wesentlich höherer Auflösung als fürs Bilder ausdrucken daheim oder über den Photo-Service.


Das Objektiv & der Bildsensor

Wichtiger wie die Pixelanzahl ist zum einen die Qualität des verwendeten Objektives, der Linsen und des Bildsensors. Taugt das Objektiv nix, erhält man halt am Ende Ende 2 Millionen matschiger Pixelbrei. Das hilft auch nicht wirklich weiter. Das ist das Problem der Handy-Kameras, Kameras am Schlüsselanhänger, etc die zwar inzwischen meistens 1.3 Megapixel Auflösung bieten, aber durch die kleinen billigen Plastikobjektive – kombiniert mit den billigen CMOS Sensoren kommt damit halt immer noch keine Freude auf.

So sind in der Regel die CCD Sensoren der namhaften Hersteller den billigeren CMOS Sensoren vorzuziehen, es gibt ein paar Ausnahmen im HighEnd Bereich, die aber in den billig Kameras nicht anzutreffen sind. (Anders gesagt, es gibt teure CMOS Sensoren, die den CCDs in nichts nachstehen, aber die sind nur in sehr teuren Kameras zu finden). Problem der billigen CMOS Sensoren sind starkes Bildrauschen und schwache Helligkeit sowie minderwertige Videoaufnahmen.

Größere CCDs (aktive Fläche) bringen meist auch etwas bessere Resultate als die kleineren CCD Vertreter, darum wird bei CCDs auch oft die tatsächliche aktive Fläche in den technischen Daten genannt. Wobei sich diese Faustregel „größeres CCD ist besser“ dank der SuperCCDs in Waben Struktur von Fujifilm u.a. relativiert hat.

Im Niedrigpreis Segment findet man kaum Angaben zum verwendeten Sensor, drum ist der Teil wahrscheinlich unnütz, ich halte persönlich so, dass ich im Billigpreissegment um CMOS Sensoren einen Bogen mache, wenn ich denn das Wort irgendwo finden kann. Ist zwar sehr vereinfacht, aber bin bislang damit nicht so schlecht gefahren.

Der Zoom

Es gibt 2 Arten von Zoom, der optische Zoom und der digitale Zoom. Nein, eigentlich gibt es nur optischen Zoom und dann noch digitalen faulen Zauber. Digitaler Zoom ist für die Katz. Beim digitalen Zoom nimmt man einen Bereich eines Bildes, schneidet ihn aus, vergrößert ihn per Software und wirft den Rest des Bildes weg. Ist genau das selbe wie mit der interpolierten Auflösung – auch den digitalen Zoom, kann man bequem daheim am PC selber besser und gezielter in selbst preiswerten Grafikprogrammen machen, als wenn man es der Kamera überlässt. Zum einen hat man zuhause besser die Möglichkeit, den Ausschnitt zu wählen, als man das auf den kleinen, meist nicht sonderlich scharfen Displays der Kamera hat, zum anderen arbeiten höherwertige Bildbearbeitungsprogramme meist besser bei der Vergrößerung als es die Kameras selber tun und man hat mehr Einfluss auf das Ergebnis über die diversen Bearbeitungs- und Filterfunktionen.
Die Angabe digitaler Zoom ist also mal wieder für den Dummenfang prädestiniert. Der unbedarfte Neu-Käufer liest 10x digital Zoom und freut sich, dabei ist das Ergebnis des digitalen Zooms wenn man auf Qualität Wert legt einfach nur ungenügend. Der optische Zoom ist das Entscheidende, dort wird die Vergrößerung rein wie der Name schon sagt optisch durch das Zusammenspiel der Linsen erreicht, ohne Qualitätsverlust. Da gibts nix zu tricksen und zu pfuschen dran, optischer Zoom kann durch nix ersetzt werden. Per optisch Zoom herangeholte Bildausschnite nutzen die volle Auflösung der Kamera nur für diesen Bildauschnitt, so erreicht man die optimale Qualität für den Bildausschnitt – nachträglich/digital lässt sich das nicht in vergleichbarer Qualität realisieren. Wer also Zoom Funktion an seiner Digitalkamera will, der braucht optischen Zoom.

Das Problem mit dem optischen Zoom ist folgendes, damit ein optischer Zoom machbar ist, muss der Abstand der Linse zum Sensor vergrößert werden. Nimmt man nun so eine ultraflache Digitalkamera, geht das nicht – es ist einfach nicht genug Platz. (Übrigens: wer eine ultaflache Digitalkamera sieht, die mit Zoom ohne Angabe ob optisch oder digital wirbt, der kann meist davon ausgehen, dass es sich um digital Zoom handelt, weil das Objekt nicht bewegt werden kann.) Darum haben eben viele der sehr flachen Digitalkameras keinen oder nur kleine optischen Zooms, bzw. das Objektiv fährt aus dem Gehäuse heraus, wenn optischer Zoom benutzt werden soll. So ein 3fach Zoom einer Digitalkamera ist in der Praxis im Vergleich zur herkömmlichen Fotografie aufgrund der kleineren Brennweite allerdings auch nicht viel Wert, da ist nicht arg viel mit gewonnen, wenn es darum geht, weit entfernte Objekte heranzuholen – man sollte es also nicht überbewerten. Besser als gar nix allerdings auch. Sog. SuperZoom Digitalkameras mit 5x optische oder manchmal auch 7x  oder gar 10x optischem Zoom sind schon eher in Größenordnungen mit denen man arbeiten kann, aber die sind dann halt sehr ausladend, nix für die Hemdtasche. Beim optischen Zoom geht man immer der Kompromiss ein: viel Zoom = große, unhandliche Kamera. Schlanke Kamera = kaum optischen Zoom.

PS: Darauf achten sollte man, das man bei Kameras, die z.b. 3x optischen Zoom und darüber hinaus noch digital Zoom bieten, man die Kamera immer nur bis maximal am Ende des optischen Zoombereichs benutzt, damit sich der digital Zoom nicht einschaltet, sonst verschenkt man Bildqualität durch das Interpolieren. Ich schalte grundsätzlich den digital Zoom, sofern möglich, komplett aus, damit ich gar nicht in die Gefahr laufe ihn zu nutzen und so aus Versehen meine Bilder interpolieren zu lassen.

Unser Fazit:

Heute bekommt man im ElektroMarkt um die Ecke qualitativ einwandfreie 2+ MegaPixel Kameras teilweise mit optischem 3x Zoom von Markenherstellern für ca. 110,- Euro. Wer da also zum Billig NoName Teil aus der TV-Shop oder „Spielzeug“-Fraktion greift, welches vielleicht 30 Euro billiger ist, der tut mir irgendwie leid, denn im Endeffekt wird er wohl 2 mal kaufen.

Daten sichern, aber wie?

Von | 17.12.2005

Einfache Backupmöglichkeiten

Die Zeiten sind vorbei, wo man schnell den Inhalt seiner Festplatte auf ein paar Leerdisketten abspeichern konnte.  Bevor man nun aber überhaupt keine Backups macht, hier ein paar Denkanstöße, wie man seine Daten zu hause sichern kann, mit Mitteln, die keine allzu großen Löcher in die Haushaltskasse reissen, bzw. die im PC aus dem Discounter meist schon vorhanden sind.

Imaging vs. Sicherung einzelner Dateien

Heutige Betriebssysteme lassen sich leider nicht mehr wie früher einfach Datei für Datei kopieren. Früher reichte es z.B. aus, unter DOS einfach nur ein XCOPY C:\* nach D:\ zu machen und man hatte eine funktionierende Sicherheitskopie seiner Festplatte. Kopieren kann man es zwar immer noch, aber funktionieren tut die Kopie dann allerdings nicht mehr. Wer also seine komplette Windows Installation inkl. aller installierten Anwendungsprogramme voll funktionsfähig sichern möchte, der kommt an Spezial Software nicht vorbei. Diese Software nennt sich Imaging oder Disk Cloning Software, beide erstellen ein 1:1 Abbild der Datenstrukturen auf Ihrer Festplatte und erzeugt so eine Kopie, die nach dem zurück spielen wieder voll funktionsfähig ist. Nur so lassen sich heutige Windows Versionen zuverlässig sichern. Imaging Software erstellt Images, also auf Wunsch komprimierte Abbilder Ihrer Festplatte, die dann mit Hilfe der Restore Funktion bei einem Ausfall der Festplatte wieder zurück gespielt werden kann oder auch auf einer komplett neuen Festplatte installiert werden kann. Die meist etwas preiswertere „Disk Cloning“ Software erstellt eine 1:1 Kopie der 1. Platte auf einer mindestens genauso großen neuen 2. Festplatte. Diese 2. Festplatte kann dann anstelle der 1. Festplatte eingebaut werden und funktioniert dann wie die alte 1. Festplatte. Für Backup Zwecke sind die komprimierten Images allerdings praktikabler. Aber die meisten Imaging Programme bieten beide Funktionen, so dass man entsprechend beide Möglichkeiten zur Auswahl hat.

Die Frage ist allerdings auch, ob so eine Komplettsicherung unbedingt notwendig ist. Besser ist so ein Komplettsicherung auf jeden Fall, aber man muss auch sehen, das der Heimanwender heute ein Problem hat: Die Festplatten sind so groß und die zu Verfügung stehenden Backupmöglichkeiten sind relativ eingeschränkt. Ein Kompromiss ist es daher, Windows und die installierten Anwendungsprogramme selber gar nicht zu sichern. Sondern nur die selbst erstellen Dateien, also Briefe, Tabellen, Datenbanken, Einstellungen, Bilder und eMails etc. zu sichern. Also alle die Daten, die bei einer Neuinstallation des PCs mit Hilfe der beim PC beiliegenden Windows Installations- oder Rettungsdisketten und den InstallationsCDs der verwendeten Anwendungssoftware nicht enthalten ist. An einem konkreten Beispiel: Beim Aldi PC liegen CDs zur Neuinstallation von Windows bei. Im Ernstfall kann man also mit diesen CDs sein Windows wieder installieren, braucht also nicht mit gebackupt werden. Das selbe gilt für Microsoft Office, wer Office kauft, hat auch eine Office InstallationsCD erhalten, also kann er mit dieser CD sein Office auch wieder installieren. Was nicht abgedeckt ist, sind die Briefe, die Sie mit Office inzwischen selber geschrieben hatten. Diese müssen also auf jeden Fall von Ihnen regelmäßig gesichert werden. Nicht das wir uns missverstehen: die komplette Sicherung einer Festplatte – als Image oder 1:1 Kopie mit Hilfe spezieller Imaging Software ist dieser Notlösung des einzelnen Dateien kopierens immer vorzuziehen, aber wenns halt nicht anders geht, weil kein ausreichend großes Backup Medium zur Verfügung steht, dann ist die Dateien Kopiererei immer noch besser als gar nix.

Wenn Sie sich für die Einzelne Dateien Sichern Variante entscheiden, hier ein paar Tipps:

  • Speichern Sie ihre selbst erstellten Dokumente in einer klaren Verzeichnisstruktur ab. Der Windows Standardordner „Eigene Dateien“ bietet sich dafür an. Stellen Sie sicher, dass alle Ihre Dateien in diesem Ordner sind, dann müssen Sie wenn es an das Erstellen des Backups geht nicht sämtliche Ordner auf Ihrer Festplatte auf der Suche nach zu sichernden Dateien abklappern und die Gefahr, dass Sie eine wichtige Datei vergessen, reduziert sich.
  • Lokalisieren Sie die Datei, in der Ihre eMails gespeichert sind. Wenn Sie MS Outlook Verwenden, dann suchen Sie mal mit Hilfe der Windows Dateisuche nach allen *.PST Ordnern auf Ihrem Rechner. Wenn Sie eMail häufig nutzen, dann sollte der Postfach auf jeden Fall mitgesichert werden.
  • Viele Anwendungsprogramme legen Ihre Einstellungen im Hauptordner Dokumente und Einstellungen auf Ihrer C: Festplatte ab. (der oben erwähnt Eigene Dateien Ordner befindet sich auch darin). Es ist kein Fehler, möglichst alles aus diesem Ordner zu sichern.. Sicher ist sicher..
  • Ordner direkt im Root der C:\ Platte mal anschauen.. Oft finden sich an der Stelle Ordner für Musik, Bilder, sonstige Dokumente etc. die man wahrscheinlich mit Sichern sollte.
  • Unterhalb des „Programme“ Verzeichnisses findet man die Verzeichnisse der einzelnen auf Ihrem PC installierten Anwendungsprogramme. Schauen Sie die einzelnen Verzeichnisse zumindest mal durch, ob sich eventuell hier noch ein paar wichtige Dokumente befinden, welche mit gesichert werden müssen. Es bringt meist nix, den kompletten Programm Ordner zu sichern, da die meisten Anwendungsprogramme ohne die entsprechenden Registryeinträge nicht laufen, also sowieso bei einem Schadensfall neu installiert werden müssen, aber wie gesagt, in diesen Verzeichnissen könnten sich noch Dokumente befinden, die gesichert werden müssen.

Wer sich für die Imaging oder Clone Methode entscheidet, der braucht sich um solche Sachen nicht zu kümmern. Das ist auf jeden Fall sicherer und auch bequemer als das Zusammensuchen, was man eventuell später im Ernstfall mal noch brauchen würde.

Mit welchem Geräten erstellt man nun ein Backup?

  • Mit einem CD-Brenner:
    Eine beschreibbare CD speichert etwa 640MB an Daten. Eine Komplettsicherung kommt also nur kaum in Frage. Mit Hilfe der meist mitgelieferten CD Brennsoftware (Alternative z.b. Nero) lassen Sich einzelne Verzeichnisse und Dateien auf CD sichern. CD Rohling sind bei sorgfältiger Lagerung mehrere Jahre „haltbar“. Wer im normalen ISO Daten Modus brennt, kann jederzeit bei Bedarf die gesicherten Dateien wieder zurück kopieren. Das Backup auf CDs eignet sich am ehesten, um einzelne Dateien, wie z.b. das Briefe Verzeichnis, den Post-Ordner Ihres eMail Programmes, wichtige Datenbank-Tabellen etc. zu sichern.
  • Mit einem DVD Brenner:
    Eine normale beschreibbare DVD bietet Platz für 4.7 GB an Daten. Damit lassen sich höchstens sehr kleine Festplatte mit Hilfe eines Imaging Programmes mit Komprimierung komplett sichern. Bieten aber ordentlich Platz, um Verzeichnisse oder einzelne Dateien zu sichern. Die Dual Layer Varianten schaffen bei nur geringfügig höheren Anschaffungskosten des eigentlichen Brenners (die Rohlinge gehen aber ins Geld) die doppelte Menge pro Dual Layer (DVD-9) Rohling und könnten daher für ein komplettes Diskimage sogar schon ausreichen. Wer spezielle Imaging Software nutzt, der kann seine Images in einzelne Teildateien aufsplitten und so z.b. ein komplettes Backup seiner Festplatte auf einigen wenigen Rohlingen realisieren. Das wäre eine preisgünstige und praktikable Backup Lösung für den Heimbedarf.
  • Backup auf eine 2. Festplatte:
    Die Preise für Festplatten sind eigentlich relativ human. Wählt man eine Festplatte als Backup Medium, die größer ist als die zu sichernde C: Platte, dann kann bei Verwendung eines Imaging Programmes normalerweise sogar eine rotierende Backupstrategie verwendet werden. Also z.b. immer 3 komplette Backups als komprimiertes Image auf der Backup Festplatte vorhalten. Eigentlich jeder Rechner, den man so im Handel bekommt hat noch Platz für eine 2. Festplatte. Man könnte nun also so eine 2. Festplatte als Backup Medium für die normale Festplatte nutzen. Einfach beide Festplatten in den Computer einbauen und dann einfach mit Hilfe eines Imaging Programmes den Inhalt der C: Platte auf die 2. Platte schreiben lassen. Dies geschieht relativ flott und kann auch komplett automatisiert neben der Arbeit her passieren. Von dem her ansich schonmal ein brauchbarer Ansatz. Hat aber einen Haken: Da beide Festplatten im selben Rechner stecken, ist das Backup nicht wirklich „sicher“. Ein Virus könnte beide Platten, also Backup und C: Platte gleichzeitig unbrauchbar machen, ein Hardware-Defekt oder Blitzschlag könnte ebenfalls beide Platten beschädigen, dann steht man wieder „ohne“ Backup da. Sinnvoller wäre es z.b., wenn Sie mehrere Rechner daheim vernetzt haben, das Backup auf eine Festplatte auf einem 2. Rechner erstellen zu lassen. Das dauert zwar ein bissl länger, weil die normale Ethernet Geschwindigkeit hier die ganze Sache etwas ausbremst, ist aber schon ne ganze Ecke „sicherer“, weil in diesem Szenario dann schon beide Rechner gleichzeitig infiziert/beschädigt werden müssen, damit man einen Komplettverlust der Daten und des Backups erleidet. Noch besser wäre der Einsatz einer Festplatte in einem externen Gehäuse, angeschlossen z.b. über die schnelle USB2 oder Firewire Schnittstelle, oder gar S-ATA oder SCSII. Entsprechende Gehäusekits um eine Festplatte zu einer externen Platte umzubauen sind teilweise schon unter 50 Euro im Fachhandel erhältlich. So kann man nach erfolgtem Backup die Backupfestplatte vom PC abhängen und sicher im Schrank verstauen. Das ist dann nochmal ne Ecke sicherer. Denn eine Festplatte, die sicher im Schrank liegt, geht auch nicht kaputt und wird auch nicht von Viren infiziert.

Vorschläge für die zu verwendende Software:

Als Imaging Software empfehlen wir Acronis TrueImage, alternativ Norton Ghost. Beide Programme bieten in den neuesten Versionen die Möglichkeit, die Images im Laufenden Betrieb des PC, also während Sie weiterarbeiten zu erstellen. Natürlich auch vollautomatisch, über das Netzwerk oder auf externe Festplatten.

Zum Kopieren einzelner Dateien tuts in der Regel die mit dem Brenner/PC mitgelieferte Brennsoftware. Allerdings sollte man die CDs im ISO Modus mit einer richtigen Brennsoftware Brennern und nicht im Paket Writing Verfahren erstellen lassen. Wer nicht so richtig weiß, welche Software er zum brennen von CDs oder DVDS verwenden soll, der kann sich ja mal Nero aus dem Hause Ahead anschauen. Dort sind auch schon Werkzeuge zum Automatisieren der Backuperstellung enthalten.

Wie gehts weiter?

Auch im Shareware Bereich finden sich zahlreiche Tools, welche die Erstellung der Backups vereinfachen. Wir werden bei Gelegenheit einige dieser Tools genauer vorstellen. Auch wollen wir in einem 2. Teil der „Backup“ Artikelreihe andere bezahlbare spezialisierte Backuplösungen anschauen, als da wären die klassischen Bandlaufwerke in aktueller Generation, Wechselmedien mit hoher Kapazität usw.