Cokies DSGVO konform im Blog [Kommentar]

Einleitung

Zuerst möchte ich auf meinen ursprünglichen Blogbeitrag zum Thema Addons und DSGVO verweisen. Wär sich für eher witziges zu dem Thema interessiert, der ist in diesem Beitrag gut aufgehoben.

Obwohl die entsprechende Gesetzesgrundlage nicht mehr neu ist, gehen die Auslegungen der Texte wie üblich auseinander. Während einige der Meinung sind, dass Cookiebanner reichen, gehen andere Weiter und meinen, dass die DSGVO nahelegt beim initialen Aufruf der Seite nur notwendige Cookies zu speichern, bis der Anwender einer weiteren Verwendung zustimmt.

Dieser Blogbeitrag ist keine Rechtsberatung und auch keine Aussage, dass ihr damit eure Seite rechtskonform betreiben könnt. Ich lege die DSGVO aber so aus, dass ein Informationsbanner nicht reicht und der im folgenden Dargestellte Ansatz erforderlich ist.

Hintergrund ist, dass so wenig wie möglich Daten in Bezug zum Benutzer (personenbezogene Daten) gespeichert werden.

Verschiedene Ansätze

Es gibt Plugins, die lediglich Informationsbanner anzeigen frei nach dem Motto – “Diese Seite verwendet Cookies, sie können dies mit ok bestätigen oder die Seite verlassen”. Wenn der Nutzer dies sieht, sind aber zumindest die Cookies von der Startseite bereits abgelegt worden. Es ist also eigentlich zu spät.

Das viel verwendete XXX stellt eine Funktion bereits, die es erlaubt Skripte erst auszuführen, nachdem der Anwender die Cookies bestätigt hat. Das ist zwar nett gemeint, geht aber meiner Meinung nach vollkommen an der Realität vorbei.

Man installiert in der Regel ein beliebiges Addon (z.B. Übersetzer, Jetpack, …) und dieses legt eigenmächtig Cookies ab. Selbst wenn man das Skript zur Cookieablage identifiziert ist es aber unrealistisch das Skript aus dem Addon auszubauen und in das Cookieaddon zu kopieren.

Wenn ihr das versucht, wird es aufgrund des nicht geladenen Codes / Ladereihenfolge wahrscheinlich zu Problemen kommen. Selbst wenn das nicht der Fall ist, wird beim nächsten Update der Code wieder in das Plugin kopiert und automatisch ausgeführt. Das ist also vollkommen unpraktikabel.

Es muss also eine Lösung her, die die Ausführung von bestimmten Skripten / Addons / externen Aufrufen (denn meistens wird extern Code nachgeladen oder Daten an externe Adressen übertragen) blockt.

Die Plugins

Wie bereits erwähnt habe ich bisher das Plugin Cookie Notice verwendet, das auf sehr vielen Blogs installiert ist. Aus meiner Sicht stellt dies aber keine rechtskonforme Lösung dar bzw. die lässt sich praktikabel damit nicht umsetzen.

Das einzige kostenlose Addon für eine mutmaßlich rechtskonforme Abbildung, das ich gefunden habe heißt Complianz. Im Folgenden werde ich mich mit diesem Plugin beschäftigen.

Eine weitere Variante, die für den Normalblogger noch in einem bezahlbaren Rahmen liegt ist Borlabs Cookie, dass 40€ pro Jahr kostet. Leider gibt es keine kostenlose Testversion.

Es gibt z.B. auch noch Cookiebot, dass ich kurz getestet habe (hat bei mir nicht funktioniert) und es ist für den Normalblogger vollkommen unbezahlbar. Man befindet sich bei einem kleinen Blog wie meinem schon in Regionen von über 10€ pro Monat.

Warum sind Cookies böse?

Per se sind Cookies erst mal nicht gut oder böse. Sie dienen schlicht der Ablage von Informationen über eine Browsersitzung hinaus. Oft werden sie aber auch verwendet, wenn es eigentlich nicht nötig ist.

Beispielsweise verwende ich ein Übersetzungs Plugin auf dem Blog. Das speichert die eingestellte Sprache. Da aber die Browsersprache abgefragt wird und man mit PHP auch die Möglichkeit hat Sitzungsinformationen zu speichern (ohne Cookies) ist das Cookie ziemlich überflüssig. Schlimmer noch, dass Plugin setzt sogar mehrere Cookies.

Die sind aus DSGVO Sicht inhaltlich wahrscheinlich nicht problematisch, da lediglich die ausgewählte Sprache gespeichert wird.

Anders sieht es aus, wenn das Cookie zur Identifikation verwendet wird. Beispielsweise könnte Facebook im rahmen der Einbettung des Like Buttons ein Cookie platzieren, dass dazu dient mich eindeutig zu identifizieren. Somit ist dann später ersichtlich, dass ich auf Blog x war, bei Amazon eingekauft habe und auf irgendwelchen anderen Blogs oder Social Networks war. In Kombination lässt sich dann Mein Surfverlauf nachvollziehen. Das will die DSGVO verhindern.

Externe Aufrufe

Externe Aufrufe können aber müssen nicht mit Cookies einhergehen. Grundsätzlich gibt es aber vergleichbare Probleme wie bei den Cookies. Es werden möglicherweise Informationen zum Besucher übergeben (z.B. die IP), die als personenbezogenes Datum gilt und mit der sich wieder der Surfverlauf nachvollziehen lässt.

Die Umsetzung des Cookieblockens

Obwohl Complianz einen nett gemeinten Automatikmodus bietet, der aber eher lästig als hilfreich ist (besonders, wenn man Caching Addons benutzt), muss man erst mal wissen wo und wann die Cookies geladen / erzeugt werden bzw.

Wo liegt das Problem beim Automatikmodus? Der Automatikmodus ruft einfach wahllos ein paar Blogseiten auf und prüft welche Cookies dort gesetzt werden. Manche Cookies kommen aber nur an bestimmten Stellen zur Anwendung. Beispielsweise bei der Kommentarfunktion oder im Gästebuch, wenn ein Youtube Video (die kann man übrigens Datensparsam einbetten – das bietet Youtube selbst an) auf der aktuellen Seite eingeblendet ist usw. Der zufällige Test bringt also wenig.

Wie bekommt ihr also raus welche Cookies geladen werden. Dafür gibt es verschiedene Ansätze. Zuerst solltet ihr zur Auswahl der zu prüfenden Seiten den gesunden Menschenverstand einsetzen.

Die Hauptseite muss müsst ihr auf jeden Fall prüfen. Dan solltet ihr ggf. das Gästebuch, eine Seite mit Kommentarfunktion usw. testen. Im Prinzip alle Varianten (wenn ihr einen Blogbeitrag mit Youtube Videos habt, solltet ihr auch den testen usw.).

Ghostery

Es gibt Browseraddons (Ghostery) wobei das nach meinen Tests etwas über das Ziel hinausschießt. Das zeigt nicht nur gesetzte Cookies an, sondern auch welche die sich im Code der Seite befinden aber noch nicht aktiv sind bzw. auch Tracking abseits von Cookies.

Trotzdem kann Ghostery sehr hilfreich sein da ihr auch damit die Domains ermitteln könnt, die potenziell geblockt werden sollten.

Ghostery Addin für Browser

Ghostery Addin für Browser

Webkoll

Bessere Erfahrungen habe ich mit Webkoll gemacht. Wenn ihr bereits eine Content Security Policy eingerichtet habt, dann wisst ihr schon welche Skripte nachgeladen werden. Das ist schon eine gute Basis. Wenn ihr noch keine Contenct Security Policy habt oder euch fragt was das ein soll, dann ist das auch nicht schlimm.

Zur Content Security Policy werde ich ggf. noch einen separaten Blogbeitrag schreiben (die habe ich letztes Jahr eingerichtet). Das Thema würde hier aber den Rahmen sprengen. Meine Policy ist nicht perfekt aber ein Anfang. Ich halte den Ansatz die Policy so umzusetzen, dass Webkoll sie als grün anzeigt allerdings auch für nicht für praktikabel. dann kann man vermutlich alle drei Tage nachpflegen, weil irgendwas auf der Seite nicht funktioniert.

Mit Webkoll könnt ihr prüfen welche Cookies eure Seite setzt. Wenn ihr die Kommentarfunktion testen wollt, müsst ihr die Test URL entsprechend so setzen, dass ihr damit die Kommentarseite aufruft.

Beispielsweise sieht die Prüfung bei Webkoll auf meiner Bloghauptblogseite mit aktiviertem Complianz nun so aus:

Webkoll First Party Cookies

Drittanbietercookies gibt es keine und die gesetzen Cookies sind harmlos in Bezug auf personenbezogene Daten. Das ist gut.

Webkoll - Third Party

Die Drittanbieteranfragen können problematisch sein, weil die Daten abseits des eigenen Servers zum Teil in den USA gespeichert werden.

Das sieht nach wie vor nicht optimal aus, ist aber deutlich besser als vor dem Einsatz des Addons (da waren es deutlich mehr).

Bestimmte Skripte lassen sich nicht deaktivieren, weil dann die Seite nicht mehr funktioniert. Beispielsweise kann ich s0.wp.com nicht deaktivieren, weil das zu Jetpack gehört. Das merkt man spätestens, wenn die Seite nicht mehr vollständig funktioniert, nachdem man eine Domain in die Ausschlussliste aufgenommen hat.

Complianz

Im Complianz Skript Center fügt man nun die Domains hinzu, die man blocken möchte. Das Blocken klappt nicht immer aber für die dargestellten Domains funktioniert es bei mir:

Compliance Reiter Skript-Creator

Wenn der Benutzer nun das Cookiebanner zu sehen bekommt und nicht zustimmt, werden auch keine Drittanbietercookies gesetzt.

Plugins / Dienstleistungen

Complianz Reiter Plugins

Das ist so nicht richtig. Weder wird zum Beispiel Jetpack gelockt, noch werden die Plugins weitgehend automatisch erkannt. Das ist trügerische Sicherheit.

Zusätzlich könnt ihr über die beiden anderen Reiter Dienstleistungen und Plugins aktivieren werden, die ihr nutzt. Anschließend werden automatisch die Informationen zu den Cookies in die Cookie Richtlinie aufgenommen, die automatisch erstellt wird.

Complianz Reiter Dienstleistung

YouTube Ja oder nein. Bei datensparsamer Einbindung heißt die Antwort wohl eher nein

Die Automatismen schießen aber gern über das Ziel hinaus. Wenn ihr beispielsweise Youtube aktiviert, werden diverse Cookie als angeblich auf der Seite enthalten dokumentiert. Wenn ihr allerdings die datensparsame Variante der Einbettung nutzt, ist keins davon vorhanden.

Gleiches gilt, wenn ihr Facebook oder Twitter auf eurer Seite nutzt. Je nach Einbettung (zum Beispiel über Shariff werden die Cookies nicht gesetzt. Wenn ihr aber Facebook und Twitter markiert, werden zig Cookies als angeblich auf eurer Seite vorhanden markiert, die ihr überhaupt nicht nutzt.

Cookie Zustimmung

Minimalfunktion mit wenig Cookies oder komfortabler mit allen? Die Texte sind alle frei anpassbar

Ich finde der Rest des Plugins ist relativ selbsterklärend. Es gibt auch einen Assistenten den man arbeiten sollte und an dessen Ende die Cookie Richtlinie automatisiert erstellt wird.

Wenn ihr bessere Plugins / Lösungen habt oder Erfahrungen mit Borlabs, hinterlasst mir bitte einen Kommentar.

Wo ist der Haken?

Die Automatismusfunktion zum Scannen nach Cookies lässt sich offenbar nicht aktivieren. Die führt dazu, dass nach Aufruf der Administrationsseite des Blogs stattdessen wahllos irgend eine Seite des Blogs aufgerufen wird. Wenn ihr Caching Addons verwendet passiert dann immer wieder. Das lässt sich dann nur vermeiden, wenn man andere Seiten in der Administration wie zum Beispiel die Updateseite oder ähnliches aufruft. Das ist nervig und unnötig.

Im schlimmsten Fall landet ihr also in einer Endlosschleife und müsst das Addon (temporär) deaktivieren.

Offenbar verwenden 90% der Nutzer nur die Automatikfunktion, ansonsten wäre es viel Sinnvoller gewesen, wenn man bestimmte Testseiten angeben könnte, die der Reihe nach aufgerufen werden und anschließend automatisch auf die Hauptseite gewechselt würde. Das wäre sogar vollständig im Hintergrund möglich.

Angenehmer Nebeneffekt

Durch das Blocken der Cookies wird das Laden der Webseite beschleunigt. Selbst auf einem oft lahmenden Sever wie meinem, bekommt man so also einen relativ guten Google Pagespeed Score, weil weniger auf externe Ressourcen zugegriffen wird, da Pagespeed beim Aufruf die Cookies bzw. das Nachladen von externem Code nicht aktiviert.

So lässt sich der Pagespeed Score und somit das Ergebnis in der Google Suchmaschine leicht verbessern. Das trifft allerdings erst zu, wenn die Webseite gecacht ist (außer bei einem sehr schnellen Server). Das heißt in der Regel sehr ihr den Effekt bzw. ein gutes Ergebnis erst beim zweiten Aufruf.

Die Messung von Google ist relativ unrealistisch, da die reale Ladezeit kaum berücksichtigt wird (Dektopmessung – Mobil liegt die Messung bei 87).

Pagespeed Desktop

Der Pagespeed Wert ändert sich aber eh ständig. Desto mehr Fotos / Screenshots ihr nutzt, desto mehr Daten werden übertragen und desto langsamer wird die Webseite.

Alles Rechtskonform oder wie?

Wie oben bereits angemerkt werden Gesetze von Anwälten und Richtern ausgelegt. Definitiv klar ist, das eine Sperre besser als ein Banner ist, das lediglich auf Cookies hinweist.

So lange man mit dem Blog kein Geld verdient, wird man vermutlich erst mal nicht direkt Gefahr laufen eine Abmahnung zu bekommen. Im Kontext von Unternehmen haben die Datenschutzbehörden aber durchaus schon Strafen in exorbitanter Höhe verhängt. Von daher sollte man in einem Privatblog zumindest belegen können, dass man sich mit dem Thema beschäftigt und Anstrengungen unternommen hat.

VPServer – Strato vs. Contabo Performance und Werbeversprechen [Kommentar]

Strato Linux V40 vs. Contabo VPS 1400 vs. Contabo S SSD

Man sollte meinen ein VPS Server ist ein VPS Server aber weit gefehlt.

Da ich in der letzten Zeit ziemlich viele Performanzprobleme mit einem meiner beiden VPS-Server bei Contabo hatte (mangelnde IO also Lese- und Schreibleistung der Festplatten, die dazu führt, dass der Server oft temporär nicht erreichbar ist bzw. nicht antwortet), habe ich mir die aktuellen Angebote des Wettbewerbs angeschaut.

Dabei bin ich auf ein Angebot von Strato gestoßen.

Die Eckdaten:

VPS 1400 von Contabo

6 CPU Kerne
20 GB RAM
1,4 TB HDD (angeblich SSD beschleunigt aber davon merkt man nichts)
1 GBit Netzanbindung
13€ pro Monat

Da ich Plesk nicht brauche, ist das Angebot eigentlich unnötig teuer aber trotzdem noch ziemlich gut in der Preisleistung.

Contabo VPS S SSD

4 CPU Kerne
8 GB RAM
0,2 TB HDD
200 MBit Netzanbindung
5€ pro Monat

Linux V40 von Strato

8 CPU Kerne
16 GB RAM
1,2 TB SSD
500 MBit Netzanbindung
17€ pro Monat mit Plesk (letzteres brauche ich nicht auf dem Server – Plesk vereinfacht den Einstieg in einen Linux VPS gerade für Anfänger deutlich. Man bekommt faktisch kaum mit, dass ein Linux drunter ist – mal abgesehen von der Geschwindigkeit)

Ich dachte bisher, dass sich die VPS Anbieter grundsätzlich gleichen aber ich wurde eines Besseren belehrt. Im Folgenden führe ich einige Punkte auf, bei denen sich die beiden Anbieter unterscheiden.

Anmerkungen

Contabo VPS 1400

 

  • VNC Zugang (das bedeutet, man hat vollen Zugang auch wenn der Server bootet) und kann selbst dann darauf zugreifen, wenn der Internetzugang / SSH nicht funktioniert. Wenn man ihn gerade nicht benötigt, sollte man den VNC Zugriff aus Sicherheitsgründen im Kundenpanel deaktivieren, da die Verbindung unverschlüsselt ist. Es kann also jeder auf dem weg vom eigenen Rechner zum Server mitlauschen.
  • Es gibt ein Rettungssystem mit Orignalsystem als separates Laufwerk, das manuell eingebunden werden muss. Das ist nicht komfortabel aber Linux Standard.
  • Es werden keine Backups abseits dessen was man selbst auf dem Server einrichtet angefertigt (d.h. die gehen von dem Platz ab, den man auf dem Server hat). Empfehlen kann ich für den Zweck zum Beispiel Timeshift und Backintime.
  • Eine Neuinstallation dauert bei Contabo ein paar Minuten, weil sie automatisiert durchgeführt wird und somit primär von der Geschwindigkeit des Systems abhängt
  • Man hat die Auswahl zwischen diversen Betriebssystemen / Versionen und jeweils mit Webmin, mit Plesk, mit Datenbank usw. – das Ubuntu ist vollständig und keine kastrierte Sparversion
  • Die Performanz des Festplatten schwankt im Schnitt zwischen 15 MB/s bis nichts und das meine ich durchaus wörtlich (letzteres kommt leider regelmäßig vor). Lt. mehreren Technikern von Contabo ist das bei shared Hosting normal. BEi meinem zweiten Contabo Server mit SSD habe ich das Problem allerdings noch nicht festgestellt. Zusätzlich gibt es noch regelmäßig Festplattenprüfläufe, die es noch schlimmer machen. Moderne Festplatten sollten Probleme mit S.M.A.R.T. eigentlich automatisch melden.
  • Die Doku ist vergleichbar gut wie bei Hosteurope (da hatte ich vorher meinen Server, bis sie ins Ausland gegangen sind). Im Ausland gelten andere Rechte – beispielsweise gibt es in Frankreich (da ist Hosteurope mit seinen Servern zu großen Teilen gezogen) andere Terrorismusgesetze. Im Namen des Schutzes werden aber auch gerne andere Rechte ausgehebelt.
  • Deutsches Rechenzentrum
Contabo VPS S SSD

 

  • Es gilt weitgehend das was ich bereits zum VPS 1400 geschrieben habe.
  • Der VPS S SSD bietet deutlich höhere IO Leistung und es arbeitet sich deutlich flüssiger an dem Server. Das fängt teilweise schon mit simplen Sachen an, wie dem Start eines Dateiexplorers wie zum Beispiel Nano. Der Dauert auf dem HDD Server mal ein oder 2 Sekunden aber auch mal 20 oder 30. Auf dem SSD Server geht das immer schnell.
  • Man kann einen Snapshot erstellen. D.h. man hat ein Backup des Servers, dass man in wenigen Sekunden zurückspielen kann. Dabei wird der ganze Server wieder auf den vorherigen Stand gesetzt. Diese Art Backup wird aber “nur” einen Monat aufbewahrt. Anfangs habe ich das für nicht sinnvoll befunden aber andererseits ist es sinnvoller Snapshots nur Zeitnah zurück zu spielen.
Strato Linux V40

 

  • Es gibt keinen VNC Zugriff (das ist eine extreme Einschränkung und es war mir nicht bewusst, dass es überhaupt Anbieter gibt, die einen derartigen Zugriff nicht ermöglichen). Das wird aber damit zusammen hängen, dass man auch keinen Zugriff auf den Bootlevel hat (sprich der Bootvorgang / Bootmanager wird nicht emuliert). Dieser Aspekt wiegt um so schwerer, da es selbst nach dem Bootvorgang nicht möglich ist, einen Zugang einfach nachzurüsten. Selbst die Installation von einem aktuellen Gnome war nicht möglich. Somit lässt sich auch nicht einfach X2GO oder ein Remotedesktopzugriff nachrüsten.
  • Es gibt einen Rettungszugriff der bequem aber seltsam realisiert ist. Das Originalsystem wird in einem Ordner (Repair) des Rettungssystems eingehängt. Man kann sich so nicht die Orignial UUID des Datenträger anzeigen lassen, weil der überhaupt nicht erscheint. Offenbar macht das aber bei Strato eh keinen Sinn, weil man auf diesem Level überhaupt keinen Zugriff hat.
  • Backups werden täglich automatisch erstellt (10 Stück rollierend) und können vollständig zurückgespielt werden. Wie / welches Backupverfahren genutzt wird ist unklar. Snapshots scheinen es nicht zu sein lt. Beschreibung, da die Wiederherstellung “stunden” oder bis “zu drei Tage” dauern soll. Es ist auch unklar, ob wirklich alles gesichert wird, da man selber offenbar nicht auf alle Daten Zugriff hat (siehe weiter unten) bzw. diverse Dateien durch die Strato Visualisierung eh überschrieben werden. Da die Backups nach Lust und Laune von Strato angefertigt werden (beliebige Uhrzeit) und die Rückspielung offenbar ewig dauert (auch manuell?!), ist die Idee zwar nett aber eigentlich nur für für einen Totalausfall brauchbar, bei dem man anders nichts mehr retten kann. Selbst dann sind bis zu 4 Tage Ausfallzeit selbst für einen VPS Anbieter ziemlich heftig, um ein simples Backup zurück zu spielen. Bei einem Totalausfall hat man immerhin den Stand vom Vortag bzw. von vor 4 Tagen, wenn Strato so lange benötigt um das Backup zurück zu spielen. Zusätzlich ist auch in diesem Fall die Doku mal wieder falsch. Es ist weder möglich bestimmte Snapshots als permanent zu markieren, noch kann man manuell Backups erstellen, wie es in der Doku beschrieben wird.
  • Bei Strato dauert eine Neuinstallation Stunden (offenbar muss jemand per Hand installieren?! – bei mir hat das simple neu installieren des kastrierten Ubuntu 12 Stunden gedauert). Ich war zumindest sehr überrascht, dass es so extrem lange dauert. Sobald man eine Neuinstallation angefordert hat, kann man auch kein Backup mehr zurückspielen. Der Prozess scheint für einen derart großen Anbieter ziemlich vorsintflutlich zu sein. Vor allem wenn es eh so wenige unterschiedliche Images gibt, sollte die Neuinstallation in wenigen Minuten automatisiert erfolgen.
  • Die Auswahl der Installationsimages ist sehr übersichtlich und nicht kundenfreundlich. Das Ubuntu 18.04 ist nicht vollständig installiert. Es fehlen diverse Pakete. Es gibt keine Datenbank und keinen kostenlosen Webzeugang wie z.B. Webmin. Offenbar geht Strato fest davon aus, dass man Plesk verwendet (weil es eh im Preis enthalten ist). Selbst Standardkomponenten wie z.B. Netplan bei Ubuntu fehlen. D.h. aus meiner Sicht ist das System überhaupt nicht dafür vorgesehen es abseits von einem Plesk zu betreiben. Das wird aber an den im folgenden erklärten Abbildungsvarianten liegen. Bei Contabo hat man vollen Zugriff und dementsprechend kann dem Anbieter egal sein was man auf dem Server installiert.
  • Offenbar hat man keinen vollständigen Zugriff auf alle Ordner wie bei Contabo. Beispielsweise ist es mir nach einem vollständigen RSYNC nicht gelungen die vorher genutzte Betriebssystemversion zu starten. Der Server versucht trotzdem die Kernelversion des ursprünglich installierten Linux zu verwenden (ich gehe aktuell von einem versteckten boot Ordner aus, der abgearbeitet wird – offenbar auch eine Besonderheit der Virtualisierung bei Strato). Der Boot Ordner ist leer. Scheinbar wird Grub von außerhalb des Laufwerks gestartet auf das man Zugriff hat. Für mich ist das ein no go. Das erschwert den Umzug nach Strato und weider weg erheblich. Weiterhin bleibt der Server zum Teil eine Black Box (Stichwort überschriebene und generierte Dateien), da man weder einsehen noch steuern kann was Strato im Boot Verzeichnis macht, noch welche Dateien überschrieben werden. Für Server mit echtem Root Zugriff ist das nicht.
  • Die zweite Partition wie ich sie bei Contabo habe (für Boot siehe vorheriger Punkt) und die Möglichkeit eines abgesicherten Starts oder den Wechsel auf eine vorherige Kernelversion – nebenbei Standardfunktionen von Linux oder auch Windows – existiert nicht.
  • Die Dokumentation ist bescheiden (teilweise vollkommen veraltet) oder nicht vorhanden. Oft werden in der Doku andere Varianten beschrieben (Verzeichnisse anders, andere Adapternamen z.B. beim Netzwerkadapter) oder verschiedene Varianten beschrieben, bei denen vollkommen untransparent ist welche davon für den eigenen VPS Server relevant bzw. noch aktuell ist. Ohne Support kann man sich wegen der diversen Sonderlocken nicht selber helfen bzw. es fehlt die Doku. Ich unterstelle, dass ein paar Kundendienstmitarbeiter in einer Woche so viel Doku erstellen könnten, dass danach 50% der Supportanfragen überflüssig wären.
  • Deutsches Rechenzentrum
  • Diverse Dateien werden automatisch überschrieben beim Boot (interfaces, fstab) – bei Contabo passiert das nicht (voller Root Zugriff). Lt. Strato Support erfolgt das über die Virtualisierungsumgebung. Eine Doku darüber gibt es nicht. An einer Stelle ist beispielsweise in einer Readme dokumentiert, dass die Konfiguration durch ein Template erfolgen soll. Wenn man das Template anlegt, wird die Konfiguration der Originaldatei beim Boot trotzdem nach eigenem Gutdünken verändert.
  • Die SSD scheinen erwartungsgemäß schnell zu sein. Wirklich testen konnte ich das nicht, da ich mein System auf dem Server nicht zum Laufen bekommen habe. Abseits von einigen Kernelfehlemeldungen bootet der Server zwar aber Netzzugriff bekommt man nicht. Ich vermute, dass es an der nicht vorgesehen Unterstützung von Netplan liegt evtl. aber auch daran, dass mein Linux 2 Jahre aktueller als der Stand von Strato ist. Das harmoniert nicht sonderlich gut zusammen. Da ich auch nicht die vollständige Konfiguration des Servers im Zugriff habe, kann ich das Problem auch nicht beheben. Ich müsste das Hostsystem neu installieren und dann auf den aktuellen Stand updaten. Das geht aber nicht, da Strato Updates des Hostsystems unterbindet. Ich werde aber sicher nicht das gesamte Linux neu installieren, nur weil Strato offenbar den Linux Standard neu auslegt bzw. allergisch gegen aktuelle Versionen ist. Stattdessen wird bei Strato eine 2 Jahre alte Version ohne Sicherheits(updates) verwendet.

Benchmarks / Performance

Kurz zur Erklärung. Die virtuellen Server basieren auf physischen CPUs. Die geben die VPS Anbieter in der Regel an. Somit lässt sich errechen welche Leistung einem theoretisch zur Verfügung stehen müsste. Wenn man zum Beispiel 6 Kerne gebucht hat und die Server CPU 10 Kerne hat, muss man schlicht durch 10 mal 6 rechnen, um die theoretische Leistung zu errechnen.

Contabo VPS 1400

Echte CPU Leistung des Prozessors:

Geekbench – Entspricht der CPU des Contabo VPS 1400 – theoretisch sollte man fast die volle Leistung erreichen, wenn man 6 Kerne gebucht hat. Vermutlich bekommt man aber eher Threads und nicht Kerne. Somit bekommt man reale 3 physische Kerne, die 6 virtuellen Kernen entsprechen.

Und im Vergleich die Werte auf dem VPS

Geekbench – Wie man erkennt liegt man bei ca. 55% der Leistung der physischen CPU – zu einer lastarmen Zeit am Wochenende. Das entspricht also ungefähr 6 der 12 Threads. Der wert liegt 15% über dem Anteil der zu erwarten wäre. Allerdings liefen auf dem Server auch diverse Anwendungen wie zum Beispiel Webserver. Die Grundlast ist aber ziemlich gering. Somit dürften das die 5% Differenz zum Contabo VPS S sein.

Sysbench – CPU

Sysbench Memory

 

Sysbench IO

Contabo VPS S

Geekbench – Da die CPU 10 Kerne hat, würden 4 davon der Rechnung durch 10 mal 4 entsprechen. Auch hier bekommt man aber eher Threads, also virtuelle Kerne. Bei einer echten CPU entspricht das also 2 physischen Kernen.

Geekbench – Man liegt bei 24% der realen CPU Leistung. Das ist 20% über dem was das Marketing verspricht. Es ist aber nicht garantiert.

Sysbench – CPU

Sysbench – Memory

Sysbench IO – Wie man unschwer erkennt ist die SSD 4x so schnell wie die Platten des Contabo 1400. Der gefühlte Unterschied ist aber größer. Bei der Latency ist es Faktor 7!. Das entspricht eher den realen Erfahrungen.

Strato Linux V40

Geekbench – Da die CPU 10 Kerne hat, würden 8 davon der Rechnung durch 10*8 entsprechen. Auch hier bekommt man aber wie bei Contabo eher Threads bzw. vrtuelle Kerne. Bei einer echten CPU entspricht das also eher 4 physischen Kernen.

Geekbench – Obwohl der Strato Linux V40 2 CPU Kerne mehr hat als der Contabo 1400 ist der Strato nicht schneller. Zusätzlich muss noch angemerkt werden, dass auf dem Strato abseits des kastrierten Ubuntu nichts lief. Der Strato V40 hatte also deutlich bessere Rahmenbedingungen. Man liegt bei ungefähr 38% der Leistung der realen CPU. Man bekommt also 95% der angepriesenen Leistung. Das geht i.O., wenn es denn zu laststarken Zeiten auch gehalten wird.

Sysbench lies sich auf dem Strato nicht installieren, wie auch so ziemlich nichts anderes. Sobald man Bibliotheken benötigt, die nicht in einer 2 Jahre alten Betriebssystemversion zurecht kommen bzw. andere Bibliotheken benötigen, die sich nicht updaten lassen, kann man die Installation vergessen. Somit viel der Test der IO Leistung leider aus. Der Bereich wäre wohl am ehesten der gewesen, wo der Strato hätte punkten können.

Benchmarkergebnis:

Die Benchmarks unterstreichen meinen bisherigen Eindruck der Leistungen. Man bekommt im Optimum 50% dessen was eine physische CPU leistet. Das erklärt auch den deutlichen Preisunterschied zwischen einem dedicated und einem VPS Server.

Es ist offensichtlich das eine SSD extrem viel schneller ist als eine HDD. Da man sich bei virtuellen Servern die Festplatten auch noch mit anderen teilen muss, ist zu Hochlastzeiten der Unterschied noch viel größer.

Zusammenfassung:

Generell gilt für VPS-Server: Die Angaben zu den CPU Kernen kann man vergessen. VPS Systeme werden überbucht (d.h. auf einen echten Kern kommen mindestens zwei virtuelle).

Erfahrungsgemäß ist die reale Leistung eher im Bereich 25-50% der Angaben von einem Rechner mit echten physischen Kernen, die einem zu 100% zur Verfügung stehen. Bei der IO Leistung sieht es bei Festplatten eher noch schlimmer aus. Da fühlt man sich teilweise an Transferraten von vor 20-25 Jahren erinnert.

Trotz der guten Eckdaten gibt es bei Strato erhebliche Einschränkungen, die aus dem Marketing der beiden Anbieter nicht ersichtlich sind. Das Marketing liest sich auf den ersten Blick relativ gleich.

Aufgrund der eingeschränkten Patchmöglichkeiten sind die Server von Strato aus meiner Sicht ein Sicherheitsrisiko und leider uninteressant und entgegen der Werbeversprechen ist bei Strato alles andere als voller Rootzugang gegeben.

Selbst beim Installieren der Pakete von meinem anderen Server gab es schon diverse Fehlermeldungen wegen eingeschränkter Rechte (das Werbeversprechen zur Administrationsfreiheit halte ich für eine Falschaussage). Es konnte nur ein Bruchteil der Pakete installiert werden.

Auch das Anpreisen von Ubuntu halte ich für sehr gewagt, da man bestenfalls ein sehr kastriertes Ubuntu bekommt. Mit einem vollwertigen Ubuntu hat das nicht viel zu tun. Etwas positiver kann man den Server als Plesk Server sehen, da auch Plesk sehr viel in das System eingreift, kann man den Server eh nicht mehr frei verwenden, ohne Gefahr zu laufen, dass eigene Konfigurationen durch Plesk überschrieben werden oder man selbst Probleme bei Plesk verursacht. Die von Strato verwendete Virtualisierung verstärkt diesen Effekt von Plesk lediglich zusätzlich.

Die Dauer einer Neuinstallation und des Rückspielens von Backups bei Strato wären schon vor 10 Jahren überholt gewesen. Heute sind sie völlig realitätsfern. Umso erstaunlicher ist, dass einem 10 Backupslots kostenlos zur Verfügung stehen, die nicht vom Platz auf dem Server abgezogen werden. Das ist wiederum als sehr positiv einzustufen. Allerdings wäre eine Snapshotfunktion bei SSDs viel sinnvoller. Die lässt sich in Sekunden zurückspielen und nicht stunden bis Tagen.

Fazit

Für mich gilt trotz der aktuell bescheidenen Performanz auf dem HDD System von Contabo, dass Strato keine bessere Alternative ist, auch wenn man Anhand der Eckdaten den Eindruck hat. Allerdings muss man auch sehr klar betonen, dass die offensichtliche Überbuchung der HDD Server bei Contabo, die teilweise zu erheblichen Leistungseinbußen führen, alles andere als akzeptabel sind.

Man muss immerhin bedenken, dass ich das größte HDD System gebucht habe und das zweite Paket das kleinste SSD System ist. Letzteres läuft trotzdem deutlich runder. Somit kann ich die HDD Server von Contabo nicht mal als Webserver empfehlen.

Der Unterschied bei der IO Leistung sich besonders gut anhand der oben gemessenen Latenzen darstellen. Dabei stellen der Faktor 7 wohl eher den Optimalzustand dar.

Empfehlen lässt sich nach diesem Test nur der Contabo mit SSD. Wenn es einem egal ist, wenn der Webserver zwischendurch mal für längere Zeit (Minuten bis Stunden) nicht oder nur extrem schlecht erreichbar ist, dann kann man auch einen VPS HDD Server von Contabo nutzen.

Der Strato ist aus meiner Sicht nur geeignet, wenn man ihn so nimmt wie er ist (mit Plesk) und nichts zusätzlich installiert. Unter Sicherheitsaspekten ist er aber auch dann ein nogo.

Update 08.03.2020:

Nachdem ich nun mehrfach (vermutlich in Summe so ca. 20 mal) wegen der miserablen IO Performance Kontakt zum Support von Contabo hatte, kann ich nur dringend von den Contabo HDD Servern abraten. Der Support erzählt einem gebetsmühlenartig, dass entweder gerade irgendwelche Tests auf den HDDs durchgeführt werden oder es zu einer temporären Lastspitze gekommen ist. Das passiert allerdings so häufig, dass die reale Verfügbarkeit der HDD Server ziemlich gering ist.

Wenn man also einen zuverlässig erreichbaren Server will, dann sollte man die SSD Server von Contabo buchen, sofern man dort mit dem Preisleistungsverhältnis zufrieden ist. Bei den HDD Servern muss man damit rechnen, dass die Minuten oder Stunden nicht antworten und zwar jederzeit.

Mein Eindruck ist, dass dem Support die Thematik sehr bewusst ist. Auf meine Argumente ist man dort nie eingegangen. Heute war der HDD Server bei der Zugriffszeit von minimalen Datenpaketen um Faktor 500 – 1000 Langsamer als der SSD Server (ein Zugriff 1,x Sekunden statt ein paar hundert us).

Update 14.05.2020:

Ich habe einen Contabo VPS einem Raspberry Pi gegenübergestellt. Der Pi behauptet sich ziemlich gut.

Zu dem VPS 1400 ist noch anzumerken, dass der noch langsamer geworden ist. Aufgrund einer Beschwerde wurde mein VPS dann auf ein anderes Hostsystem umgezogen. Der o.g. Benchmark ist von 20MB/s auf 150MB/s gestiegen und somit von der Übertragungsrate auf Werte, die man bei Contabo sonst nur mit SSD erreicht.

Weiterhin habe ich den VPS M auf VPS M mirgieren lassen. Danach erfolgte auch ein Wechsel des Hostsystems. Die Schreibrate ist dann von ca. 80MB/S im Schnitt auf ca. 20MB/S im Schnitt eingebrochen, Auf meine Beschwerde wurde auch dieses System auf einen anderen Host migriert. D.h. o.g. Fazit muss ich korrigieren. Die IO Performanz ist bei Contabo nicht von dem gebuchten Technologie (SSD oder HDD) abhängig und auch nicht von der Größe des Systems, sondern einfach nur Glück. Sowohl bei SSDs sind 20 – 150MB/s Schreibrate möglich, als auch bei HDD Systemen. Bei letzteren ist lediglich die Latenz höher.

Sobald der Benchmark deutlich unter 50 MB/s sinkt steigen auch die Latenzen selbst bei SSD Servern teilweise in den Sekundenbereich und das System reagiert extrem lahm.

Montagsfrage: Kann ein Autor über etwas außerhalb der eigenen Erfahrung schreiben? (Und muss er es sogar?)

In der letzten Woche habe ich mich noch mal (ja zugegeben, dass letzte Mal ist schon eine ganze Weile her) mit dem Thema DSGVO beschäftigt. Ganz uneigennützig war das nicht, denn seit einiger Zeit hat die Kommentarfunktionalität in meinem Blog nicht sonderlich zuverlässig gearbeitet, was mit Problemen im Kontext Zustimmung zur Datenschutzerklärung zusammenhing.

Ich habe das entsprechende Addon jetzt gewechselt. Da mehrere Funktionen durch das Addon abgedeckt wurden, hat das einen größeren Rattenschwanz nach sich gezogen.

Die Kommentarfunktion funktioniert jetzt hoffentlich wieder für jeden (also zumindest weitgehend unabhängig vom Browser und Gerät). Ihr dürft bitte gerne testen. Die letzten zwei Wochen war es doch etwas ruhig im Blog. 😉

In dem Kontext habe ich mir auch das Thema Cookies erneut angesehen. Ich hatte bisher nur ein Banner ohne initiales Blocken der Cookies. Jetzt werden die Cookies bis zur Zustimmung nicht geladen. Das ist eine der Vorgaben der DSGVO.

Als ich das Damals eingerichtet hatte, habe ich noch keine geeigneten Addons gefunden.

Das hatte auch einen positiven Nebeneffekt. Mehr dazu findet ihr hier. Evtl. schreibe ich auch noch einen detaillierteren Beitrag mit Anleitung zur Vorgehensweise.

Beim Blog gab es letzte Woche wieder einige Performanzprobleme, weshalb ich mir einen alternativen VPS Server angemietet habe. Dazu gibt es morgen mehr Infos. Fazit ist aber, dass der bei der Geschwindigkeit glänzt aber sonst eher durch Abwesenheit vieler im Marketing zugesicherten Eigenschaften.

Ihr seht also die Woche war mal wieder) recht techniklastig.

Ich habe aber auch etwas gelesen. Den dritten und somit vorletzten Band der Mortal Engines Reihe. Aktuell mache ich gerade eine Pause. Die Reihe ist nicht schlecht aber bringt mich eher in die Leseflaute als das sie mich zum schnellen weiterlesen animiert.

Zur Frage:

Im ersten Moment dacht ich, dass ich die Frage kurz und eindeutig beantworten kann, bei etwas mehr Bedenkzeit bin ich aber zu dem Ergebnis gekommen, dass es doch nicht so einfach ist.

Mein erster Gedanke galt Karl May. Der ist sicherlich ein Beispiel dafür, dass Autoren über Dinge schreiben können, die sie nie erlebt haben und die außerhalb ihrer persönlichen Erfahrung liegen.

May hat erst sehr spät eine Reise Unternommen und die Orte seiner Geschichten besucht. Allerdings ist er – ungeachtet seines Erfolgs der zum Teil auch den Verfilmungen geschuldet ist – als Person sehr umstritten.

Entweder hat er wirklich daran geglaubt oder es war gutes Marketing aber er war der Auffassung die Abenteuer in seinen Büchern selbst erlebt zu haben bzw. das er der Held seiner Geschichten war. So wird es zumindest aus diversen Quellen berichtet.

Anders verhält es sich aber meiner Meinung nach bei Fachbüchern oder z.B. Reiseliteratur. Meiner Meinung nach kann kein Autor einen guten Reiseführer oder ein Fachbuch schreiben, wenn er selbst nicht vor Ort war oder eigene Erfahrungen in dem entsprechenden Bereich gesammelt hat.

Aber manchmal ist schein mehr als sein, wie man ja in der Berufswelt immer wieder erkennt. Nicht ohne Grund gelingt es Betrügern ja Regelmäßig in Berufen Jobs zu bekommen und dort über Jahre tätig zu sein, obwohl sie nie eine Ausbildung in dem Themengebiet hatten. Dabei sind Berufe wie Pilot, Arzt oder Rechtsanwalt Beispiele für Berufe, bei denen eine gewisse Grundkenntnis durchaus hilfreich ist.

Aber zurück zu den Autoren. Es gibt ja auch Bücher im Bereich der Fantasy. Auch das hat der Autor nie erlebt. Man kann natürlich argumentieren, dass das nur die Welt ist in der die Geschichte spielt, der Autor aber zumindest die Gefühlszustände und Emotionen (z.B. Liebe) erlebt haben muss. Ich habe aber meine Zweifel, ob das wirklich so ist.

Bei Büchern, die sich mit innigen Liebesbeziehungen Beschäftigen sehe ich eher einen Zusammenhang zwischen dem Geschlecht des Autors als mit der Erfahrung (das aber ein Thema für eine weitere Montagsfrage).

Wie seht ihr das?

 

 

 

 

 

Leselaunen DSGVO again?!

Leselaunen

Die Aktion „Leselaunen“ ist ein wöchentlicher Bericht und Austausch unter Buchbloggern über das aktuell gelesene Buch, die Lesemotivation und andere Kleinigkeiten im Leben eines Buchbloggers. Der Leselaunen Bericht erscheint wöchentlich am Sonntag um 20:00 und jeder darf jederzeit mitmachen und seinen Link dann bei Trallafittibooks verlinken. Einfach einen Leselaunen-Beitrag schreiben, verlinken, andere Teilnehmer besuchen/kommentieren und genießen!

Da ich unten ggf. einige Markennamen erwähne, kennzeichne ich den Beitrag hiermit als Werbung.

Aktuelles Buch:

Mortal Engines Die verlorene Stadt - Philip Reeve

Jetzt bin ich beim letzten Teil der Mortal Engines Reihe angekommen. Gleichzeitig ist mir auch noch ein weiteres Spin Off der Lux Serie (Dunkelglanz) eingetrudelt. Da könnte ich glatt schwach werden.

Aktuelle Lesestimmung:

Mortal Engines Der Grüne Sturm - Philip Reeve

Die Lesestimmung ist noch immer recht mau. Der dritte Teil war etwas besser als der zweite Teil aber so richtig fesselnd finde ich die Serie nicht. Schlecht ist sie aber auch nicht.

Zitat der Woche:

»Ich hätte nicht gedacht, dass das möglich ist, aber deine Gefährtin ist noch verrückter als du«, meinte er und klopfte seinem kleinen Bruder auf die Schulter. »Halt sie fest und lass sie nie wieder gehen.« – Julia Dippel, Izara

Und sonst so?

Diese Woche habe ich mir noch mal ein Wenig das Thema DSGVO vorgenommen. Der große Paukenschlag ist ja schon eine ganze Zeit vorbei. Die Regeln werden aber Schritt für Schritt mehr durchgesetzt und einige Elemente waren auch nicht vom Start weg scharf geregelt.

Ich hatte auf der Homepage zwar ein Cookiebanner aber nicht die Auswahlmöglichkeit nur die notwendigen Cookies zu aktivieren und die Cookies wurden auch nicht geblockt, bevor man die Auswahl getroffen hatte. Man konnte lediglich auf ok klicken oder die Seite verlassen. Einige Cookies waren dann aber schon gesetzt (nicht das irgendwer daran sterben würde, aber die DSGVO erlaubt es halt nicht).

Seit diesem Jahr ist gefühlt auf fast jeder Homepage eine Option zur Aktivierung der verschiedenen Nutzungswecke von Cookies (Statistik, Werbung, Notwendig, …). Damals hatte ich kein gutes Addon zu dem Thema gefunden.

Da ich seit einer Weile eh Probleme bei der Kommentarfunktion hatte, die mit der Bestätigung der Datenschutzerklärung zu tun hatten, habe ich mich des Themas noch mal angenommen und jetzt eine ganz befriedigende und auch kostenlose Lösung.

Ich habe dazu noch einen Blogbeitrag mit der Vorgehensweise verfasst. Als Addon benutze ich nun Complianz, dass es erlaubt externe Skripte zu blocken. Auf die Spur der externen Skripte kommt man auf diversen Wegen.

Man kann Sie über Ghostery (das zeigt mehr als nur Cookies an) oder über die Webseite Webbkoll finden. Bei Webkoll werden auch die Security Header geprüft. D.h. da bekommt man eine ganze Menge Hausaufgaben. 😉

Das Blocken der Cookies vor der Zustimmung hat nun auch noch den angenehmen Nebeneffekt, dass die Seite bei Google Pagespeed beim 2 fachen Aufruf (also wenn sie gecacht ist) sehr gute Werte erreicht (Mobil rund >85/100 und Desktop >95/100). Das lustige ist, dass der langsamste / schechteste Teil auf meiner Seite lt. Google von Google selbst ist (Google Translate).

Die Google Pagespeedeinstufung hat zwar nicht viel mit der realen Geschwindigkeit zu tun aber die spielt bei Google in dem Ranking einer eher untergeordnete Rolle. Die Geschwindigkeitsmessung spielt aber eine Rolle für die Platzierung in Suchmaschinen.

Beim Server / Blog hatte ich diese Woche zwischenzeitlich arge Performanzprobleme. Ich habe daher einen V-Server von Strato angemietet und muss sagen, dass der seinen Namen nicht verdient. Schnell und relativ günstig ist er aber das war es schon. Das Linux ist maximal kastriert und veraltet. Es werden beim Start diverse Dateien überschrieben. Ein Root Zugriff ist das nicht … Dazu werde ich definitiv noch einen Blogbeitrag schreiben.

Die Unterschiede zwischen den Anbietern sind auf jeden Fall deutlich größer, als man es vom Marketing vermuten könnte.

Ansonsten finde ich momentan krass was für ein Theater um das Coronavirus gemacht wird. Die Börsen schmieren ab, Disney schließt ganze Freizeitparks, Verbindungen zu Städten werden eingestellt und Länder nicht mehr angeflogen.

Dabei gestaltet sich die Erkrankung bisher harmloser als eine Grippe.

Wie war eure Woche?

Weitere Leselaunen:

So schnell, die Zeit! bei Andersleser Leselaunen bei Taya’s Crazy World Und schon wieder Bücher bei Letterheart Tierchaos bei cbee talks about books Halbzeit bei Umivankebookie

Montagsfrage: Liest du Bücher parallel oder nacheinander?

Aus der letzten Woche gibt es nicht viel zu berichten. Ich habe einen weiteren Band der Mortal Engines Reihe beendet und lese nun Teil 3.

Weiterhin habe ich mir den Film 1917 im Kino angesehen, über den ich in den Leselaunen berichte. Freitag ist Star Trek Picard bei Amazon gestartet. Die erste Folge war vielversprechend. Mal sehen wie es weiter geht. Ich hoffe sie haben es nicht vermurkst. 😉

Zur Frage:

Wer meinen Bog ein etwas verfolgt kennt die Antwort bereits. Ich lese ganz selten Bücher parallel. Da ich gerne Buchserien entsteht dadurch sogar ein noch stärker Effekt. Ich lese die Bücher sequentiell und meistens auch zugehörig zu einer Serie in der entsprechenden Reihenfolge zusammenhängend. Gerade innerhalb einer Serie macht es anders ja auch wenig Sinn.

Warum lese ich in einer Serie möglichst alle Bände hintereinander? Das er Grund dafür ist, dass es gerade bei umfangreichen Serien viele Details gibt, die irgendwann kurz erwähnt werden, später aber eine Rolle spielen. Ein gutes Beispiel dafür sind die Harry Potter Bücher. Mir ist es lieber, wenn ich die Details noch kenne, als wenn ich mich auf die mehr oder weniger gute Zusammenfassung des Autors verlassen muss, die sich in jedem Folgeband irgendwie findet oder noch schlimmer – ich nach den Infos in den Vorgängern suchen muss. Wobei das bei e-Books zum Glück deutlich einfacher ist dank Suchfunktion.

Während manche also bewusst nicht mehrere Bände einer Serie hintereinander lesen, um die Abwechslung zu steigern, mache ich es in der Regel andersrum.

Parallel lese ich Bücher hauptsächlich, wenn mich ein Buch nicht so recht überzeugt oder ich einfach Lust auf etwas thematisch anderes habe. Zum Beispiel eine Reselektüre und ein Roman.

Wie handhabt ihr das? Seid ihr parallelleser?

1 13 14 15 16 17 19