Zwei Jahre Blog [Kommentar]

Den Blog gibt es nun bereits zwei Jahre. Während ich im ersten Jahr noch mit dem Design experimentiert habe und einiges am Blog erweitert habe, wurden die Änderungen im zweiten Jahr deutlich weniger.

Das lag natürlich auch daran, dass ich im vergangenen Jahr 5 Monate in den USA durch die Gegend gereist bin (siehe hier).

Am Server habe ich den letzten Monaten einiges geändert. Während anfangs mein primäres Ziel war alles irgendwie ans Laufen zu bekommen, habe ich die Sicherheit des Servers erhöht, die Datenbank auf den aktuellen Stand gebracht und den den Mailserver auf den aktuellen technischen Stand.

Bzgl. der Besucherzahlen ist zwar absolut gesehen eine deutliche Steigerung vorhanden (15.000 auf ca. 20.500). Im Vergleich zum ersten Jahr ist die gemessene Besucherzahl aber extrem rückläufig. Ob das an anderen Messmethoden oder auch Caching Plugins liegt, kann ich nicht sagen. Ich vermute aber, dass zumindest letztere einen deutlichen Einfluss haben.

In den Google Suchergebnissen liegt der Blog teilweise recht weit vorne. Zumindest wenn man nach Buchreihen oder Serien sucht.

Erfolgreichste Beiträge

Dazu gehören zum Beispiel einige Beiträge zum PCT, die ziemlich gefragt sind. Primär sind dies der Beitrag zur Ausrüstung, der Beitrag zum Bewerbungsprozess bzw. Permit und der Beitrag Buch vs. Realität. Das sind quasi alles Nischenthemen, zu denen man nicht so viel im Netz findet (vor allem im deutschsprachigen Raum).

Viel leichter als mit Büchern erregt man offenbar mit Beiträgen zu Lifestylethemen Aufmerksamkeit. Mein Kommentar zur Garmin Fenix 5 Plus gehört zu den meistgelesenen auf dem Blog.

Bei den Büchern liegen die Armentrout Buchbeiträge mit großen Abstand vorne. Ganz vorne liegt die Lux Serie aber auch die anderen wie z.B. Götterleuchten, Dämonentochter und Wicked haben recht viele Aufrufe. Ich vermute aber, dass es kaum um die Rezensionen geht, sondern einfach darum, dass die Seitenbesucher nach der richtigen Lesereihenfolge bzw. den Teilen der Serie suchen. Faktisch sind die meistgeladenen Rezensionen nicht meine besten.

Bei den Reisebeiträgen ist die Hurtigruten mit Nordlicht Tour mit Abstand am meisten besucht.

Nun könnte man zur Erkenntnis kommen, dass man sich die Buchrezensionen sparen kann oder zumindest auf die Sterne beschränken (meine Reihenübersichtsseite wird offenbar recht viel genutzt aber die Rezensionen selbst liest fast niemand).

An den Themen der Blogs hat sich seit dem letzten Jahr nichts geändert, wenn man mal ignoriert, dass der Blog zwischendurch zur Hälfte Reiseblog war. Es sind also nach wie vor Buchserienreviews, Einzelreviews, Filmreviews, das Thema Hiken und Reiseberichte im Blog vertreten.

Zusätzlich bin ich den Leselaunen und der Montagsfrage treu geblieben. Beide schwächeln aber bei der Teilnehmeranzahl.

Insgesamt habe ich rund 185 Bücher mit mehr als 75.000 Seiten gelesen. Das ist vermutlich mehr als einige in ihrem ganzen Leben schaffen, andere wiederum lesen das in einem Jahr. 😉

Den Beitrag aus dem letzten Jahr findet ihr hier.

Cokies DSGVO konform im Blog [Kommentar]

Einleitung

Zuerst möchte ich auf meinen ursprünglichen Blogbeitrag zum Thema Addons und DSGVO verweisen. Wär sich für eher witziges zu dem Thema interessiert, der ist in diesem Beitrag gut aufgehoben.

Obwohl die entsprechende Gesetzesgrundlage nicht mehr neu ist, gehen die Auslegungen der Texte wie üblich auseinander. Während einige der Meinung sind, dass Cookiebanner reichen, gehen andere Weiter und meinen, dass die DSGVO nahelegt beim initialen Aufruf der Seite nur notwendige Cookies zu speichern, bis der Anwender einer weiteren Verwendung zustimmt.

Dieser Blogbeitrag ist keine Rechtsberatung und auch keine Aussage, dass ihr damit eure Seite rechtskonform betreiben könnt. Ich lege die DSGVO aber so aus, dass ein Informationsbanner nicht reicht und der im folgenden Dargestellte Ansatz erforderlich ist.

Hintergrund ist, dass so wenig wie möglich Daten in Bezug zum Benutzer (personenbezogene Daten) gespeichert werden.

Verschiedene Ansätze

Es gibt Plugins, die lediglich Informationsbanner anzeigen frei nach dem Motto – “Diese Seite verwendet Cookies, sie können dies mit ok bestätigen oder die Seite verlassen”. Wenn der Nutzer dies sieht, sind aber zumindest die Cookies von der Startseite bereits abgelegt worden. Es ist also eigentlich zu spät.

Das viel verwendete XXX stellt eine Funktion bereits, die es erlaubt Skripte erst auszuführen, nachdem der Anwender die Cookies bestätigt hat. Das ist zwar nett gemeint, geht aber meiner Meinung nach vollkommen an der Realität vorbei.

Man installiert in der Regel ein beliebiges Addon (z.B. Übersetzer, Jetpack, …) und dieses legt eigenmächtig Cookies ab. Selbst wenn man das Skript zur Cookieablage identifiziert ist es aber unrealistisch das Skript aus dem Addon auszubauen und in das Cookieaddon zu kopieren.

Wenn ihr das versucht, wird es aufgrund des nicht geladenen Codes / Ladereihenfolge wahrscheinlich zu Problemen kommen. Selbst wenn das nicht der Fall ist, wird beim nächsten Update der Code wieder in das Plugin kopiert und automatisch ausgeführt. Das ist also vollkommen unpraktikabel.

Es muss also eine Lösung her, die die Ausführung von bestimmten Skripten / Addons / externen Aufrufen (denn meistens wird extern Code nachgeladen oder Daten an externe Adressen übertragen) blockt.

Die Plugins

Wie bereits erwähnt habe ich bisher das Plugin Cookie Notice verwendet, das auf sehr vielen Blogs installiert ist. Aus meiner Sicht stellt dies aber keine rechtskonforme Lösung dar bzw. die lässt sich praktikabel damit nicht umsetzen.

Das einzige kostenlose Addon für eine mutmaßlich rechtskonforme Abbildung, das ich gefunden habe heißt Complianz. Im Folgenden werde ich mich mit diesem Plugin beschäftigen.

Eine weitere Variante, die für den Normalblogger noch in einem bezahlbaren Rahmen liegt ist Borlabs Cookie, dass 40€ pro Jahr kostet. Leider gibt es keine kostenlose Testversion.

Es gibt z.B. auch noch Cookiebot, dass ich kurz getestet habe (hat bei mir nicht funktioniert) und es ist für den Normalblogger vollkommen unbezahlbar. Man befindet sich bei einem kleinen Blog wie meinem schon in Regionen von über 10€ pro Monat.

Warum sind Cookies böse?

Per se sind Cookies erst mal nicht gut oder böse. Sie dienen schlicht der Ablage von Informationen über eine Browsersitzung hinaus. Oft werden sie aber auch verwendet, wenn es eigentlich nicht nötig ist.

Beispielsweise verwende ich ein Übersetzungs Plugin auf dem Blog. Das speichert die eingestellte Sprache. Da aber die Browsersprache abgefragt wird und man mit PHP auch die Möglichkeit hat Sitzungsinformationen zu speichern (ohne Cookies) ist das Cookie ziemlich überflüssig. Schlimmer noch, dass Plugin setzt sogar mehrere Cookies.

Die sind aus DSGVO Sicht inhaltlich wahrscheinlich nicht problematisch, da lediglich die ausgewählte Sprache gespeichert wird.

Anders sieht es aus, wenn das Cookie zur Identifikation verwendet wird. Beispielsweise könnte Facebook im rahmen der Einbettung des Like Buttons ein Cookie platzieren, dass dazu dient mich eindeutig zu identifizieren. Somit ist dann später ersichtlich, dass ich auf Blog x war, bei Amazon eingekauft habe und auf irgendwelchen anderen Blogs oder Social Networks war. In Kombination lässt sich dann Mein Surfverlauf nachvollziehen. Das will die DSGVO verhindern.

Externe Aufrufe

Externe Aufrufe können aber müssen nicht mit Cookies einhergehen. Grundsätzlich gibt es aber vergleichbare Probleme wie bei den Cookies. Es werden möglicherweise Informationen zum Besucher übergeben (z.B. die IP), die als personenbezogenes Datum gilt und mit der sich wieder der Surfverlauf nachvollziehen lässt.

Die Umsetzung des Cookieblockens

Obwohl Complianz einen nett gemeinten Automatikmodus bietet, der aber eher lästig als hilfreich ist (besonders, wenn man Caching Addons benutzt), muss man erst mal wissen wo und wann die Cookies geladen / erzeugt werden bzw.

Wo liegt das Problem beim Automatikmodus? Der Automatikmodus ruft einfach wahllos ein paar Blogseiten auf und prüft welche Cookies dort gesetzt werden. Manche Cookies kommen aber nur an bestimmten Stellen zur Anwendung. Beispielsweise bei der Kommentarfunktion oder im Gästebuch, wenn ein Youtube Video (die kann man übrigens Datensparsam einbetten – das bietet Youtube selbst an) auf der aktuellen Seite eingeblendet ist usw. Der zufällige Test bringt also wenig.

Wie bekommt ihr also raus welche Cookies geladen werden. Dafür gibt es verschiedene Ansätze. Zuerst solltet ihr zur Auswahl der zu prüfenden Seiten den gesunden Menschenverstand einsetzen.

Die Hauptseite muss müsst ihr auf jeden Fall prüfen. Dan solltet ihr ggf. das Gästebuch, eine Seite mit Kommentarfunktion usw. testen. Im Prinzip alle Varianten (wenn ihr einen Blogbeitrag mit Youtube Videos habt, solltet ihr auch den testen usw.).

Ghostery

Es gibt Browseraddons (Ghostery) wobei das nach meinen Tests etwas über das Ziel hinausschießt. Das zeigt nicht nur gesetzte Cookies an, sondern auch welche die sich im Code der Seite befinden aber noch nicht aktiv sind bzw. auch Tracking abseits von Cookies.

Trotzdem kann Ghostery sehr hilfreich sein da ihr auch damit die Domains ermitteln könnt, die potenziell geblockt werden sollten.

Ghostery Addin für Browser

Ghostery Addin für Browser

Webkoll

Bessere Erfahrungen habe ich mit Webkoll gemacht. Wenn ihr bereits eine Content Security Policy eingerichtet habt, dann wisst ihr schon welche Skripte nachgeladen werden. Das ist schon eine gute Basis. Wenn ihr noch keine Contenct Security Policy habt oder euch fragt was das ein soll, dann ist das auch nicht schlimm.

Zur Content Security Policy werde ich ggf. noch einen separaten Blogbeitrag schreiben (die habe ich letztes Jahr eingerichtet). Das Thema würde hier aber den Rahmen sprengen. Meine Policy ist nicht perfekt aber ein Anfang. Ich halte den Ansatz die Policy so umzusetzen, dass Webkoll sie als grün anzeigt allerdings auch für nicht für praktikabel. dann kann man vermutlich alle drei Tage nachpflegen, weil irgendwas auf der Seite nicht funktioniert.

Mit Webkoll könnt ihr prüfen welche Cookies eure Seite setzt. Wenn ihr die Kommentarfunktion testen wollt, müsst ihr die Test URL entsprechend so setzen, dass ihr damit die Kommentarseite aufruft.

Beispielsweise sieht die Prüfung bei Webkoll auf meiner Bloghauptblogseite mit aktiviertem Complianz nun so aus:

Webkoll First Party Cookies

Drittanbietercookies gibt es keine und die gesetzen Cookies sind harmlos in Bezug auf personenbezogene Daten. Das ist gut.

Webkoll - Third Party

Die Drittanbieteranfragen können problematisch sein, weil die Daten abseits des eigenen Servers zum Teil in den USA gespeichert werden.

Das sieht nach wie vor nicht optimal aus, ist aber deutlich besser als vor dem Einsatz des Addons (da waren es deutlich mehr).

Bestimmte Skripte lassen sich nicht deaktivieren, weil dann die Seite nicht mehr funktioniert. Beispielsweise kann ich s0.wp.com nicht deaktivieren, weil das zu Jetpack gehört. Das merkt man spätestens, wenn die Seite nicht mehr vollständig funktioniert, nachdem man eine Domain in die Ausschlussliste aufgenommen hat.

Complianz

Im Complianz Skript Center fügt man nun die Domains hinzu, die man blocken möchte. Das Blocken klappt nicht immer aber für die dargestellten Domains funktioniert es bei mir:

Compliance Reiter Skript-Creator

Wenn der Benutzer nun das Cookiebanner zu sehen bekommt und nicht zustimmt, werden auch keine Drittanbietercookies gesetzt.

Plugins / Dienstleistungen

Complianz Reiter Plugins

Das ist so nicht richtig. Weder wird zum Beispiel Jetpack gelockt, noch werden die Plugins weitgehend automatisch erkannt. Das ist trügerische Sicherheit.

Zusätzlich könnt ihr über die beiden anderen Reiter Dienstleistungen und Plugins aktivieren werden, die ihr nutzt. Anschließend werden automatisch die Informationen zu den Cookies in die Cookie Richtlinie aufgenommen, die automatisch erstellt wird.

Complianz Reiter Dienstleistung

YouTube Ja oder nein. Bei datensparsamer Einbindung heißt die Antwort wohl eher nein

Die Automatismen schießen aber gern über das Ziel hinaus. Wenn ihr beispielsweise Youtube aktiviert, werden diverse Cookie als angeblich auf der Seite enthalten dokumentiert. Wenn ihr allerdings die datensparsame Variante der Einbettung nutzt, ist keins davon vorhanden.

Gleiches gilt, wenn ihr Facebook oder Twitter auf eurer Seite nutzt. Je nach Einbettung (zum Beispiel über Shariff werden die Cookies nicht gesetzt. Wenn ihr aber Facebook und Twitter markiert, werden zig Cookies als angeblich auf eurer Seite vorhanden markiert, die ihr überhaupt nicht nutzt.

Cookie Zustimmung

Minimalfunktion mit wenig Cookies oder komfortabler mit allen? Die Texte sind alle frei anpassbar

Ich finde der Rest des Plugins ist relativ selbsterklärend. Es gibt auch einen Assistenten den man arbeiten sollte und an dessen Ende die Cookie Richtlinie automatisiert erstellt wird.

Wenn ihr bessere Plugins / Lösungen habt oder Erfahrungen mit Borlabs, hinterlasst mir bitte einen Kommentar.

Wo ist der Haken?

Die Automatismusfunktion zum Scannen nach Cookies lässt sich offenbar nicht aktivieren. Die führt dazu, dass nach Aufruf der Administrationsseite des Blogs stattdessen wahllos irgend eine Seite des Blogs aufgerufen wird. Wenn ihr Caching Addons verwendet passiert dann immer wieder. Das lässt sich dann nur vermeiden, wenn man andere Seiten in der Administration wie zum Beispiel die Updateseite oder ähnliches aufruft. Das ist nervig und unnötig.

Im schlimmsten Fall landet ihr also in einer Endlosschleife und müsst das Addon (temporär) deaktivieren.

Offenbar verwenden 90% der Nutzer nur die Automatikfunktion, ansonsten wäre es viel Sinnvoller gewesen, wenn man bestimmte Testseiten angeben könnte, die der Reihe nach aufgerufen werden und anschließend automatisch auf die Hauptseite gewechselt würde. Das wäre sogar vollständig im Hintergrund möglich.

Angenehmer Nebeneffekt

Durch das Blocken der Cookies wird das Laden der Webseite beschleunigt. Selbst auf einem oft lahmenden Sever wie meinem, bekommt man so also einen relativ guten Google Pagespeed Score, weil weniger auf externe Ressourcen zugegriffen wird, da Pagespeed beim Aufruf die Cookies bzw. das Nachladen von externem Code nicht aktiviert.

So lässt sich der Pagespeed Score und somit das Ergebnis in der Google Suchmaschine leicht verbessern. Das trifft allerdings erst zu, wenn die Webseite gecacht ist (außer bei einem sehr schnellen Server). Das heißt in der Regel sehr ihr den Effekt bzw. ein gutes Ergebnis erst beim zweiten Aufruf.

Die Messung von Google ist relativ unrealistisch, da die reale Ladezeit kaum berücksichtigt wird (Dektopmessung – Mobil liegt die Messung bei 87).

Pagespeed Desktop

Der Pagespeed Wert ändert sich aber eh ständig. Desto mehr Fotos / Screenshots ihr nutzt, desto mehr Daten werden übertragen und desto langsamer wird die Webseite.

Alles Rechtskonform oder wie?

Wie oben bereits angemerkt werden Gesetze von Anwälten und Richtern ausgelegt. Definitiv klar ist, das eine Sperre besser als ein Banner ist, das lediglich auf Cookies hinweist.

So lange man mit dem Blog kein Geld verdient, wird man vermutlich erst mal nicht direkt Gefahr laufen eine Abmahnung zu bekommen. Im Kontext von Unternehmen haben die Datenschutzbehörden aber durchaus schon Strafen in exorbitanter Höhe verhängt. Von daher sollte man in einem Privatblog zumindest belegen können, dass man sich mit dem Thema beschäftigt und Anstrengungen unternommen hat.

VPServer – Strato vs. Contabo Performance und Werbeversprechen [Kommentar]

Strato Linux V40 vs. Contabo VPS 1400 vs. Contabo S SSD vs. Contabo VPS M und L

Man sollte meinen ein VPS Server ist ein VPS Server aber weit gefehlt.

Da ich in der letzten Zeit ziemlich viele Performanzprobleme mit einem meiner beiden VPS-Server bei Contabo hatte (mangelnde IO also Lese- und Schreibleistung der Festplatten, die dazu führt, dass der Server oft temporär nicht erreichbar ist bzw. nicht antwortet), habe ich mir die aktuellen Angebote des Wettbewerbs angeschaut.

Dabei bin ich auf ein Angebot von Strato gestoßen.

Die Eckdaten:

VPS 1400 von Contabo

6 CPU Kerne
20 GB RAM
1,4 TB HDD (angeblich SSD beschleunigt aber davon merkt man nichts)
1 GBit Netzanbindung
13€ pro Monat

Da ich Plesk nicht brauche, ist das Angebot eigentlich unnötig teuer aber trotzdem noch ziemlich gut in der Preisleistung.

Contabo VPS S SSD

4 CPU Kerne
8 GB RAM
0,2 TB HDD
200 MBit Netzanbindung
5€ pro Monat

Linux V40 von Strato

8 CPU Kerne
16 GB RAM
1,2 TB SSD
500 MBit Netzanbindung
17€ pro Monat mit Plesk (letzteres brauche ich nicht auf dem Server – Plesk vereinfacht den Einstieg in einen Linux VPS gerade für Anfänger deutlich. Man bekommt faktisch kaum mit, dass ein Linux drunter ist – mal abgesehen von der Geschwindigkeit)

Ich dachte bisher, dass sich die VPS Anbieter grundsätzlich gleichen aber ich wurde eines Besseren belehrt. Im Folgenden führe ich einige Punkte auf, bei denen sich die beiden Anbieter unterscheiden.

Anmerkungen

Contabo VPS 1400

 

  • VNC Zugang (das bedeutet, man hat vollen Zugang auch wenn der Server bootet) und kann selbst dann darauf zugreifen, wenn der Internetzugang / SSH nicht funktioniert. Wenn man ihn gerade nicht benötigt, sollte man den VNC Zugriff aus Sicherheitsgründen im Kundenpanel deaktivieren, da die Verbindung unverschlüsselt ist. Es kann also jeder auf dem weg vom eigenen Rechner zum Server mitlauschen.
  • Es gibt ein Rettungssystem mit Orignalsystem als separates Laufwerk, das manuell eingebunden werden muss. Das ist nicht komfortabel aber Linux Standard.
  • Es werden keine Backups abseits dessen was man selbst auf dem Server einrichtet angefertigt (d.h. die gehen von dem Platz ab, den man auf dem Server hat). Empfehlen kann ich für den Zweck zum Beispiel Timeshift und Backintime.
  • Eine Neuinstallation dauert bei Contabo ein paar Minuten, weil sie automatisiert durchgeführt wird und somit primär von der Geschwindigkeit des Systems abhängt
  • Man hat die Auswahl zwischen diversen Betriebssystemen / Versionen und jeweils mit Webmin, mit Plesk, mit Datenbank usw. – das Ubuntu ist vollständig und keine kastrierte Sparversion
  • Die Performanz des Festplatten schwankt im Schnitt zwischen 15 MB/s bis nichts und das meine ich durchaus wörtlich (letzteres kommt leider regelmäßig vor). Lt. mehreren Technikern von Contabo ist das bei shared Hosting normal. BEi meinem zweiten Contabo Server mit SSD habe ich das Problem allerdings noch nicht festgestellt. Zusätzlich gibt es noch regelmäßig Festplattenprüfläufe, die es noch schlimmer machen. Moderne Festplatten sollten Probleme mit S.M.A.R.T. eigentlich automatisch melden.
  • Die Doku ist vergleichbar gut wie bei Hosteurope (da hatte ich vorher meinen Server, bis sie ins Ausland gegangen sind). Im Ausland gelten andere Rechte – beispielsweise gibt es in Frankreich (da ist Hosteurope mit seinen Servern zu großen Teilen gezogen) andere Terrorismusgesetze. Im Namen des Schutzes werden aber auch gerne andere Rechte ausgehebelt.
  • Deutsches Rechenzentrum
Contabo VPS S SSD

 

  • Es gilt weitgehend das was ich bereits zum VPS 1400 geschrieben habe.
  • Der VPS S SSD bietet deutlich höhere IO Leistung und es arbeitet sich deutlich flüssiger an dem Server. Das fängt teilweise schon mit simplen Sachen an, wie dem Start eines Dateiexplorers wie zum Beispiel Nano. Der Dauert auf dem HDD Server mal ein oder 2 Sekunden aber auch mal 20 oder 30. Auf dem SSD Server geht das immer schnell.
  • Man kann einen Snapshot erstellen. D.h. man hat ein Backup des Servers, dass man in wenigen Sekunden zurückspielen kann. Dabei wird der ganze Server wieder auf den vorherigen Stand gesetzt. Diese Art Backup wird aber “nur” einen Monat aufbewahrt. Anfangs habe ich das für nicht sinnvoll befunden aber andererseits ist es sinnvoller Snapshots nur Zeitnah zurück zu spielen.
Strato Linux V40

 

  • Es gibt keinen VNC Zugriff (das ist eine extreme Einschränkung und es war mir nicht bewusst, dass es überhaupt Anbieter gibt, die einen derartigen Zugriff nicht ermöglichen). Das wird aber damit zusammen hängen, dass man auch keinen Zugriff auf den Bootlevel hat (sprich der Bootvorgang / Bootmanager wird nicht emuliert). Dieser Aspekt wiegt um so schwerer, da es selbst nach dem Bootvorgang nicht möglich ist, einen Zugang einfach nachzurüsten. Selbst die Installation von einem aktuellen Gnome war nicht möglich. Somit lässt sich auch nicht einfach X2GO oder ein Remotedesktopzugriff nachrüsten.
  • Es gibt einen Rettungszugriff der bequem aber seltsam realisiert ist. Das Originalsystem wird in einem Ordner (Repair) des Rettungssystems eingehängt. Man kann sich so nicht die Orignial UUID des Datenträger anzeigen lassen, weil der überhaupt nicht erscheint. Offenbar macht das aber bei Strato eh keinen Sinn, weil man auf diesem Level überhaupt keinen Zugriff hat.
  • Backups werden täglich automatisch erstellt (10 Stück rollierend) und können vollständig zurückgespielt werden. Wie / welches Backupverfahren genutzt wird ist unklar. Snapshots scheinen es nicht zu sein lt. Beschreibung, da die Wiederherstellung “stunden” oder bis “zu drei Tage” dauern soll. Es ist auch unklar, ob wirklich alles gesichert wird, da man selber offenbar nicht auf alle Daten Zugriff hat (siehe weiter unten) bzw. diverse Dateien durch die Strato Visualisierung eh überschrieben werden. Da die Backups nach Lust und Laune von Strato angefertigt werden (beliebige Uhrzeit) und die Rückspielung offenbar ewig dauert (auch manuell?!), ist die Idee zwar nett aber eigentlich nur für für einen Totalausfall brauchbar, bei dem man anders nichts mehr retten kann. Selbst dann sind bis zu 4 Tage Ausfallzeit selbst für einen VPS Anbieter ziemlich heftig, um ein simples Backup zurück zu spielen. Bei einem Totalausfall hat man immerhin den Stand vom Vortag bzw. von vor 4 Tagen, wenn Strato so lange benötigt um das Backup zurück zu spielen. Zusätzlich ist auch in diesem Fall die Doku mal wieder falsch. Es ist weder möglich bestimmte Snapshots als permanent zu markieren, noch kann man manuell Backups erstellen, wie es in der Doku beschrieben wird.
  • Bei Strato dauert eine Neuinstallation Stunden (offenbar muss jemand per Hand installieren?! – bei mir hat das simple neu installieren des kastrierten Ubuntu 12 Stunden gedauert). Ich war zumindest sehr überrascht, dass es so extrem lange dauert. Sobald man eine Neuinstallation angefordert hat, kann man auch kein Backup mehr zurückspielen. Der Prozess scheint für einen derart großen Anbieter ziemlich vorsintflutlich zu sein. Vor allem wenn es eh so wenige unterschiedliche Images gibt, sollte die Neuinstallation in wenigen Minuten automatisiert erfolgen.
  • Die Auswahl der Installationsimages ist sehr übersichtlich und nicht kundenfreundlich. Das Ubuntu 18.04 ist nicht vollständig installiert. Es fehlen diverse Pakete. Es gibt keine Datenbank und keinen kostenlosen Webzeugang wie z.B. Webmin. Offenbar geht Strato fest davon aus, dass man Plesk verwendet (weil es eh im Preis enthalten ist). Selbst Standardkomponenten wie z.B. Netplan bei Ubuntu fehlen. D.h. aus meiner Sicht ist das System überhaupt nicht dafür vorgesehen es abseits von einem Plesk zu betreiben. Das wird aber an den im folgenden erklärten Abbildungsvarianten liegen. Bei Contabo hat man vollen Zugriff und dementsprechend kann dem Anbieter egal sein was man auf dem Server installiert.
  • Offenbar hat man keinen vollständigen Zugriff auf alle Ordner wie bei Contabo. Beispielsweise ist es mir nach einem vollständigen RSYNC nicht gelungen die vorher genutzte Betriebssystemversion zu starten. Der Server versucht trotzdem die Kernelversion des ursprünglich installierten Linux zu verwenden (ich gehe aktuell von einem versteckten boot Ordner aus, der abgearbeitet wird – offenbar auch eine Besonderheit der Virtualisierung bei Strato). Der Boot Ordner ist leer. Scheinbar wird Grub von außerhalb des Laufwerks gestartet auf das man Zugriff hat. Für mich ist das ein no go. Das erschwert den Umzug nach Strato und weider weg erheblich. Weiterhin bleibt der Server zum Teil eine Black Box (Stichwort überschriebene und generierte Dateien), da man weder einsehen noch steuern kann was Strato im Boot Verzeichnis macht, noch welche Dateien überschrieben werden. Für Server mit echtem Root Zugriff ist das nicht.
  • Die zweite Partition wie ich sie bei Contabo habe (für Boot siehe vorheriger Punkt) und die Möglichkeit eines abgesicherten Starts oder den Wechsel auf eine vorherige Kernelversion – nebenbei Standardfunktionen von Linux oder auch Windows – existiert nicht.
  • Die Dokumentation ist bescheiden (teilweise vollkommen veraltet) oder nicht vorhanden. Oft werden in der Doku andere Varianten beschrieben (Verzeichnisse anders, andere Adapternamen z.B. beim Netzwerkadapter) oder verschiedene Varianten beschrieben, bei denen vollkommen untransparent ist welche davon für den eigenen VPS Server relevant bzw. noch aktuell ist. Ohne Support kann man sich wegen der diversen Sonderlocken nicht selber helfen bzw. es fehlt die Doku. Ich unterstelle, dass ein paar Kundendienstmitarbeiter in einer Woche so viel Doku erstellen könnten, dass danach 50% der Supportanfragen überflüssig wären.
  • Deutsches Rechenzentrum
  • Diverse Dateien werden automatisch überschrieben beim Boot (interfaces, fstab) – bei Contabo passiert das nicht (voller Root Zugriff). Lt. Strato Support erfolgt das über die Virtualisierungsumgebung. Eine Doku darüber gibt es nicht. An einer Stelle ist beispielsweise in einer Readme dokumentiert, dass die Konfiguration durch ein Template erfolgen soll. Wenn man das Template anlegt, wird die Konfiguration der Originaldatei beim Boot trotzdem nach eigenem Gutdünken verändert.
  • Die SSD scheinen erwartungsgemäß schnell zu sein. Wirklich testen konnte ich das nicht, da ich mein System auf dem Server nicht zum Laufen bekommen habe. Abseits von einigen Kernelfehlemeldungen bootet der Server zwar aber Netzzugriff bekommt man nicht. Ich vermute, dass es an der nicht vorgesehen Unterstützung von Netplan liegt evtl. aber auch daran, dass mein Linux 2 Jahre aktueller als der Stand von Strato ist. Das harmoniert nicht sonderlich gut zusammen. Da ich auch nicht die vollständige Konfiguration des Servers im Zugriff habe, kann ich das Problem auch nicht beheben. Ich müsste das Hostsystem neu installieren und dann auf den aktuellen Stand updaten. Das geht aber nicht, da Strato Updates des Hostsystems unterbindet. Ich werde aber sicher nicht das gesamte Linux neu installieren, nur weil Strato offenbar den Linux Standard neu auslegt bzw. allergisch gegen aktuelle Versionen ist. Stattdessen wird bei Strato eine 2 Jahre alte Version ohne Sicherheits(updates) verwendet.

Benchmarks / Performance

Kurz zur Erklärung. Die virtuellen Server basieren auf physischen CPUs. Die geben die VPS Anbieter in der Regel an. Somit lässt sich errechen welche Leistung einem theoretisch zur Verfügung stehen müsste. Wenn man zum Beispiel 6 Kerne gebucht hat und die Server CPU 10 Kerne hat, muss man schlicht durch 10 mal 6 rechnen, um die theoretische Leistung zu errechnen.

Contabo VPS 1400

Echte CPU Leistung des Prozessors:

Geekbench – Entspricht der CPU des Contabo VPS 1400 – theoretisch sollte man fast die volle Leistung erreichen, wenn man 6 Kerne gebucht hat. Vermutlich bekommt man aber eher Threads und nicht Kerne. Somit bekommt man reale 3 physische Kerne, die 6 virtuellen Kernen entsprechen.

Und im Vergleich die Werte auf dem VPS

Geekbench – Wie man erkennt liegt man bei ca. 55% der Leistung der physischen CPU – zu einer lastarmen Zeit am Wochenende. Das entspricht also ungefähr 6 der 12 Threads. Der wert liegt 15% über dem Anteil der zu erwarten wäre. Allerdings liefen auf dem Server auch diverse Anwendungen wie zum Beispiel Webserver. Die Grundlast ist aber ziemlich gering. Somit dürften das die 5% Differenz zum Contabo VPS S sein.

Sysbench – CPU

Sysbench Memory

 

Sysbench IO

Contabo VPS S

Geekbench – Da die CPU 10 Kerne hat, würden 4 davon der Rechnung durch 10 mal 4 entsprechen. Auch hier bekommt man aber eher Threads, also virtuelle Kerne. Bei einer echten CPU entspricht das also 2 physischen Kernen.

Geekbench – Man liegt bei 24% der realen CPU Leistung. Das ist 20% über dem was das Marketing verspricht. Es ist aber nicht garantiert.

Sysbench – CPU

Sysbench – Memory

Sysbench IO – Wie man unschwer erkennt ist die SSD 4x so schnell wie die Platten des Contabo 1400. Der gefühlte Unterschied ist aber größer. Bei der Latency ist es Faktor 7!. Das entspricht eher den realen Erfahrungen.

Strato Linux V40

Geekbench – Da die CPU 10 Kerne hat, würden 8 davon der Rechnung durch 10*8 entsprechen. Auch hier bekommt man aber wie bei Contabo eher Threads bzw. vrtuelle Kerne. Bei einer echten CPU entspricht das also eher 4 physischen Kernen.

Geekbench – Obwohl der Strato Linux V40 2 CPU Kerne mehr hat als der Contabo 1400 ist der Strato nicht schneller. Zusätzlich muss noch angemerkt werden, dass auf dem Strato abseits des kastrierten Ubuntu nichts lief. Der Strato V40 hatte also deutlich bessere Rahmenbedingungen. Man liegt bei ungefähr 38% der Leistung der realen CPU. Man bekommt also 95% der angepriesenen Leistung. Das geht i.O., wenn es denn zu laststarken Zeiten auch gehalten wird.

Sysbench lies sich auf dem Strato nicht installieren, wie auch so ziemlich nichts anderes. Sobald man Bibliotheken benötigt, die nicht in einer 2 Jahre alten Betriebssystemversion zurecht kommen bzw. andere Bibliotheken benötigen, die sich nicht updaten lassen, kann man die Installation vergessen. Somit viel der Test der IO Leistung leider aus. Der Bereich wäre wohl am ehesten der gewesen, wo der Strato hätte punkten können.

Benchmarkergebnis:

Die Benchmarks unterstreichen meinen bisherigen Eindruck der Leistungen. Man bekommt im Optimum 50% dessen was eine physische CPU leistet. Das erklärt auch den deutlichen Preisunterschied zwischen einem dedicated und einem VPS Server.

Es ist offensichtlich das eine SSD extrem viel schneller ist als eine HDD. Da man sich bei virtuellen Servern die Festplatten auch noch mit anderen teilen muss, ist zu Hochlastzeiten der Unterschied noch viel größer.

Zusammenfassung:

Generell gilt für VPS-Server: Die Angaben zu den CPU Kernen kann man vergessen. VPS Systeme werden überbucht (d.h. auf einen echten Kern kommen mindestens zwei virtuelle).

Erfahrungsgemäß ist die reale Leistung eher im Bereich 25-50% der Angaben von einem Rechner mit echten physischen Kernen, die einem zu 100% zur Verfügung stehen. Bei der IO Leistung sieht es bei Festplatten eher noch schlimmer aus. Da fühlt man sich teilweise an Transferraten von vor 20-25 Jahren erinnert.

Trotz der guten Eckdaten gibt es bei Strato erhebliche Einschränkungen, die aus dem Marketing der beiden Anbieter nicht ersichtlich sind. Das Marketing liest sich auf den ersten Blick relativ gleich.

Aufgrund der eingeschränkten Patchmöglichkeiten sind die Server von Strato aus meiner Sicht ein Sicherheitsrisiko und leider uninteressant und entgegen der Werbeversprechen ist bei Strato alles andere als voller Rootzugang gegeben.

Selbst beim Installieren der Pakete von meinem anderen Server gab es schon diverse Fehlermeldungen wegen eingeschränkter Rechte (das Werbeversprechen zur Administrationsfreiheit halte ich für eine Falschaussage). Es konnte nur ein Bruchteil der Pakete installiert werden.

Auch das Anpreisen von Ubuntu halte ich für sehr gewagt, da man bestenfalls ein sehr kastriertes Ubuntu bekommt. Mit einem vollwertigen Ubuntu hat das nicht viel zu tun. Etwas positiver kann man den Server als Plesk Server sehen, da auch Plesk sehr viel in das System eingreift, kann man den Server eh nicht mehr frei verwenden, ohne Gefahr zu laufen, dass eigene Konfigurationen durch Plesk überschrieben werden oder man selbst Probleme bei Plesk verursacht. Die von Strato verwendete Virtualisierung verstärkt diesen Effekt von Plesk lediglich zusätzlich.

Die Dauer einer Neuinstallation und des Rückspielens von Backups bei Strato wären schon vor 10 Jahren überholt gewesen. Heute sind sie völlig realitätsfern. Umso erstaunlicher ist, dass einem 10 Backupslots kostenlos zur Verfügung stehen, die nicht vom Platz auf dem Server abgezogen werden. Das ist wiederum als sehr positiv einzustufen. Allerdings wäre eine Snapshotfunktion bei SSDs viel sinnvoller. Die lässt sich in Sekunden zurückspielen und nicht stunden bis Tagen.

Fazit

Für mich gilt trotz der aktuell bescheidenen Performanz auf dem HDD System von Contabo, dass Strato keine bessere Alternative ist, auch wenn man Anhand der Eckdaten den Eindruck hat. Allerdings muss man auch sehr klar betonen, dass die offensichtliche Überbuchung der HDD Server bei Contabo, die teilweise zu erheblichen Leistungseinbußen führen, alles andere als akzeptabel sind.

Man muss immerhin bedenken, dass ich das größte HDD System gebucht habe und das zweite Paket das kleinste SSD System ist. Letzteres läuft trotzdem deutlich runder. Somit kann ich die HDD Server von Contabo nicht mal als Webserver empfehlen.

Der Unterschied bei der IO Leistung sich besonders gut anhand der oben gemessenen Latenzen darstellen. Dabei stellt der Faktor 7 wohl eher den Optimalzustand dar.

Empfehlen lässt sich nach diesem Test nur der Contabo mit SSD. Wenn es einem egal ist, wenn der Webserver zwischendurch mal für längere Zeit (Minuten bis Stunden) nicht oder nur extrem schlecht erreichbar ist, dann kann man auch einen VPS HDD Server von Contabo nutzen.

Der Strato ist aus meiner Sicht nur geeignet, wenn man ihn so nimmt wie er ist (mit Plesk) und nichts zusätzlich installiert. Unter Sicherheitsaspekten ist er aber auch dann ein nogo.

Update 08.03.2020:

Nachdem ich nun mehrfach (vermutlich in Summe so ca. 20 mal) wegen der miserablen IO Performance Kontakt zum Support von Contabo hatte, kann ich nur dringend von den Contabo HDD Servern abraten. Der Support erzählt einem gebetsmühlenartig, dass entweder gerade irgendwelche Tests auf den HDDs durchgeführt werden oder es zu einer temporären Lastspitze gekommen ist. Das passiert allerdings so häufig, dass die reale Verfügbarkeit der HDD Server ziemlich gering ist.

Wenn man also einen zuverlässig erreichbaren Server will, dann sollte man die SSD Server von Contabo buchen, sofern man dort mit dem Preisleistungsverhältnis zufrieden ist. Bei den HDD Servern muss man damit rechnen, dass die Minuten oder Stunden nicht antworten und zwar jederzeit.

Mein Eindruck ist, dass dem Support die Thematik sehr bewusst ist. Auf meine Argumente ist man dort nie eingegangen. Heute war der HDD Server bei der Zugriffszeit von minimalen Datenpaketen um Faktor 500 – 1000 Langsamer als der SSD Server (ein Zugriff 1,x Sekunden statt ein paar hundert us).

Update 14.05.2020:

Ich habe einen Contabo VPS einem Raspberry Pi gegenübergestellt. Der Pi behauptet sich ziemlich gut.

Zu dem VPS 1400 ist noch anzumerken, dass der noch langsamer geworden ist. Aufgrund einer Beschwerde wurde mein VPS dann auf ein anderes Hostsystem umgezogen. Der o.g. Benchmark ist von 20MB/s auf 150MB/s gestiegen und somit von der Übertragungsrate auf Werte, die man bei Contabo sonst nur mit SSD erreicht.

Weiterhin habe ich den VPS M auf VPS L migrieren lassen. Danach erfolgte auch ein Wechsel des Hostsystems. Die Schreibrate ist dann von ca. 80MB/S im Schnitt auf ca. 20MB/S im Schnitt eingebrochen, Auf meine Beschwerde wurde auch dieses System auf einen anderen Host migriert. D.h. o.g. Fazit muss ich korrigieren. Die IO Performanz ist bei Contabo nicht von dem gebuchten Technologie (SSD oder HDD) abhängig und auch nicht von der Größe des Systems, sondern einfach nur Glück. Sowohl bei SSDs sind 20 – 150MB/s Schreibrate möglich, als auch bei HDD Systemen. Bei letzteren ist lediglich die Latenz höher.

Sobald der Benchmark deutlich unter 50 MB/s sinkt steigen auch die Latenzen selbst bei SSD Servern teilweise in den Sekundenbereich und das System reagiert extrem lahm.

Update 19.06.2022:

Mittlerweile bin ich auf 2 VPS Servern mit SSD von Contabo unterwegs und beide laufen mittlerweile auf AMD EPYC 7282 Prozessoren. Man muss sich bewusst machen, dass man nach wie vor nur halbe physische Kerne bekommt. 8 Kerne bei einem VPS Anbieter entsprechen somit 4 physischen Kernen.

Cloud VPS L (single core und somit grob * 8):
sysbench --num-threads=1 --test=cpu --cpu-max-prime=10000 run
WARNING: the --test option is deprecated. You can pass a script name or path on the command line without any options.
sysbench 1.0.18 (using system LuaJIT 2.1.0-beta3)

Running the test with following options:
Number of threads: 1
Initializing random number generator from current time


Prime numbers limit: 10000

Initializing worker threads...

Threads started!

CPU speed:
    events per second:  1402.36

General statistics:
    total time:                          10.0013s
    total number of events:              14027

Latency (ms):
         min:                                    0.62
         avg:                                    0.71
         max:                                   25.15
         95th percentile:                        0.83
         sum:                                 9974.55

Threads fairness:
    events (avg/stddev):           14027.0000/0.00
    execution time (avg/stddev):   9.9745/0.00
Cloud VPS M (single core und somit grob * 6):
sysbench --num-threads=1 --test=cpu --cpu-max-prime=10000 run
WARNING: the --test option is deprecated. You can pass a script name or path on the command line without any options.
sysbench 1.0.18 (using system LuaJIT 2.1.0-beta3)

Running the test with following options:
Number of threads: 1
Initializing random number generator from current time


Prime numbers limit: 10000

Initializing worker threads...

Threads started!

CPU speed:
    events per second:  1538.58

General statistics:
    total time:                          10.0004s
    total number of events:              15388

Latency (ms):
         min:                                    0.62
         avg:                                    0.65
         max:                                    8.80
         95th percentile:                        0.69
         sum:                                 9980.77

Threads fairness:
    events (avg/stddev):           15388.0000/0.00
    execution time (avg/stddev):   9.9808/0.00

Wie man sieht hat sich CPU Leistung gegenüber den alten Intel Systemen deutlich spürbar gesteigert. D.h. die VPS sind nach wie vor keine Performanzwunder – aber immerhin mittlerweile ungefähr so schnell wie ein passables NAS – siehe hier. Für einen privaten virtuellen Server sollten die Systeme ausreichen.

Bei der Datenbankperformanz schneidet Contabo aber selbst mit “SSD Speicher” ziemlich schlecht ab im Vergleich zu einem Odroid H2+ Kleinstrechner.

Contabo Server VPS L – gute CPU Leistung, miserable Datenbankperformance

Odroid H2+ Kleinstrechner mit SATA SSD

Und zur Bestätigung der obigen Werte zur Datenbankperformanz der VPS M

sysbench --test=fileio --file-test-mode=rndrw run
WARNING: the --test option is deprecated. You can pass a script name or path on the command line without any options.
sysbench 1.0.18 (using system LuaJIT 2.1.0-beta3)

Running the test with following options:
Number of threads: 1
Initializing random number generator from current time


Extra file open flags: (none)
128 files, 16MiB each
2GiB total file size
Block size 16KiB
Number of IO requests: 0
Read/Write ratio for combined random IO test: 1.50
Periodic FSYNC enabled, calling fsync() each 100 requests.
Calling fsync() at the end of test, Enabled.
Using synchronous I/O mode
Doing random r/w test
Initializing worker threads...

Threads started!


File operations:
    reads/s:                      1624.80
    writes/s:                     1083.20
    fsyncs/s:                     3477.30

Throughput:
    read, MiB/s:                  25.39
    written, MiB/s:               16.93

General statistics:
    total time:                          10.0434s
    total number of events:              61999

Latency (ms):
         min:                                    0.00
         avg:                                    0.16
         max:                                   61.46
         95th percentile:                        0.51
         sum:                                 9948.06

Threads fairness:
    events (avg/stddev):           61999.0000/0.00
    execution time (avg/stddev):   9.9481/0.00

Und der VPS L

sysbench --test=fileio --file-test-mode=rndrw run
WARNING: the --test option is deprecated. You can pass a script name or path on the command line without any options.
sysbench 1.0.18 (using system LuaJIT 2.1.0-beta3)

Running the test with following options:
Number of threads: 1
Initializing random number generator from current time


Extra file open flags: (none)
128 files, 16MiB each
2GiB total file size
Block size 16KiB
Number of IO requests: 0
Read/Write ratio for combined random IO test: 1.50
Periodic FSYNC enabled, calling fsync() each 100 requests.
Calling fsync() at the end of test, Enabled.
Using synchronous I/O mode
Doing random r/w test
Initializing worker threads...

Threads started!


File operations:
    reads/s:                      299.26
    writes/s:                     199.51
    fsyncs/s:                     650.70

Throughput:
    read, MiB/s:                  4.68
    written, MiB/s:               3.12

General statistics:
    total time:                          10.0237s
    total number of events:              11395

Latency (ms):
         min:                                    0.00
         avg:                                    0.88
         max:                                  106.22
         95th percentile:                        5.18
         sum:                                 9978.73

Threads fairness:
    events (avg/stddev):           11395.0000/0.00
    execution time (avg/stddev):   9.9787/0.00

Man sieht, dass die Storage Performanz bei Contabo nach wie vor ein Glücksspiel ist. Wie kann der Leistungsfähigere VPS 1/6 der Storage Leistung des schwächeren VPS haben?!

Update 03.11.2022: Neben der reinen Performanz, ist ein gewisser Grundlevel an Support bei einem Hoster sehr wichtig. In der Vergangenheit war Contabo trotz sehr günstiger Preise diesbezüglich vorbildlich. Aktuell hat man nun massiv die Preise erhöht und der Service ist mittlerweile nach meiner Erfahrung schlecht. Man bekommt oft erst nach mehreren Tagen Antworten und die sind qualitativ auch deutlich schlechter als früher. Es werden teilweise auch 30 oder 40€ für Tätigkeiten verlangt, die früher als Standardgeschäft durchgelaufen sind.

Es gibt aber nach meinem Stand wenig Alternativen mit einem echten Root Zugang, bei dem man frei jede Datei des Betriebssystems tauschen und jedes beliebige Betriebssystem aufspielen kann. Netcup ist eine davon, hat aber andere Macken (Snapshot belegt Speicherplatz auf dem Server) und ist teurer.

Die neuen Contabo Angebote – z.B. Storageserver sind preislich meiner Meinung nach nicht attraktiv, einen SSD Server mit Snapshotfunktion will man nicht mehr missen, wenn man mal einen hatte. Genau diese Funktion fehlt aber bei den Storageservern. Gegenüber den vorherigen HDD basierten Storageservern sind die SSD Varianten deutlich teurer.

 

MySQL 8 mit PHP 7.4 [Kommentar]

Wer auf MySQL 8 umstellt wird ggf. das Problem, dass die PHP-Anwendungen wie WordPress, Roundcube, Nextcloud usw. nicht mehr die Verbindung zur Datenbank aufbauen können. Nach kurzer Suche im Netz stößt man dann auf diverse Beiträge, die empfehlen den mysql_native_password Modus für das Passwort einzustellen, was mittlerweile auch das Standardverhalten von MySQL für vorhandene Benutzer nach einer Migration auf Version 8 ist.

Mit PHP 7.3 ist diese Empfehlung auch richtig, mit PHP 7.4 ist es falsch. Dort muss man das genaue Gegenteil machen und die Benutzer mit dem Befehl caching_sha2_password auf die Nutzung des neuen Verfahrens umstellen.

Das heißt die Änderung, die man offenbar mit einem vorherigen SQL Update eingeführt hat, führt mit SQL 7.4 zu der Fehlersituation, die man früher mit PHP 7.3 hatte.

Das ist keine große Sache aber man muss halt erst mal drauf kommen, wenn man im Netz nur Gegenteilige Empfehlungen findet.

Wer eine MySQL 8 Datenbank neu aufsetzt sollte das Problem übrigens nicht haben, weil neue Benutzer per Default mit dem neuen Passwort Verfahren angelegt werden sollten.

Auch die Empfehlung in der Datenbankconfig als Defaultverfahren dasmysql_native_password Verfahren einzustellen für neue Benutzer führt natürlich zu nichts, außer das neue Benutzer auch nicht funktionieren.

Nextcloud 18 bzw. Hub [Kommentar]

Nach den recht weitschweifenden Ankündigungen zu Nextcloud 18 (Nextcloud Hub), dass nun neben der Cloud für Dateisharing eine “ausgewachsene” Groupware sein soll war ich zugegeben neugierig.

Wie sich im Folgenden gezeigt hat macht etwas pompöses Marketing das Produkt nicht  besser.

Nicht das wir uns falsch verstehen, Nextcloud ist eine gute Sache und ermöglicht es Dateien in einer privaten Cloud zu nutzen, die Daten in Deutschland vorhält und mit der man nicht direkt Nutzungsrechte auf seine Fotos an diverse Dienste Abtritt, weil man das Kleingedruckte nicht gelesen aber akzeptiert hat.

Große Ankündigungen, bei denen die Hälfte der Funktionen dann aber leider nur sehr fehlerhaft sind, helfen aber nicht wirklich.

Was ist dran an den Versprechungen? Auch bisher konnte man bereits Collabora Office (LibreOffice Online) oder OnlyOffice in Nextcloud nutzen. Die Konfiguration mit Docker oder auch ohne und Proxy ist aber nicht gerade trivial. Daher haben viele Anwender den Aufwand gescheut oder sind gescheitert.

Nextcloud 18 verspricht dies zu vereinfachen. Bei vorhandenen Installationen wird die notwendige App Community Document Server nicht mit installiert. Wer den Installationsbutton benutzt, wird in der Regel eine Fehlermeldung bekommen, weil das Runterladen der App aufgrund ihrer Größe (ca. 300MB) eine Weile benötigt und curl in der Regel vorher abbricht.

Verzeichnis in der Ordneransicht nach dem Entpacken

Community Document Server unter Apps in Nextcloud nach dem aktivieren

Man muss die App also im App Store runterladen und manuell auf den Server legen (entpacken im App Verzeichnis). Wenn man sie installiert und aktiviert hat war es das aber noch nicht. Zusätzlich muss man noch die Onlyoffice App installieren. Die Einstellungen werden dann automatisch gesetzt. Danach sollte es dann eigentlich funktionieren. Auf meinem Server ging es nicht.

Wie ich anschließend herausgefunden habe (nach Recherche im Nextcloud Forum) hat die Full text search Files App dafür gesorgt, dass Onlyoffice nicht ging.

Selbst wenn man sie dann mal ans Laufen bekommt ist es aber eher hakelig. Beispiel auf meinem iPhone klickt man eine Datei an und nichts passiert. Wenn man anschließend auffrischt, dann geht es und die Datei wird in Onlyoffice geöffnet. Das sollte vermutlich auch anders laufen.

OnlyOffice App (die Serviceadresse wird automatisch gefüllt)

Einfach ist auf jeden Fall anders und die Praxis ist offenbar momentan vollkommen gegensätzlich zum Marketinggeschwurbel von wegen das funktioniert von ganz alleine.

Die Ordner heißen alle gleich, weil die übergeordneten Ordner ignoriert werden. Man sollte also an den Minitaturen den Kontext erkennen können, sonst hat man verloren

Die neue Galerie funktioniert bei mir mehr schlecht als recht. Ich habe ein Ordnersetup bei dem ich reisen nach Jahr und Ziel sortiert habe (z.B. 2018 – Norwegen) und dann darunter immer die gleichen Ordner Liegen (Infos, Fotos, GPX). Dafür ist die Galerie nicht ausgelegt, weil jeweils nur der Fotoordner angezeigt wird (dementsprechend heißt alles Foto). Eingreifen? Einstellungen? Fehlanzeige. Hier muss man seine Ordner / Gewohnheiten an die App anpassen und nicht umgekehrt.

Zu viele Bilder? Sonst irgendwelche Probleme? Keine Ahnung, wenn ich runter scrolle sieht es so aus, obwohl die Fotos in der Ordneransicht angezeigt werden – dann hängt sich die App auf

Die ungefilterte Ansicht über alles funktioniert quasi überhaupt nicht. Ein wenig nach unten scrollen geht, dann hängt sich die App auf und reagiert überhaupt nicht mehr. Wenn man anschließend nach oben scrollt gibt es einen weißen Bildschirm. Hat das mal jemand mit mehr als 100 Fotos getestet? Wofür ist bitte ein Betatest da, wenn nicht mal solche Dinge getestet werden? Nach etwas Recherche im Forum bin ich wohl nicht der einzige der Probleme mit der App hat.

Und wieder hochgescrollt – die App ist gestorben. Nichts geht mehr. Ist das die Beta? Nein, so sieht die Releaseversion aus,

Die Maps App ging bei mir überhaupt nicht trotz angeblicher Eignung für Nextcloud 18 (auch dabei war ich offenbar kein Einzelfall). Die App wurde schlicht nicht angezeigt obwohl sie installiert war und die Neuinstallation schlug fehl (Fehlermeldung “kann nicht entpackt werden”). Auch diese App musste ich aus dem Store neu runterladen. Danach ging sie wieder. Auch das ist kein Einzelfall, sondern es ging anderen auch so lt. Nextcloud Forum.

Die App GpxPod funktioniert scheinbar auch nicht mehr. Zumindest sehe ich keine GPX Tracks mehr seit den Update auf Version 18, obwohl die App mir nicht als inkompatibel angezeigt wurde.

Libreoffice, da die Nextcloudlösung nicht funktioniert

Die Metadatenapp in Version 0.11 hat dann die Installation von Nextcloud gleich komplett zerlegt (internal Server error) und 1,5 Tage später gab es dann Version 0.11.1. Ich habe mal mutig drauf gedrückt. Noch geht alles aber das heißt aktuell nicht viel.

Insgesamt finde ich den Einstand von Nextcloud 18 gemessen an den Werbeversprechen ziemlich dürftig. Die Qualität entspricht nicht mal einer Beta, das ist eher Alpha.

Je nach verwendeter Datenbankversion wird man auch noch auf ein anderes Problem stoßen, dass aber nichts mit Nextcloud zu tun hat. Nextcloud 17 läuft mit PHP 7.3. Nextcloud 18 unterstützt auch die PHP Version 7.4. Wenn man bereits eine MySQL Datenbank verwendet die den neuen Mechanismus caching_sha2_password verwendet (also MySQL 8), wird man mit PHP 7.4 erst eine Verbindung aufbauen können, wenn man den Nextcloud Benutzer von mysql_native_password auf caching_sha2_password umgestellt hat. Dafür ist der Befehl

ALTER USER ‘user’@’localhost’ IDENTIFIED WITH caching_sha2_password BY ‘your password’;

oder

ALTER USER ‘user’@’%’ IDENTIFIED WITH caching_sha2_password BY ‘your password’;

zu verwenden und man muss das Passwort natürlich kennen.

Nachtrag 29.01.2020:

Mittlerweile wurden für Onlyoffice, der Filesearch App und der Metadatenapp neue Versionen erschienen. Die Apps kommen sich nun gegenseitig nicht mehr in die Quere und man kann sie direkt aus der Appseite in Nextcloud installieren.

Im Mobilkontext (iPhone App) funktioniert Onlyoffice nach wie vor nicht und mit der letzten Version der Mobile App hat man Collabory auch noch kaputt gepatcht (das funktioniert in der aktuellen Version der Mobile app nun auch nicht mehr).

Die Probleme mit GPX Tracks haben sich recht schnell lösen lassen. Das lag wohl an einem Problem mit den Pfadeinträgen in der App. Ich habe sie gelöscht und neu angelegt.

Das Fazit ist also, dass es zwar noch Probleme gibt aber es fliegt einem wenigstens nicht mehr um die Ohren. Man kann den Status nun also als Beta bezeichnen. Außer die Fotos App, die ist für mich noch Alpha.

Nachtrag 08.02.2020:

Es ist nun eine neue Version der Mobile App erschienen, die nun Onlyoffice unterstützt. Das heißt jetzt erfüllt Nextcloud die Marketingversprechen von Plug & Play Office.

Nachtrag 03.07.2020:

Aktuell funktioniert Onlyoffice auch in der mobilen App. Collabory geht mal und mal nicht. Je nach aktuellem Patchstand von Nextcloud / Collabory.

Dafür geht aktuell die Suche nicht mehr – es gibt Workarounds im Netz aber noch keinen Fix. Ich habe jetzt einen der Workarounds implementiert und die Suche geht eingeschränkt wieder (nur einzelne Suchbegriffe).

Die Probleme mit der Fotoapp sind unterdessen behoben.

Generell muss man sagen, dass die Stabilität gerade mit externen Addons nicht besonders hoch ist. Im Prinzip muss man also nach jedem Update von Nextcloud oder einer App die Funktionalitäten testen.

Echtes plug & play Feeling kommt so nicht auf. Da die Version 19 auch schon in Arbeit ist, und die Ressourcen natürlich begrenzt sind, wird das vermutlich auch so bleiben.

1 4 5 6 7 8 11