Windows 11 erste Erfahrungen [Kommentar]

Da ich Urlaub hatte und nach dem ganzen Pressebohei (Mindestanforderungen Windows TPM 2.0 und nur wenige neue Prozessoren) etwas neugierig war, habe ich direkt am Dienstag auf meinem Notebook Windows 11 installiert. Aus der Vergangenheit habe ich gelernt, dass es in der Regel die bessere Wahl ist die Installation über das Media Creation Tool vorzunehmen.

Download und Installation

Download und Installation waren am Dienstag Morgen Problemlos. Nach dem Rummel vorher hätte ich zumindest beim Download Probleme erwartet.

Auch die Installation lief durch. Es wurde lediglich bemängelt, dass Start 10 nicht kompatibel ist und somit deinstalliert werden muss (das Inhaltlich nicht so ganz stimmt, denn es gibt ein Update auf Start 11, was aber nicht wie ich vermutet habe eine eigene Software, sondern aktuell wirklich nur ein Beta Update ist).

Da ich aber eh das neue Startmenü mal im Original sehen wollte, hat mich die Deinstallation nicht weiter gestört.

Nach der Installation

Entgegen der überwiegend positiven Presseberichte, hatte ich mit diversen Problemen zu kämpfen.

  • Das Startmenü geht öfter mal nicht auf (Lösung: Explorer.exe im Task Manager neu Starten). – Update 17.10.2021 Seit dem ersten Windows Patch in KW41/2021 läuft funktioniert es öfter auf Anhieb, immer aber noch nicht
  • Der Explorer schmiert ab, wenn man das neue “Kontextmenü” (zu den Anführungszeichen später mehr) benutzt. Das lässt sich in meinem Fall beheben über das Programm shexview. Damit kann man Kontextmenüerweiterungen aktivieren deaktivieren. Lustig in dem Kontext: Anfangs vermutete ich ein Programm als Schuldigen für das Problem. Es ist aber egal was ich aktiviere oder deaktiviere. Allein der Prozess behebt das Problem, aber nur bis zum nächsten Neustart. – Update 17.10.2021 Nach dem ersten Patch in KW41/2021 klappt es etwas besser, aber stabil ist das Menü noch nicht. Mal geht es direkt nach dem Start, mal nicht. Ich erkenne noch kein konkretes System.
  • Bisher hatte ich einen Absturz beim Runterfahren
  • Ab und an verschwindet die Internetverbindung (Zufallsbedingt), der Neustart behebt das Problem
  • Bei zwei Netzwerkadaptern lässt sich der zweite nicht von Öffentlich auf Privat umstellen oder andersrum. Windows bleibt bei mir in einer reproduzierbaren Dauerwechselschleife hängen und schaltet von selbst hin und her. Lediglich das verlassen des Dialogs bringt Abhilfe.

Somit ist mein Fazit: Trotz der recht überschaubaren Änderungen abseits der Optik, gibt es erstaunlich viele Probleme. Für mich hat die neue Windows Final eher Beta oder Alphastatus.

Usability

Der größte Kritikpunkt ist die Usability. Microsoft hat ohne Not viele Optionen entfernt, die die Usability verbessern. An vielen stellen hat man den Eindruck, als wenn nur 08/15 Benutzer im Fokus stehen und professionelle Anwender bewusst vergrault werden. Dafür einige Beispiele:

Das neue Kontextmenü ist sehr gewöhnungsbedürftig. Kopieren, Einfügen gibt es z.B. nur noch über Symbole (mal oben, mal unten und mal überhaupt nicht – siehe z.B. unten), viele Einträge fehlen komplett. Da Microsoft wohl eigesehen hat, dass da einiges fehlt, hat man das alte Menü eine Etage Tiefer eingebunden (weitere Optionen anzeigen). Super, immer ein Click mehr. Danke. Das Menü ist übrigens auch das was für den Explorerabsturz sorgt, auch wenn dort keine programmspezifischen Einträge vorhanden sind. Das Alte Kontextmenü (Shift + F10) geht nach meiner Erfahrung immer.

Ungrouping in der Taskleiste gibt es nicht mehr. Auch nicht per Registry hack (ok, mit der alten Taskleiste schon aber dann mit anderen Problemen, weil diese Variante in Windows 11 eigentlich nicht vorgesehen ist – dann kann man besser gleich bei Windows 10 bleiben). Es gibt also pro Programm nur ein Minisymbol und dahinter verbergen sich alle Fenster (ich hoffe also ihr kennt alle Symbole auswendig? Nein, dann schnell Lernen, Texte gibt es keine mehr). Der einzige Vorteil der sich daraus ergibt ist, dass ihr selbst mit einer Auflösung von 800×600 noch echt viel in der Taskleiste unterbringen könnt. Ansonsten dauert es mal wieder länger bis ihr das gewünschte gefunden habt. Wenn ihr z.B. mehrere Explorerfenster offen habt, drüber hoovern und versuchen mit den Briefmarkengroßen Darstellungen herauszufinden welches Fenster das richtige ist.

Scrollbalken – wow das nenne ich mal usability. Den gleichen Platz brauchen um die Information deutlich unübersichtlicher darzustellen (viel dünner wäre es nicht gegangen). Das muss man erst mal hinbekommen.

Neue Powershell – Tja, wieder so ein Fall von überragender Usability. Wenn man die alte Powershell nutzen will kommt folgendes:

Der Witz ist: Die neue Powershell ist bereits installiert, findet sich aber an anderer Stelle. Das muss man halt wissen. Windows 11 weiß es offenbar nicht.

Startmenüposition – das Startmenü ist im Standard nun mittig. Wow, das gibt es ja noch keine Ewigkeit bei Apple. Was für ein Designeinfall Microsoft. Ich bin überwältigt. gnädigerweise darf man das Startmenü aber noch links unterbringen.

Neues Design: Das ist wohl eine Geschmacksfrage. Nachdem mit Windows 10 Kacheln der letzte Schrei waren und man gefühlt jede Anwendung ohne Kacheldesign als veraltet galt, werden Kacheln nun wieder abgeschafft. Die waren wohl doch nicht so toll. Aber die Gadgets hat es ja auch schon getroffen (8Gadgets Pack funktioniert übrigens auch mit Windows 11 noch, falls jemand noch Gadgets nutzen mag, so wie ich).

Das nun die Fenster wieder rund statt eckig sind. Hatten wir alles schon ist weder neu noch modern.

Somit bleibt für mich nur das – für mich – bessere Design vom Startmenü übrig. Ziemlich wenig um eine neue Version für ein Betriebssystem zu rechtfertigen.

Taskleistenposition

Wenn ihr die Taskleiste links oder woanders hattet. Vergesst es. Nicht mit Windows 11

Windows 11 ist doch viel sicherer als Windows 10, oder nicht?

Das wird sich erst noch erweisen müssen. Aktuell ist nach der Windows 11 Installation erst mal nicht sicherer. Dafür muss neben der Erfüllung der Voraussetzungen Secure Boot im UEFI aktiv sein und die “Virtualisation based Security” aktiv sein.

Selbst auf PCs, die die Voraussetzungen erfüllen ist das aber in der Regel nicht aktiv, wenn man es nicht explizit aktiviert. Aktuell bringen die neuen Funktionen also bei vermutlich 95% der Anwender eher nichts, weil die nicht wissen, dass Secure Boot und obiges Feature erst aktiviert werden muss damit die neuen Features greifen. Wenn man die Funktionen aktiviert, verliert man aber deutlich Perfomanz (das ist wiederum ein Grund die Security Features nicht zu aktivieren).

Somit drängt sich für mich eher der Eindruck auf, dass Microsoft mit neuer Hardware mehr Windows Lizenzen verkaufen will, die Security ist offenbar nur ein vorgeschobenes Argument, dass Microsoft nicht so wichtig ist.

Fazit:

Ich kann aktuell nur abraten von Windows 11. Ich sehe keinerlei Vorteile aber viele Nachteile. Da sich inhaltlich kaum was geändert hat, finde ich die diversen Probleme schon ziemlich erstaunlich. Von den Performanzthemen in Bezug auf AMD Prozessoren und den neuen Security Features will ich jetzt nicht mal anfangen.

Lustig finde ich die teilweise schon religiös anmutenden Diskussionen in Foren (ich habe keine Probleme, also könnt ihr auch keine haben) oder wer Windows 11 noch nicht nutzt, gehört zu den ewig gestrigen (ja, klar).

Bis 2025 gibt es noch Support für Windows 10. Bis dahin hat Microsoft hoffentlich nachgebessert. Es gibt genug zu tun. An vielen Stellen hat Microsoft ohne Not verschlimmbessert in dem Alternativoptionen nicht mehr vorhanden sind. Besonders bei der Taskleiste.

Druckerfarbkalibrierung mit dem Spyder Print [Kommentar]

Ist euch auch schon mal aufgefallen, dass die Bildschirmausgabe mit dem gedruckten Foto nicht übereinstimmt oder das Handyfoto mit keinem von beiden übereinstimmt. Wenn nicht, dann habt ihr ggf. Glück gehabt. Theoretisch könnten die Geräte ab Werk so eingestellt sein, dass sie die Farben 1:1 so durchreichen, wie sie in der Realität für das menschliche Auge aussehen.

Das Thema ist aber relativ komplex (ich sage nur verschiedene Farbmodelle / Farbräume und Aufbereitungen, das will ich hier aber nicht weiter vertiefen, dazu findet man bereits viel im Netz).

Kann man die Farben nicht einfach nach Augenmaß einstellen?

Ihr könnt es versuchen. In der Regel könnt ihr sowohl bei eurem Bildschirm als auch beim Drucker in das Farbmanagement eingreifen und Farben nachregeln (einzelne Farben verstärken oder abschwächen, oder auch die Farbsättigung und den Kontrast). Faktisch ist es aber leider so, dass es leider nicht einfach damit getan ist, insgesamt mehr Rot oder weniger Rot einzustellen, sondern die Abweichungen sind über die verschiedenen Helligkeiten / Farbtöne immer unterschiedlich. Am Ende hat man gerade beim Drucker dann lediglich eine Patrone verdruckt und ist dem Original auch nicht näher als vorher.

Dazu kommt noch, dass das Auge sich an falsche Farbtemperaturen anpasst. Wenn euer Fernseher seit Jeher eine Farbtemperatur von sagen wir 9500K hat (das ist sehr kalt), dann wird euch 6500K vollkommen falsch und viel zu warm erscheinen. Das Auge ist also eher ungeeignet für eine korrekte Einstellung und bestenfalls zu gebrauchen, wenn man bereits eine korrekte Referenz hat.

Kalibration als Lösung?

Es gibt verschiedene Ansätze, die die Lösung für das Problem versprechen. Der erste Ansatz geht bei der Druckerkalibierung davon aus, dass man einen Flachbettscanner besitzt. Für den Scanner kann man sogenannte kalibrierte Targets kaufen. Diese werden eingescannt und dann wird eine Korrektur vorgenommen. Somit werden die Farben des Scanners korrigiert. Anschließend wird ein Ausdruck erzeugt und dieser wieder eingescannt. Auf dieser Basis wird dann eine Korrektur für den Drucker vorgenommen.

Der Ansatz scheint lt. Berichten im Netz relativ ungenau zu sein (das liegt auch nahe, da er über zwei Stufen funktioniert). Weiterhin muss die Software den Ansatz unterstützen. Ein Tool was das ermöglicht ist Silverfast. Die Lizenz wird aber beim Kauf an den Scanner gebunden. Somit ist eure Lizenz weg, wenn der Scanner defekt ist.

Der zweite Ansatz sind Hardwarewerkzeuge wie der Spyder Print (es gibt auch weitere / andere Geräte aber in der Regel teurer). Dabei werden Ausdrucke erzeugt, die anschließend Farbfeld für Farbfeld wieder eingescannt werden müssen.

Alles easy oder doch nur Marketing?

Wenn man der Werbung von Datacolor glaubt, ist das kalibrieren quasi Idiotensicher und ruck zuck erledigt. Meine Erfahrung ist eine andere. Die Messung mit 225 Feldern kann man sich sparen, weil diese Variante zu ungenau ist.

Die Messung mit 729 Feldern ist deutlich besser. Das heißt aber auch man muss 729 Felder exakt per Hand anfahren und da ist man gerne mal eine Stunde beschäftigt. Es gibt theoretisch auch einen Modus, bei dem das Gerät selber erkennen soll, wann die Felder wechseln, das ist aber auch zu unzuverlässig. Somit macht ihr es besser gleich manuell.

Ein anderes Beispiel für die Frage doch nur Marketing oder nicht sind übrigens die Spyder Elite für die Bildschirmkalibration. Ich habe mittlerweile über vielleicht 15 Jahre 3 Geräte gehabt. Bei jedem liegt der 6500K Punkt anders. Eine Abweichung von +/-500K muss man bei Geräten dieser Preisklasse offenbar einkalkulieren. D.h. die letzten 200K rausholen ist bei derartigen Geräten verschenkte Zeit. Eine Abweichung von 1000 oder mehr lohnt sich schon eher.

In meinem Fall stimmte selbst danach die Farbdarstellung nicht. Die Drucke hatten alle einen starken gelbstich aber woran lag das?

Hochweißes Papier als Ursache

Wie sich in einer langwierigen Diskussion mit dem Support ergeben hat, führt nachgeweißtes / hochweißes Papier (das ist heute der Standard, wenn ihr Druckerpapier kauft) zu dem Problem. Lustig ist: Der Spyder Print erkennt das zwar, aber er behebt es nicht. Man muss manuell eingreifen, um die Darstellung wieder zu neutralisieren.

Hier der Kommentar vom Support:

Darüber hinaus scheint das Papier optische Aufheller zu enthalten
Handhabung von Papieren mit optischen Aufhellern:
Messen Sie das Papier zunächst ganz normal ein.
Wenn Sie zu dem SpyderProof Fenster (das die 16 Vergleichsbilder anzeigt) kommen klicken Sie auf “erweiterte Bearbeitung” unter den Bildern.
Dann klicken Sie auf das Wort “Weiß” (Oben Rechts).
Ist hier der “b” Wert negativ, enthält das Papier optische Aufheller.
Im nun geöffneten klicken Sie auf “Wählen Sie die Referenzfarbe für Weiß”
Damit wird der “b” Wert auf Null gesetzt und der Effekt des optischen Aufhellers eliminiert.
Machen sie nun das gleiche für Schwarz. klicken Sie auf das Wort “Schwarz” (in der Mitte Rechts).
Im nun geöffneten klicken Sie auf “Wählen Sie die Referenzfarbe für Schwarz”

Druckertreiber mit Support für Farbprofile?

Wenn man nun – wie ich – einen HP Drucker hat – in meinem Fall ein Laserdrucker steht man auf dem Schlauch, denn der Drucker bietet zwar mehrere Farbprofile an, aber eigentlich sollte für die Kalibration ein Profil genutzt werden, dass neutral ist, also quasi kein Farbmanagement. Das bietet der Drucker aber überhaupt nicht.

Zweitens ist es optimal, wenn man das erstellte Profil im Druckertreiber als Standard für das Farbmanagement einstellen kann. Das geht aber beim HP auch nicht. Somit greift das Farbmanagement nur bei Software, die es explizit unterstützt. Solche Software ist extrem selten. Beispiele für die Unterstützung sind z.B. Photoshop und die professionelle Version von Acrobat – also richtig teure Software. Wenn ihr solche Software nicht nutzt und der Drucker das Profil nicht als Standard nutzen kann, könnt ihr euch die Kalibration direkt sparen.

Stimmen die Farben überein, wenn die o.g. Voraussetzungen erfüllt sind?

Jetzt kommt das Phänomen zum Tragen das ich oben erwähnt habe. Monitore (auch dort gibt es Unterschiede z.B. RGB, sRGB, Adobe RGB, …) und Drucker (RGB, CYMK) verwenden unterschiedliche Farbmodelle / Farbräume. Ein Drucker ist rein physisch nicht in der Lage die Farben so darzustellen, wie sie auf dem Monitor oder in der Realität erscheinen und ein Laserdrucker wird nie so gute Bilder erzeugen wie ein guter Tintenstrahldrucker.

Übrigens noch eine Randnotiz: Wenn ihr von einem Tintenstrahldrucker auf einen Laser wechselt, spart euch das Hochglanzpapier. Das bringt bei einem Laser überhaupt nichts, kann sogar lt. Herstellerangaben teilweise dem Gerät schaden. Das liegt auch daran, dass einige Papiere nicht temperaturfest sind.

Warum bringt Hochglanzpapier beim Laser nichts? Beim Tintenstrahldrucker ist die Tinte bis zu einem gewissen grad durchscheinend und zieht in das Papier ein. Das ist bei einem Laserdrucker nicht so. D.h. der Toner bildet auf dem Papier eine Schicht. Das Hochglanzpapier wird also vom Toner abgedeckt, sofern der überhaupt auf dem Papier haftet.

Dann ist der Onlineprintservice die Lösung?

Nicht wirklich. Schickt eure Fotos zu 5 verschiedenen Printservices und ihr werdet 5 verschiedene Ergebnisse erhalten. Die wenigsten unterstützen überhaupt Farbmanagement und wenn doch muss das eben bei euch auch entsprechend eingerichtet sein, dass es funktioniert (also eure Bildschirmanzeige mit dem Print übereinstimmt, soweit das technisch möglich ist).

Fazit:

Eine Originalgetreue Farbausgabe vom Foto über Scans, den Monitor bis zum Drucker ist nach meiner Erfahrung im Privatbereich mit überschaubarem Budget vollkommen unrealistisch (wenn es passt, dann ist es eher Glück). Man kann sich bestenfalls annähern und grobe Fehler ausgleichen. Dafür sind o.g. Kalibierungswerkzeuge durchaus geeignet. Das Marketing ist aber mal wieder sehr weit von der Realität entfernt.

Samba Performanz [Kommentar]

Wie ich vor einer Weile festgestellt habe, ist Samba bei Übertragungen von einzelnen Dateien eben auch auf einen Prozessorkern beschränkt. Gerade bei NAS Geräten, die in der Regel nur wenig Prozessorpower pro Kern haben ist das eher problematisch. Bei meinem Odroid H2+ heißt das im Klartext, dass nur 600 bis 1000 MBit/s (darunter befindet sich ein btrfs Dateisystem mit Komprimierung, die Geschwindigkeit steigert sich aber nicht, wenn ich das Dateisystem ohne Komprimierung einhänge, die Daten die übertragen werden sind aber bereits komprimiert, insofern sollte die Btrfs komprimierung sich auch von selbst deaktivieren) genutzt werden können, wenn keine parallelen Übertragungen stattfinden, sondern nur eine Datei geschrieben wird.

FTP als Alternative?

Als Alternative habe ich somit FTP getestet und komme auf 1,8 GBit/s. Da FTP bei einem NAS aber nicht so wirklich praktisch / komfortabel ist und an vielen stellen auch nicht unterstützt wird (z.B. Multimediageräte wie SAT Receiver), wäre es natürlich schöner, wenn man SMB beschleunigen könnte.

Somit bin ich auf diesen Artikel bei heise gestoßen. Dummerweise hatte ich auf meinem Ubuntu 20.04 noch eine Version kleiner als 4.12 installiert (Randnotz, der heise Artikel geht vor anderthalb Jahren noch von einer “schnellen” Verbreitung aus). Somit blieben zwei Möglichkeiten. Variante 1 ist selbst Samba zu kompilieren (dafür muss man eine Menge Pakete installieren – in meinem Fall rund 140 Pakete) oder eben eine aktuellere Ubuntu Version ohne long term support.

Mein erster Versuch war also der make from scratch Ansatz.

Seltsame Fehler

Das hat zwar funktioniert aber nachher hat der samba Service den Status:

sys_path_to_bdev() failed for path [.]

ausgegeben. Das kam mir seltsam vor. Somit bin ich zu einem vorherigen Stand zurückgekehrt und habe mich entschlossen auf eine neuere Ubuntu Version zu wechseln. Die Kurzform ist: Der Fehler besteht in allen neueren Samba Versionen (möglicherweise nur, wenn man btrfs als Dateisystem nutzt). Es gibt zwar Ansätze das zu beheben (zusätzliche Mountpunkte in der fstab datei) aber auf solche Bastelansätze nur für Samba kann ich auch verzichten.

Performanz Tuning

Also habe ich beschlossen den Fehler zu ignorieren. Wenn er quasi jeden Nutzer betrifft, dann besteht ja die Hoffnung, dass sich irgendwann mal jemand darum kümmert. Wobei die Chancen wohl nicht so riesig sind, wenn der Fehler in Samba schon lange vorhanden ist.

Somit habe ich Neugierig einen neuen Performanztest gemacht und dabei festgestellt, dass ich nichts von den ach so tollen Geschwindigkeitssteigerungen (verringerter Overhead durch Kernel Support via io_uring und Nutzung der schnelleren Verschlüsselung durch Gnutls) lt. Heise Bericht merke.

Wenn man sich den Heise Bericht genauer durchliest, hat man aber auch eher den Eindruck, als wenn eine Pressemitteilung abgeschrieben wurde. Es wird zwar io_uring erwähnt aber nicht, dass das z.B. extra konfiguriert werden muss oder wie.

In meinem Fall mit btrfs und io_uring z.B. so:

[backup]
writeable = yes
path = /data/backup
vfs objects = btrfs, io_uring
btrfs: manipulate snapshots = no
valid users = xyz
writeable = yes
write list = xyz,@xyz
# smb encrypt = required
smb encrypt = desired
force user = xyz

Spezielle Netzwerkkarten für Multikernnutzung oder direkten Speicherzugriff

Eine Alternative zu obigem Ansatz, der bei mir leider nichts gebracht hat, ist die Nutzung von speziellen Netzwerkkarten, die RSS oder RDMA nutzen (die meisten Adapter können das nicht bzw. die Intel Chips wie der 225V können es wohl aber es wird bewusst nicht unterstützt). Somit bleiben z.B. die AQtion Chips übrig, die aber kaum verbaut werden. RSS funktioniert auch nur, wenn sich die entsprechenden Chips beidseitig genutzt werden. Dabei wird die Kommunikation aufgeteilt und somit die Last auf mehrere Prozessorkerne verteilt. Allerdings auch für das Speichermedium. Gerade bei Festplatten hat das also auch Nachteile wegen den dadurch entstehenden verteilten Zugriffen und Kopfbewegungen.

Weitere Informationen siehe auch hier. Bei stärkerer Verbreitung (Linux Kernel 5.15) ggf. auch KSMBD. Der Ansatz hört sich vielversprechend an. Dabei zieht SMB in den Kernel um und soll dadurch schneller werden.

Fazit:

Wer denkt, dass heute Mehrkernnutzung eigentlich selbstverständlich ist, wird bei SMB mal wieder eines besseren belehrt. Es kommt in dem Fall auf einen Kern an. Erstaunlich finde ich, dass man im Netz so wenig Infos dafür findet. Jeder mit einem NAS > 1 GBit sollte damit Probleme haben, wenn SMB genutzt wird und gerade im Windows Kontext gibt es dazu keine echten Alternativen, die auf breiter Basis von vielen Geräten unterstützt werden. Bei Backupsoftware wird teilweise nicht mal FTP unterstützt, geschweige denn NFS oder andere Ansätze.

Erstaunlich finde ich bei solchen Themen immer, dass die kaum jemandem auffallen. Das ging mir damals bei Intel Prozessoren auch schon mal so (5930K und Single Core Last). Gefühlt kauft jeder die dickste Kiste aber ob es dann nachher auch Leistung bringt, prüft scheinbar fast keiner. 😉

FIRE (Financial Independence Retire Early) und Frugalisten [Kommentar]

Da ich unten einige Markennamen verwende, kennzeichne ich diesen Beitrag als Werbung. Ich bekomme von keinem der genannten Unternehmen Geld oder irgendwelche Vorteile. Weiterhin kennt die Unternehmen eh jeder und es gibt auch genügend Wettbewerber, die bestimmt genauso toll sind. 😉

Erkenntnisse

Nachdem ich Quit Like a Millionaire gelesen hatte, habe ich das zum Anlass genommen ein paar Dinge anzugehen. In dem Buch geht es darum, dass man je nach Gehalt und Sparquote relativ früh finanzielle Unabhängigkeit erreichen kann. Mit anderen Worten man muss nicht mehr zwingend arbeiten. Während Aussteigen oder sich gegen das Hamsterrad stellen früher in den 60/70er Jahren noch mit Hasch Konsum und Chillen einherging und eher kurzfristig gedacht war (man hat sich also gegen das System gestellt) und man bei Aussteigern ja oft eher an die Hütte in Kanada oder die Ranch in den USA denkt, sind die heutigen Aussteiger deutlich moderner ausgerichtet.

Die Aussteiger arbeiten sogar genau andersrum: Sie nutzen das kapitalistische System, zeigen aber bis zu einem gewissen grad gleichzeitig den Stinkefinger. Sie nutzen beispielsweise den Kapitalmarkt um ein regelmäßiges Einkommen zu generieren, stellen ihre Arbeitskraft aber nicht mehr in einem klassischen Job zur Verfügung, sondern machen das was ihnen Spaß macht. Verkürzt ausgedrückt reden wir also quasi über den Star Trek Gedanken. Niemand muss arbeiten aber man kann.

Dabei werden keine illegalen Tricks benutzt, wie die Superreichen das oft machen (ich sage nur Trump und Co), sondern lediglich die geltenden Gesetze und die Regeln des Kapitalmarktes genutzt. Es ist faktisch viel Mathe im Spiel um das Ziel der finanziellen Unabhängigkeit zu erreichen.

Welchen Zweck hat dieser Blogbeitrag?

Der Blogbeitrag soll keineswegs über die detaillierte Mathematik des Themas aufklären. Dafür gibt es diverse gute Blogbeiträge, die man relativ schnell findet. Obiges Buch ist ein guter Einstieg, die Autorin betreibt aber auch einen Blog und verlinkt auf diverse andere Menschen, die FIRE (Financial Independence Retire early also finanzielle Unabhängigkeit, frühzeitiger Ruhestand) erfolgreich angewendet haben.

Ich will mit dem Beitrag lediglich zum Nachdenken anregen und Möglichkeiten aufzeigen.

Wer macht sowas?

Man kann die Leute auch nicht generell über einen Kamm scheren. Wie immer gibt ganz viel grau, neben schwarz und weiß. In dem Sektor FIRE gibt es eine riesige Bandbreite. Es gibt Optimierer (normales Gehalt, hohe Sparquote, die Frugalisten – also maximalsparsame Menschen – sein können oder eben auch nicht), Unternehmer (die gehen hohe Risiken ein – wie Steve Jobs oder Elon Musk, Mark Zuckerberg) oder Investoren (wie Warren Buffet und Co.). Zumindest die Unternehmergruppe lebt in der Regel nicht Frugal und bei der Investorengruppe ist das normalerweise nicht anders.

All diese Menschen erreichen auf verschiedenen Wegen früh finanzielle Unabhängigkeit (englisch FI, also den ersten teil von FIRE).

Letzteres ist ein Teil des Zieles der FIRE Bewegung (Finanical Independance Retire Early). Der letzte Teil – also retire early – ist optional. Das bedeutet auch nicht, dass man nichts mehr macht, sondern nur noch was einem Spaß macht. Ein Buch schreiben, malen, ein Ehrenamt bekleiden? Es ist egal, wenn man kein Geld damit verdienen muss, kann man sich alle Zeit der Welt dafür nehmen.

Wenn sich der Grundgedanke nicht schlecht anhört, dann erkläre ich euch im folgenden Teil was damit gemeint ist.

Nur für Topverdiener und DINKS (Double Income no Kids)?

Die Extrembeispiele der FIRE praktizierenden haben ohne fremde Hilfe nach 10 Jahren finanzielle Unabhängigkeit erreicht (siehe Quit Like a Millionaire). Jetzt werden einige sagen: Das geht doch nur für Top Verdiener.

Um mit 30 Jahren schon vollständig finanziell unabhängig zu sein ist das sicher richtig. Die beiden Autoren aus dem buch Quit like a Millionaire hatten ein Anfangsgehalt nach Steuern von 125.000 kanadischen Dollar. Teilen wir das durch 1,9 (grober Umrechnungskurs) = 65.789€ / 2 Personen = 32.894€ pro Person netto. Wenn man in Europa von einem Bruttogehalt im Bereich um 50.000 – 60.000€ für einen Informatiker ausgeht, ist das also ein gut bezahlter Job, aber auch in Europa nicht unüblich. Nach 10 Jahren hatten die beiden 1 Million kanadische Dollar zusammen. Genug für die beiden um bei 40.000$ Kosten pro Jahr (ca. 21.000€) in den Ruhestand zu wechseln. Die Kosten kann man als Single natürlich nicht einfach halbieren, insofern haben paar Vorteile.

Natürlich liegt das Einkommen deutlich über dem Durchschnittseinkommen und desto mehr man auf der Gehaltsabrechnung hat, desto einfacher fällt einem das Sparen. Aber in der Regel ist es so, dass Leute mit mehr Gehalt auch mehr ausgeben. Dementsprechend sparen sie also nicht zwangsweise mehr, als Durchschnittsverdiener, sie könnten es nur leichter.

Jetzt kommt der zweite Faktor ins Spiel: Die Sparquote. Wie weit will man sich heute einschränken, um in der Zukunft finanziell unabhängig zu sein?  Eine hohe Sparquote zeigt einem selbst, wie viel Geld man zum Leben braucht. Wenn man das heute kann, kann man es auch in Zukunft. Die Kunst ist den Level zu finden, den für einen selbst der richtige ist.

Es gibt übrigens auch Beispiele von Leuten, die FIRE auch mit Kindern erfolgreich umsetzen. Faktisch ist es offenbar eher eine Ausrede, dass das Modell mit Kids nicht funktioniert.

Dazu kommt, dass bei einer Durchschnittlichen Verzinsung von 6% (Kapitalmarkt) selbst kleine regelmäßige Beträge nach zum Beispiel 15 oder 20 Jahren recht stark anwachsen können.

Ohne Konsum kein Glück?

Jeder kennt den Spruch “Geld macht glücklich” aber ist das so? Es macht einen unglücklich, wenn der Nachbar für die selbe Arbeit das doppelte bekommt oder der Kollege. Zumindest ist das bei den meisten von uns so, wenn wir ehrlich sind.

Wird man losgelöst von obigem Beispiel automatisch glücklicher, wenn man mehr Geld auf der Gehaltsabrechnung hat (also ohne Vergleichswert)? Kurzfristig ja. Langfristig nur bis zu einem gewissen Level bzw. nein. Warum das?

Macht nun Konsum nicht generell glücklich? Als Faustregel gilt, eher nein. Die Basisausgaben – Essen, Miete, Strom usw. müssen natürlich gedeckt sein, sonst seid ihr unglücklich. Dazu muss ein gewisses Gefühl von Sicherheit vorhanden sein und ihr wollt auch ab und an mal in Urlaub fahren.

Mit dem ersten eigenen Fernseher, dem ersten paar Schuhe was auch immer ihr mögt seid ihr glücklicher. Aber der 10. Fernseher den ihr kauft macht euch nicht mehr glücklicher. Selbst beim zweiten (ggf. für das Schlafzimmer) und dritten (für die Küche) lässt der Glücksgewinn schon deutlich nach.

Genauso ist das 10. paar Schuhe bei weitem nicht mehr so spannend. Im Gegenteil ihr verbringt nun auch jeden Tag zeit damit euch zu überlegen welches Paar ihr denn heute anzieht (5 stehen eh nur im Schrank und werden nie benutzt). Das sind nur ein paar Beispiele aber die Grundregel steht: Was habt ihr alles im Kleiderschrank, was ihr nicht anzieht? Und das könnt ihr auf alle Bereiche übertragen. Wie viel Zeug habt ihr das ihr kaum benutzt und nicht vermissen würdet. Ihr habt das aber alles bezahlt. Eigentlich sogar schlimmer, denn das Zeug was ihr besitzt verliert in der Regel an Wert, während angelegtes Geld weiteres Geld generiert.

Jeder Besitz ist auch Verantwortung und zieht Folgekosten nach sich. Ihr habt ein Haus? Dann müsst ihr es auch reparieren, ihr müsst Versicherungen abschließend. Ggf. müsst ihr auch Rückzahlungen mit Zinsen bedienen usw.

Was ist das Fazit: Die meisten Menschen kaufen Dinge, die sich nicht brauchen und die uns langfristig nicht glücklich machen. Welche Dinge das sind und welche für jeden unverzichtbar sind, ist individuell sehr unterschiedlich. Wenn ihr Kaffee mögt, ist vielleicht der morgendliche Starbucks besuch unverzichtbar? Für mich ist das überhaupt kein Thema, ich mag keinen Kaffee.

Wie funktioniert Financial Independence?

Ich will hier nicht im Detail auf die Mathematik eingehen, dass würde den Beitrag sprengen. Es geht im Prinzip darum, dass man den benötigten / gewünschten monatlichen Betrag aus Kapitalerträgen finanzieren kann. In der Regel geht man davon aus, dass man grob 4% durchschnittliche Verzinsung aus einem Kapitaltopf entnehmen kann, ohne diesen dauerhaft zu senken (ausgehend von 6% durchschnittlichen Kapitalerträgen pro Jahr bezogen auf Aktienindizes).

Wenn man also im Jahr z.B. 25.000 entnehmen will, benötigt man nach dieser Formel ca. 625.000€. Jetzt werdet ihr ggf. anmerken, dass das doch vollkommen unrealistisch ist so viel Geld zu haben. Leute die finanziell unabhängig sind, verzichten teilweise auch auf einen Hauskauf. Denn das bindet sehr viel Geld und man nimmt in der Regel auch einen Kredit dafür auf (was noch zusätzlich Zinsen kostet).

Das FIRE Modell ist auf 30 Jahre ausgelegt (also quasi auf unbegrenzte Zeit und berücksichtigt auch nicht, dass ihr je nach Arbeitsjahren ggf. irgendwann eine echte Rente bekommt – zumindest in Deutschland – oder auch eine zusätzliche private Altersvorsorge habt).

Ob obiges Beispiel unrealistisch ist, kommt ganz darauf an wie viel ihr auf dem Gehaltzettel habt und wie weit ihr von der klassischen Rente entfernt seid. Wollt ihr vollständig finanziell unabhängig sein oder nur partiell? Wollt ihr am Ende einfach auf 0 raus kommen und kein Risiko haben (dann könnt ihr das Geld vor dem Bedarfsfall einfach aus dem Kapitalmarkt nehmen – ihr schließt also die Entnahmerisiken abseits von Inflation aus). Habt ihr schon ein Haus gekauft und zahlt nun die nächsten 20 Jahre den Kredit ab? Dann wird die finanzielle Unabhängigkeit später eintreten.

Faktisch kann jeder der sparen kann (und sind es auch nur 10%) vor der klassischen Rente finanzielle Unabhängigkeit erreichen. Und ganz ehrlich – wollt ihr euch heute noch auf “die Rente ist sicher” verlassen, wenn ihr 20 oder 30 Jahre alt seid?

Ist der Ansatz nicht extrem unsicher?

Was ist im Leben schon sicher? Auch wenn ihr über die Straße geht, könnt ihr überfahren werden. Das Ziel ist es das Risiko zu minimieren. Es gibt verschiedene Studien zum Thema, die Anhänger der FIRE Idee für Modellberechnungen nutzen.

Oben ist die Mathematik stark vereinfacht dargestellt. Jeder, der schon mal Aktien hatte weiß, dass die Kurse extrem schwanken können (letztes Jahr hat man das im Rahmen der Covid Panik an den Börsen sehr beeindruckend erleben können). Wenn man also gerade seinen Job gekündigt hat und die Aktien nur noch die hälfte Wert sind, könnt ihr also weiter euren festgelegten Wert (25.000 Euro pro Jahr) entnehmen aber welche Konsequenzen hat das? Dann entnehmt ihr aber 8% statt der 4%, die ihr vorher festgelegt hattet. Und schon beginnt das schöne Modell, dass auf 30 Jahre ausgelegt war zu bröckeln. Aber keine Panik, es gibt Lösungen dafür!

Das ist auch schon das größte Risiko im Rahmen der Entnahme bei dem Ansatz sich über den Kapitalmarkt zu finanzieren. Wenn man jedes Jahr Absolutbeträge entnimmt und der Markt über Jahre ein Bärenmarkt ist, kippt das Modell. Die Alternative – immer 4% entnehmen schließt dieses Risiko aus, aber dann muss man plötzlich ggf. ein Jahr lang vom halben Betrag leben. Ohne Reserven oder Geograhpical Arbitrage (siehe unten) dürfte das schwierig werden.

Risikominimierung bei der Sparphase

In der Ansparphase sollte man möglichst breit gestreut investieren und eine gute Mischung aus Risiko und Erträgen finden. Dabei lehnt man sich im Optimalfall an Indizes an (also nicht an eine Aktie, sondern an viele z.B. S&P mit 500 Werten). Wichtig ist auch, dass man nicht zu einem bestimmten Zeitpunkt kauft, sondern durch Sparpläne oder regelmäßige Käufe das Risiko streut.

Ihr wollt nicht zu einer Bullenphase (hoher Index) euer Geld investieren, nur um nachher festzustellen, dass der durchschnittliche Kurs viel niedriger ist. Dann hättet ihr einen Teil des Geldes auch gleich verbrennen können. Regelmäßige Käufe minimieren dieses Risiko, wenn ihr über mehrere Jahre kauft. Weiterhin wollt ihr nicht spekulieren, sondern lediglich den Durchschnittsbetrag an den Kapitalmärkten abgreifen. Wenn ihr durchgängig mit Spekulationen Geld macht, seid ihr einer von ganz wenigen, die besser sind als der Kapitalmarkt im Schnitt.

Risikominimierung bei der Entnahme

Es gibt verschiedene Strategien um das Risiko bei der Entnahme zu minimieren. Beispielsweise kann man einen Teil Bargeld vorhalten, also Geld, dass nicht im Kapitalmarkt steckt und das man nicht in einer Tiefphase aus dem Kapitalmarkt entnehmen muss.

Wenn man ETFs / Anleihen (mehr dazu später) mit Dividenden (ausschüttend) auswählt, dann bekommt man einen gewissen Grundstock auch ausgeschüttet ohne irgendwelche Anteile aus dem Bestand zu verkaufen. Der Grundstock ist bis zu einem gewissen Grad steuerfrei.

Dies minimiert den prozentualen Anteil der Entnahme. In der Regel ist es auch so, dass die Dividenden auch in Bullenphasen nicht so stark einbrechen wie die Aktien. Weiterhin kann man mit Mischstrategien arbeiten, die nicht den Absolutbetrag fix entnehmen, sondern mit Variablen Anteilen arbeiten (Ober / Untergrenze / Cape) usw.

Das Risiko ist beim Ausstieg aus dem Beruf bzw. in den ersten Jahren des Retire Bereichs am größten. Am Ende der Verzinsungsphase sind hohe Renditen wichtig und zum Start des Retire Bereiches möglichst prozentual keine zu Entnahmen über den 4%. Im Optimalfall hat man zu dieser Zeit also einen Bullenmarkt.

Was bedeutet das in Summe. Sagen wir 1,5% bekommt ihr über Renditen. Somit müsst ihr schon nur nur 2,5% entnehmen. Rechnen wir das an einem Beispiel. Gehen wir von den 25.000€ aus. Ihr entnehmt normalerweise 2,5% von 625.000 = 15625€. Der Rest kommt über die Renditen rein. Sagen wir nun ihr bekommt einen teil der Erträge über Renditen, die eben auch aus Bonds stammen. Diese Erträge brechen in der Regel nicht so stark ein.

Das bedeutet: Barbetrag zur Überbrückung + Dividenden / Zinsen mindern euren Entnahmebetrag. Im Optimalfall könnt ihr somit dafür sorgen, dass der Entnahmebetrag die 4% nie wesentlich überschreitet. Weiterhin habt ihr noch 2% Durchschnittsreserve, die euch langfristig helfen.

Was ist mit den Kosten?

Es gibt diverse Kosten, die nicht mehr anfallen, wenn man vollständig finanziell unabhängig ist. Eine Lebensversicherung?  Überflüssig. Eine Berufsunfähigkeitsversicherung? Überflüssig. Eine Unfallversicherung – nun das müsst ihr selbst beurteilen. Seid ihr in einer Gewerkschaft? Das macht auch wenig Sinn, wenn ihr nicht mehr arbeitet.

Einige Kosten wie Steuern / Krankenversicherung sinken auch mit den Einnahmen. Die Einnahmen (also das was ihr nun dem Kapitalmarkt entzieht) sind zwangsweise geringer als zu eurer Arbeitszeit, sonst hättet ihr nicht sparen können.

Braucht ihr ein Auto oder kommt ihr auch mit den öffentlichen Verkehrsmitteln zurecht? Oder könnt ihr allein dadurch schon sparen, dass ihr seltener fahrt. Vielleicht braucht ihr auch seltener ein neues Auto. Wenn ihr in einer Stadt lebt, reicht evtl. auch Car Sharing?

Ist das nicht asozial und schädigt die Gesellschaft?

Der Vorwurf, dass man das System ausnutzt und sowas doch nicht funktionieren kann, kommt meiner Meinung nach primär von Neidern. Nein, die Leute, die mit 30 aus dem Job aussteigen machen nicht wirklich nichts. Meist sind sie in irgend einer Form produktiv. Das Geld was sie sich erarbeitet haben, haben sie selbst erarbeitet. Anschließend arbeitet das Geld für sie. Sie sind aber in der Regel entspannter, stressfreier, glücklicher.

Ich kann daran nichts asoziales oder gesellschaftsschädigendes finden. Zumindest in Deutschland zahlt man ganz normal steuern und Krankenversicherungsbeiträge, wenn man Kapitaleinkünfte hat. Das ist in den USA anders (da zahlt man quasi keine Steuern und die Krankenversicherung wird stark bezuschusst), liegt aber nicht an den Leuten, sondern am System.

Wer wirft einem Warren Buffet vor, dass er asozial handelt? Ganz im Gegenteil – solche Personen werden von unserer Gesellschaft oder zumindest dem Kapitalismus – als erfolgreiche Geschäftsleute vergöttert.

Geographical Arbitrage

Was ist das nun wieder? Der Begriff beschreibt einen Effekt, dass das Geld also z.B. US $ oder € in anderen Ländern mehr Kaufkraft haben. Das heißt eine Möglichkeit finanziell unabhängig zu sein ist Auszuwandern oder zu Reisen.

Ökologisch ist das natürlich nicht vorteilhaft, wenn ihr in ein Flugzeug steigt aber das muss wohl jeder mit sich selbst ausmachen. Je nach Reisestil werdet ihr aber weniger fliegen als jemand der regulär Urlaub macht. Besonders, wenn ihr länger in einer Region bleibt und hey, ihr habt nun Zeit.

Ihr könnt also mit dem selben Geld in Thailand zu besseren Konditionen leben als zu Hause. Ob ihr das wollt ist natürlich eine andere Frage. Faktisch ist das nur das Anlehnen an die Globalisierung und langfristig wird der Effekt auch geringer werden.

Gerade mit einem geringen Gehalt oder in Bärenjahren kann das auch eine Möglichkeit sein Kosten zu senken.

Wie geht man vor, um FI zu erreichen?

Das ist sehr individuell und von Person zu Person unterschiedlich. Wichtig ist, dass man sein Leben lang versucht Kredite zu im Privatbereich vermeiden. Die Kosten zusätzlich Geld für einen vorgezogenen Nutzen. Als Investor könnt ihr zwar mit Krediten theoretisch mehr Geld generieren aber die wenigsten Menschen sind erfolgreiche Investoren. Ihr begebt euch damit in einen gefährlichen High Risk Bereich.

Ansonsten müsst ihr für euch selbst festlegen wie viel Geld ihr sparen könnt oder wollt. Entweder macht ihr das mit festen Regeln oder spart einfach was übrig ist. Je nach Typ wird die eine oder andere Variante für euch besser funktionieren.

Ob ihr am Ende auch Retire Early umsetzt ist komplett optional. Wenn ihr Spaß an eurem Job habt, macht ihn Teilzeit weiter oder bleibt dabei. Ihr habt dann ein zweites Einkommen und könnt das ausgeben wofür ihr mögt.

Wie bin ich vorgegangen?

Ich habe in den letzten 10 Jahren schon etwas Geld zurückgelegt, dass ich im jeweiligen Monat nicht ausgegeben habe. Das lag aber die meiste Zeit auf Tagesgeldkonten und wie wir alle wissen ist die Verzinsung dafür nicht mehr vorhanden.

Das Geld ist also durch die Inflation jedes Jahr weniger wert.

Die Regel möglichst nie / keine Kredite habe ich irgendwann in meiner Ausbildung gelernt zu beherzigen. Da habe ich mein Kreditkartenlimit immer schon ausgenutzt (für einen Monat war das ja immer kostenlos) und teilweise den Dispo noch dazu (ja, total dumm bei den Zinsen).

Wir haben in meiner Kindheits- / Jugendzeit nun wahrlich nicht im Geld geschwommen und plötzlich konnte ich mir Dinge wie einen Videorecorder oder einen Fernseher leisten (letzteren hatte ich zwar schon aber ziemlich alt, klein und nicht sonderlich toll). Ich habe mein Geld damals also in Technikkram gesteckt und jeder weiß, das verliert sehr schnell an Wert.

Irgendwann hat die Bank mal eine Buchung nicht ausgeführt und Schwups waren die Kosten noch viel größer. Das hat mich dann zum Nachdenken gebracht. Warum mache ich das überhaupt?

Ich ziehe doch nur den Nutzen ein oder zwei Monate vor und zahle dafür überproportional drauf. Seitdem hatte ich nie wieder einen Kredit und auch nie wieder den Dispo benutzt.

Im letzten Jahr habe ich die extremen Schwankungen an der Börse genutzt und das Spiel der Börsianer gespielt. Ich habe bei fallenden Kursen Hebel Zertifikate gekauft und als die Kurse niedrig wahren Aktien und ETFs. Das ging keinesfalls ohne Lehrgeld (siehe oben die wenigsten Leute sind an der Börse besser als der Markt), aber in Summe habe ich rund 45% Gewinn gemacht (vor Steuern). Das ist keineswegs großartig. Da wäre deutlich mehr drin gewesen aber ich habe wie schon angemerkt auch Lehrgeld bezahlt.

Und jetzt bitte mit weniger Glücksspiel oder Bauchgefühl, sondern nachhaltig

Ich habe nun einen Dauerauftrag von meiner Standardbank (Sparkasse) zu meiner Spar- und Investitionsbank (Diba) eingerichtet. Somit habe ich mich schon mal eine minimale Sparquote eingelassen. Bisher habe ich einfach immer das gespart was übrig war, ohne ein festes Level zu nutzen.

Die zweite Komponente ist, dass ich mich für einen Satz ETF Sparpläne. Mit ETFs investiert man in den Indizes zum Beispiel vom Aktienmarkt, aber mit in der Regel geringen laufenden Kosten (<=0,25% laufende Kosten, besser <= 0,1%) und angelehnt an einen Index (DAX, Dow Jonex, S&P 500). Ein ETF kann nicht auf 0 sinken, wenn ein oder mehrere Unternehmen Insolvenz / Konkurs anmelden entschieden habe.

Einfach ausgedrückt verteilt man damit das Risiko und versucht eine Mischung zwischen höherem Risiko (Aktien), relativer Sicherheit und festen Einnahmen (Anleihen, Dividenden), guten Erträgen und möglichst geringer Volatilität (Schwankungsbreite zu erreichen).

Das Raussuchen und Optimieren des ETF Portfolios hat mich ca. einen Tag gekostet. Im Schnitt habe ich nun eine Verzinsung von 8% (davon 2% Ausschüttung) bei 0,1% laufenden Kosten und das ganze gestreut über Deutschland, die EU, die Welt, Staatsanleihen und Unternehmensanleihen. Weiterhin sind ca. 60% Aktien und 40% Anleihen (theoretisch soll man die Anteile ausgehend vom Lebensalter auswählen (bei 40 Jahren also z.B. 60% Aktien, 40% Anleihen). Das hängt aber von der Risikobereitschaft und der jeweiligen Phase im Finanzmarkt ab (aktuell sind Anleihen z.B. nicht so toll, weil sich die Kurse eher nach unten entwickeln).

Faktisch bin ich aktuell also gefühlt irgendwo in der Mitte, ich habe noch keine FI (oder zumindest nicht zu Bedingungen, die mir gefallen) aber einen ganz guten Grundstock.

Fazit

Mich hat das Buch zum Nachdenken gebracht. Ist es nicht toll zumindest partiell oder vollständig finanziell unabhängig zu sein?

Wäre es nicht klasse in einem bestimmten Alter, wenn man noch fit ist, sich noch mal neu zu erfinden? Um die Welt reisen? Ein Studium beginnen? Ein Buch schreiben? Oder eine ehrenamtliche Tätigkeit wahrnehmen, die einem Spaß macht?

Selbst wenn das nicht euer Ziel ist, weil ihr euren Job klasse findet. Ist es nicht befreiend, wenn ihr nicht mehr arbeiten müsst, sondern nur noch arbeiten geht, weil ihr es wollt?

Ich würde meine Zeit vermutlich zumindest in den ersten Jahren primär mit Reisen verbringen (das Covid Thema mal ausgeklammert, das rückt hoffentlich bald wieder in den Hintergrund).

Was man mit der freien Zeit macht, ist einem selbst überlassen.

Viel verlieren kann man in der Ansparphase nicht. Man geht lediglich etwas bewusster mit Geld um und falls der komplette Plan den Bach runter geht, hat man Geld verloren, dass man nicht zwingend braucht. Aber mal ehrlich, wenn sich die Finanzmärkte dauerhaft nach unten entwickeln funktioniert unser System eh nicht mehr, dann haben wir ganz andere Probleme.

VR Bestandsaufnahme – Valve Index Review [Kommentar]

Valve Index VR Headset

VR Teil 1 – Test der Occulus Quest

Ich hatte 2019 bereits einen VR Tests mit der Occulus Quest gestartet. Für den Preis war ich wirklich beeindruckt von dem Gerät, auch wenn die Quest einige Macken hatte. Die Controller hatten einige Schwächen hatten (der Ring große Ring stört einfach, weil man damit teilweise irgendwo anstößt und die Batterielaufzeit war auch ziemlich mau). Weiterhin hatte ich mit der Fresnel Linse so meine Probleme, weil dadurch immer wieder optische Effekte wie Lichtblitze aufgetreten sind (interessanterweise primär auf einem Auge). Zu dem Testzeitpunkt konnte man die Quest auch noch nicht mit dem PC verbinden, was ein weiterer Nachteil war.

Somit konnte ich auch nur die Spiele testen, die auf der Quest liefen. Das bedeutete relativ geringe Auflösung und eine recht begrenzte Auswahl.

Daher habe ich die Quest zurückgeschickt und dachte nun über die Investition in ein “richtiges” VR Headset nach.

VR Teil 2 – Valve Index

Da ich kürzlich meinen Rechner auf den aktuellen Stand gebracht hatte und nun eine AMD 5900X + Geforce 3090 FE (die Grafikkarte war nicht geplant aber leider das einzige war mehr als ein paar Sekunden verfügbar war, eigentlich sollte es eine 3080 FE werden) mein eigen nenne, dachte ich mir, dass es Zeit für die zweite Runde VR ist. Dieses mal eben richtig. Der Preis hat mich zuerst abgeschreckt aber dann habe ich es mir insoweit schöngeredet, dass man die Basisstationen und Controller hoffentlich lange nutzen kann, auch wenn das Headset in ein paar Jahre überholt ist und ggf. ersetzt wird.

Das Setup

Das Setup von der Occulus Quest war sehr einfach. Aufsetzen und loslegen beschreibt es am besten. Man konnte optional einen Spielbereich einrichten und das war es auch schon. Das Einrichten des Spielbereiches war simpel. Man hat durch Bewegungen einfach die Grenzen des VR Bereiches vergrößert und zwar beliebig in der Form.

Dementsprechend einfach hatte ich mir das bei Index auch vorgestellt. Weit gefehlt. Klar, man muss die Basisstationen zum Tracking platzieren. Das dauert schon eine Weile, ist aber Systembedingt. Je nach Raumsetup ist die Auswahl der Aufstellungsorte nicht so einfach, weil sie im Optimalfall auf einem ca. 2m hohen Schrank stehen und Diagonal gegenüber. Weiterhin sollte die Sicht auf den VR Bereich nicht durch Gegenstände behindert werden. Wenn die Stationen platziert und eingestellt sind (leicht nach unten geneigt, wenn sie auf 2m stehen), kann man mit der Raumvermessung loslegen.

Das geht mit dem Controller der Index. Man muss im Standardmodus einen möglichst quadratische Linie um den Raum ziehen, der die Basis für den VR Bereich bilden soll. Wenn man das richtig gemacht hat (mindestens 2×1,5m, sonst ist kein Raum VR möglich), dann wird innerhalb des begrenzten Bereiches ein weiterer Spielbereich gebildet.

Spielbereich und Grenze?

Da geht es schon los! Was soll der Quatsch? Die Grenzen des äußeren Bereiches werden angezeigt, wenn man in ihre Nähe kommt, die Grenzen des Spielbereiches aber nicht. Wofür lege ich einen Spielbereich fest, wenn ich für den die Grenzen nicht aktivieren kann? Wieso hat man das nicht wie bei der Quest gelöst? Die braucht weder die Minimalgröße, noch hat man zwei separate Bereiche, von denen der erste Bereich (Grenzbereich) der eigentlich relevante ist aber sich deutlich schlechter anpassen lässt als der zweite Bereich (Spielbereich).

Den Spielbereich sieht man nur auf dem Boden. Wenn man im Sitzen / Stehen spielt lässt sich kein Grenzbereich definieren. Spiele wie Beatsaber sind also dann recht gefährlich, weil man überhaupt keine Begrenzungen sieht. Ich würde sogar davon abraten ohne freien Bereich von 2×1,5m zum Spielen derartige Spiele zu nutzen.

Kamera mal ja mal nein

Ansonsten ist es auch eher eine Glückssache, ob die Grenze bei Annährung angezeigt wird und ob die Kamerasicht dann aktiviert wird, mal ja mal nein. Wenn die Kamera überhaupt geht. Das ist auch eher eine Glücksfrage. Hier muss ich ganz klar sagen war die Occulus Quest um Längen besser. Sowohl was den Setupprozess angeht als auch bei der Kameradurchsicht.

Bzgl. der Grenzen scheint ein Unterschied zwischen Headsettracking und Controllertracking zu bestehen. Sobald ein Controller in den Grenzbereich kommt oder diesen Überschreitet wird immer zuverlässig die Grenze gezeigt. Mit dem Headset kann man auch öfter die Grenze überschreiten, ohne das es einen Effekt hat. Warum das so ist, kann ich bisher nicht nachvollziehen, denn wenn das Headtracking nicht funktionieren würde, müsste man das ja auch im Spiel merken.

Die Idee von der Kameradurchsicht ist, dass bei Annäherung an die gesetzten Grenzen die Sicht so umgeschaltet wird, dass man die Realwelt sieht und so Kollisionen mit z.B. Wänden oder anderen Gegenständen vermeiden kann. Stellt euch das grob vor wie beim Holodeck in Star Trek vor.

Anfangs konnte ich die Kamera überhaupt nicht zur Zusammenarbeit bewegen. Geholfen hat bei mir, als ich die Index Infrastruktur mit Schaltstecktoden an und ausschalten konnte und die Index + Basisstationen erst hochgefahren habe, wenn der Rechner bereits ins Windows gestartet war. Als ich diese Möglichkeit noch nicht hatte, kam in der Regel als Fehlermeldung “keine Kamerakommunikation möglich”. Ob nun der Strom der Index getrennt wurde, die Treiber gelöscht und neu installiert wurden, die Index neu gebootet wurde – hat alles die Kamera nicht zur Zusammenarbeit bewegt. Irgendwann ging es dann, nachdem ich die Steckdosen verwendet habe.

Ein erweitertet Setupmodus erlaubt es zumindest Grenzbarriere über die vier Eckpunkte zu definieren. Der Modus ist aus meiner Sicht die bessere Variante, da der Spielbereich eh quadratisch sein muss.

Die Inhalte

Wie immer bei VR ist die der initiale WOW-Effekt groß. Plötzlich sitzt man mitten in einem Flugzeug (Flight Simulator), X-Wing (Star Wars Squadrons) oder versucht mit Lichtschwertern dem Beat zu folgen (Beatsaber). In Super Hot findet man sich in Matrix artigen Gefechten wieder (die Zeit wird steht dort, so lange man sich selbst nicht bewegt, desto schneller man sich selbst bewegt, desto schneller läuft die Zeit).

In Half Life Alyx stapfen sogar riesige Roboter und Mutanten durch das Zimmer. Das ganze Spiel ist so ausgelegt, dass man quasi alles anfassen kann und somit VR maximal erlebt. Der Effekt nutzt sich aber schnell ab. Das ist ungefähr so, wie man bei den 3D Filmen am  Anfang auf maximale Effekte gesetzt hat. Das hat anfangs seinen Reiz, verliert ihn aber schnell wieder.

So weit so schön. Realistisch betrachtet findet man aber nur 15-20 VR Spiele, die es sich aktuell lohnt zu spielen. Für mich gewinnen am meisten Simulationen oder simulationsartige Spiele wie z.B. Flight Simulator, Star Wars Squadrons, War Planes usw.

Aber alleine der Flight Simulator könnte fast Grund genug für VR sein, wenn er denn nicht so schlecht programmiert wäre. Für die dargestellte Qualität sind die Leistungsanforderungen ein Witz (extrem zu hoch). Selbst absolute High End Systeme gehen bei eher mittelmäßiger Grafik (man muss die Einstellungen gewaltig runterschrauben) in die Knie.

VR Erfahrungen

VR macht Spaß. Das liegt auch daran, dass damit Spielerfahrungen möglich werden, die sonst nicht möglich sind. Es ist eben schon sehr cool, wenn man plötzlich im Cockpit eines X-Wings sitzt oder auch im Flugzeugcockpit sitzt und ganz normal in alle Richtungen schauen kann. Näher an echtes Fliegen kann man ansonsten nicht herankommen, wenn man nicht gleich in ein echtes Flugzeug steigt. Wenn man den Kaufpreis zu Flügen in echten Flugzeugen in Relation setzt, kommt einem der Preis für das Headset plötzlich nicht mehr so hoch vor.

Nach der initialen Begeisterung versucht man dann aber die Kinderkrankheiten zu beseitigen, die man anfangs eher als “schaue ich mir später an, wird schon zu beheben sein” abtut.

Bei mir waren das mehrere Effekte. Ich hatte immer wieder Mikroruckler, die ich auch bei optimaler (genau diagonal gegenüber) Positionierung der Lighthouse Basisstationen nicht in den Griff bekommen habe.

Egal wie ich die Basisstationen aufgestellt habe, bei schnellen Kopfbewegungen ist das selbst im Steam Startraum passiert. Dabei war es auch egal, ob 80 oder 144Hz ausgewählt waren.

Nach etwas Recherche im Netz scheint das aber eher ein Nvidia (speziell bei der 30er Serie) als ein Index Problem zu sein. Offenbar fällt das bei VR Headsets deutlich mehr auf, als auf dem Monitor. Dort ist mir zumindest diese Art des Ruckelns noch nie aufgefallen. Lt. einem Thread im Nvidia Forum arbeitet man am Problem. Wann es gelöst wird, ist offen. So ganz einfach scheint es auch nicht so sein, da das Problem offenbar schon seit dem Release der 30er Serie besteht. Verursacht wird der Effekt offenbar durch einzelne übersprungene Bilder. Das sieht man selbst bei Bildraten von 144 Hz noch.

Anatomische Besonderheiten

Der Sweetspot (Bereich mit hoher Schärfe) und das Field of View (also der Sichtbereich) sind individuell sehr unterschiedlich. Wenn eure Augen tief innen liegen, dann werdet ihr mit beidem Probleme haben. Das FOV ist umso größer, desto näher ihr an der VR Brille seid. Am besten hättet ihr also ein flaches Gesicht. Bei der Index kann man zwar die Distanz zwischen Display und Auge einstellen aber das funktioniert nur sehr begrenzt. Bei mir sind die Knochen über den Augen oder die Brille im Weg. Ich habe sogar die Linsen von VR Optiker probiert aber auch die helfen diesbezüglich nicht, da sie den Abstand zu den Linsen auch vergrößern.

Beim FOV komme ich horizontal also auf rund 95°, was nicht gerade überragend ist. Das Vertikale FOV ist bei mir oben durch die Knochen über den Augen sehr stark eingeschränkt. Selbst wenn ich nur das FOV nach unten bewerte komme ich vielleicht auf 80°. Keine Ahnung wie man bei dem Test auf 130° kommen kann. Mit meiner Anatomie geht das definitiv nicht. Nach wie vor ist also VR nichts anderes als eine Taucherbrille tragen. So fühlt es sich zumindest an. Das trifft offenbar für alle VR-Brillen abseits der Pimax zu.

Sowohl mit den Linsen als auch mit der Brille hatte ich Probleme bzgl. des Sweetspots im horizontalen Bereich. Wenn man zu weit nach links oder rechts schaut wird es unscharf. Das sind aber Erfahrungen, die bei jedem Tester anders sind. Das hat auch wieder mit der Position der Augen zu tun.

Mein Augenabstand liegt mit 66mm im Normbereich. Diesbezüglich ist die Index übrigens klasse, weil die IPD im 0,1mm Bereich den Abstand anzeigt. Weniger toll ist, dass sich die Einstellung auch gerne mal von selbst ändert bei Kopfbewegungen.

Abseits davon hat man selbst bei weißer Schrift auf schwarzem Grund ständig irgendwelche glare Effekte. Das wird durch eine Brille oder Zusatzlinsen eher noch verstärkt.

Die Bildqualität

Die Displays der Index sind heute im Vergleich bestenfalls Mittelmaß. Die Auflösung ist eher gering verglichen mit vielen anderen Headsets. Das hilft zumindest bei PCs mit weniger Leistung. Trotz der – im Vergleich zu anderen Headsets offenbar – geringen Abstände zwischen den Pixeln lassen sich die einzelnen Punkte problemlos ausmachen. Das nennt sich Fliegengittereffekt.

Der Schwarzwert ist eher mau, selbst die Quest war diesbezüglich aufgrund des OLED Displays deutlich überlegen.

Abseits davon hat das Display sehr gute Bildwiederholraten und die Farbdarstellung ist ok.

Fairerweise muss man aber sagen, dass obige Effekte im Spielbetrieb kaum auffallen. Falls doch, dann am ehesten dadurch, dass man näher ran muss, um etwas lesen zu können. Das Fliegengitter ist schnell vergessen und selbst an den Schwarzwert kann man sich gewöhnen.

Controller

Die Controller habe ich im ersten Moment als nicht viel besser als bei der Quest eingestuft. Das war aber ein Fehler. Die Feinheiten machen es aus. Die Ringe an den Quest Controllern stören da man die vergisst und daher bei Bewegungen öfter mit den Controllern aneinander stößt. Das Problem gibt es bei den Index Controllern nicht. Weiterhin ist die Akkulaufzeit bei den Index Controllern deutlich größer.

Gerade bei Beatsaber merkt man aber auch das deutlich bessere Tracking, das eben wesentlich genauer ist als bei einer Occulus Quest über die integrierten Kameras.

Das Fingertracking ist nach meiner Erfahrung ziemlich ungenau und somit nur bedingt hilfreich. Das stört in etwa so viel wie man es anfangs toll findet, wenn es dann eben nicht der realen Stellung der Finger entspricht.

Die Controller scheinen aktuell die besten am Markt zu sein.

Der Ton

Der Ton ist wirklich klasse und das beste was ich bei einem VR Headset bisher gehört habe. In dem Bereich nichts zu beanstanden und auch nicht viel zu sagen.

Was noch fehlt wäre höchstens Surroundton aber andersrum vielleicht besser nicht. Dann wird das Headset noch schwerer und vermutlich auch hässlicher. 😉

Sonstiges

Ein paar Sachen sind mir sonst noch aufgefallen. Beim Updateprozess muss man jedes Gerät einzeln Updaten. Erst Basisstation 1, dann Basisstation 2, dann Headset, dann Controller 1, dann Controller 2. Ernsthaft? Das ist das Headset was angeblich am einfachsten zu bedienen ist und dann sowas? Wenn ich als Normalanwender updaten will, dann will ich einen Button und fertig. Zumindest als eine Option. Vor allem macht es keinen Sinn auf den beiden Basisstationen und auf den beiden Controllern unterschiedliche Firmwarestände zu haben.

Die Basisstation laufen im Standardmodus rund um die Uhr. Da ist sogar ein Motor für den Laser drin, der immer mitläuft. Strom sparen scheint bei Steam kein Thema zu sein. Den Standbymodus muss man erst manuell aktivieren. Standby bedeutet, dass die Basisstationen immerhin in Bereitschaft gehen (Motor aus), auch dann leuchten die LEDs noch. Auch die Index kennt kein echtes Standby. Die Leuchtdioden leuchten sowohl an den Basisstationen als auch am Headset immer. Somit kann man gleich noch 3 schaltbare Steckdosenadapter zusätzlich planen. Das ist nicht zeitgemäß.

Die Index ist mit Kabel schon ein ordentliches Gewicht auf dem Kopf. Das Kabel stört bei Bewegungen im Raum regelmäßig. Man kommt sich deutlich beschränkter vor, als dies z.B. bei der Quest ohne Kabel der Fall war.

Das Headset wird auch ganz schön warm. einerseits liegt es auf dem Gewicht auf und wenn ihr euch schnell bewegt müsst ihr die Schraube hinten auch schon etwas anziehen, damit das Headset fest am Kopf sitzt, ansonsten habt ihr Trägheitseffekte, wenn ihr den Kopf schnell bewegt und dann abrupt stoppt. Dadurch wird euch allein vom Tragen schon warm darunter. Die Displays helfen dabei noch.

Fazit

Nachdem ich die Occulus Quest vor einem halben Jahr getestet habe und die Valve Index eigentlich in jedem Test als optimale VR Mischung mit perfektem Tracking beschrieben wird, hatte ich persönlich mehr erwartet.

Dabei war ich mit dem Tracking der Controller sehr zufrieden. Mit den Mikrorucklern beim Drehen im Raum war ich aber absolut nicht zufrieden. Dafür kann die Index aber scheinbar nichts (siehe oben).

An den Controllern und am Ton gibt es auch wenig zu bemängeln.

Die Linsenthemen FOV und Sweetspot sind so individuell, dass man die nicht verallgemeinern kann. Dafür ist jeder Mensch zu unterschiedlich. Generell wäre mir ein größeres FOV lieber. In dem Bereich gibt es aber nur Pimax als Konkurrenz, deren VR-Brillen als wenig einsteigerfreundlich gelten. Weiterhin hat Pimax den Ruf quasi keinen Service bieten (auch dann nicht, wenn der Service manchmal aufgrund von Qualitätsproblemen angebracht wäre).

Somit ist mein Fazit: VR ist cool aber die Hardware ist noch immer in den Kinderschuhen und hat noch immer Kinderkrankheiten. Es ist zwar eine nette Spielerei aber haben muss man das nicht zwingend, auch nicht als leidenschaftlicher Spieler.

Am besten wäre vermutlich aktuell die Pimax 8KX. Die kostet aber auch schon 1500€ ohne Zubehör. Das heißt man benötigt trotzdem noch Basisstationen und Controller. Dann hat man ein Headset, bei dem man die Kopfhalterung tauschen muss, da der Ton der Standardhalterung sehr schlecht ist (somit landet man also in Summe schon bei ca. 2100€). Auch bei Pimax scheint es aber Linsenprobleme zu geben (vermutlich sowohl Fertigungstoleranzen  als auch abhängig von den jeweiligen Testern, wenn man Rückschlüsse aus Tests und Benutzerfeedback zieht).

Von VR 2.0 sind wir also leider noch ein ganzes Stück entfernt. Die Bestandteile sind vorhanden aber aktuell gibt es leider keinen Hersteller, der das out of the box und als Set liefern kann oder will, selbst wenn man bereit ist solch hohe Beträge zu bezahlen.

1 2 3 9