022517_1401_TinkeringTu5.jpg

Tinkering Tuesday – Philips Hue und DIY Beleuchtung unseres neuen Bettes

Philips Hue

Ich bin schon seit einiger Zeit Fan des Philips Hue Ökosystems und hab mit bei diversen Angeboten bei www.notebooksbilliger.de und www.amazon.de oder über Käufe von Bekannten schon einiges zugelegt:

Zur Steuerung und Einrichtung nutze ich hauptsächlich die App all4hue, da diese eine erweiterte Belegung der Dimming Switches ermöglicht (man kann jeden der 4 Knöpfe neu belegen und auch Funktionen für „Taste gedrückt halten“ vergeben).

Aufgeteilt sind die Lampen im Wohnzimmer und im Schlafzimmer mit jeweils einem Dimmer Switch zu steuern (das erhöht den WAF, women acceptance factor, um 100%).

Unser neues Bett

Unser neues Bett im Möbelgeschäft mit Nachtkonsolenbeleuchtung
Unser neues Bett im Möbelgeschäft mit Nachtkonsolenbeleuchtung

Nun haben wir uns allerdings ein neues Bett gekauft. Dieses hat eingebaute Nachtschränke mit Glasrückwand. Auf dem folgenden Foto sieht man, dass diese auch beleuchtet werden können. Allerdings sind die Preise dafür ziemlich unverschämt. Für die weiße Beleuchtung werden schon 316 Euro fällig, für die Version mit Farbwechsler stolze 585 Euro.

Das war es uns natürlich nicht wert für so ein bisschen LED Licht (das natürlich nicht mal mit Hue kompatibel ist).

Glücklicherweise haben die Monteure beim Aufbau des Bettes vergessen die Abschlussleisten bei den Nachtkommoden zu montieren, sodass man einen guten Blick ins Innere werfen konnte. Dort ist ganz einfach zwischen der Befestigung für den eigentlichen Schrank und den Glasrückwänden ein wenig Platz, in den dann die LEDs hineingeschoben werden können. Zusätzlich ist noch ein kleiner Ausschnitt für die Elektronik mit Loch für die Kabeldurchführung auf der Rückseite:

Platz für LED Strips in der Nachtkonsole
Platz für LED Strips in der Nachtkonsole
Auslass für Kabel hinten an der Nachtkonsole
Auslass für Kabel hinten an der Nachtkonsole

DIY Nachtschrankbeleuchtung

Erster Gedanke: Hue Lightstrip rein und gut. Leider sind die zu breit. Das Glas ist gerade mal knapp 12mm stark, daher ist der Lightstrip mit seinen 13mm zu breit. Auch die Höhe ist mit knapp 2,5mm nicht sonderlich großzügig bemessen. Im Internet recherchiert und mal den Osram Lightify LED Strip bestellt, der sollte genau 12mm breit sein. Er ist aber etwas breiter, deswegen passt auch dieser nicht.

Also hab ich mich schonmal von dem Gedanken verabschiedet das Hue Kompatibel hinzubekommen (das bleibt aber nicht so! Dazu mehr im nächsten Beitrag) und mir im Blitzangebot bei Amazon einen LED Strip von Yorbay besorgt, der eigentlich als TV Hintergrundbeleuchtung gedacht ist. Dieser hat vordergründig erstmal 3 Vorteile:

  1. Er ist nur 10mm breit, sodass er in den Schrank passt
  2. Es sind insgesamt 4 Teilstücke von jeweils 30cm enthalten inkl. Verbindungsstücken und -kabeln, was bei einer Nachttischlänge von 60cm perfekt ist (2 für oben, 2 für unten)
  3. Er hat eine integrierte Schaltung, die per IR Fernbedienung gesteuert werden kann. IR Fernbedienungen durch einen Raspberry oder Arduino zu ersetzen ist kein Problem
Yorbay LED TV Hintergrundbeleuchtung
Yorbay LED TV Hintergrundbeleuchtung

Leider ist die Höhe der vorgesehenen Schlitze im Nachttisch nicht gleichmäßig, weswegen ich ihn nochmal auseinander bauen werde um ein wenig Material vom Pressspan abzutragen. Im Moment geht der Strip aufgrund der Höhe nur an der linken Seite oben halb rein und auf der rechten Seite unten vollständig. Wegen der Verkabelung muss ich die Nachttische aber eh nochmal vom Bett abbauen, dann kann ich auch die Rückseite nochmal abnehmen.

Aber die Lichtausbeute sieht als Akzent und dezente Nachts-aufs-Klo-geh-Beleuchtung ganz gut aus:

Yorbay LED TV Hintergrundbeleuchtung unten in der Nachtkonsole
Yorbay LED TV Hintergrundbeleuchtung unten in der Nachtkonsole
Yorbay LED TV Hintergrundbeleuchtung oben in der Nachtkonsole (nur zur Hälfte)
Yorbay LED TV Hintergrundbeleuchtung oben in der Nachtkonsole (nur zur Hälfte)

Nun habe ich also zwei von diesen Sets, die beide per IR Fernbedienung gesteuert werden. Das ist als Nachttischschalter natürlich erstmal blöd. Also zunächst mal geschaut, wie man einen RGB-Strip per Arduino steuern kann. Da es sich um einen Strip mit Common Anode handelt, kann man allen Anleitungen folgen, die einen Strip (mit nicht einzeln ansteuerbaren LEDs) ansteuern, z.B. https://learn.adafruit.com/rgb-led-strips/usage. Da es sich um einen 5V Strip handelt könnte man ihn sogar direkt vom Arduino mit Strom versorgen. Ist mir bei insgesamt 2,4m aber wahrscheinlich etwas zu heiß. Außerdem sind ja entsprechende Netzteile dabei, die man nutzen kann und damit ggf. sogar den Arduino betreiben kann.

Die Stromaufnahme habe ich testweise mal mit 3 AA Batterien, also 4,5V durchgemessen (ich bin noch etwas unsicher mit dem Multimeter und wollte mir keinen USB-Port oder ein Netzteil zerschießen, daher lieber Batterien) und komme bei voller Helligkeit aller 3 Farben auf 57mA für einen 30cm Strip. Macht also wenn man es stupf aufaddiert schon rund 450mA für alle Strips. Die USB-Versorgung eines Arduinos ist ja meist bei 500mA max, daher werde ich das auf jeden Fall mit einem zusätzlichen Stromkreis lösen, so wie z.B. unter http://www.jerome-bernard.com/blog/2013/01/12/rgb-led-strip-controlled-by-an-arduino/ beschrieben. Dazu müssen aber auch noch die entsprechenden Transistoren oder MOSFETs her. Da wird ein Besuch im örtlichen Conrad fällig. Nach unserem Umzug leider nicht mehr direkt um die Ecke.

Unter http://musicdiver.com/wordpress/2013/11/rgb-led-ketten-mit-arduino-web-gui-steuern/ gibt es übrigens auch einen Post über ein Ähnliches Vorhaben mit dem 12V 5m LED Strip von Yorbay. Auch absolut lesenswert.

Der Hue Lightstrip ist übrigens stattdessen hinter dem Bett gelandet und macht sich da ganz gut zusammen mit dem auf dem Pax-Schrank und dem Bloom in der Ecke (der war über und kommt wahrscheinlich noch woanders hin).

Alles steuerbar über den Dimmer Switch, der direkt über dem Lichtschalter angebracht ist:

Philips Hue Dimmer Switch über normalem Lichtschalter
Philips Hue Dimmer Switch über normalem Lichtschalter

Außerdem gibt es seit neuestem auch einen Amazon Dash Button, der auf dem Nachttisch liegt und das Licht im Schlafzimmer schalten kann. Dazu gibt es am Donnerstag mal wieder einen Programming Pursday.

Amazon Dash Button zur Philips Hue Steuerung
Amazon Dash Button zur Philips Hue Steuerung

Am nächsten Tinkering Tuesday geht es dann erstmal um die verschiedenen Möglichkeiten das Ganze (bzw. generell Licht oder andere Dinge) doch noch an das Hue System anzubinden. Da gibt es so einige Wege, die ich zumindest einmal anreißen möchte, bevor ich dann eine (wahrscheinlich die komplizierteste) ausprobieren werde. Dafür müssen aber erstmal die Teile ankommen. Es wird natürlich noch einen weiteren Beitrag geben, wie die Strips dann letztlich im Bett landen, dazu muss ich aber mal die Muße haben die Konsolen auseinander zu schrauben. Dazu muss es draußen wieder wärmer werden, damit ich mir beim Schleifen nicht die Finger abfriere.

021717_1334_FotoFridayI4.png

Foto Friday – Integration der Google Nik Collection in DxO Optics Pro

Heute geht es darum, wie man die Google Nik Collection in einen Workflow mit DxO Optics Pro einbinden kann.

Wer sich übrigens beeilt und eine nicht ganz so aktuelle Kamera sein eigen nennt, kann DxO Optics Pro in der Version 9 (aktuell ist 11) kostenlos beziehen (der Hersteller nutzt das immer so ein bisschen als Köder dann vielleicht doch die aktuelle Version zu kaufen). E-Mail Adresse reicht, die Aktion läuft aber nur noch bis 28.02.2017: http://www.dxo.com/us/digitalcamerauk

Da die Google Nik Collection eigentlich als Plugins für z.B Photoshop gedacht ist und DxO Optics Pro nativ nicht unterstütz wird muss man sich eines kleinen Workarounds behelfen. Das heißt aber leider auch, dass man alle Tools eigentlich nur als letzten Schritt in der Bearbeitungskette nutzen kann.

Einfacher Workflow

Hier mal der einfachste Workflow am Beispiel HDR Efex Pro 2:

In DxO Optics Pro bearbeitet man ganz normal seine Bilder und macht entsprechende Korrekturen. Statt aber dann einen normalen Export auf die Festplatte zu machen, kann man „Export in Applikation“ auswählen:

Hier sollte man dann das TIFF-Format auswählen (welche Qualität muss jeder selbst für sich entscheiden).

Der Export ohne Konvertierung (also Übergabe der ORF – Olympus RAW Files) ergibt den Fehler, dass die Eingangsbilder nicht geladen werden konnten:

Ein Export als DNG funktioniert generell auch, endet aber mit einer Warnung, dass kein Farbprofil zugewiesen ist, was zu vermidnerter Bildqualität führen kann und es auch tut (das Bild war grottig verpixelt):

Die Intermediate-Dateien erstellt er generell im selben Ordner wie die Originale. Sie werden danach auch nicht automatisch aufgeräumt (wäre auch nicht gut, da einige der Programme ihre Änderungen direkt auf den Dateien überschreiben, s.u.).

Schön ist auch, dass DxO sich die bereits genutzten Applikationen merkt sodass man nicht immer wieder neu im Programme-Ordner navigieren muss:

Besonderheiten

So können generell alle Programme aus der Nik Collection genutzt werden. Dabei sollten aber die Besonderheiten beim Speichern beachtet werden (Quelle ist entweder eigenes Testen oder (https://bernd.distler.ws/archives/1833-Google-NIK-Collection-problematische-Stand-Alone-Nutzung.html) :

Viveza, Sharpener und Dfine überschreiben beim Speichern die Originaldatei (es gibt auch kein Datei-Menü wo ein „Speichern unter…“ möglich wäre).

Genauso überschreibt Analog Efex Pro ungefragt das Originalbild.

Color Efex Pro und Silver Efex Pro überschreiben zwar nicht, speichern aber wohl nur neue Versionen mit einer Dateiendung wie z.B. bild.jpeg_tmp. So steht es zumindest auf der oben referenzierten Seite. Bei mir ist das Bild noch mit normaler Dateierweiterung im Windows Explorer zu sehen, aber DxO zeigt es mit der Erweiterung tif_tmp2 an:

Auch erkennt es dafür kein optisches DxO-Modul mehr.

Bei den Programmen, die keinen eigenen „Speichern unter…“-Dialog haben, wird wie schon beschrieben das Ursprungsbild überschrieben (was ja nicht schlimm ist, da es ja ein eigens dafür Erstelltes TIF ist) und sobald man auf „Speichern“ drückt, ist man auch wieder in DxO Optics Pro gelandet. Hier muss man dann ggf. den Ordner einmal aktualisieren und kann dann von da aus in alle weiteren Formate wie gewohnt exportieren.

Erweiterter Workflow

Da ich allerdings ungern die TIFFs behalten will und im Moment eigentlich eh nur HDR Efex Pro 2 aus der Collection nutze um HDRs zu erstellen, gehe ich noch einen leicht anderen Weg.

Statt direkt den Export in die Applikation zu machen, mache ich zuerst einen Export auf die Festplatte in einen Unterordner namens „HDR_Input“ (meine Ordnerstruktur erkläre ich in einem späteren Post mal):

Hierfür kann man sich auch ein Preset anlegen (bzw. es existiert standardmäßig für TIFFs), sodass man dann nur noch den Ordner auswählen muss.

Dann kann man in den Ordner wechseln, dort die Bilder markieren und dann einen Export in die Applikation machen. Dort hat man nur noch die Wahl die Dateien ohne Entwicklung zu exportieren:

Dann wird aber direkt HDR Efex geöffnet.

Dasselbe kann man auch mit einem temp- oder intermediate-Ordner für die anderen Programme machen. Dann kann man nach erfolgreichem Export ins Zielformat ganz gemütlich die Intermediates löschen.

021717_1328_TinkeringTu10.png

Tinkering Tuesday – WLAN AC Test – Netgear A6210 vs. AVM Fritz!WLAN Stick AC 860

Wie schon angekündigt stand zum einen noch der Belastungstest der WLAN-Verbindung mit dem Netgear A6210 aus, zum anderen der Test des WLAN Sticks von AVM.

Der Start meines Lasttests (mein Bilderarchiv auf das NAS kopieren) hat auf jeden Fall Performance-technisch Hoffnung gemacht:

Etwas über eine Stunde für 90 GB an Fotos ist schonmal nicht schlecht (letztendlich waren es wegen der Schwankungen bei den vielen kleinen Dateien doch eher 1:30 aber immerhin). Bei großen Dateien ist das Ganze nochmal schneller, bis zu 220 Mbit und damit so um die 21 MB/s, siehe meinen vorherigen Post. Den Belastungstest hat der Stick auch mit Bravour bestanden. Konstant über den ganzen Zeitraum, keine Ausfälle (wie das dLAN) oder Einbrüche in der Geschwindigkeit.

Fritz!WLAN Stick AC 860

Dann kam aber noch der Fritz!WLAN Stick, der getestet werden wollte. Um das Bild nicht zu verzerren habe ich wieder die gleiche ca. 7GB große ISO-Datei genommen wie im vorherigen Test für den Netgear A6210 und ihn an der gleichen Position und am gleichen Port angeschlossen (ich hab hier natürlich auch wieder verschiedene Ports, Aufstellwinkel und Positionen getestet, aber das hat es meist eher noch schlimmer gemacht).

Das erste Ergebnis war nicht so erfreulich. Rund 160 Mbit, also deutlich weniger als der Netgear:

Auch hier wird im Windows Task Manager WLAN N angezeigt, also mache ich mir erstmal keine Sorgen, dass der Netgear irgendwie anders wäre.

Im Fritz-Repeater wird allerdings eine deutlich niedrigere Rate für den Fritz Stick (links) angezeigt, als beim Netgear (rechts)


Der Fritz-eigene Verbindungsmonitor sagt alles optimal:

Bei genauerem Hinsehen in die Verbindungsdetails sieht man allerdings, dass er nur mit USB 2.0 verbindet:

Ein Blick in die Eigenschaften bringt erstmal nicht viel, nur die nichts-sagende Option „Übertragungsleistung optimieren“. Die Hilfe hilft in diesem Falle aber tatsächlich mal:

Also aktiviert das Häkchen USB 3.0. Super. Dann mach ich das doch. Das Ergebnis ist sehr ernüchternd:

Mit nichtmal 12 Mbit schleicht es vor sich her, aber immerhin jetzt mit USB 3.0:

Die Installation des aktuellen Treibers von https://avm.de/service/downloads/?product=FRITZ%2521WLAN%2BUSB%2BStick%2BAC%2B860 bringt zumindest die alte Geschwindigkeit auch über USB 3.0, aber da bin ich mit dem Stick von Netgear doch noch um ca. 50 -60 Mbit und somit 5 MB/s schneller:

Fazit

Somit bleibt der Netgear A6210 und der Fritz!WLAN Stick AC 860 geht wieder zurück.

Funkkanal Netgear A6210 mit MediaTek Treiber

Mittlerweile habe ich auch herausgefunden, warum der Netgear-Stick keine Verbindung zu meinem WLAN bekommt, wenn ich einen höheren Funkkanal im 5GHz Netz benutze. Der MediaTek Treiber, den ich installiert habe, ist standardmäßig auf die USA konfiguriert. In den erweiterten Adaptereinstellungen findet man aber die Einstellung „Country Region (5GHz)“. Die ist auf #0 für die USA eingestellt. #1 ist die Einstellung, die für Deutschland genutzt werden sollte. Dann sind auch Verbindungen in höheren Kanälen möglich.

Erweiterte Adaptereinstellungen MediaTek Treiber
Erweiterte Adaptereinstellungen MediaTek Treiber

Allerdings bringen die höheren Kanäle leider keinen Geschwindigkeitsvorteil. Eher das Gegenteil. Die Kanäle ab 100 bis 140 haben eher zur Folge, dass die Geschwindigkeit niedriger wird. Um die 150-160 Mbit statt 200 bis 220 Mbit in den einstelligen Kanälen. Da bei mir in der Nähe noch zwei andere 5GHz Netze sind und das eine fest auf Kanal 36 eingestellt zu sein scheint, habe ich mich für den Kanalbereich um die 60 entschieden. Dort lief auch eins, das ist aber automatisch auf den 100er Kanal ausgewichen.

021717_1136_FotoFridayH16.jpg

Foto Friday – HDR Software

Heute startet eine neue Serie: der Foto Friday – grammatikalisch wieder nicht so ganz korrekt, aber naja. Foto Freitag klingt so langweilig. Los geht es mit Software um HDRs zu erstellen, zukünftig gibt es dann immer mehr Infos zu meinem Fotoworkflow (ein paar Themen habe ich schon im Kopf) aber dann irgendwann bestimmt auch zu Aufnahmetechniken, Ergebnisse von Photowalks oder sonstiges rund um das Thema Foto.

Da ich ab und an einmal HDRs mache, habe ich mich mal wieder mit dem Thema Software beschäftigt und geschaut, was da aktuell so im Markt verfügbar ist. Voraussetzung: es muss kostenlos sein.

Gefunden habe ich

  • Luminance HDR
  • Picturenaut 3
  • Google Nik Collection – HDR Efex Pro

Die habe ich alle mal installiert und mit einem Beispiel getestet.

Der Testfall

Zum Testen habe ich eine, zugegebenermaßen nicht sonderlich gute, Belichtungsreihe aus meinem Urlaub in Südfrankreich genommen. Hier mal die JPGs out-of-camera, ich habe soweit möglich aber auch die RAWs genutzt.

Man sieht schon, dass das Neutralbild ziemlich dunkel ist und so sind die Belichtungen mit -6 EV und -4 EV fast komplett schwarz. Das verursacht bei den Programmen Probleme, weswegen ich zusätzlich noch immer einen Test mit nur 4 Fotos (0 EV bis +6 EV) gemacht habe.

Ich hab bei jedem Programm soweit vorhanden die automatische Ausrichtung gewählt und das Anti-Ghosting (die Bilder sind aus der Hand gemacht worden).

Im Folgenden meine Erkenntnisse:

Luminance HDR

Für Linux wird das Programm weiterentwickelt und kann über github bezogen und kompiliert werden: https://github.com/LuminanceHDR/LuminanceHDR

Die letzte Windows Version gibt es hier: http://qtpfsgui.sourceforge.net/

Da ich auf dem Desktop Windows nutze, habe ich natürlich die Windows-Version installiert. Es gibt einen Assistenten, der einen sehr gut durch den Prozess führt.

Luminance HDR Assitent
Luminance HDR Assitent

Der Assitent fragt einen nach einem Profil, welches genutzt werden soll. Die sind allerdings relativ nichtssagend. Also habe ich erstmal Profil 1 gewählt. Nach erfolgreichem Prozessieren der Daten sah das Bild bei mir erstmal recht pixelig aus. Das lag an der voreingestellten Bildgröße von 256×193, die man aber umstellen kann:

Nach einem Klick auf „Anwenden“ und einer Neuberechnung sieht das Ergbenis auch schon deutlich besser aus.

Die Version aus allen Bildern ist allerdings ziemlich verrauscht. Woran auch immer das liegt:

Luminance HDR 8 Fotos Standardausgabe
Luminance HDR 7 Fotos Standardausgabe

Hier nochmal eine Vergrößerung:

Luminance HDR 8 Fotos Standardausgabe (Vergrößerung)
Luminance HDR 7 Fotos Standardausgabe (Vergrößerung)

Mit 4 Fotos ist es schon besser. Die Standardausgabe sieht wie folgt aus:

Luminance HDR 4 Fotos Standardausgabe
Luminance HDR 4 Fotos Standardausgabe

Das Beste was ich herausbekommen habe ist:

Luminance HDR 4 Fotos optimiert
Luminance HDR 4 Fotos optimiert

Die nachträglichen Einstellungsmöglichkeiten haben mich aber irgendwie nicht überzeugt. Es gibt verschiedene Operatoren mit jeweils verschiedenen Einstellungsmöglichkeiten aber was mit ganz wichtig ist: Intuitiv ist anders.

Picturenaut 3

http://www.hdrlabs.com/picturenaut/index.html

Auch Picturenaut hat einen Assistenten:

Picturenaut Assistent
Picturenaut Assistent

Hier bekomme ich ein ziemlich rotstichiges HDR aus den RAWs (die Ergebnisse aus den JPGs sind aber auch nicht überzeugend), erst wenn ich noch ein Tone-Mapping einstelle, sieht das Bild okay aus:

Picturenaut 4 Fotos mit Tonemapping
Picturenaut 4 Fotos mit Tonemapping

Einmal ein Tone-Mapping gemacht muss man das erst wieder rückgängig machen um Änderungen vorzunehmen.

Was aber sofort auffällt ist, dass das Anti-Ghosting nicht sonderlich gut funktioniert

Picturenaut Ghosting Vergrößerung 1
Picturenaut Ghosting Vergrößerung 1
Picturenaut Ghosting Vergrößerung 2
Picturenaut Ghosting Vergrößerung 2

Das macht das Bild ziemlich unbrauchbar.

Die Einstellungsmöglichkeiten sind auch ziemlich begrenzt.

Google Nik Collection – HDR Efex Pro

https://www.google.com/nikcollection/products/hdr-efex-pro/

Schonmal vorweg: das ist mein Testsieger und damit werde ich in Zukunft auch meine HDRs erstellen. Trotz einiger Nachteile:

  • Es werden nur JPG und TIFF als Eingangsformat unterstützt (aber da ich ja für das RAW-Processing eh ein anderes Tool nutze…)
  • Es ist eigentlich nicht unbedingt als Standalone Software gedacht, sondern als Plugin für andere Programme. Leider unterstützt DxO Optics Pro das nicht unbedingt von Haus aus (aber es gibt einen ganz netten Workaround, dazu gibt es nächste Woche einen ausführlichen Post)
  • Das ist auch der Grund, warum man das Programm nach der Installation nicht im Startmenü findet, sondern erst in den Ordner „C:\Program Files\Google\Nik Collection\HDR Efex Pro 2“ navigieren muss. Dort finden sich dann die 32-bit und im Unterordner auch die 64-bit Exe.
  • Der Standardspeicherort ist der Dokumente-Ordner mit einem Standardnamen. Das macht er, wenn man den recht prominenten Speicher-Button in der unteren rechten Ecke drückt. Nutzt man das Datei-Menü und wählt „Bild speichern unter…“ oder drückt alternativ Strg-S, dann kann man einen Namen und Speicherort wählen.

Der Workflow ist aber dann recht einfach: man geht auf Datei -> Bild öffnen und wählt die Referenzbilder aus. Dann kommt der Assistent:

HDR Efex Pro 2 Assistent
HDR Efex Pro 2 Assistent

Hier hat man nur wenige Optionen (Ausrichtung, Ghosting-Reduzierung und Reduzierung von Chromatischen Aberrationen), kann aber ein Referenzbild für die Ghosting-Reduzierung auswählen und auch mit dem unteren Schieberegler die Grundbelichtung anpassen. Nach einem Klick auf „HDR Erstellen“ bekommt man dann schon ein recht hübsches HDR präsentiert. Man hat noch die Wahl zwischen ziemlich vielen Voreinstellungen auf der linken und kann noch diverse Einstellungen auf der rechten Seite machen (darunter Tonwert-Korrekturen, Farb-Korrekturen, aber z.B. auch weitergehende Dinge wie das Hinzufügen von Vignetten):

HDR Efex Pro 2 Oberfläche
HDR Efex Pro 2 Oberfläche

HDR Efex ist auch das einzige Programm, dass es geschafft hat aus allen 7 Bildern ein vernünftiges HDR zu erzeugen:

HDR Efex Pro 2 7 Fotos Standardausgabe
HDR Efex Pro 2 7 Fotos Standardausgabe

Die Verwendung von nur 4 Fotos erzeugt dann mit einem entsprechenden Standardprofil ein sehr natürliches und ausgeglichenes HDR:

HDR Efex Pro 2 4 Fotos Standardausgabe
HDR Efex Pro 2 4 Fotos Standardausgabe

Man kann es dann natürlich mit allen Einstellungen noch übertreiben:

HDR Efex Pro 2 4 Fotos Variante
HDR Efex Pro 2 4 Fotos Variante

Dazu kommt noch, dass mit der Nik Collection noch diverse andere Programme mitgeliefert werden. Die haben allerdings alle ein anderes Verhalten (hier mal der Vollständigkeit halber, Quelle ist entweder eigenes Testen oder (https://bernd.distler.ws/archives/1833-Google-NIK-Collection-problematische-Stand-Alone-Nutzung.html) :

Viveza, Sharpener und Dfine können nur mit einem Trick (Bild im Windows Explorer auswählen, dann im Kontextmenü „Öffnen mit…“ auswählen und die entsprechende Exe auswählen) im Standalone Betrieb genutzt werden. Bei diesem wird beim Speichern die Originaldatei gnadenlos überschrieben (es gibt auch kein Datei-Menü wo ein „Speichern unter…“ möglich wäre).

Genauso überschreibt Analog Efex Pro ungefragt das Originalbild.

Color Efex Pro und Silver Efex Pro überschreiben zwar nicht, speichern aber wohl nur neue Versionen mit einer Dateiendung wie z.B. bild.jpeg_tmp. So ist dann auch noch mehr Nacharbeit notwendig.

Integration der Google Nik Collection in DxO Optics Pro

Wie schon angedeutet kommt in der nächsten Woche dann ein Post, wie ich die Nik Collection ordentlich in meinen DxO Optics Pro eingebunden habe.

WLAN_STICK

Tinkering Thursday – Verbindung zwischen NAS und PC

Da ich im Moment krankheitsbedingt zu Hause bin, kommt diesmal der nächste Tinkering Tuesday schon am Donnerstag. Also ein Tinkering Thursday. Passt doch auch J.

Wie im letzten Beitrag schon angedacht muss ich mir auf jeden Fall etwas ausdenken für meine Netzwerkverbindung vom NAS zum PC. Zusätzlich zur dürftigen Geschwindigkeit (30 Mbit bzw. ca. 3MB/s) bekomme ich bei der Übertragung größerer Datenmengen öfter mal einen Netzwerkfehler. Entweder einen Auslastungsfehler oder einen unerwarteten Netzwerkfehler:

Das ist natürlich überhaupt nicht akzeptabel.

Also habe ich (wie ja schon angekündigt) mir mal einen WLAN Stick bestellt, der WLAN AC und USB 3.0 unterstützt. Die Wahl ist auf einen Netgear A6210 gefallen, da der bei einigen Tests wohl die beste Geschwindigkeit hervorbrachte. Das Treiberpaket habe ich aus dem Internet geladen (da das Programm von der CD immer abgeschmiert ist, als ich es nach Updates suchen lassen wollte), allerdings hat der Netgear Genie den eigenen Adapter nicht erkannt (tolles Genie). Aber eine Verbindung ließ sich trotzdem aufbauen.

Da ich gerade keine langes LAN-Kabel zur Hand hatte (und wer will schon auf den Dachboden gehen um eins zu suchen?) habe ich den Repeater erstmal mit einem Verlängerungskabel mitten im Wohnzimmer platziert:

Und den Empfänger auch erstmal ganz naiv auf den Tisch gestellt:

Der erste Test war etwas besser als das dLAN:

Damit erreiche ich mit um die 55Mbit also ca. 5MB/s.

Ein einfaches Umstellen des WLAN Adapters vom Schreibtisch auf die Lautsprecherbox bringt aber schon einen enormen Schub:

Und schon sind wir bei ca. 150Mbit und knapp 17MB/s.

Dann noch den Repeater im Flur an seinem Bestimmungsort positionieren bringt dann knapp 200Mbit mit 22 MB/s in der Spitze:

Natürlich habe ich auch noch versucht mehr herauszuholen. Dazu habe ich dann den Repeater soweit es geht an mein Arbeitszimmer gebracht, sodass er direkt vor der Tür lag und quasi Sichtkontakt zum Empfänger bestand. Hat aber erstaunlicherweise auch nichts gebracht. 200 Mbit sind die obere Grenze.

Bei genauerem Hinsehen in den Screenshots und nach einigem rumprobieren mit Funkkanälen (der Netgear-Adapter scheint keine höheren Funkkanäle im 5GHz Bereich zu unterstützen) habe ich dann aber bemerkt, dass unter Verbindungstyp 802.11n angegeben wird. Ich will doch aber ac?! Einige Recherche später bin ich der Meinung, dass entweder Windows 10 das falsch anzeigt oder der Treiber einfach Mist ist. Der Repeater zeigt mir zumindest an, dass ac mit einer hohen Datenrate genutzt wird:

Auch Windows zeigt mir eine recht hohe Übertragungsrate an, die ja so eigentlich nur WLAN AC hinbekommt:

Mit einem anderen Treiber (https://www.mediatek.com/products/broadbandWifi/mt7612u) konnte ich aber zumindest die 200Mbit Grenze noch überschreiben und bin bei 24MB/s in der Spitze angelangt.

Ich habe noch ein bisschen in den Einstellungen des WLAN Sticks herumgespielt:

  • Channel Mode auf „5G Only“ (ich hatte aber im Repeater schon das 2.4GHz Band ausgeschaltet).
  • Max. USB Speed von „Auto“ auf „USB 3.0“.
  • Und auch IEEE802.11h habe ich mal probehalber eingeschaltet

hat aber alles nichts genutzt.

Jetzt folgt auf jeden Fall auch hier der Lasttest (kopieren großer Datenmengen aufs NAS). Zusätzlich habe ich mir Amazon Prime sei Dank aber nochmal einen anderen WLAN-Stick (den zu Router und Repeater passenden Fritz!WLAN Stick AC 860) bestellt. Der kommt dann wohl morgen. Dann gibt es am nächsten Dienstag die Ergebnisse des Lasttests und der Test mit dem Fritz-Stick.

021517_1439_Kanalsortie1.png

Kanalsortierung am Fernseher Panasonic Viera TX 55 CXW 704

Bei meinem Kabelanbieter war vor kurzem mal wieder die Zeit für eine Neuvergabe der Sendefrequenzen. Das heißt für mich: neuen Sendersuchlauf und neu sortieren. Da ich das schon länger nicht gemacht habe wollte ich statt einer Aktualisierung einen komplett neuen Suchlauf. Das erspart das Sender löschen und wieder dahin verschieben.

Wer das schonmal mit der Fernbedienung gemacht hat, wird es hassen. Zum Glück gibt es nette Menschen im Internet, die dafür Programme anbieten. Für meinen alten Samsung TV habe ich immer SamyGo ChanEdit genutzt. Für meinen Panasonic habe ich nun das Tool ChanSort gefunden. Das kann die Kanallisten von diversen Herstellern verarbeiten. So kann man ganz bequem am PC die Senderliste zusammenstellen.

Für meinen Panasonic Viera TX 55CXW704 ist das Prozedere im Wiki beschrieben. Für mich musste es die zweite Methode sein:

  1. Eine leere Datei namens „hotel.pwd“ auf einem USB-Stick erstellen
  2. USB-Stick in den Fernseher stecken und den Code 4850 eingeben um die Senderliste auf den Stick zu exportieren
  3. Senderliste am PC in ChanSort importieren, munter umsortieren und wieder im gleichen Verzeichnis auf dem Stick speichern
  4. USB-Stick in den Fernseher stecken und den Code 4851 eingeben um die Senderlisten vom Stick zu importieren
  5. Nach erfolgreichem Import wird man aufgefordert den Fernseher auszuschalten. Ein einfaches Ausschalten per Fernbedienung hat bei mir nicht geholfen, sondern ich musste die Taste hinter dem Fernseher betätigen, sodass der TV komplett ausgeht. Danach direkt wieder anschalten und voila: Senderliste ist verfügbar.

021417_1740_TinkeringTu1.png

Tinkering Tuesday – Speicherplatzerweiterung Teil 2 – Einrichtung

Letztes Mal habe ich beschrieben, wofür ich mich entschieden habe. Heute geht es dann darum, was ich damit mache und wie ich das NAS einrichte. Dabei werde ich nicht jeden einzelnen Schritt des Einrichtungsassistenten dokumentieren, ich denke dazu gibt es genug Anleitungen im Netz und der Assistent an sich ist auch relativ selbst erklärend.

Hier nochmal meine Zielarchitektur:

Das NAS wird letztlich wohl im Wohnzimmer stehen, da dort der Router und der Anschluss ans Internet sind (das dLAN hat manchml unerklärliche Aussetzer, daher will ich nicht riskieren unterwegs mal nicht drauf zugreifen zu können, weil sich die Adapter nicht mehr finden). Ich hoffe, dass der Lautstärkepegel sich in Grenzen hält, sodass auf der WAF (women acceptance factor) eingehalten wird. Zur Einrichtung wird das Ding aber erstmal an einen Switch im Büro gehängt, damit die Einrichtung leichter von der Hand geht und ich nicht immer rüber rennen muss um zu sehen, was das Ding gerade macht. Außerdem geht so das erste Kopieren der Daten schneller.

Einrichtung

Der Assistent führt einen sehr schnell durch die erste Einrichtung. Ich hab mich für ein RAID1, also die redundante Speicherung der Daten entschieden. Dadurch habe ich zwar trotz zwei 4TB-Platten keine 8, sondern nur 4TB zur Verfügung, aber die Sicherheit meiner Daten soll endlich mal im Vordergrund stehen… Immerhin: bisher ist mir tatsächlich noch nie eine Festplatte so kaputt gegangen, dass ich Daten verloren habe. Da ich mich aber vorher nicht wirklich informiert habe über die verschiedenen Volume-Typen, habe ich einfach ein statisches Volume eingerichtet. Besser ist wohl ein Thick- oder Thin-Volume. Sollte für mich aber eigentlich nicht von Interesse sein, da ich weder Festplatten hinzufügen kann noch meine Volumes irgendwie aufteilen will. Wenn das Ding mal voll ist, muss eh ein neues her.

An der Seite findet man einen CloudKey, wenn man den bei start.qnap.com eingibt, sich ein cloud-Konto einrichtet, kommt man automatisch in die Einrichtung. Ein Tipp von mir: nicht unbedingt die „Suche nach fehlerhaften Blöcken“ am Anfang auswählen. Das hat bei mir die ganze Nacht gedauert. Bis dahin ist das NAS nicht so wirklich weiter benutzbar.

Auch sollte man sich die verschiedenen Passwörter (cloud-Konto, admin-Konto, etc.) bestenfalls mit einem Passwortmanager merken. Auch die dazugehörigen Adressen (cloud-Adresse, IP) sollte man sich merken.

Wenn man aus dem Netz auf seine Daten zugreifen möchte, sollte man erstmal den CloudLink aktivieren und installieren (die obige Meldung bekommt man, wenn man sich in sein myQNAPcloud-Konto einloggt und das entsprechende Paket noch nicht aktiviert hat. Das macht man in der QNAP Systemsteuerung mit dem Admin-Nutzer. Dort ruft man einfach das AppCenter auf und sucht nach „CloudLink“.

Zusätzlich habe ich mir einen neuen Benutzer für den Internetzugriff eingerichtet, der eingeschränkte Rechte bekommt. Zusätzlich gibt es einen für den Zugriff vom PC aus. Das macht man in der QNAP-Systemsteuerung. Etwas umständlich ist es, dass der Benutzer erstmal für alle möglichen Dienste berechtigt ist, die man so eingerichtet hat. Unter anderem hat jeder Nutzer lesenden Zugriff auf den Multimedia-Ordner und auch auf den Public-Ordner hat jeder erstmal Lese- und sogar Schreibrechte. Das finde ich nicht ganz so cool, daher wird das erstmal deaktiviert. Will man Kontingente für einzelne Nutzer oder Gruppen einrichten, so muss man erstmal ein Standard-Kontingent anlegen, dass für jeden gilt, dann kann man in der Benutzerverwaltung das wiederum für jeden einzeln anpassen. Eine gute Einführung in Benutzer und Rechte findet man bei Bulaland.

Was mich definitiv nervt bei dem NAS ist das ständige Gepiepe. Das kann man für einige Aktionen ausschalten, aber es piept auf jeden Fall immer beim Hochfahren und zu anderen Gelegenheiten auch mal. Das hat mich in der ersten Nacht (du erinnerst dich, die Suche nach fehlerhaften Blöcken) echt Nerven gekostet.

Ordnerstruktur

Im Auslieferungszustand finden sich so einige Ordner im NAS:

Dabei ist „home“ nur ein Link zum jeweiligen Benutzer-Verzeichnis im „homes“-Verzeichnis. „Public“ ist der von jedem Benutzer standardmäßig beschreibbare Ordner, Multimedia kann jeder erstmal ansehen, dazu gibt es noch weitere Ordner, die wahrscheinlich den entsprechend aktivierten Diensten geschuldet sind.

Ich hab mich dazu entschlossen die Default-Ordner nicht wirklich zu nutzen, sondern eine eigene Struktur anzulegen. Dazu sollte man dann auch die erweiterten Ordnerzugriffsrechte aktivieren:

Folgende Ordner lege ich an:

  • Archiv: hierhin kommen meine Datenbestände, die nicht mehr auf meinem PC vorhanden sind. Hier bekommt nur der PC-Nutzer Zugriff.
  • Backup: hier wird mein automatisches Backup der Daten vom PC, sowie vom Handy hingesichert. Hier bekommt nur der PC-Nutzer Zugriff.
  • Multimedia: der Ordner ist Standard, den werde ich wohl nutzen. Mal sehen.
  • SharingBox: das wird der Dropbox-Ersatz. Hier bekommt nur der Internet-Nutzer Zugriff. Hier ist Qsync aktiviert.

In die SharingBox kommt dann auch noch ein weiterer Ordner, „CameraUploads“. Darin wiederum gibt es für mich und meine Frau einen Unterordner in den automatisch alle Bilder vom Handy synchronisiert werden. Dabei sollte man aufpassen, dass man nicht unbedingt „Alle Fotos und Videos“ auswählt. Dann nimmt das Ding wirklichen jeden Schund mit. Das Synchronisieren funktioniert mit der Android App „Qfile“ recht einfach. In den Einstellungen den Punkt „Fotos aus der Fotogalerie automatisch hochladen“ wählen und dem Assistenten für das NAS folgen. Dort kann man dann genau auswählen, was alles hochgeladen werden soll und wohin. Dort habe ich auch die Option „Nur Wi-Fi“ unter „Richtlinie zum Hoch- und Herunterladen von Dateien“ aktiviert, damit das Datenvolumen nicht so stark genutzt wird. Auch die Auto-Anmeldung ist dort zu finden, die man aktivieren sollte, wenn man seine Fotos automatisch synchronisiert haben möchte. Für die Erst-Synchronisation hätte ich allerdings das NAS lieber schon an den Router angeschlossen… Naja, hinterher ist man immer schlauer.

In Windows direkt werden sowohl das Archiv, als auch der Backup-Ordner per Netzwerklaufwerk eingebunden. Den DLNA-Server, der auf den Ordner „Multimedia“ zugreift, findet er automatisch:

Hier sieht man, dass mein NAS auf der IP mit der Endung 21 läuft. Im Router (oder im NAS selbst) sollte man einstellen, dass das auch immer der Fall ist:

Da ich auch mit anderen Leuten Dateien und Ordner teile, war mein erster Gedanke das wie in der Dropbox zu machen: einfach einen Unterordner in meiner SharingBox anlegen und darauf dann Berechtigungen geben. Das funktioniert leider nicht. Qsync und Qfile gehen wohl immer vom Root aus und zeigen einen Unterordner nicht an, wenn auf den übergeordneten Ordner keine Berechtigungen existieren. Das heißt, ich müsste zumindest Leserechte auf den Ordner SharingBox vergeben, damit die anderen auch auf den jeweiligen Unterordner Zugriff haben. Ich will aber natürlich nicht, dass jeder meine CameraUploads sieht. Hieße, ich müsste bei jedem Unterordner wiederum die Berechtigung explizit verweigern. Das ist umständlich und fehleranfällig, wenn neue Nutzer hinzukommen.

Die nächste Idee war zusätzlich einen neuen Freigabeordner im Root einzurichten, der einfach auf den Unterordner in der SharingBox zeigt. Das funktioniert auch erstmal. Die Berechtigungen kann man auf beiden „Ordnern“ separat einrichten. Bei beiden habe ich Lese-/Schreibrechte vergeben, allerdings greift wohl irgendwie trotzdem die Berechtigung des Ordners SharingBox. Zumindest irgendwie, denn angezeigt werden alle Dateien im FileExplorer, aber weder geöffnet, noch umbenannt werden kann man sie.

Letztlich habe ich dann halt doch einen eigenen Freigabeordner im root erstellt und darauf die Benutzergruppe berechtigt. Nun funktioniert alles, das blöde ist aber, dass ich die Ordner dann nicht mit meiner Sammel-Ordnersynchronisation im Ordner SharingBox automatisch auf meinen PC gesynct bekomme, sondern jeden so eingerichteten Ordner auch in mein Qsync auf dem PC aufnehmen muss. Naja, werde ich verschmerzen.

Performance

In meiner Ersteinrichtung habe ich wie gesagt das NAS an einem Switch (100 Mbit) in meinem Arbeitszimmer angeschlossen. Daran hängt auch direkt der PC. Beim Kopieren meines Videoarchivs wird das auch fast komplett ausgenutzt:

Das ist aber natürlich für 730 GB trotzdem noch recht langsam: mit knapp 11MB/s hat es tatsächlich ca. 18 Stunden gedauert:

Für den zweiten Test habe ich das NAS dann an seinen neuen Bestimmungsort gebracht und direkt an den Router angeschlossen. Der unterstützt zwar genau wie das NAS und auch der PC Gigabit, aber hier ist dann das dLAN der Flaschenhals (zugegeben, hier werden auch kleinere Dateien verschoben, aber selbst bei Videodateien ist der Datenstrom nicht über 30Mbit und knapp 3 MB/s gekommen):

Das ist ja auch das Ergebnis, das ich über diverse Internet-Speedtests vom PC aus schon bekommen habe. Letztlich muss ich also abwägen: Höhere Geschwindigkeit vom PC aus (hier wäre wohl sogar Gigabit möglich…) oder schnelle und stabile Erreichbarkeit aus dem Internet (hier müssten dann sogar die vollen 100 Mbit Downstream und 20 Mbit Upstream meiner Internetleitung ausgenutzt werden können.

Zukunftsaussicht / Alternativer Anschluss

Ein paar Ideen habe ich allerdings noch um mehr Geschwindigkeit an den PC zu bringen:

  1. NAS per eigenem WLAN über einen AC Repeater an den PC

Da das NAS ja zwei LAN-Ports hat könnte ich das NAS bei uns in den Flur stellen und mit einem langen LAN-Kabel an den Router anschließen. Zusätzlich kann ich dort noch meinen WLAN-Repeater anschließen, der im Gegensatz zu meiner Fritzbox nicht nur WLAN N mit bis zu 300 Mbit unterstützt sondern WLAN AC mit bis zu 1300 Mbit. Außerdem wäre der Repeater im Flur näher am Arbeitszimmer.

Zum einen brauch ich dann noch einen vernünftigen WLAN-Empfänger für den PC (USB 3.0 oder PCIe mit externer Antenne, damit ich aus meiner PC-Ecke herauskomme…), zum anderen hoffe ich, dass der PC dann mit den zwei Netzwerkverbindungen klar kommt. Sollte ja aber kein Problem sein, oder?

Würde dann in etwa so aussehen:

  1. WLAN AC über Repeater statt WLAN N im Router

Das bringt mich auf die Idee überhaupt mal zu versuchen ob ich den WLAN-Empfang im Arbeitszimmer mit dem Repeater verbessern kann. Hieße den Repeater endlich mal als Repeater zu nutzen. Als Einsatzort bietet sich aber entweder das Wohnzimmer an (was standortmäßig keinen Vorteil bringt, allerdings per WLAN AC ggf. trotzdem einen Geschwindigkeitsvorteil) oder eben wie in Alternative 1 der Flur.

Das bringt dann noch weitere Möglichkeiten mit sich. Zum einen den Repeater in seiner eigentlichen Bestimmung als Repeater zu nutzen:

Hat allerdings den Nachteil, dass der Router weiterhin nur max WLAN N mit 300Mbit unterstützt und so schonmal Durchsatz verloren geht. Außerdem ist mit einem Repeater immer Verlustleistung verbunden. Besser wäre wohl den Repeater per LAN-Kabel am Router anschließen. Hat den Vorteil, dass es keine Verluste durch das WLAN gibt und die volle Gigabit Geschwindigkeit vorhanden sein sollte.

In beiden Lösungsmöglichkeiten sollte dann hoffentlich die Geschwindigkeit sogar besser sein als über die Powerline und somit könnte das sogar obsolet werden. Wenn ich es recht bedenke kann ich das NAS dann sogar am Router lassen, sodass die zukünftige Lösung so aussehen könnte (der WLAN Stick ist schon bestellt…):

Allerdings habe ich dann nicht mehr die Möglichkeit weitere LAN-Ports per Switch im Büro zu nutzen. Derzeit ist da öfter der Raspberry Pi mit dran. Auch der TV aus dem Schlafzimmer ist mittlerweile im Büro gelandet, da wir einerseits eine neue Schlafzimmereinrichtung haben, wo der Fernseher keinen Platz mehr findet (deswegen ist auch der Repeater jetzt nicht mehr im Einsatz) zum anderen haben wir im Büro nun auch ein Sofa. Perspektivisch wird der TV noch über dem Schreibtisch als dritter Monitor vor allem für Videobearbeitung montiert. Die Wandhalterung habe ich schon, allerdings will ich mir noch einen Aufsatz für den Schreibtisch beschaffen oder selbst bauen. Deswegen weiß ich die Höhe derzeit noch nicht.

021217_1625_TinkeringTu2.png

Tinkering Tuesday – Speicherplatzerweiterung Teil 1 – Auswahl

Da der letzte Tinkering Tuesday ausgefallen ist, heute mal eine verspätete Episode am Sonntag. Lange habe ich mich um das Thema gedrückt, aber da die Datenflut nicht abnimmt, muss mehr Speicher her.
In einem vorherigen Beitrag habe ich schonmal angerissen, dass ich mich damit beschäftigen muss. Die verschiedenen Möglichkeiten, die ich für mich bewerten möchte sind:

  • interne Festplatten
  • externe USB Festplatten
  • NAS (Netzwerkfestplatte)

Aber erstmal von vorn. Was sind denn eigentlich meine Anforderungen und was hab ich bisher?

Intern in meinem Rechner verbaut habe ich eine 128GB große SSD (C:\) für das Betriebssystem (Windows 10) und eine 3TB große HDD. Die ist aufgeteilt in mehrere Bereiche:

  • E:\ 1TB Video (für die Videobearbeitung, seit neuestem auch Musikproduktion, dazu folgt auch nochmal ein Beitrag)
  • F:\ 1TB Media (Fotos, Musik, Filme)
  • G:\ 1TB Sonstiges (Tools, Dokumente, etc.)


Meine hauptsächlich genutzte USB-Festplatte ist eine USB 2.0 1500GB Platte (L:\).

Da das auch alles mittlerweile relativ voll ist, musste ich bei der Video-Platte schon aufräumen (einiges redundante gelöscht, ein paar alte Sachen auf die externe Backup-Platte gebracht und lokal gelöscht). Auch in der Sonstiges-Partition habe ich schon ca. 300GB aufgeräumt, hier sehe ich auch noch einiges an Potential, da dort einige unsortierte Backups rumliegen, z.T. mit virtuellen Maschinen aus meiner Studienzeit, die kein Mensch mehr braucht. Auf der Backup-Platte werden nur bestimmte Ordner (u.a. Dokumente, Fotos und die gesamte Video-Partition). Die ist aber mittlerweile auch schon gut ausgelastet.

Es soll also eine neue Lösung her. Folgende Ziele:

  • Intern müssen eigentlich nur noch Sachen liegen, die ich gerade nutze oder die schnell im Zugriff sein sollen. Der Rest kann auch auf langsamerem Speicher ausgelagert werden.
  • Meine wichtigsten Daten sollen auf jeden Fall redundant vorhanden sein. Dazu zählen auch die Rohdaten der Video- und Fotobearbeitung. Auf die USB-Festplatte soll weiterhin ein selektives Backup laufen, darauf müssen aber nicht zwingend alle Video- und Fotorohdaten, aber die Outputs sollten schon drauf.
  • Das Backup soll automatisch laufen, ich möchte ungern Dinge einzeln verschieben müssen.

Die Geschwindigkeit spielt auch eine gewisse Rolle. Es soll der Zugriff vom PC aus relativ zügig von statten gehen. Ich hatte z.B. eine externe 2,5 Zoll USB Festplatte an meiner Fritzbox hängen, die Zugriffe waren aber sowas von langsam, egal ob vom PC über das DLAN oder vom Internet aus.
Nicht unbedingt erforderlich ist eigentlich eine private Cloud, aber schön wäre das schon. Dann aber so, dass es die Dropbox komplett ersetzen kann.

Es kommen für mich folgende Optionen infrage:

  • Interner RAID1-Verbund
  • Große externe USB 3.0 Festplatte plus vorhandener interner Speicher
  • Netzwerkspeicher (NAS)


Alle haben so ihre Vor- und Nachteile, z.B. ist der interne RAID-Verbund der schnellste im Zugriff, eine neue externe Festplatte wäre zusätzlich transportabel. Letztlich bleibt als flexibelste Lösung aber natürlich nur das NAS. Außerdem: das ist doch auch die coolste Lösung, da man damit noch so viel mehr anstellen kann.

Dann stellt sich natürlich die Frage: wie viele Platten? Ich habe mich aus Preis-Leistungs-Gründen für nur 2 Platten im RAID1-Verbund entschieden, also die redundante Variante. Zum Einsatz kommen 2x Western Digital Red 4TB. Das ist irgendwie die Standard-Empfehlung. Zwar habe ich einige Zeit überlegt auf Seagate oder HGST auszuweichen, da Backblaze dazu eine sehr gute Statistik führt, daran spielen die WDs keine Rolle, da sie die nicht zu vernünftigen Preisen in großen Mengen einkaufen können. Allerdings hat eigentlich jeder Privatnutzer, den ich so kenne die WD Red im Einsatz.

Nächste Frage: Welches NAS? Relativ schnell kommt man eigentlich nur zur Auswahl zwischen Synology und QNAP. Durch eine Empfehlung bin ich auch schnell auf die Synology DS216j gekommen, die den Einstieg in die NAS-Lösungen von Synology darstellt. Viel mehr brauch ich eigentlich nicht. Ich will das Ding nicht per HDMI direkt an den TV hängen und habe auch keine Verwendung für internes Transcoding, da ich eigentlich keine Filme oder sonstiges auf dem NAS habe, die on-the-fly umgewandelt werden müssten. Ich streame eigentlich nur noch, Prime und Netflix sei Dank.

Der Gegenspieler von QNAP heißt in allen Tests TS-231 (z.B. in diesem Vergleich von NAS compares). Eigentlich war meine Entscheidung für das etwas günstigere Synology-NAS schon gefallen, da bin ich auf den Nachfolger des QNAP TS-231 gestoßen: Das QNAP TS-231P. Das hat einen neuen, performanteren und stromsparenderen Prozessor genehmigt bekommen und hat mich letztlich auch dadurch überzeugt, dass er 2 LAN-Ports hat. Das werde ich zwar erstmal nicht nutzen, da meine Heimnetzwerkarchitektur das im Moment nicht hergibt (dLAN ins Büro), aber wer weiß was die Zukunft so bringt.

Was die Apps angeht, nehmen die beiden Anbieter sich wohl auch nicht viel. Beide haben Apps, die man als Dropbox-Ersatz nutzen kann. Auch können auf beide automatisch die Handy-Bilder synchronisiert werden, was ich sehr gerne mit der Dropbox mache.

Eine weitere wichtige Entscheidung ist: wo stelle ich das Ding auf? Wie schon erwähnt ist im Moment mein Problem, dass mein Internetanschluss und somit mein Router im Wohnzimmer steht, mein Büro aber in der vollständig anderen Ecke der Wohnung. Die dLAN-Verbindung ist nicht die Beste, von meinen 100Mbit (die auch wirklich am Router ankommen), bekomme ich gerade einmal rund 15 Mbit, je nach Tagesform auch mal 30 Mbit real (per Speedtest bestimmt). Außerdem ist die Verbindung nicht die stabilste, ab und an verlieren die Adapter die Verbindung. Ich habe schon getestet, wie ich das optimieren könnte, z.B. durch die Nutzung anderer Steckdosen, dazu müsste ich aber mindestens einmal ein Kabel quer durch unseren Flur legen und das kommt nicht in Frage.

Also wird mein Ziel-Setup wie folgt aussehen:


Beim nächsten Mal geht es dann weiter mit meinem geplanten Speicherkonzept und der Einrichtung.