021717_1328_TinkeringTu10.png

Tinkering Tuesday – WLAN AC Test – Netgear A6210 vs. AVM Fritz!WLAN Stick AC 860

Wie schon angekündigt stand zum einen noch der Belastungstest der WLAN-Verbindung mit dem Netgear A6210 aus, zum anderen der Test des WLAN Sticks von AVM.

Der Start meines Lasttests (mein Bilderarchiv auf das NAS kopieren) hat auf jeden Fall Performance-technisch Hoffnung gemacht:

Etwas über eine Stunde für 90 GB an Fotos ist schonmal nicht schlecht (letztendlich waren es wegen der Schwankungen bei den vielen kleinen Dateien doch eher 1:30 aber immerhin). Bei großen Dateien ist das Ganze nochmal schneller, bis zu 220 Mbit und damit so um die 21 MB/s, siehe meinen vorherigen Post. Den Belastungstest hat der Stick auch mit Bravour bestanden. Konstant über den ganzen Zeitraum, keine Ausfälle (wie das dLAN) oder Einbrüche in der Geschwindigkeit.

Fritz!WLAN Stick AC 860

Dann kam aber noch der Fritz!WLAN Stick, der getestet werden wollte. Um das Bild nicht zu verzerren habe ich wieder die gleiche ca. 7GB große ISO-Datei genommen wie im vorherigen Test für den Netgear A6210 und ihn an der gleichen Position und am gleichen Port angeschlossen (ich hab hier natürlich auch wieder verschiedene Ports, Aufstellwinkel und Positionen getestet, aber das hat es meist eher noch schlimmer gemacht).

Das erste Ergebnis war nicht so erfreulich. Rund 160 Mbit, also deutlich weniger als der Netgear:

Auch hier wird im Windows Task Manager WLAN N angezeigt, also mache ich mir erstmal keine Sorgen, dass der Netgear irgendwie anders wäre.

Im Fritz-Repeater wird allerdings eine deutlich niedrigere Rate für den Fritz Stick (links) angezeigt, als beim Netgear (rechts)


Der Fritz-eigene Verbindungsmonitor sagt alles optimal:

Bei genauerem Hinsehen in die Verbindungsdetails sieht man allerdings, dass er nur mit USB 2.0 verbindet:

Ein Blick in die Eigenschaften bringt erstmal nicht viel, nur die nichts-sagende Option „Übertragungsleistung optimieren“. Die Hilfe hilft in diesem Falle aber tatsächlich mal:

Also aktiviert das Häkchen USB 3.0. Super. Dann mach ich das doch. Das Ergebnis ist sehr ernüchternd:

Mit nichtmal 12 Mbit schleicht es vor sich her, aber immerhin jetzt mit USB 3.0:

Die Installation des aktuellen Treibers von https://avm.de/service/downloads/?product=FRITZ%2521WLAN%2BUSB%2BStick%2BAC%2B860 bringt zumindest die alte Geschwindigkeit auch über USB 3.0, aber da bin ich mit dem Stick von Netgear doch noch um ca. 50 -60 Mbit und somit 5 MB/s schneller:

Fazit

Somit bleibt der Netgear A6210 und der Fritz!WLAN Stick AC 860 geht wieder zurück.

Funkkanal Netgear A6210 mit MediaTek Treiber

Mittlerweile habe ich auch herausgefunden, warum der Netgear-Stick keine Verbindung zu meinem WLAN bekommt, wenn ich einen höheren Funkkanal im 5GHz Netz benutze. Der MediaTek Treiber, den ich installiert habe, ist standardmäßig auf die USA konfiguriert. In den erweiterten Adaptereinstellungen findet man aber die Einstellung „Country Region (5GHz)“. Die ist auf #0 für die USA eingestellt. #1 ist die Einstellung, die für Deutschland genutzt werden sollte. Dann sind auch Verbindungen in höheren Kanälen möglich.

Erweiterte Adaptereinstellungen MediaTek Treiber
Erweiterte Adaptereinstellungen MediaTek Treiber

Allerdings bringen die höheren Kanäle leider keinen Geschwindigkeitsvorteil. Eher das Gegenteil. Die Kanäle ab 100 bis 140 haben eher zur Folge, dass die Geschwindigkeit niedriger wird. Um die 150-160 Mbit statt 200 bis 220 Mbit in den einstelligen Kanälen. Da bei mir in der Nähe noch zwei andere 5GHz Netze sind und das eine fest auf Kanal 36 eingestellt zu sein scheint, habe ich mich für den Kanalbereich um die 60 entschieden. Dort lief auch eins, das ist aber automatisch auf den 100er Kanal ausgewichen.

021717_1136_FotoFridayH16.jpg

Foto Friday – HDR Software

Heute startet eine neue Serie: der Foto Friday – grammatikalisch wieder nicht so ganz korrekt, aber naja. Foto Freitag klingt so langweilig. Los geht es mit Software um HDRs zu erstellen, zukünftig gibt es dann immer mehr Infos zu meinem Fotoworkflow (ein paar Themen habe ich schon im Kopf) aber dann irgendwann bestimmt auch zu Aufnahmetechniken, Ergebnisse von Photowalks oder sonstiges rund um das Thema Foto.

Da ich ab und an einmal HDRs mache, habe ich mich mal wieder mit dem Thema Software beschäftigt und geschaut, was da aktuell so im Markt verfügbar ist. Voraussetzung: es muss kostenlos sein.

Gefunden habe ich

  • Luminance HDR
  • Picturenaut 3
  • Google Nik Collection – HDR Efex Pro

Die habe ich alle mal installiert und mit einem Beispiel getestet.

Der Testfall

Zum Testen habe ich eine, zugegebenermaßen nicht sonderlich gute, Belichtungsreihe aus meinem Urlaub in Südfrankreich genommen. Hier mal die JPGs out-of-camera, ich habe soweit möglich aber auch die RAWs genutzt.

Man sieht schon, dass das Neutralbild ziemlich dunkel ist und so sind die Belichtungen mit -6 EV und -4 EV fast komplett schwarz. Das verursacht bei den Programmen Probleme, weswegen ich zusätzlich noch immer einen Test mit nur 4 Fotos (0 EV bis +6 EV) gemacht habe.

Ich hab bei jedem Programm soweit vorhanden die automatische Ausrichtung gewählt und das Anti-Ghosting (die Bilder sind aus der Hand gemacht worden).

Im Folgenden meine Erkenntnisse:

Luminance HDR

Für Linux wird das Programm weiterentwickelt und kann über github bezogen und kompiliert werden: https://github.com/LuminanceHDR/LuminanceHDR

Die letzte Windows Version gibt es hier: http://qtpfsgui.sourceforge.net/

Da ich auf dem Desktop Windows nutze, habe ich natürlich die Windows-Version installiert. Es gibt einen Assistenten, der einen sehr gut durch den Prozess führt.

Luminance HDR Assitent
Luminance HDR Assitent

Der Assitent fragt einen nach einem Profil, welches genutzt werden soll. Die sind allerdings relativ nichtssagend. Also habe ich erstmal Profil 1 gewählt. Nach erfolgreichem Prozessieren der Daten sah das Bild bei mir erstmal recht pixelig aus. Das lag an der voreingestellten Bildgröße von 256×193, die man aber umstellen kann:

Nach einem Klick auf „Anwenden“ und einer Neuberechnung sieht das Ergbenis auch schon deutlich besser aus.

Die Version aus allen Bildern ist allerdings ziemlich verrauscht. Woran auch immer das liegt:

Luminance HDR 8 Fotos Standardausgabe
Luminance HDR 7 Fotos Standardausgabe

Hier nochmal eine Vergrößerung:

Luminance HDR 8 Fotos Standardausgabe (Vergrößerung)
Luminance HDR 7 Fotos Standardausgabe (Vergrößerung)

Mit 4 Fotos ist es schon besser. Die Standardausgabe sieht wie folgt aus:

Luminance HDR 4 Fotos Standardausgabe
Luminance HDR 4 Fotos Standardausgabe

Das Beste was ich herausbekommen habe ist:

Luminance HDR 4 Fotos optimiert
Luminance HDR 4 Fotos optimiert

Die nachträglichen Einstellungsmöglichkeiten haben mich aber irgendwie nicht überzeugt. Es gibt verschiedene Operatoren mit jeweils verschiedenen Einstellungsmöglichkeiten aber was mit ganz wichtig ist: Intuitiv ist anders.

Picturenaut 3

http://www.hdrlabs.com/picturenaut/index.html

Auch Picturenaut hat einen Assistenten:

Picturenaut Assistent
Picturenaut Assistent

Hier bekomme ich ein ziemlich rotstichiges HDR aus den RAWs (die Ergebnisse aus den JPGs sind aber auch nicht überzeugend), erst wenn ich noch ein Tone-Mapping einstelle, sieht das Bild okay aus:

Picturenaut 4 Fotos mit Tonemapping
Picturenaut 4 Fotos mit Tonemapping

Einmal ein Tone-Mapping gemacht muss man das erst wieder rückgängig machen um Änderungen vorzunehmen.

Was aber sofort auffällt ist, dass das Anti-Ghosting nicht sonderlich gut funktioniert

Picturenaut Ghosting Vergrößerung 1
Picturenaut Ghosting Vergrößerung 1
Picturenaut Ghosting Vergrößerung 2
Picturenaut Ghosting Vergrößerung 2

Das macht das Bild ziemlich unbrauchbar.

Die Einstellungsmöglichkeiten sind auch ziemlich begrenzt.

Google Nik Collection – HDR Efex Pro

https://www.google.com/nikcollection/products/hdr-efex-pro/

Schonmal vorweg: das ist mein Testsieger und damit werde ich in Zukunft auch meine HDRs erstellen. Trotz einiger Nachteile:

  • Es werden nur JPG und TIFF als Eingangsformat unterstützt (aber da ich ja für das RAW-Processing eh ein anderes Tool nutze…)
  • Es ist eigentlich nicht unbedingt als Standalone Software gedacht, sondern als Plugin für andere Programme. Leider unterstützt DxO Optics Pro das nicht unbedingt von Haus aus (aber es gibt einen ganz netten Workaround, dazu gibt es nächste Woche einen ausführlichen Post)
  • Das ist auch der Grund, warum man das Programm nach der Installation nicht im Startmenü findet, sondern erst in den Ordner „C:\Program Files\Google\Nik Collection\HDR Efex Pro 2“ navigieren muss. Dort finden sich dann die 32-bit und im Unterordner auch die 64-bit Exe.
  • Der Standardspeicherort ist der Dokumente-Ordner mit einem Standardnamen. Das macht er, wenn man den recht prominenten Speicher-Button in der unteren rechten Ecke drückt. Nutzt man das Datei-Menü und wählt „Bild speichern unter…“ oder drückt alternativ Strg-S, dann kann man einen Namen und Speicherort wählen.

Der Workflow ist aber dann recht einfach: man geht auf Datei -> Bild öffnen und wählt die Referenzbilder aus. Dann kommt der Assistent:

HDR Efex Pro 2 Assistent
HDR Efex Pro 2 Assistent

Hier hat man nur wenige Optionen (Ausrichtung, Ghosting-Reduzierung und Reduzierung von Chromatischen Aberrationen), kann aber ein Referenzbild für die Ghosting-Reduzierung auswählen und auch mit dem unteren Schieberegler die Grundbelichtung anpassen. Nach einem Klick auf „HDR Erstellen“ bekommt man dann schon ein recht hübsches HDR präsentiert. Man hat noch die Wahl zwischen ziemlich vielen Voreinstellungen auf der linken und kann noch diverse Einstellungen auf der rechten Seite machen (darunter Tonwert-Korrekturen, Farb-Korrekturen, aber z.B. auch weitergehende Dinge wie das Hinzufügen von Vignetten):

HDR Efex Pro 2 Oberfläche
HDR Efex Pro 2 Oberfläche

HDR Efex ist auch das einzige Programm, dass es geschafft hat aus allen 7 Bildern ein vernünftiges HDR zu erzeugen:

HDR Efex Pro 2 7 Fotos Standardausgabe
HDR Efex Pro 2 7 Fotos Standardausgabe

Die Verwendung von nur 4 Fotos erzeugt dann mit einem entsprechenden Standardprofil ein sehr natürliches und ausgeglichenes HDR:

HDR Efex Pro 2 4 Fotos Standardausgabe
HDR Efex Pro 2 4 Fotos Standardausgabe

Man kann es dann natürlich mit allen Einstellungen noch übertreiben:

HDR Efex Pro 2 4 Fotos Variante
HDR Efex Pro 2 4 Fotos Variante

Dazu kommt noch, dass mit der Nik Collection noch diverse andere Programme mitgeliefert werden. Die haben allerdings alle ein anderes Verhalten (hier mal der Vollständigkeit halber, Quelle ist entweder eigenes Testen oder (https://bernd.distler.ws/archives/1833-Google-NIK-Collection-problematische-Stand-Alone-Nutzung.html) :

Viveza, Sharpener und Dfine können nur mit einem Trick (Bild im Windows Explorer auswählen, dann im Kontextmenü „Öffnen mit…“ auswählen und die entsprechende Exe auswählen) im Standalone Betrieb genutzt werden. Bei diesem wird beim Speichern die Originaldatei gnadenlos überschrieben (es gibt auch kein Datei-Menü wo ein „Speichern unter…“ möglich wäre).

Genauso überschreibt Analog Efex Pro ungefragt das Originalbild.

Color Efex Pro und Silver Efex Pro überschreiben zwar nicht, speichern aber wohl nur neue Versionen mit einer Dateiendung wie z.B. bild.jpeg_tmp. So ist dann auch noch mehr Nacharbeit notwendig.

Integration der Google Nik Collection in DxO Optics Pro

Wie schon angedeutet kommt in der nächsten Woche dann ein Post, wie ich die Nik Collection ordentlich in meinen DxO Optics Pro eingebunden habe.

WLAN_STICK

Tinkering Thursday – Verbindung zwischen NAS und PC

Da ich im Moment krankheitsbedingt zu Hause bin, kommt diesmal der nächste Tinkering Tuesday schon am Donnerstag. Also ein Tinkering Thursday. Passt doch auch J.

Wie im letzten Beitrag schon angedacht muss ich mir auf jeden Fall etwas ausdenken für meine Netzwerkverbindung vom NAS zum PC. Zusätzlich zur dürftigen Geschwindigkeit (30 Mbit bzw. ca. 3MB/s) bekomme ich bei der Übertragung größerer Datenmengen öfter mal einen Netzwerkfehler. Entweder einen Auslastungsfehler oder einen unerwarteten Netzwerkfehler:

Das ist natürlich überhaupt nicht akzeptabel.

Also habe ich (wie ja schon angekündigt) mir mal einen WLAN Stick bestellt, der WLAN AC und USB 3.0 unterstützt. Die Wahl ist auf einen Netgear A6210 gefallen, da der bei einigen Tests wohl die beste Geschwindigkeit hervorbrachte. Das Treiberpaket habe ich aus dem Internet geladen (da das Programm von der CD immer abgeschmiert ist, als ich es nach Updates suchen lassen wollte), allerdings hat der Netgear Genie den eigenen Adapter nicht erkannt (tolles Genie). Aber eine Verbindung ließ sich trotzdem aufbauen.

Da ich gerade keine langes LAN-Kabel zur Hand hatte (und wer will schon auf den Dachboden gehen um eins zu suchen?) habe ich den Repeater erstmal mit einem Verlängerungskabel mitten im Wohnzimmer platziert:

Und den Empfänger auch erstmal ganz naiv auf den Tisch gestellt:

Der erste Test war etwas besser als das dLAN:

Damit erreiche ich mit um die 55Mbit also ca. 5MB/s.

Ein einfaches Umstellen des WLAN Adapters vom Schreibtisch auf die Lautsprecherbox bringt aber schon einen enormen Schub:

Und schon sind wir bei ca. 150Mbit und knapp 17MB/s.

Dann noch den Repeater im Flur an seinem Bestimmungsort positionieren bringt dann knapp 200Mbit mit 22 MB/s in der Spitze:

Natürlich habe ich auch noch versucht mehr herauszuholen. Dazu habe ich dann den Repeater soweit es geht an mein Arbeitszimmer gebracht, sodass er direkt vor der Tür lag und quasi Sichtkontakt zum Empfänger bestand. Hat aber erstaunlicherweise auch nichts gebracht. 200 Mbit sind die obere Grenze.

Bei genauerem Hinsehen in den Screenshots und nach einigem rumprobieren mit Funkkanälen (der Netgear-Adapter scheint keine höheren Funkkanäle im 5GHz Bereich zu unterstützen) habe ich dann aber bemerkt, dass unter Verbindungstyp 802.11n angegeben wird. Ich will doch aber ac?! Einige Recherche später bin ich der Meinung, dass entweder Windows 10 das falsch anzeigt oder der Treiber einfach Mist ist. Der Repeater zeigt mir zumindest an, dass ac mit einer hohen Datenrate genutzt wird:

Auch Windows zeigt mir eine recht hohe Übertragungsrate an, die ja so eigentlich nur WLAN AC hinbekommt:

Mit einem anderen Treiber (https://www.mediatek.com/products/broadbandWifi/mt7612u) konnte ich aber zumindest die 200Mbit Grenze noch überschreiben und bin bei 24MB/s in der Spitze angelangt.

Ich habe noch ein bisschen in den Einstellungen des WLAN Sticks herumgespielt:

  • Channel Mode auf „5G Only“ (ich hatte aber im Repeater schon das 2.4GHz Band ausgeschaltet).
  • Max. USB Speed von „Auto“ auf „USB 3.0“.
  • Und auch IEEE802.11h habe ich mal probehalber eingeschaltet

hat aber alles nichts genutzt.

Jetzt folgt auf jeden Fall auch hier der Lasttest (kopieren großer Datenmengen aufs NAS). Zusätzlich habe ich mir Amazon Prime sei Dank aber nochmal einen anderen WLAN-Stick (den zu Router und Repeater passenden Fritz!WLAN Stick AC 860) bestellt. Der kommt dann wohl morgen. Dann gibt es am nächsten Dienstag die Ergebnisse des Lasttests und der Test mit dem Fritz-Stick.

021517_1439_Kanalsortie1.png

Kanalsortierung am Fernseher Panasonic Viera TX 55 CXW 704

Bei meinem Kabelanbieter war vor kurzem mal wieder die Zeit für eine Neuvergabe der Sendefrequenzen. Das heißt für mich: neuen Sendersuchlauf und neu sortieren. Da ich das schon länger nicht gemacht habe wollte ich statt einer Aktualisierung einen komplett neuen Suchlauf. Das erspart das Sender löschen und wieder dahin verschieben.

Wer das schonmal mit der Fernbedienung gemacht hat, wird es hassen. Zum Glück gibt es nette Menschen im Internet, die dafür Programme anbieten. Für meinen alten Samsung TV habe ich immer SamyGo ChanEdit genutzt. Für meinen Panasonic habe ich nun das Tool ChanSort gefunden. Das kann die Kanallisten von diversen Herstellern verarbeiten. So kann man ganz bequem am PC die Senderliste zusammenstellen.

Für meinen Panasonic Viera TX 55CXW704 ist das Prozedere im Wiki beschrieben. Für mich musste es die zweite Methode sein:

  1. Eine leere Datei namens „hotel.pwd“ auf einem USB-Stick erstellen
  2. USB-Stick in den Fernseher stecken und den Code 4850 eingeben um die Senderliste auf den Stick zu exportieren
  3. Senderliste am PC in ChanSort importieren, munter umsortieren und wieder im gleichen Verzeichnis auf dem Stick speichern
  4. USB-Stick in den Fernseher stecken und den Code 4851 eingeben um die Senderlisten vom Stick zu importieren
  5. Nach erfolgreichem Import wird man aufgefordert den Fernseher auszuschalten. Ein einfaches Ausschalten per Fernbedienung hat bei mir nicht geholfen, sondern ich musste die Taste hinter dem Fernseher betätigen, sodass der TV komplett ausgeht. Danach direkt wieder anschalten und voila: Senderliste ist verfügbar.

021417_1740_TinkeringTu1.png

Tinkering Tuesday – Speicherplatzerweiterung Teil 2 – Einrichtung

Letztes Mal habe ich beschrieben, wofür ich mich entschieden habe. Heute geht es dann darum, was ich damit mache und wie ich das NAS einrichte. Dabei werde ich nicht jeden einzelnen Schritt des Einrichtungsassistenten dokumentieren, ich denke dazu gibt es genug Anleitungen im Netz und der Assistent an sich ist auch relativ selbst erklärend.

Hier nochmal meine Zielarchitektur:

Das NAS wird letztlich wohl im Wohnzimmer stehen, da dort der Router und der Anschluss ans Internet sind (das dLAN hat manchml unerklärliche Aussetzer, daher will ich nicht riskieren unterwegs mal nicht drauf zugreifen zu können, weil sich die Adapter nicht mehr finden). Ich hoffe, dass der Lautstärkepegel sich in Grenzen hält, sodass auf der WAF (women acceptance factor) eingehalten wird. Zur Einrichtung wird das Ding aber erstmal an einen Switch im Büro gehängt, damit die Einrichtung leichter von der Hand geht und ich nicht immer rüber rennen muss um zu sehen, was das Ding gerade macht. Außerdem geht so das erste Kopieren der Daten schneller.

Einrichtung

Der Assistent führt einen sehr schnell durch die erste Einrichtung. Ich hab mich für ein RAID1, also die redundante Speicherung der Daten entschieden. Dadurch habe ich zwar trotz zwei 4TB-Platten keine 8, sondern nur 4TB zur Verfügung, aber die Sicherheit meiner Daten soll endlich mal im Vordergrund stehen… Immerhin: bisher ist mir tatsächlich noch nie eine Festplatte so kaputt gegangen, dass ich Daten verloren habe. Da ich mich aber vorher nicht wirklich informiert habe über die verschiedenen Volume-Typen, habe ich einfach ein statisches Volume eingerichtet. Besser ist wohl ein Thick- oder Thin-Volume. Sollte für mich aber eigentlich nicht von Interesse sein, da ich weder Festplatten hinzufügen kann noch meine Volumes irgendwie aufteilen will. Wenn das Ding mal voll ist, muss eh ein neues her.

An der Seite findet man einen CloudKey, wenn man den bei start.qnap.com eingibt, sich ein cloud-Konto einrichtet, kommt man automatisch in die Einrichtung. Ein Tipp von mir: nicht unbedingt die „Suche nach fehlerhaften Blöcken“ am Anfang auswählen. Das hat bei mir die ganze Nacht gedauert. Bis dahin ist das NAS nicht so wirklich weiter benutzbar.

Auch sollte man sich die verschiedenen Passwörter (cloud-Konto, admin-Konto, etc.) bestenfalls mit einem Passwortmanager merken. Auch die dazugehörigen Adressen (cloud-Adresse, IP) sollte man sich merken.

Wenn man aus dem Netz auf seine Daten zugreifen möchte, sollte man erstmal den CloudLink aktivieren und installieren (die obige Meldung bekommt man, wenn man sich in sein myQNAPcloud-Konto einloggt und das entsprechende Paket noch nicht aktiviert hat. Das macht man in der QNAP Systemsteuerung mit dem Admin-Nutzer. Dort ruft man einfach das AppCenter auf und sucht nach „CloudLink“.

Zusätzlich habe ich mir einen neuen Benutzer für den Internetzugriff eingerichtet, der eingeschränkte Rechte bekommt. Zusätzlich gibt es einen für den Zugriff vom PC aus. Das macht man in der QNAP-Systemsteuerung. Etwas umständlich ist es, dass der Benutzer erstmal für alle möglichen Dienste berechtigt ist, die man so eingerichtet hat. Unter anderem hat jeder Nutzer lesenden Zugriff auf den Multimedia-Ordner und auch auf den Public-Ordner hat jeder erstmal Lese- und sogar Schreibrechte. Das finde ich nicht ganz so cool, daher wird das erstmal deaktiviert. Will man Kontingente für einzelne Nutzer oder Gruppen einrichten, so muss man erstmal ein Standard-Kontingent anlegen, dass für jeden gilt, dann kann man in der Benutzerverwaltung das wiederum für jeden einzeln anpassen. Eine gute Einführung in Benutzer und Rechte findet man bei Bulaland.

Was mich definitiv nervt bei dem NAS ist das ständige Gepiepe. Das kann man für einige Aktionen ausschalten, aber es piept auf jeden Fall immer beim Hochfahren und zu anderen Gelegenheiten auch mal. Das hat mich in der ersten Nacht (du erinnerst dich, die Suche nach fehlerhaften Blöcken) echt Nerven gekostet.

Ordnerstruktur

Im Auslieferungszustand finden sich so einige Ordner im NAS:

Dabei ist „home“ nur ein Link zum jeweiligen Benutzer-Verzeichnis im „homes“-Verzeichnis. „Public“ ist der von jedem Benutzer standardmäßig beschreibbare Ordner, Multimedia kann jeder erstmal ansehen, dazu gibt es noch weitere Ordner, die wahrscheinlich den entsprechend aktivierten Diensten geschuldet sind.

Ich hab mich dazu entschlossen die Default-Ordner nicht wirklich zu nutzen, sondern eine eigene Struktur anzulegen. Dazu sollte man dann auch die erweiterten Ordnerzugriffsrechte aktivieren:

Folgende Ordner lege ich an:

  • Archiv: hierhin kommen meine Datenbestände, die nicht mehr auf meinem PC vorhanden sind. Hier bekommt nur der PC-Nutzer Zugriff.
  • Backup: hier wird mein automatisches Backup der Daten vom PC, sowie vom Handy hingesichert. Hier bekommt nur der PC-Nutzer Zugriff.
  • Multimedia: der Ordner ist Standard, den werde ich wohl nutzen. Mal sehen.
  • SharingBox: das wird der Dropbox-Ersatz. Hier bekommt nur der Internet-Nutzer Zugriff. Hier ist Qsync aktiviert.

In die SharingBox kommt dann auch noch ein weiterer Ordner, „CameraUploads“. Darin wiederum gibt es für mich und meine Frau einen Unterordner in den automatisch alle Bilder vom Handy synchronisiert werden. Dabei sollte man aufpassen, dass man nicht unbedingt „Alle Fotos und Videos“ auswählt. Dann nimmt das Ding wirklichen jeden Schund mit. Das Synchronisieren funktioniert mit der Android App „Qfile“ recht einfach. In den Einstellungen den Punkt „Fotos aus der Fotogalerie automatisch hochladen“ wählen und dem Assistenten für das NAS folgen. Dort kann man dann genau auswählen, was alles hochgeladen werden soll und wohin. Dort habe ich auch die Option „Nur Wi-Fi“ unter „Richtlinie zum Hoch- und Herunterladen von Dateien“ aktiviert, damit das Datenvolumen nicht so stark genutzt wird. Auch die Auto-Anmeldung ist dort zu finden, die man aktivieren sollte, wenn man seine Fotos automatisch synchronisiert haben möchte. Für die Erst-Synchronisation hätte ich allerdings das NAS lieber schon an den Router angeschlossen… Naja, hinterher ist man immer schlauer.

In Windows direkt werden sowohl das Archiv, als auch der Backup-Ordner per Netzwerklaufwerk eingebunden. Den DLNA-Server, der auf den Ordner „Multimedia“ zugreift, findet er automatisch:

Hier sieht man, dass mein NAS auf der IP mit der Endung 21 läuft. Im Router (oder im NAS selbst) sollte man einstellen, dass das auch immer der Fall ist:

Da ich auch mit anderen Leuten Dateien und Ordner teile, war mein erster Gedanke das wie in der Dropbox zu machen: einfach einen Unterordner in meiner SharingBox anlegen und darauf dann Berechtigungen geben. Das funktioniert leider nicht. Qsync und Qfile gehen wohl immer vom Root aus und zeigen einen Unterordner nicht an, wenn auf den übergeordneten Ordner keine Berechtigungen existieren. Das heißt, ich müsste zumindest Leserechte auf den Ordner SharingBox vergeben, damit die anderen auch auf den jeweiligen Unterordner Zugriff haben. Ich will aber natürlich nicht, dass jeder meine CameraUploads sieht. Hieße, ich müsste bei jedem Unterordner wiederum die Berechtigung explizit verweigern. Das ist umständlich und fehleranfällig, wenn neue Nutzer hinzukommen.

Die nächste Idee war zusätzlich einen neuen Freigabeordner im Root einzurichten, der einfach auf den Unterordner in der SharingBox zeigt. Das funktioniert auch erstmal. Die Berechtigungen kann man auf beiden „Ordnern“ separat einrichten. Bei beiden habe ich Lese-/Schreibrechte vergeben, allerdings greift wohl irgendwie trotzdem die Berechtigung des Ordners SharingBox. Zumindest irgendwie, denn angezeigt werden alle Dateien im FileExplorer, aber weder geöffnet, noch umbenannt werden kann man sie.

Letztlich habe ich dann halt doch einen eigenen Freigabeordner im root erstellt und darauf die Benutzergruppe berechtigt. Nun funktioniert alles, das blöde ist aber, dass ich die Ordner dann nicht mit meiner Sammel-Ordnersynchronisation im Ordner SharingBox automatisch auf meinen PC gesynct bekomme, sondern jeden so eingerichteten Ordner auch in mein Qsync auf dem PC aufnehmen muss. Naja, werde ich verschmerzen.

Performance

In meiner Ersteinrichtung habe ich wie gesagt das NAS an einem Switch (100 Mbit) in meinem Arbeitszimmer angeschlossen. Daran hängt auch direkt der PC. Beim Kopieren meines Videoarchivs wird das auch fast komplett ausgenutzt:

Das ist aber natürlich für 730 GB trotzdem noch recht langsam: mit knapp 11MB/s hat es tatsächlich ca. 18 Stunden gedauert:

Für den zweiten Test habe ich das NAS dann an seinen neuen Bestimmungsort gebracht und direkt an den Router angeschlossen. Der unterstützt zwar genau wie das NAS und auch der PC Gigabit, aber hier ist dann das dLAN der Flaschenhals (zugegeben, hier werden auch kleinere Dateien verschoben, aber selbst bei Videodateien ist der Datenstrom nicht über 30Mbit und knapp 3 MB/s gekommen):

Das ist ja auch das Ergebnis, das ich über diverse Internet-Speedtests vom PC aus schon bekommen habe. Letztlich muss ich also abwägen: Höhere Geschwindigkeit vom PC aus (hier wäre wohl sogar Gigabit möglich…) oder schnelle und stabile Erreichbarkeit aus dem Internet (hier müssten dann sogar die vollen 100 Mbit Downstream und 20 Mbit Upstream meiner Internetleitung ausgenutzt werden können.

Zukunftsaussicht / Alternativer Anschluss

Ein paar Ideen habe ich allerdings noch um mehr Geschwindigkeit an den PC zu bringen:

  1. NAS per eigenem WLAN über einen AC Repeater an den PC

Da das NAS ja zwei LAN-Ports hat könnte ich das NAS bei uns in den Flur stellen und mit einem langen LAN-Kabel an den Router anschließen. Zusätzlich kann ich dort noch meinen WLAN-Repeater anschließen, der im Gegensatz zu meiner Fritzbox nicht nur WLAN N mit bis zu 300 Mbit unterstützt sondern WLAN AC mit bis zu 1300 Mbit. Außerdem wäre der Repeater im Flur näher am Arbeitszimmer.

Zum einen brauch ich dann noch einen vernünftigen WLAN-Empfänger für den PC (USB 3.0 oder PCIe mit externer Antenne, damit ich aus meiner PC-Ecke herauskomme…), zum anderen hoffe ich, dass der PC dann mit den zwei Netzwerkverbindungen klar kommt. Sollte ja aber kein Problem sein, oder?

Würde dann in etwa so aussehen:

  1. WLAN AC über Repeater statt WLAN N im Router

Das bringt mich auf die Idee überhaupt mal zu versuchen ob ich den WLAN-Empfang im Arbeitszimmer mit dem Repeater verbessern kann. Hieße den Repeater endlich mal als Repeater zu nutzen. Als Einsatzort bietet sich aber entweder das Wohnzimmer an (was standortmäßig keinen Vorteil bringt, allerdings per WLAN AC ggf. trotzdem einen Geschwindigkeitsvorteil) oder eben wie in Alternative 1 der Flur.

Das bringt dann noch weitere Möglichkeiten mit sich. Zum einen den Repeater in seiner eigentlichen Bestimmung als Repeater zu nutzen:

Hat allerdings den Nachteil, dass der Router weiterhin nur max WLAN N mit 300Mbit unterstützt und so schonmal Durchsatz verloren geht. Außerdem ist mit einem Repeater immer Verlustleistung verbunden. Besser wäre wohl den Repeater per LAN-Kabel am Router anschließen. Hat den Vorteil, dass es keine Verluste durch das WLAN gibt und die volle Gigabit Geschwindigkeit vorhanden sein sollte.

In beiden Lösungsmöglichkeiten sollte dann hoffentlich die Geschwindigkeit sogar besser sein als über die Powerline und somit könnte das sogar obsolet werden. Wenn ich es recht bedenke kann ich das NAS dann sogar am Router lassen, sodass die zukünftige Lösung so aussehen könnte (der WLAN Stick ist schon bestellt…):

Allerdings habe ich dann nicht mehr die Möglichkeit weitere LAN-Ports per Switch im Büro zu nutzen. Derzeit ist da öfter der Raspberry Pi mit dran. Auch der TV aus dem Schlafzimmer ist mittlerweile im Büro gelandet, da wir einerseits eine neue Schlafzimmereinrichtung haben, wo der Fernseher keinen Platz mehr findet (deswegen ist auch der Repeater jetzt nicht mehr im Einsatz) zum anderen haben wir im Büro nun auch ein Sofa. Perspektivisch wird der TV noch über dem Schreibtisch als dritter Monitor vor allem für Videobearbeitung montiert. Die Wandhalterung habe ich schon, allerdings will ich mir noch einen Aufsatz für den Schreibtisch beschaffen oder selbst bauen. Deswegen weiß ich die Höhe derzeit noch nicht.

021217_1625_TinkeringTu2.png

Tinkering Tuesday – Speicherplatzerweiterung Teil 1 – Auswahl

Da der letzte Tinkering Tuesday ausgefallen ist, heute mal eine verspätete Episode am Sonntag. Lange habe ich mich um das Thema gedrückt, aber da die Datenflut nicht abnimmt, muss mehr Speicher her.
In einem vorherigen Beitrag habe ich schonmal angerissen, dass ich mich damit beschäftigen muss. Die verschiedenen Möglichkeiten, die ich für mich bewerten möchte sind:

  • interne Festplatten
  • externe USB Festplatten
  • NAS (Netzwerkfestplatte)

Aber erstmal von vorn. Was sind denn eigentlich meine Anforderungen und was hab ich bisher?

Intern in meinem Rechner verbaut habe ich eine 128GB große SSD (C:\) für das Betriebssystem (Windows 10) und eine 3TB große HDD. Die ist aufgeteilt in mehrere Bereiche:

  • E:\ 1TB Video (für die Videobearbeitung, seit neuestem auch Musikproduktion, dazu folgt auch nochmal ein Beitrag)
  • F:\ 1TB Media (Fotos, Musik, Filme)
  • G:\ 1TB Sonstiges (Tools, Dokumente, etc.)


Meine hauptsächlich genutzte USB-Festplatte ist eine USB 2.0 1500GB Platte (L:\).

Da das auch alles mittlerweile relativ voll ist, musste ich bei der Video-Platte schon aufräumen (einiges redundante gelöscht, ein paar alte Sachen auf die externe Backup-Platte gebracht und lokal gelöscht). Auch in der Sonstiges-Partition habe ich schon ca. 300GB aufgeräumt, hier sehe ich auch noch einiges an Potential, da dort einige unsortierte Backups rumliegen, z.T. mit virtuellen Maschinen aus meiner Studienzeit, die kein Mensch mehr braucht. Auf der Backup-Platte werden nur bestimmte Ordner (u.a. Dokumente, Fotos und die gesamte Video-Partition). Die ist aber mittlerweile auch schon gut ausgelastet.

Es soll also eine neue Lösung her. Folgende Ziele:

  • Intern müssen eigentlich nur noch Sachen liegen, die ich gerade nutze oder die schnell im Zugriff sein sollen. Der Rest kann auch auf langsamerem Speicher ausgelagert werden.
  • Meine wichtigsten Daten sollen auf jeden Fall redundant vorhanden sein. Dazu zählen auch die Rohdaten der Video- und Fotobearbeitung. Auf die USB-Festplatte soll weiterhin ein selektives Backup laufen, darauf müssen aber nicht zwingend alle Video- und Fotorohdaten, aber die Outputs sollten schon drauf.
  • Das Backup soll automatisch laufen, ich möchte ungern Dinge einzeln verschieben müssen.

Die Geschwindigkeit spielt auch eine gewisse Rolle. Es soll der Zugriff vom PC aus relativ zügig von statten gehen. Ich hatte z.B. eine externe 2,5 Zoll USB Festplatte an meiner Fritzbox hängen, die Zugriffe waren aber sowas von langsam, egal ob vom PC über das DLAN oder vom Internet aus.
Nicht unbedingt erforderlich ist eigentlich eine private Cloud, aber schön wäre das schon. Dann aber so, dass es die Dropbox komplett ersetzen kann.

Es kommen für mich folgende Optionen infrage:

  • Interner RAID1-Verbund
  • Große externe USB 3.0 Festplatte plus vorhandener interner Speicher
  • Netzwerkspeicher (NAS)


Alle haben so ihre Vor- und Nachteile, z.B. ist der interne RAID-Verbund der schnellste im Zugriff, eine neue externe Festplatte wäre zusätzlich transportabel. Letztlich bleibt als flexibelste Lösung aber natürlich nur das NAS. Außerdem: das ist doch auch die coolste Lösung, da man damit noch so viel mehr anstellen kann.

Dann stellt sich natürlich die Frage: wie viele Platten? Ich habe mich aus Preis-Leistungs-Gründen für nur 2 Platten im RAID1-Verbund entschieden, also die redundante Variante. Zum Einsatz kommen 2x Western Digital Red 4TB. Das ist irgendwie die Standard-Empfehlung. Zwar habe ich einige Zeit überlegt auf Seagate oder HGST auszuweichen, da Backblaze dazu eine sehr gute Statistik führt, daran spielen die WDs keine Rolle, da sie die nicht zu vernünftigen Preisen in großen Mengen einkaufen können. Allerdings hat eigentlich jeder Privatnutzer, den ich so kenne die WD Red im Einsatz.

Nächste Frage: Welches NAS? Relativ schnell kommt man eigentlich nur zur Auswahl zwischen Synology und QNAP. Durch eine Empfehlung bin ich auch schnell auf die Synology DS216j gekommen, die den Einstieg in die NAS-Lösungen von Synology darstellt. Viel mehr brauch ich eigentlich nicht. Ich will das Ding nicht per HDMI direkt an den TV hängen und habe auch keine Verwendung für internes Transcoding, da ich eigentlich keine Filme oder sonstiges auf dem NAS habe, die on-the-fly umgewandelt werden müssten. Ich streame eigentlich nur noch, Prime und Netflix sei Dank.

Der Gegenspieler von QNAP heißt in allen Tests TS-231 (z.B. in diesem Vergleich von NAS compares). Eigentlich war meine Entscheidung für das etwas günstigere Synology-NAS schon gefallen, da bin ich auf den Nachfolger des QNAP TS-231 gestoßen: Das QNAP TS-231P. Das hat einen neuen, performanteren und stromsparenderen Prozessor genehmigt bekommen und hat mich letztlich auch dadurch überzeugt, dass er 2 LAN-Ports hat. Das werde ich zwar erstmal nicht nutzen, da meine Heimnetzwerkarchitektur das im Moment nicht hergibt (dLAN ins Büro), aber wer weiß was die Zukunft so bringt.

Was die Apps angeht, nehmen die beiden Anbieter sich wohl auch nicht viel. Beide haben Apps, die man als Dropbox-Ersatz nutzen kann. Auch können auf beide automatisch die Handy-Bilder synchronisiert werden, was ich sehr gerne mit der Dropbox mache.

Eine weitere wichtige Entscheidung ist: wo stelle ich das Ding auf? Wie schon erwähnt ist im Moment mein Problem, dass mein Internetanschluss und somit mein Router im Wohnzimmer steht, mein Büro aber in der vollständig anderen Ecke der Wohnung. Die dLAN-Verbindung ist nicht die Beste, von meinen 100Mbit (die auch wirklich am Router ankommen), bekomme ich gerade einmal rund 15 Mbit, je nach Tagesform auch mal 30 Mbit real (per Speedtest bestimmt). Außerdem ist die Verbindung nicht die stabilste, ab und an verlieren die Adapter die Verbindung. Ich habe schon getestet, wie ich das optimieren könnte, z.B. durch die Nutzung anderer Steckdosen, dazu müsste ich aber mindestens einmal ein Kabel quer durch unseren Flur legen und das kommt nicht in Frage.

Also wird mein Ziel-Setup wie folgt aussehen:


Beim nächsten Mal geht es dann weiter mit meinem geplanten Speicherkonzept und der Einrichtung.

013117_1838_TinkeringTu10.jpg

Tinkering Tuesday – Raspberry Pi Mobile Photo Backup Box – Part 2

So. Weiter geht es. Das USB-Y-Kabel ist da, angeschlossen und: Power LED leuchtet aber kein Ton von der HDD. Nochmal ohne Y-Kabel versucht, siehe da. Sie funktioniert! Ich hab keine Ahnung warum, aber ich lebe erstmal damit.

Schlussendlich werde ich wohl sowieso mit dem RPi2 gehen, weil der weniger Strom verbrauchen soll und ich mit dem Y-Kabel sowieso nicht weit kommen würde, da ich am RPi1 nur 2 USB-Slots habe und ja auch noch der SD-Kartenleser ran muss. Sowas fällt einem dann aber erst nach der Impuls-Bestellung ein. Aber die 2,50 Euro werde ich verschmerzen können.

Ich mache jetzt trotzdem erstmal mit dem 1er weiter, dann kann ich zum einen evtl. noch einen Geschwindigkeitsvergleich machen (wenn der Strom doch ausreicht um die HDD auch zu beschreiben), zum anderen hab ich das jetzt hier schon verkabelt.

Wenn man sich das Backup-Skript einmal genauer ansieht, stellt man fest, dass es zwei Mountpoints anlegt. Einen für das Backup-Device, einen für die SD-Karte.

# Specify devices and their mount points
STORAGE_DEV=“sda1″
STORAGE_MOUNT_POINT=“/media/storage“
CARD_DEV=“sdb1″
CARD_MOUNT_POINT=“/media/card“

Also schauen wir mal, ob das funktioniert.

Dafür wird erstmal eine Test-Datei auf die USB-HDD geschrieben und diese angeschlossen. Dann schau ich per putty, ob ich die Datei an der entsprechenden Stelle finde:

Interessanterweise zeigt mir der Pi eine alte Partition auf der HDD an (ja, war mal die Boot-Partition eines Laptops und dann als FritzNAS aufgesetzt). Soviel zur Formatierung in Windows.

Der Befehl lsblk sagt auch, dass es noch zwei Partitionen gibt, leider ist die falsche am Mount Point eingebunden:

Es wird also immer die erste Partition eingebunden. Gut zu wissen. Ich könnte natürlich einfach das Skript ändern, damit sda2 gemounted wird, aber ich will die HDD ja auch mal sauber haben.

Also erstmal gparted installiert.

sudo apt-get install gparted

Dann werden erstmal die existierenden Partitionen sauber weggelöscht:

sudo parted
print
rm 1
rm 2
Die neue exFAT Partition habe ich dann in Windows erstellt, weil ich dann doch keine Lust mehr hatte zu schauen, wie das in parted geht 😉


Besser!

Nach dem Anschluss des SD-Kartenlesers (da war das Y-Kabel doch noch zu was nutze, der Kartenleser ist so unförmig, dass er nicht an den zweiten USB-Port passt; das Y-Kabel ist aber auch als einfache USB-Verlängerung zu benutzen, da ich aus Versehen die Variante mit USB-Anschluss bestellt hatte und nicht mit einem Mikro-USB-Stecker; hab ich auch erst beim Auspacken bemerkt) konnte ich noch kurz lsblk nochmal aufrufen und sehen, dass er die Karte erkannt hat, dann fuhr der Pi runter.


Erst dachte ich, dass das der hohen Stromaufnahme geschuldet sein könnte, aber dann hab ich mich erinnert, dass ja das Skript nach erfolgreichem Kopieren der Dateien genau das tun soll. Den Pi herunterfahren. Also HDD an den PC angeschlossen und voila:


Die Ordnerstruktur ist schonmal angelegt, die Metadateien waren auch da (39911448 ist übrigens die ID der SD-Karte, sodass man verschiedene Karten sichern kann, ohne dass sich das System in die Quere kommt. Jede Karte bekommt seinen eigenen Unterordner). Nun das Ganze nochmal mit Photos und einem Video testen.

Alles wieder hochgefahren und angeschlossen. Da ging aber dann doch die Stromaufnahme der Platte wohl zu hoch. Vor dem Anschluss des Kartenlesers war noch alles in Ordnung, dann aber wieder das typische „ich hab zu wenig Strom“-Geräusch der Platte.

Dann muss nun doch der Pi2 herhalten.

Also wieder Raspbian Lite installiert, Little Backup Box installiert, neu gestartet.
USB-HDD angeschlossen, SD-Kartenleser angeschlossen. Lsblk sieht schonmal gut aus:

Und nach kurzem Arbeiten der Festplatte fährt der Pi herunter und der schaltet im Gegensatz zum RPi1 sogar die HDD stromlos.

Ein kurzer Blick auf die Festplatte zeigt: alle Dateien kopiert! Sowohl JPG, ORF (Olympus Raw) als auch MOV-Datei sind da. Also nichts mit USB-Festplatten würden nicht funktionieren. Läuft einwandfrei. Und ich musste nichtmal die Stromzufuhr auf den Anschlüssen des RPi2 erhöhen.

Test 1: Performance

Ich kann leider keinen Vergleich zum RPi1 machen, aber ich möchte trotzdem wissen, wie schnell der RPi2 die Daten kopiert. Also habe ich mal ein ganzes Urlaubs-Shooting auf die SD-Karte gepackt.

Das Kopieren der JPGs hat schonmal 23 Minuten auf dem Windows-PC gebraucht, die RAWs nochmal 45 Minuten (ich habe bewusst den gleichen SD-Kartenleser genutzt, der USB 3.0 Leser braucht nicht so lange).

Dann per SSH wieder auf den Pi verbunden und mittels date die aktuelle Zeit ausgeben lassen. Gleichzeitig den SD-Kartenleser angeschlossen und gewartet bis der Pi herunterfährt. Die Shutdown-Nachricht wird mit Zeitstempel ausgegeben, so hatte ich dann folgende Werte:

Start um 17:27


Shutdown um 20:12


Macht also eine Laufzeit von gut 2:45. Nicht besonders schnell, aber naja 😉

Test 2: Betrieb mit Powerbank/Akkupack

Das ist dann der ultimative Mobilitätstest: kann ich das Setup auch unterwegs mit dem Akkupack betreiben?

Als Testgerät hat mein Anker PowerCore 20100mAh hergehalten (http://amzn.to/2kelkU7). Der stellt max. 2.4A pro Port zur Verfügung, sollte also reichen. Der RPi fährt hoch, ist per SSH erreichbar, allerdings gibt die USB-HDD mal wieder keinen Mucks von sich. Auch ein Erhöhen des Stroms per max_usb_current=1 in der /boot/config.txt hilft nichts. Aber wozu hab ich denn das USB-Y-Kabel gekauft. Ich hab zwar nicht damit gerechnet, aber lustigerweise funktioniert es in diesem Setup:

Das fertige mobile Setup
Das fertige mobile Setup

Den zweiten Anschluss habe ich direkt an den zweiten Port des Ankers angeschlossen, hat allerdings zur Folge, dass die Festplatte nach dem Herunterfahren weiter Strom hat und entsprechend auch verbraucht. Mit beiden Steckern am Pi funktioniert es aber wieder nicht. Könnte im Prinzip sogar sein, dass dieses Setup auch am Pi1 funktionieren würde, ich hab aber keine Lust mehr das zu testen 😉

Hier nochmal der Performance-Test, diesmal aufgrund der Zeit eine kleine Datenmenge. 138 JPGs mit insgesamt 1 GB in knapp 5 Minuten:

Test 3: Vertauschen der Medien

Damit ich im Urlaub nicht böse Überraschungen erlebe noch ein weiterer Test. Was passiert, wenn man erst den Kartenleser anschließt und dann die HDD? Im schlechtesten Fall müsste er ja andersherum synchronisieren. Und genau das tut er auch, wie man schon im System erkennen kann:

Man hat also hinterher die Daten der Festplatte auf der SD-Karte. Daher noch der folgende Test:

Test 4: Volles Medium

Was passiert, wenn das Backup nicht mehr auf das Medium passt?

Getestet habe ich mit einer 128 MegaByte großen SD-Karte (das waren noch Zeiten, nun habe ich eine 128 GigaByte große Karte, die auch noch winzig ist, also MicroSD) und Dateien auf der Festplatte, die nicht auf der SD-Karte sind. Dann vertauscht angeschlossen, sodass von der Festplatte auf die winzige SD-Karte synchronisiert wird.

Das Ergebnis ist eigentlich recht plausibel. Er synchronisiert so viel er kann (bis also die Karte voll ist) und fährt dann den Pi herunter. Was soll er auch sonst tun? Warnen kann er ja so erstmal nicht (kein Display, kein Speaker, maximal eine hektisch blinkende LED, die man eh nicht wahrnehmen würde).

Zwei Szenarien sind dabei aber zu beachten:

  1. Mit der SD-Karte fotografiert und Medien vertauscht (siehe Test 3). Das Programm schreibt alle Daten von der Festplatte nochmal auf die SD-Karte. Die Karte ist im schlimmsten Fall voll und man hat seine Daten noch nicht auf der Platte gesichert. Sichert man danach nochmal andersherum, werden die eben fälschlicherweise kopierten Daten nochmal wieder auf die Festplatte zurückgeschrieben, da die Ordnerstruktur unterschiedlich ist und er die Daten als neu erkennt. Man müllt sich also die Festplatte voll, sodass man im schlimmsten Fall eine doppelte Sicherung hat aber, wenn die Platte voll ist, seine neuen Fotos nicht. Also bestenfalls die Medien nicht vertauschen!
  2. Backup-Festplatte voll: Hier sollte man ein Gefühl dafür haben, wie viel man bereits auf der Platte gesichert hat. Wenn man sich nicht sicher ist, sollte man die SD-Karte besser nicht formatieren, da schlimmstenfalls nicht alle Fotos auf der Platte gelandet sind. Das merkt man aber eben nicht, da der Pi sich gleich verhält, egal ob das Backup vollständig ist oder nicht. Ich werde also bestenfalls die HDD nur als zusätzliche Sicherung nutzen und nicht als Draufkopieren und SD-Karte formatieren. Das ist mir dann doch zu unsicher.

MiniDLNA

Was noch auffällt ist, dass das Installationsskript noch den MiniDLNA-Server auf dem Pi installiert und den Medienordner auf den Mountpoint der USB-Quelle setzt. Auch eine gute Idee. In Windows taucht der RPi auch gleich im Explorer auf:

Allerdings habe ich auch mit manuellem Update keine Dateien zur Anzeige bringen können. Wer es braucht muss sich da wohl selbst intensiver mit beschäftigen 😉

Case

Um das Ganze noch etwas cooler zu machen habe ich einen guten Freund mit einem 3D Drucker gebeten (schaut mal bei ihm vorbei: www.doktor-andy.de) mir ein Case zu drucken:

http://www.thingiverse.com/thing:1103101

Case im 3D Druck
Case im 3D Druck

Leider ist das noch nicht fertig, ein Bild vom fertigen Setup wird aber nachgereicht, genaso wie dann Erfahrungen aus dem Praxiseinsatz.

Pi Backup Box

Tinkering Tuesday – Raspberry Pi Mobile Photo Backup Box – Part 1

Im Sommer geht es nach Island, da will ich natürlich auch ordentlich photographieren. Normalerweise gehe ich immer davon aus, dass eine SD-Karte reicht und damit schon nichts passiert. Aber da ich gleichzeitig auch Videos machen will und diesmal auf Nummer sicher gehen will, habe ich mich mal mit dem Thema Photo Backup unterwegs beschäftigt.

Eine Lösung auf die man natürlich trifft, sind spezielle externe Festplatten mit eingebautem Kartenleser. Viel zu teuer für meine Zwecke.

Nächste Lösung wäre einen Kartenleser für das Smartphone oder Tablet zu besorgen (Stichwort OTG). Auch nicht viel besser, da mein Speicher notorisch überfüllt ist…
Auch irgendeine Kopierlösung auf eine andere SD-Karte fällt weg, da damit das Speicherplatzproblem auch nicht wirklich gelöst wird und es nur unübersichtlicher wird.

Also mal Google angeworfen und folgende Seite gefunden:
https://chiselapp.com/user/dmpop/repository/little-backup-box/home

Die LITTLE BACKUP BOX (LBB) ist ein einfaches Skript für den Raspberry Pi. Das simple Prinzip:
Raspberry Pi booten, Backup Device anschließen, Kartenleser mit SD-Karte anschließen und warten bis der Pi herunterfährt.

Das klingt nach nem Plan. Eine externe 2,5″ HDD habe ich auch noch (ist eine alte Laptop-Festplatte in einem 5€ USB Case). Und einen kleinen Kartenleser habe ich noch von der Eye-Fi Karte (von meinem Photobooth, dann war es vielleicht doch kein völliger Fehlkauf).

Also erstmal den alten RPi (das erste Model B, sollte für die Zwecke reichen und frisst weniger Strom) rausgekramt und ein frisches Raspbian Lite draufgezogen. Dann den Installationsbefehl per SSH ausgeführt:
cd ~ && wget https://chiselapp.com/user/dmpop/repository/little-backup-box/tarball/little-backup-box.tar.gz && tar xzvf little-backup-box.tar.gz && cd little-backup-box && chmod +x install-little-backup-box.sh && ./install-little-backup-box.sh

Zwischendurch hat er mal ein Changelog von moz://a (das schreibt man jetzt so…) angezeigt. Das muss man dann mit q beenden, damit er fortfährt. Ist wahrscheinlich nicht immer so, aber weil die Installationsroutine erstmal ein Systemupdate macht, war da wohl noch einiges offen nach der frischen Installation. Entsprechend dauerte das Prozedere auch eine Weile.

In der Zwischenzeit habe ich mal die Festplatte neu formatiert. Eine Partition 150GB, exFAT. Im Ticketsystem von der LBB liest man leider, dass das Skript Probleme mit externen Festplatten hat und nichts drauf kopiert. Das wird sich schon irgendwie lösen lassen. Mal sehen was passiert.

Den ersten Dämpfer bekam ich allerdings schon beim ersten Anschluss der HDD. Der Pi liefert nicht genug Strom…. Hmpf.

Für alle Pi ab Model B+ gibt es wohl einen Parameter mit dem man das Steuern kann:
https://raspberry.tips/faq/raspberry-pi-usb-festplatte-ohne-eigene-stromversorgung/

Für meinen Pi der ersten Generation allerdings nicht. Meinen Pi 2 will ich nicht dafür benutzen, daher gehen wir jetzt den harten Weg 😉

Außerdem will ich schlussendlich keinen Powered USB Hub oder so mitschleppen, deswegen wird erstmal ein USB-Y-Kabel bestellt:

Goobay USB 3.0 Y-USB-Kabel externe HDD/SSD

Wenn das da ist gibt es den nächsten Teil.

Facebook-Betriag auf der Seite von Cavallo

Mo & Me – Ein Pferdefilm

Bisher nur nackt in einen Blogpost eingebettet bin ich nicht so sehr auf Mo & Me eingegangen.

Aber dazu gibt es noch mehr zu sagen und das will ich hier mal tun.

Ursprünglich als kleine Überraschung für meine Frau und Vorbereitung für ein kleines Urlaubsvideo, das ich geplant hatte ist der Gedanke zu dem Video entstanden. Antje sollte für ein paar Tage mit ihren Mädels in den Reiturlaub nach Island fliegen und ich habe mich bereit erklärt ihr Pferd Mona an ein paar Tagen zu bewegen. Ich bekam also eine kleine Einführung ins Longieren. Schritt – Trab – Galopp und Umdrehen. Läuft. Nach drei Testläufen unter Aufsicht war sie dann weg und ich und Mo alleine.

Vorher hab ich mir schon einige Gedanken gemacht und ein kleines Screenwriting in meinem Notizbuch gemacht.

Insgesamt hatte ich drei Tage Mo-Dienst. Also auch drei Drehtage. Am ersten Tag war es noch nicht ganz so warm, aber trocken und staubig, deswegen: lange Jeans und Stiefel. Schlechte Idee, wie sich am nächsten Drehtag herausstellte, an dem die Temperatur dann auf über 30 Grad gestiegen war. Aber andere Klamotten anziehen ist uncool, also müssen wir da durch. Mit der Temperatur stieg nicht gerade Monas Motivation, aber wir haben das schon ganz gut hinbekommen.

Ich hatte recht klare Vorstellungen von der An- und Abreise und den Aufnahmen der Vorbereitung. Das Longieren habe ich einfach mal so auf mich zukommen lassen und die Kameraposition einfach des Öfteren verändert.

Gefilmt habe ich insgesamt mit 4 Kameras:

Mein eigentliches Urlaubsvideo von der Ostsee habe ich bis heute nicht fertig, Mo & Me hatte ich schon fertig, als Antje zurückkam. Vorgestellt wurde es dann aber erst in größerer Runde, als auch das Video vom Island-Urlaub fertig war. Kam sehr gut an 😉

Natürlich hab ich das dann auch auf Youtube hochgeladen und es wurde im Stall umher geschickt.

Warum aber nur so einen kleinen Kreis damit beglücken? Eine Freundin hatte kurze Zeit vorher ein Pferdebild an die Cavallo (ein Pferdezeitschrift, die Antje schon seit über 10 Jahren abonniert hat) und die haben es auf deren Facebook-Seite geteilt. Warum also nicht auch Mo & Me. Ein paar Tage vorher hatten sie dort auch einen Aufruf für Bilder zum Thema „Männer & Pferde“. Das passt und ich hab einfach mal eine Nachricht geschrieben.

Die Antwort war auch schon sehr positiv und ein paar Tage später ging das Video dann auf der Facebook-Seite von Cavallo online.
Antwort von Cavallo

Innerhalb kürzester Zeit stiegen die Clicks und das Video hat sich zum meist-geclickten Video bei Cavallo entwickelt:

4.000 Views innerhalb von 2 Stunden
7.000 Views innerhalb von 3 Stunden
21.000 Views innerhalb von 4 Stunden
60.000 Views innerhalb eines Tages

Mittlerweile sind es über 68.000 Views:

Facebook-Betriag auf der Seite von Cavallo
Facebook-Betriag auf der Seite von Cavallo
Über 800 Likes
Über 800 Likes

Hier geht es dann auch zum Video:

Mo & Me auf Cavallo bei Facebook

Bei Youtube gibt es das Video natürlich auch, hier sind es aber nur die privaten Aufrufe, immerhin auch schon 200: Mo & Me bei YouTube

Natürlich gibt es zahlreiche Outtakes, die ich bestimmt nochmal zu einem kleinen Making Of verwurschteln werde.