bitfenix aegis case-display mit Debian verwenden

Bei bitfenix gibt es PC Gehäuse mit eingebautem Display
(BitFenix ICON Display) Da diese Displays hinter der Frontblende eingebaut sind, sehen diese Dinger echt cool aus. Mit Linux kann das Display auch angesteuert werden, bedarf aber (wie meistens unter Linux) etwas Zusatzarbeit.

Hier gibt es den SourceCode
und mit folgenden Zeilen funktioniert das Display auf unter Debian 10.

tar xvzf bitfenix-icon-src.tar.gz
cd bitfenix-icon/
sudo apt install build-essential
sudo apt install libhidapi-dev libpng-dev libturbojpeg0-dev libjpeg62-turbo-dev
g++ -w -lhidapi-hidraw -ljpeg -lpng jpegdecode.cpp pngdecode.cpp hidtest.cpp -fpermissive -o bitfenix-icon
sudo ./bitfenix-icon /path/to/image.png

Debian 10

Debian 10 ist stable

N: Für das Depot »http://security.debian.org/debian-security buster/updates InRelease« wurde der »Version«-Wert von »« in »10« geändert.
E: Für das Depot »http://security.debian.org/debian-security buster/updates InRelease« wurde der »Suite«-Wert von »testing« in »stable« geändert.
N: Sie müssen dies explizit bestätigen, bevor Aktualisierungen von diesem Depot angewendet werden können. Lesen Sie die apt-secure(8)-Handbuchseite, wenn Sie weitere Informationen benötigen.
Möchten Sie diese Änderungen übernehmen und mit der Aktualisierung von diesem Depot fortfahren? [j/N]

IPv6 – jetzt auch in meinem LAN

Da mein Provider leider noch immer kein IPv6 bis zu mir nach Hause bringt, habe ich mir nun einen IPv6 in IPv4 Tunnel von Hurricane Electric gezogen.
Der Tunnel ist mit Linux sehr einfach zu konfigurieren.
Dank der ‚Example Configurations‘ konnte ich meinen Router (OpenWRT) auch ohne Probleme konfigurieren.
Jetzt bekommen alle meine Clients im LAN eine IPv6 Adresse aus meinem IPv6 Bereich.

Nächste Aufgabe eine DNS-Zone für PTR Abfragen (reverse DNS) implementieren

SanDisk ioDimm3 als writeback Cache

Ich habe heute alle meine virtuellen (test) Maschinen von meiner ExHana Maschine entfernt und mich mit LVM (Logical Volume Manager) beschäftigt.

Im Thomas-Krenn Wiki habe ich eine gute Anleitung gefunden, wie man SSDs als Cache in einem LVM für ein langsameres Storage verwenden kann.

Mit ein paar kleinen Anpassungen funktionieren nun meine SanDisk ioDimm3 als writeback Cache für meinen Raid-Speicher.

Die SanDisk ioDimm3 wurden in einen Raid 1 -Verbund zusammen geschaltet. Der langsamere Storage wird in meinem Setup nicht als Linux Software-Raid zur Verfügung gestellt, sondern direkt vom Smart-Array-Controller als Raid betrieben.

Alle anderen Einstellungen habe ich wie im Wiki beschrieben umgesetzt.

Jetzt geht’s an’s TESTEN.  (Natürlich auch mit LVM Snapshots)

 

Debian Mass storage controller: SanDisk ioDimm3 (rev 01)

In meiner Hana-Test-Maschine sind 2 Mass storage controller: SanDisk ioDimm3 (rev 01) verbaut.

Hier eine kurze Anleitung, wie ich diese Dinger unter Linux Debian 9 installiert habe.

Bei Sandisk registrieren und Sourcecode herunterladen, entpacken und installieren funktioniert bei mir nicht. Fehler beim Compilieren…

Aber auf  GitHub habe ich jemanden gefunden, der die Sources patcht, so dass diese auch mit  aktuellen Debian Kerneln verwendet werden können.
(getestet mit 4.9.0-5-amd64 #1 SMP Debian 4.9.65-3+deb9u2 (2018-01-04) x86_64 GNU/Linux)

 

git clone https://github.com/snuf/iomemory-vsl.git
(stand 1.2.2018 branch master)

cd iomemory-vsl/root/usr/src/iomemory-vsl-3.2.15

make modules

sudo make modules_install

 

Von der SanDisk – Seite im Bereich Ubuntu 16.04 folgende Pakete downloaden

fio-common_3.2.15.1700-1.0_amd64.deb
fio-preinstall_3.2.15.1700-1.0_amd64.deb
fio-sysvinit_3.2.15.1700-1.0_all.deb
fio-util_3.2.15.1700-1.0_amd64.deb
fusion_3.2.11-20150618.fff

und installieren

sudo dpkg -i fio*

sudo depmod

sudo modprobe iomemory-vsl

ls -l /dev/fio* sollte nun devices anzeigen

genau so wie lsblk

sudo update-rc.d iomemory-vsl defaults

sudo nano /etc/sysconfig/iomemory-vsl
ENABLED=1

…und schon kann man die Dinger wie Festplatten verwenden.

Im UserGuide stehen einige interessante Informationen über Performance drinnen…

So zeigt mein System im Leerlauf folgende Messwerte:

wenger@flo-hana-test:~$ for i in sda sdb fioa fiob fioc fiod ; do sudo hdparm -tT /dev/$i ; done

/dev/sda:
 Timing cached reads: 13788 MB in 1.99 seconds = 6924.94 MB/sec
 Timing buffered disk reads: 3222 MB in 3.00 seconds = 1073.57 MB/sec

/dev/sdb:
 Timing cached reads: 13628 MB in 1.99 seconds = 6844.02 MB/sec
 Timing buffered disk reads: 828 MB in 3.00 seconds = 275.87 MB/sec

/dev/fioa:
 Timing cached reads: 13664 MB in 1.99 seconds = 6862.95 MB/sec
 Timing buffered disk reads: 1472 MB in 3.00 seconds = 490.39 MB/sec

/dev/fiob:
 Timing cached reads: 13588 MB in 1.99 seconds = 6825.05 MB/sec
 Timing buffered disk reads: 1484 MB in 3.00 seconds = 494.26 MB/sec

/dev/fioc:
 Timing cached reads: 13646 MB in 1.99 seconds = 6854.43 MB/sec
 Timing buffered disk reads: 1444 MB in 3.00 seconds = 481.06 MB/sec

/dev/fiod:
 Timing cached reads: 13604 MB in 1.99 seconds = 6832.86 MB/sec
 Timing buffered disk reads: 1482 MB in 3.00 seconds = 493.53 MB/sec

und unter Last (… moment; erzeug mal auf so einer Maschine etwas Last…)

also unter Last (load1 = 55.54) ergeben sich diese Messwerte

wenger@flo-hana-test:~$ for i in sda sdb fioa fiob fioc fiod ; do sudo hdparm -tT /dev/$i ; done

/dev/sda:
 Timing cached reads: 10900 MB in 1.99 seconds = 5470.36 MB/sec
 Timing buffered disk reads: 2882 MB in 3.00 seconds = 960.07 MB/sec

/dev/sdb:
 Timing cached reads: 9990 MB in 1.99 seconds = 5013.43 MB/sec
 Timing buffered disk reads: 844 MB in 3.01 seconds = 280.47 MB/sec

/dev/fioa:
 Timing cached reads: 11134 MB in 1.99 seconds = 5586.12 MB/sec
 Timing buffered disk reads: 2420 MB in 3.00 seconds = 806.38 MB/sec

/dev/fiob:
 Timing cached reads: 10940 MB in 1.99 seconds = 5489.71 MB/sec
 Timing buffered disk reads: 2444 MB in 3.00 seconds = 814.11 MB/sec

/dev/fioc:
 Timing cached reads: 10912 MB in 1.99 seconds = 5478.23 MB/sec
 Timing buffered disk reads: 2436 MB in 3.00 seconds = 811.90 MB/sec

/dev/fiod:
 Timing cached reads: 11116 MB in 1.99 seconds = 5581.95 MB/sec
 Timing buffered disk reads: 2454 MB in 3.00 seconds = 817.45 MB/sec

Erklärung:
sda = Raid50 mit 25 Festplatten
sdb = Raid1 mit 2 Festplatten
fioa-fiob = SanDisk ioDimm

Mir ist schon klar, dass hdparm -tT nicht unbedingt ein gutes Messwerkzeug für diese Tests darstellt, aber es zeigt doch ganz deutlich was DVFS (Dynamic Voltage and Frequency Scaling) also die Energiesparfunktionen für Auswirkungen auf die Geschwindigkeit haben.

Durch die weitere Nutzung der Seite stimmst du der Verwendung von Cookies zu. Weitere Informationen

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest oder auf "Akzeptieren" klickst, erklärst du sich damit einverstanden.

Schließen