Beiträge von s-master

    Am 24.05 ab 23:00 Uhr führt unser ISP @init7 eine längere Wartung durch.

    Unsere Leitung wird auf 10Gbit aufgerüstet.

    Die Arbeiten sollten bis um 06:00 Uhr abgeschlossen sein.


    Während dieser Zeit sind unser Forum, Gallery, Teamspeak und weitere Dienste nicht erreichbar.


    Ich danke für das Verständnis!

    Meine Antwort dazu:


    Ich habe zu diesem Thema eine Frage gestellt bekommen.



    Die NASA und Nintendo haben euch nicht verraten, dass sie die Yoshi's vor dem Rover Perseverance zum Mars geschickt haben.


    Was haben die Yoshi's auf dem Mars entdeckt und was haben sie den Mars Bewohnern mitgenommen?


    Erlebe Yoshi's neuestes Abenteuer die Reise zum Mars.


    Ein Animationsfilm und Fanfiktion von Bernard Müller.

    I had the problem that I wanted to connect 2 iSCSI Target to a VMware vSphere Host from 2 different RAID-Arrays. And it didn't work as expected.
    If found a pretty neat solution on a Amazon Review for the device.


    Here is the solution:


    Zitat

    Lastly - I did mention a little caveat for VMware iSCSI users. I did spend many hours frustrated and confused as to what the heck was going on. Essentially my goal was to provide my vSphere environment with iSCSI targets from both N7700 devices. Seemed easy enough - create 2TB targets (VMware limit...damnit) on each device, then add the datastores to the environment. For simplicity's sake, I will call them Target 1A and Target 2A (device 1 and device 2). So you'd expect to be able to go to the VI client - scan for new storage (after iSCSI configuration) and be presented with two targets - one from each device. Well that's not what happened. What happened is I was presented with one target that contained two paths (as if multipathing was enabled). After much research and head banging, I found out that the problem lies in the way the N7700s create the target path. Even though you use unique names/LUNs/iqn info/etc, the N7700 is hard coded to use the same name during the iSCSI target full name generation. So when you create Target 1 on device 1 and then create Target 1 on device 2, if you break down the name that's created, you'll see one portion is identical - which is what VMware apparently uses to identify storage. And unfortunately, there is no way to edit this name that's been generated. VERY LAME!


    Thankfully there is a decent working, permanent solution. First - create all the iSCSI targets you want on the first device. For example, if you want 4 targets on device 1 and 4 targets on device 2 - you create the first four targets on device one. Then you create four 'bogus' targets on device 2. After the bogus targets are created, create your 'actual' targets, the ones you intend to keep. Once that's done - delete the 'bogus' targets. What that does is - eliminates the indentical name mapping off the second device, since by then, you will be on Targets 5-8 rather than 1-4. Sounds lame - but it definitely works and it stays working even through N7700 reboots and VMware host reboots. Other than that initial trick configuration - it will act as expected and all will be as expected.

    Szenario
    Hat man eine Debian Virtuelle Maschine kann es vorkommen, dass der Speicher einer virtuellen Festplatte zur Neige geht.
    Um den Speicher einer Virtuellen Festplatte zu erhöhen kann unter VMware vSphere die Diskgrösse der Disk einfach vergrössert werden.
    Wie das hier im Detail geht gehe ich nicht darauf ein.


    Lösungsbeschreibung
    Unter Debian muss die entsprechende Partition von Hand vergrössert werden nachdem unter VMware vSphere die Festplattengrösse erhöht wurde.


    Als erstes identifiziert man die entsprechende Partition/Festplatte


    Mit

    Code
    lsblk -o NAME,FSTYPE,SIZE,MOUNTPOINT,LABEL


    kann eine Übersicht angezeigt werden über alle Disks und Partitionen.
    Man wird feststellen, dass die Grösse der Disk sich noch nicht verändert hat.
    Dazu muss der SCSI-Bus zuerst neu gescannt werden damit die neue Grösse angezeigt wird.
    Damit dies gemacht werden kann muss die entsprechende Disk bzw. gemountete Partition unmountet werden.


    In meinem Fall ist es

    Code
    umount /dev/sdb1


    Mit

    Code
    ls /sys/class/scsi_device/


    werden alle SCSI-Geräte angezeigt.


    Mit

    Code
    echo 1 > /sys/class/scsi_device/0\:0\:0\:0/device/rescan

    und der entsprechenden ID kann das Device rescaned werden.


    Alternativ kann die VM auch einfach rebooted werden.


    Da ich es zuerst direkt mit fdisk nicht geschafft habe die neue Partition zu vergrössern habe ich parted zur Hilfe genommen.
    Möglicherweise muss dieses zuerst mit apt install parted installiert werden.


    Anschliessend kann es mit parted gestartet werden.
    Mit dem Befehl parted /dev/sdb können dann Informationen zur Partition angezeigt werden. Er meldet dann, dass die Grösse nicht überein stimmt und ob man das beheben möchte. Wählt man dann "Fix" aus wird die Grösse korrigiert. Dann kann parted wieder beendet werden.


    Danach kann fdisk /dev/sdb wieder ausgeführt werden.
    Mit "p" zeigt man die aktuelle Partition an.
    "d" eingeben um die Partition zu löschen (Die Daten gehen hier nicht verloren!)
    Mit "n" kann eine neue Partition erstellt werden. Dann ist es möglich die grössere Sector-Size einzugeben.
    Am Schluss speichert man die Einstellungen mit "w" ab. Es wird dann gemeldet, dass die alte Grösse immer noch im Kernel drin ist und erst nach einem reboot aktualisiert wird.
    An dieser Stelle bin ich mir nicht sicher ob tatsächlich ein reboot nötig ist. Ich habe es auf jeden Fall gemacht.
    Nachdem reboot muss abschliesend resize2fs /dev/sdb1 ausgeführt werden. Das aktualisiert die Partition auf die neue Grösse.


    Code
    resize2fs /dev/sdb1
    resize2fs 1.43.4 (31-Jan-2017)
    Dateisystem bei /dev/sdb1 ist auf /home eingehängt; Online-Größenänderung ist
    erforderlich
    old_desc_blocks = 13, new_desc_blocks = 19
    Das Dateisystem auf /dev/sdb1 is nun 39321339 (4k) Blöcke lang.


    Mario und Yoshi backen feini Guetzli in der Weihnachtsbäckerei.
    Feiere Weihnachten mit Mario und Yoshi!


    Ein Animationsfilm von Bernard Müller.



    Das Rezept für feine Mandel Guetzli



    450g Mehl
    60g gemahle Mandeln
    300g Butter
    250g Zucker
    2 Eier
    Zitronenrapée, prise Salz



    Wie wirds gemacht:



    Eier, Butter, Zucker, Zitronenrapée und den Salz mischen.
    Mehl und gemahlene Mandeln beigeben.
    Alles gut durchkneten. Und fertig ist der Teig.



    Teig ausrollen und mit dem Messer Formen ausschneiden oder einen Ausstecher benutzen.
    Bei 180°C backen. ?? Minuten lang backen und anschliessend Guetzli auskühlen lassen.



    Für die Zuckerglasur Eiweiss und Puderzucker aufschlagen.
    Yoshi oder eine beliegbige andere Figur aus dünn ausgerolltem Marzipan ausschneiden.
    Yoshi oder eine beliegbige andere Figur mit schwarzer Zuckerglasur nachzeichnen.
    Mit Farbiger Zuckerglasur die Figuren ausmalen.
    Figuren auf die Guetzli mit Zuckerglasur ankleben.

    Nein unsere Webseite wurde nicht gehackt, wenn ihr jetzt hier auf dem Forum und der MobileGallery nun plötzlich Werbung seht.
    Wir haben Testweise Google AdSense aufgeschaltet und prüfen ob dies eine alternativ Einnahme-Quelle sein kann um unsere Infrastruktur zu finanzieren.
    Wir bitten euch auch mal Testweise euren AdBlocker hier zu deaktivieren und auf die Werbungen zu klicken.

    Szenario
    Man hat eine vCenterServer Appliance 6.7.0.44100 und möchte auf den neusten Build updaten.
    Beim Updaten über das Mangement Webinterface erhält man folgende Fehlermeldung:


    Code
    Error in method invocation Timeout happens while sending message to microservice


    Das Update ist nicht möglich und man kommt im Update-Wizard nicht weiter.


    Lösung


    Connect to VCSA using SSH putty session.
    Navigate to the directory /var/run/vmware/applmgmt/ and verify availability of file update_microservice.pid:

    Code
    ls /var/run/vmware/applmgmt/update_microservice.pid


    Proceed to delete the update_microservice.pid file.

    Code
    rm /var/run/vmware/applmgmt/update_microservice.pid


    Retry the patching of vCenter Server Appliance.



    Quelle:
    https://kb.vmware.com/s/article/70963

    Treiber kann unter https://my.vmware.com/web/vmwa…LCNIC-61191&productId=491 heruntergeladen werden.
    Allerdings ist ein Login bei vmware.com nötig.
    Ich habe hier einen Mirror zum Treiber: qlcnic-esx55-6.1.191-2845912.zip
    Entpackt man die qlcnic-esx55-6.1.191-2845912.zip ist die die VIB-Datei oder eine *offline-bundle.zip enthalten.


    Entweder lädt man die VIB-Datei oder das offline-bundle auf den ESXi/vSphere Host per WinSCP hoch. Möglicherweise ist der SSH Dienst nicht aktiv um per WinSCP zu connecten.


    Anschliessend connected man per Putty auf die SSH-Shell des ESXi/vSphere Hosts. Um den Treiber zu installieren gibt man folgenden Befehl ein:


    Code
    esxcli software vib install -d /vmfs/volumes/datastore_name/offline-bundle.zip



    Auf reddit wird berichtet, dass die Netzwerkkarte NC523SFP Probleme bereitet mit der Verbindung:


    https://www.reddit.com/r/vmwar…10gbe_network_drops_esxi/


    Dazu kann nachdem der Treiber installiert wurde (und einen Neustart des Hosts gemacht wurde) folgenden Befehl eingegeben werden:


    Code
    esxcli system module parameters set -m qlcnic --parameter-string "use_msi_x=0"


    Vermutlich handelt es sich dabei um dasselbe Verhalten wie bei der PFsense wo ebenfalls msix auf 0 gesetzt werden muss.
    Siehe [PFsense 2.4.5] HPE CN1000E / OneConnect (oce) 10102

    Damit PFsense mit der HPE CN1000E bzw. OneConnect 10102 10GBe SFP+ Netzwerkkarte booten kann muss folgendes in der /boot/loader.conf.local eingetragen werden:


    Code
    hw.pci.enable_msix=0
    hw.pci.enable_msi=0


    Entweder kann das File in einer Shell editiert werden oder über das Web-Interface.
    Über das Web-Interface geht man auf Diagnostics > Edit File. Dort navigiert man zur Config-Datei und passt diese an.


    Was sich auch empfiehlt ist der nmbclusters-Wert auf 1000000 zu setzen.
    Dies kann mit folgenden Befehl in der /boot/loader.conf.local Datei gemacht werden:


    Code
    kern.ipc.nmbclusters="1000000"


    Es kann sein, dass PFsense den Wert bereits auf 1000000 gesetzt hat.


    Weitere Informationen zu diesem Thema ist unter https://docs.netgate.com/pfsen…html#card-specific-issues zu finden.

    Damit PFsense mit der HPE NC523SFP bzw. QLogic cLOM8214 (QL8240) 10GBe SFP+ Netzwerkkarte booten kann muss folgendes in den System Tunables eingetragen werden.


    Die System Tunables erreicht man auf dem PFsense Web-Interfaces unter System-->Advanced-->System Tunables.


    Dort erstellt man einen neuen Wert mit folgenden Angaben:


    Code
    Tunable: if_qlxgb_load
    Value: YES


    Die Unterstützung für QLogic Netzwerkkarten gibt es erst seit Version 2.4.5-p1
    Weitere Informationen dazu unter https://www.netgate.com/blog/p…ase-p1-now-available.html



    Was sich auch empfiehlt ist der nmbclusters-Wert auf 1000000 zu setzen.
    Dies kann mit folgenden Befehl in der /boot/loader.conf.local Datei gemacht werden:


    Code
    kern.ipc.nmbclusters="1000000"


    Es kann sein, dass PFsense den Wert bereits auf 1000000 gesetzt hat.



    Alle Informationen hier wurden aus folgendem Thread entnommen: https://forums.lawrencesystems…twork-this-might-help/738

    Erhält man beim mounten eines Laufwerks folgende Meldung:


    Code
    mount: /dev/sdb1: can't read superblock


    So kann mit


    Code
    file -s /dev/sdb1


    der Status des Filesystems überprüft werden. Unter Debian kann es sein, dass "file" nicht installiert ist. Mit apt install file kann dieses Tool installiert werden.


    Folgende Ausgabe erhält man z.B.


    Code
    /dev/sdb1: Linux rev 1.0 ext4 filesystem data, UUID=ddcec9b6-4310-4e41-adaa-20eafbf6e0d2 (needs journal recovery) (extents) (64bit) (large files) (huge files)


    Ein Hinweis hier was zu machen ist: (needs journal recovery)


    Das bedeutet, dass das Laufwerk möglicherweise zuletzt nicht korrekt unmounted wurde.


    Die Lösung ist es mit


    Code
    e2fsck /dev/sdb1


    zu prüfen und die Fehler zu beheben lassen.



    Anschliessend kann das Laufwerk wieder normal gemounted werden:


    Code
    mount /dev/sdb1 /mnt

    Dies ist ein kleines Tutorial wie man den OGP-Agent auf einem Debian 10 Betriebssystem installiert.


    Vorbereitung
    Damit der Agent richtig arbeiten kann benötigt dieser "sudo"
    sudo kann als root user mit "apt install sudo" installiert werden.
    Um sich als root user einzuloggen (falls der root-login per SSH gesperrt ist) gibt man "su -" ein.
    Anschliessend muss der Benutzer unter dem der Agent laufen soll in die sudo-Gruppe hinzugefügt werden mittels


    Code
    usermod -aG sudo "gameserver"


    In meinem Beispiel heisst hier mein Benutzer gameserver


    Anschliessend muss der Server neugestartet werden.


    Code
    shutdown -r now


    Pakete installieren
    Nach dem Reboot müssen einige Packet installiert werden:


    Code
    sudo apt-get install libxml-parser-perl libpath-class-perl perl-modules screen rsync sudo e2fsprogs unzip subversion pure-ftpd libarchive-zip-perl libc6 libgcc1 git curl
    sudo apt-get install libc6-i386 lib32gcc1
    sudo apt-get install libhttp-daemon-perl
    sudo apt-get install libarchive-extract-perl


    OGP-Agent installieren

    Code
    wget -N "https://github.com/OpenGamePanel/Easy-Installers/raw/master/Linux/Debian-Ubuntu/ogp-agent-latest.deb" -O "ogp-agent-latest.deb"
    sudo dpkg -i "ogp-agent-latest.deb"


    Wurde der Agent erfolgreich installiert kann mittels


    Code
    sudo cat /root/ogp_user_password


    die Encryption-Keys angezeigt werden, die später für das Einbinden im OGP-Panel notwendig sind.



    Alle Informationen zu diesem Tutorial sind aus diesen Seiten entnommen:
    https://opengamepanel.org/infu…panel/download.php?did=83
    https://github.com/OpenGamePan…-agent-linux-installation

    Manchmal hat man das Szenario, dass man eine kleine Systempartition für "/" hat und will eine grössere Disk für /home hinzufügen.


    Wenn die zusätzliche Festplatte hinzugefügt worden ist, muss diese zuerst partitioniert werden.
    Um herauszufinden wie die Disk heisst kann dazu folgender Befehl in die Shell eingegeben werden:


    Code
    lsblk -o NAME,FSTYPE,SIZE,MOUNTPOINT,LABEL


    Wenn man die Disk identifiziert hat gibt man folgenden Befehl ein um die Disk zu partitionieren:


    Code
    cfdisk /dev/sdb


    Dieser Befehl kann nur als root-user ausgeführt werden. Wenn man sich mit einem normalen User angemeldet hat, benutzt man entweder sudo (was vorher zuerst eingerichtet werden muss) oder macht ein "su -" - Wichtig ist bei Debian 10 (Buster) der Bindestrich am Schluss.


    In diesem GUI kann die neue Disk partitioniert werden.


    Bei Select label type gpt auswählen. Die Disk wird angezeigt mit ein paar Informationen. Danach New auswählen und die Partitionsgrösse angeben.


    Das ganze schliesst man dann mit Write ab. Dazu muss Yes ausgeschrieben eingegeben werden.


    Anschliessend muss die Disk formatiert werden. Dazu gibt man folgenden Befehl ein für ein ext4-Dateisystem:


    Code
    mkfs.ext4 /dev/sdb1


    Mit

    Code
    mount /dev/sdb1 /home


    wird die Festplatte als /home-Verzeichnis gemountet. Hat man bereits Daten unter /home sollte man diese vorher wegkopieren oder neu anlegen.


    Damit die Festplatte nach einem Reboot automatisch gemountet wird editiert man die /etc/fstab-Datei


    Folgender Eintrag sollte am Schluss der Datei hinzugefügt werden:


    Code
    /dev/sdb1 /home ext4 rw 0 0

    Das ist ein Quick&Dirty Tutorial, damit ich es selber nicht vergesse, wenn der Fehler wieder auftritt.


    Fehlerbeschreibung
    Ich habe eine neue Disk in meinen vSphere Host eingebaut und möchte einen neuen Datastore erstellen und erhalte folgende Fehlermeldung:

    Failed - Cannot change the host configuration.

    haTask-ha-host-vim.host.DatastoreSystem.createVmfsDatastore-1172



    Um das Problem zu beheben öffnet man eine Shell mit Putty auf den vSphere Host.


    Damit identifiziert man die Disk die betroffen ist


    Code
    ls -lha /vmfs/devices/disks


    z.B. -rw------- 1 root root 2.7T May 23 00:20 naa.600508b1001c9f228b402d48716bf7d1


    Dann notiert man sich die ID.


    Zeigt Informationen an über die Partition-Table

    Code
    partedUtil getptbl /vmfs/devices/disks/naa.600508b1001c9f228b402d48716bf7d1


    Setzt die Partion-Table auf msdos für die betreffende Disk


    Code
    partedUtil setptbl /vmfs/devices/disks/naa.600508b1001c9f228b402d48716bf7d1 msdos



    Anschliessend kann normal über den Wizard auf dem vSphere Host der neue Datastore erstellen werden.



    Die Informationen in diesem Tutorial sind von diesem YT-Video entnommen: