
Hi, ich bin Andy!
Ich baue mir derzeit fundiertes IT-Wissen in Linux, DevOps und Cloud-Technologien auf – praxisnah und zielgerichtet. Der Fokus liegt auf Systemadministration, Automatisierung und Containerisierung, begleitet von zertifizierten Lernpfaden wie Linux Essentials, LPIC-1 und LPI DevOps. Mein Fortschritt ist sichtbar durch reale Homelab-Projekte, Lernzusammenfassungen und technische Blogbeiträge.
Für Arbeitgeber
Ich suche eine Einstiegsmöglichkeit im Bereich DevOps oder Linux-Systemadministration.
Auf dieser Website dokumentiere ich meine Lernfortschritte, Zertifikatsziele und die praktische Anwendung in Projekten – transparent und nachvollziehbar. Wenn Sie Interesse an einer Zusammenarbeit haben, freue ich mich über Ihre Kontaktaufnahme.
Projekte: Was ich technisch umsetze
In meinen Projekten verbinde ich Lerninhalte mit praktischer Anwendung: Von Serverinstallationen über Container-Setups bis hin zu Automatisierung mit Skripten und Tools wie Ansible. Alles, was ich lerne, setze ich direkt in realen Szenarien um – transparent dokumentiert und kontinuierlich verbessert.
Die letzten projekte
Blog: Lernzusammenfassungen, Wissen & Tutorials
Hier findest du praxisnahe Lernnotizen Wissen und Anleitungen – vom Einstieg in die Linux-Kommandozeile bis zu konkreten Homelab-Projekten mit Fedora, VPN, Monitoring und mehr. Alle Beiträge sind Teil meines Zertifikatswegs (Linux Essentials, LPIC-1, LPI DevOps Tools Engineer).
- RISC-V Enterprise Linux: Ein umfassender Leitfaden für angehende System-AdministratorenDie IT-Welt befindet sich im Wandel, und eine der spannendsten Entwicklungen ist die offene Prozessorarchitektur RISC-V, kombiniert mit leistungsstarken Enterprise-Linux-Distributionen wie Red Hat Enterprise Linux (RHEL) oder Rocky Linux. Für… RISC-V Enterprise Linux: Ein umfassender Leitfaden für angehende System-Administratoren weiterlesen
- Einen Bootmanager installieren (LPIC-1 102.2) – GRUB 2 verstehen, konfigurieren, rettenEinleitung Der Bootloader ist die erste Software, die dein Rechner nach dem Einschalten ausführt. Unter Linux ist das in der Praxis fast immer GRUB 2. Wer GRUB beherrscht, kann Kernelwechsel… Einen Bootmanager installieren (LPIC-1 102.2) – GRUB 2 verstehen, konfigurieren, retten weiterlesen
- Festplattenaufteilung planen (LPIC-1 102.1) – Grundlagen, Best Practices und LVM-ÜberblickEinleitung Jedes Linux-System benötigt Speicherstrukturen, die logisch und nachvollziehbar organisiert sind. Ohne ein durchdachtes Partitionsschema riskieren Administratoren Datenverlust, aufwendige Wartung oder Performanceprobleme. Diese Lektion behandelt die Grundlagen der Partitionierung, den… Festplattenaufteilung planen (LPIC-1 102.1) – Grundlagen, Best Practices und LVM-Überblick weiterlesen
- Runlevel, systemd-Ziele und sicheres Herunterfahren (LPIC-1 101.3) – Dienste steuern ohne NeustartLinux folgt der Unix-Idee: Viele spezialisierte Prozesse (Daemons/Dienste) bilden gemeinsam das System. Welche davon aktiv sind, hängt vom Einsatzzweck ab. Damit Administratoren Dienste gezielt starten/stoppen, Zustände wechseln und Systeme kontrolliert… Runlevel, systemd-Ziele und sicheres Herunterfahren (LPIC-1 101.3) – Dienste steuern ohne Neustart weiterlesen
- Linux booten verstehen (LPIC-1 101.2): Von BIOS/UEFI über GRUB bis systemd – der komplette StartpfadEin Linux-System startet nicht „magisch“. Firmware lädt den Bootloader, dieser den Kernel, der wiederum initramfs nutzt, um das echte Root-Dateisystem zu erreichen und die Systeminitialisierung zu übergeben. Wer diesen Pfad… Linux booten verstehen (LPIC-1 101.2): Von BIOS/UEFI über GRUB bis systemd – der komplette Startpfad weiterlesen
- Hardware erkennen und Kernelmodule verstehen (LPIC-1 101.1) – Der solide Start in die SystemarchitekturDie Erkennung, Konfiguration und Diagnose von Hardware ist eine Kernkompetenz im Alltag von Administratoren. Dieser Beitrag führt Schritt für Schritt durch die Themen der LPI-Lernunterlage zu 101.1 und bereitet sie… Hardware erkennen und Kernelmodule verstehen (LPIC-1 101.1) – Der solide Start in die Systemarchitektur weiterlesen
- Paketverwaltung mit RPM – Grundlagen für Red-Hat-SystemeDas RPM-Format (Red Hat Package Manager) ist die Basis der Paketverwaltung in Red-Hat-basierten Distributionen wie RHEL, CentOS, Fedora oder openSUSE. Es erlaubt die direkte Installation, Abfrage und Verwaltung von Softwarepaketen… Paketverwaltung mit RPM – Grundlagen für Red-Hat-Systeme weiterlesen
- Shared Libraries unter Linux verwaltenProgramme unter Linux bestehen nicht nur aus ihren eigenen Binärdateien. Sie nutzen zusätzlich Shared Libraries (gemeinsam genutzte Bibliotheken), die Funktionen bereitstellen. Diese Bibliotheken sparen Speicherplatz, vereinfachen Updates und sind ein… Shared Libraries unter Linux verwalten weiterlesen
- GRUB2 in der Praxis & UEFINachdem wir die Grundlagen und die Installation von Bootmanagern behandelt haben, geht es nun um die praktische Nutzung und Konfiguration von GRUB2. Dieser Abschnitt ist besonders prüfungsrelevant, da es um… GRUB2 in der Praxis & UEFI weiterlesen
- Bootmanager unter Linux – Grundlagen & InstallationEin Bootmanager ist das Bindeglied zwischen Firmware (BIOS/UEFI) und Betriebssystem. Er entscheidet, welcher Kernel gestartet wird, übergibt Parameter und ermöglicht oft die Auswahl zwischen mehreren Betriebssystemen. Unter Linux ist GRUB2… Bootmanager unter Linux – Grundlagen & Installation weiterlesen
- APT – High-Level Paketverwaltung & RepositoriesWährend dpkg direkt mit .deb-Paketen arbeitet, kümmert sich APT (Advanced Package Tool) um Abhängigkeiten und den bequemen Zugriff auf Software-Repositories. APT ist das Standardwerkzeug in Debian-basierten Distributionen wie Ubuntu oder… APT – High-Level Paketverwaltung & Repositories weiterlesen
- dpkg – Low-Level Paketverwaltung unter DebianDebian-basierte Systeme wie Debian selbst, Ubuntu oder Linux Mint nutzen .deb-Pakete für die Softwareverwaltung. Das Low-Level-Werkzeug dpkg arbeitet direkt mit diesen Paketen, ohne Abhängigkeiten automatisch zu lösen. Für die LPIC-1-Prüfung… dpkg – Low-Level Paketverwaltung unter Debian weiterlesen
- Partitionierungswerkzeuge in der PraxisNachdem wir die Konzepte von Partitionierung und Festplatten-Layouts kennengelernt haben, geht es nun um die Werkzeuge, mit denen Administratoren Partitionen tatsächlich erstellen, prüfen und verwalten. Für die LPIC-1-Prüfung ist es… Partitionierungswerkzeuge in der Praxis weiterlesen
- Festplatten-Layout unter Linux – Konzepte & PlanungEin sauberes Festplatten-Layout ist die Grundlage für ein stabiles Linux-System. Schon vor der Installation muss entschieden werden, welche Partitionen notwendig sind und wie Speicherplatz aufgeteilt wird. Dieses Kapitel behandelt die… Festplatten-Layout unter Linux – Konzepte & Planung weiterlesen
- Shutdown & Reboot unter LinuxEin Linux-System muss sauber heruntergefahren werden, damit keine Daten verloren gehen und Dienste korrekt beendet werden. Dazu gibt es verschiedene Befehle, die je nach Situation eingesetzt werden. In der LPIC-1-Prüfung… Shutdown & Reboot unter Linux weiterlesen
- Runlevels & systemd-Targets unter LinuxEin Linux-System kann in verschiedenen Betriebszuständen laufen. Diese Zustände regeln, welche Dienste aktiv sind und ob eine grafische Oberfläche gestartet wird. Historisch geschah dies mit Runlevels (SysVinit), moderne Systeme nutzen… Runlevels & systemd-Targets unter Linux weiterlesen
- Init-Systeme unter Linux – Von SysVinit bis systemdNach Kernel und initramfs übernimmt das Init-System als erster Prozess im User-Space. Es startet Dienste, setzt Runlevel bzw. Targets um und bringt das System in den gewünschten Betriebszustand. Für LPIC-1… Init-Systeme unter Linux – Von SysVinit bis systemd weiterlesen
- GRUB2 – Der Bootloader unter LinuxNach der Firmware (BIOS/UEFI) ist der Bootloader die nächste Stufe im Linux-Startprozess. Standard ist GRUB2 (GRand Unified Bootloader). Er lädt den Kernel, übergibt Parameter und stellt ein Menü bereit, mit… GRUB2 – Der Bootloader unter Linux weiterlesen
- Kernel & initramfs – Herz des Linux-StartsNachdem die Firmware (BIOS/UEFI) den Bootloader geladen hat, übernimmt der Kernel die Kontrolle. Doch um Geräte anzusprechen und das Root-Dateisystem einzubinden, braucht der Kernel Unterstützung: das initramfs. Wer diese beiden… Kernel & initramfs – Herz des Linux-Starts weiterlesen
- BIOS & UEFI unter Linux verstehenBevor ein Betriebssystem starten kann, übernimmt die Firmware des Rechners die Kontrolle. Historisch war dies das BIOS, heute ist es fast überall UEFI. Für Administratoren ist das Verständnis dieser Grundlagen… BIOS & UEFI unter Linux verstehen weiterlesen
- Systemstart unter Linux – Vom Strom bis zum LoginWas passiert eigentlich zwischen dem Moment, in dem du den Power-Button drückst, und dem Augenblick, in dem du dich auf der Linux-Shell einloggen kannst? Dieser Ablauf ist nicht nur spannend,… Systemstart unter Linux – Vom Strom bis zum Login weiterlesen
- ACPI & Power Management – Energie, Gerätezustände und PraxischecksACPI (Advanced Configuration and Power Interface) ist die Standardschnittstelle zwischen Betriebssystem und Hardware für Energie- und Gerätemanagement. Unter Linux steuert ACPI u. a. Suspend/Hibernate, Batteriestatus, Thermik/Lüfter, Netzteilzustand sowie CPU-Energiesparfunktionen. Für… ACPI & Power Management – Energie, Gerätezustände und Praxischecks weiterlesen
- Geräteverwaltung mit udev – Dynamische Hardware unter KontrolleFrüher waren Gerätedateien in /dev statisch – unübersichtlich und fehleranfällig. udev löst das sauber: Es erstellt Gerätedateien dynamisch, sobald Hardware erkannt wird. Ergebnis: konsistente, eindeutige Gerätedateien und ein verlässlicher Betrieb… Geräteverwaltung mit udev – Dynamische Hardware unter Kontrolle weiterlesen
- Kernel-Module unter Linux – Laden, Verwalten und PrüfenDer Linux-Kernel stellt die Schnittstelle zwischen Hardware und Software bereit. Treiber sind meist als Kernel-Module implementiert – sie lassen sich zur Laufzeit laden, entladen und konfigurieren. Wer diese Werkzeuge sicher… Kernel-Module unter Linux – Laden, Verwalten und Prüfen weiterlesen
- Hardwareerkennung unter Linux – Werkzeuge, Optionen und PrüfungsfragenBevor Linux zuverlässig Dienste bereitstellen kann, muss das System die vorhandene Hardware erkennen. Dazu zählen PCI-Geräte wie Netzwerkkarten, USB-Geräte wie Laufwerke sowie die zugehörigen Treiber. Nach dem Boot übernimmt der… Hardwareerkennung unter Linux – Werkzeuge, Optionen und Prüfungsfragen weiterlesen
- lsusb verstehen: Die wichtigsten 5 Optionen für den Sysadmin-AlltagDer Befehl lsusb ist ein unverzichtbares Werkzeug unter Linux, wenn es um die Analyse und Verwaltung von USB-Geräten geht. Administratoren nutzen ihn, um angeschlossene Peripherie zu identifizieren, Treiberprobleme zu diagnostizieren… lsusb verstehen: Die wichtigsten 5 Optionen für den Sysadmin-Alltag weiterlesen
- lspci verstehen: Die wichtigsten 5 Optionen für den Sysadmin-AlltagDas Kommando lspci gehört zu den zentralen Werkzeugen, um unter Linux die angeschlossene Hardware über den PCI-Bus sichtbar zu machen. Besonders für Administratoren ist es unverzichtbar, wenn es um die… lspci verstehen: Die wichtigsten 5 Optionen für den Sysadmin-Alltag weiterlesen
- DevOps verstehen: Vom Deployment-Chaos zur kontinuierlichen SoftwarebereitstellungEffiziente Softwarebereitstellung ist heute genauso entscheidend wie die Softwareentwicklung selbst. Unternehmen, die ihre Deployments im Griff haben, können schneller innovieren, sicherer arbeiten und Ausfälle drastisch reduzieren. DevOps liefert dafür die… DevOps verstehen: Vom Deployment-Chaos zur kontinuierlichen Softwarebereitstellung weiterlesen
- Edge Computing – Bedeutung, Einsatz und Skills für Linux, Cloud & DevOpsEdge Computing verändert die Art und Weise, wie moderne IT-Infrastrukturen geplant und betrieben werden. Statt Daten zentral in der Cloud zu verarbeiten, verlagert Edge Computing Rechenleistung und Analyse direkt an… Edge Computing – Bedeutung, Einsatz und Skills für Linux, Cloud & DevOps weiterlesen
- Puppet vs. Ansible – Zwei Wege zur AutomatisierungWenn man sich im Bereich DevOps, Linux oder IT-Automatisierung umschaut, stößt man früher oder später auf zwei große Namen: Puppet und Ansible. Beide Tools haben das gleiche Ziel: Systeme automatisiert… Puppet vs. Ansible – Zwei Wege zur Automatisierung weiterlesen
- Was ist NGINX? Unterschiede zu Apache – und was du für DevOps, Cloud & Linux darüber wissen musstFrüher oder später stößt jede:r, die oder der in Linux, DevOps oder Webinfrastruktur einsteigt, auf einen dieser zwei Begriffe: Apache und NGINX. Beide sind sogenannte Webserver – Software, die HTTP-Anfragen… Was ist NGINX? Unterschiede zu Apache – und was du für DevOps, Cloud & Linux darüber wissen musst weiterlesen
- apt, dnf und zypper im Vergleich: Paketmanager im PraxiseinsatzDie Wahl des Paketmanagers bestimmt im Linux-Alltag, wie Software installiert, aktualisiert und verwaltet wird. Mit apt, dnf und zypper existieren drei etablierte Vertreter, die unterschiedliche Distributionen prägen. Ein genauer Blick… apt, dnf und zypper im Vergleich: Paketmanager im Praxiseinsatz weiterlesen
- Cloud-Computing verstehen: Grundlagen, Modelle und Bedeutung für moderne ITCloud-Computing ist vom Trend zur Standardpraxis gereift. Unternehmen nutzen Cloud-Ressourcen, um flexibel, skalierbar und kosteneffizient zu arbeiten. Für Rollen in DevOps, SRE und Linux-Administration ist Cloud-Know-how eine Schlüsselqualifikation. Was ist… Cloud-Computing verstehen: Grundlagen, Modelle und Bedeutung für moderne IT weiterlesen
- MySQL erklärt: Was DevOps Engineers und Linux Admins über die beliebte Datenbank wissen solltenWenn du mit Webanwendungen, Monitoring-Tools oder Automatisierungsplattformen arbeitest, kommst du um eines nicht herum: eine Datenbank. Und eine der bekanntesten ist MySQL – oder besser gesagt: ihre freie Schwester MariaDB.… MySQL erklärt: Was DevOps Engineers und Linux Admins über die beliebte Datenbank wissen sollten weiterlesen
- Was sind REST-APIs? – Einsatz in Proxmox, DevOps und CloudREST-APIs sind heute ein zentrales Werkzeug in der Welt der IT-Automatisierung, Cloud-Verwaltung und DevOps-Prozesse. Doch was genau verbirgt sich hinter dem Begriff REST-API – und wie wird er konkret in… Was sind REST-APIs? – Einsatz in Proxmox, DevOps und Cloud weiterlesen
- Hyper-Converged Infrastructure mit Proxmox VE: Hochverfügbarkeit integriert denkenHigh Availability (HA) ist das Ziel moderner IT-Systeme: Dienste sollen jederzeit verfügbar bleiben – auch bei Hardware- oder Softwareausfällen. Klassisch bedeutet dies, einzelne Komponenten redundant auszulegen und durch Cluster-Technologien zu… Hyper-Converged Infrastructure mit Proxmox VE: Hochverfügbarkeit integriert denken weiterlesen
- Backup in Linux und Proxmox: Praxisleitfaden auf Linux‑Essentials‑Niveau (Wann nutze ich was?)Backups sind die Lebensversicherung jeder IT – vom Homelab bis zum Rechenzentrum. Dieser Leitfaden erklärt die wichtigsten Backup-Ansätze in Linux und Proxmox so, dass sie auf Linux‑Essentials‑Niveau verständlich sind, ordnet… Backup in Linux und Proxmox: Praxisleitfaden auf Linux‑Essentials‑Niveau (Wann nutze ich was?) weiterlesen
- High Availability (HA): On‑Premise, Cloud und Hybrid mit Proxmox – Grundlagen & PraxisbeispieleHigh Availability ist eine zentrale Anforderung moderner IT-Systeme: Dienste sollen auch bei Störungen erreichbar bleiben, denn Ausfallzeiten kosten Geld und Vertrauen. Dieser Beitrag erklärt die Grundprinzipien von Hochverfügbarkeit, zeigt typische… High Availability (HA): On‑Premise, Cloud und Hybrid mit Proxmox – Grundlagen & Praxisbeispiele weiterlesen
- Proxmox Storage erklärt: LVM, iSCSI, NFS, CIFS/SMB, Ceph (RBD & CephFS) und ZFS praxisnahIn Virtualisierungsumgebungen entscheidet die Speicherwahl über Stabilität, Performance und Betriebsmodelle wie Live‑Migration. Proxmox VE integriert dafür klassische Netzwerkfreigaben, Block‑Storage und moderne Cluster‑Dateisysteme. Dieser Beitrag erläutert Ursprung, Nutzen und typische Einsatzszenarien… Proxmox Storage erklärt: LVM, iSCSI, NFS, CIFS/SMB, Ceph (RBD & CephFS) und ZFS praxisnah weiterlesen
- Was sind Microservices – und warum sie für DevOps & Cloud Engineers relevant sindIn der modernen Softwareentwicklung wird der klassische Monolith immer häufiger durch eine Microservice-Architektur ersetzt. Anwendungen werden dabei nicht mehr als ein einziger großer Codeblock geschrieben, sondern in viele kleine, spezialisierte… Was sind Microservices – und warum sie für DevOps & Cloud Engineers relevant sind weiterlesen






































