Fortgeschrittene technische Ausbildung für den modernen Softwareingenieur
✓Unbegrenzter Zugang zu den Kursmaterialien
✓Praxisprojekte mit Feedback
✓Karriere-Coaching & Interviewvorbereitung
✓Programmzertifikate
Blog-Beiträge
Deep Learning am Edge – Teil eins
Beim Einsatz von Machine Learning in Echtzeit-Embedded-Systemen geht es oft darum,
Latenz, Speicherbedarf und Leistungsaufnahme zu reduzieren – bei gleicher Genauigkeit.
In sicherheitskritischen Anwendungen müssen Vorhersagen zudem verlässlich sein
(eine Geschwindigkeitsbegrenzung 20 km/h darf nicht als 50 km/h erkannt werden).
Man könnte meinen, maximale Genauigkeit braucht möglichst viele Bruchteile.
Kurzanleitung, wie Sie beim Zugriff auf entfernte Linux-Server (inkl. AWS EC2) ein höheres Sicherheitsniveau
erreichen – pragmatisch und alltagstauglich.
Abhängig von Compiler-Flags (z. B. -msoft-float) ruft der Linker entweder die FPU auf
oder nutzt Bibliotheken. Der Unterschied zwischen HW und SW ist meist die Geschwindigkeit –
die Rechenwege bleiben identisch.
Definition: kontrollierter Einsprung in den Kernel. So können Benutzerprogramme Funktionen ausführen,
die höhere Privilegien erfordern. Kurz zu Privilegstufen und Betriebsarten.
Häufige Annahme: ein Systemaufruf bewirkt immer einen Kontextwechsel. Tatsächlich läuft Kernel-Code
in zwei Kontexten; was wirklich passiert, wird hier präzisiert.
Kernel-Space im Prozesskontext (im Auftrag eines Prozesses)
Kernel-Space im Interrupt-Kontext (an keinen Prozess gebunden)