Dr.-Ing Zahra Ebrahimi
Wissenschaftlerin
Kontakt
Ruhr-Universität Bochum
Fakultät für Elektrotechnik und Informationstechnik
Eingebettete Systeme
ID-Gebäude, Postfach 29
Universitätsstraße 150
44801 Bochum
Raum:
ID 2/645
E-Mail:
zahra.ebrahimi(at)rub.de
Dr.-Ing. Zahra Ebrahimi erlangte ihren Ph.D. 2025 an der TU Dresden, wo sie auch als Projektmanagerin und wissenschaftliche Mitarbeiterin im Center for Advancing Electronics Dresden (cfaed) arbeitete.
Forschungsinteressen:
- Energieeffizienz/Nachhaltigkeit im Edge-to-Cloud-Kontinuum
- 5G/6G
- Approximative Computing und rekonfigurierbare Beschleuniger Design
- SW/HW-Co-Design
- Eingebettete Systeme
Seit 2018 arbeitet sie an folgenden Projekten:
- GREEN-DNN: Energy-Efficient Distributed Deployment of AI Models to 5G/6G Network Nodes, BMDV/Acatech grant (AI founder fellowship), 2025.
- X-DNet: Energy-Efficient Distributed and In-Network Computing via Approximation of Applications and Accelerators, BMBF grant (collaboration with Huawei), 2023-2025.
- X-ReAp: Cross(X)-Layer Runtime Reconfigurable Approximate Architecture, DFG grant, 2023-2025.
- Re-Learning: Self-Learning and Flexible Electronics Through Inherent Component Reconfiguration, ESF grant, 2021-2023.
Themen für Abschlussarbeit, Masterprojekt, SHK/WHK, Praktikum
- Annäherung maschineller Lernmodelle für energieeffizientes und nachhaltiges Computing mit hohem Durchsatz im 5G/6G-Zeitalter
Um den Energieverbrauch und/oder die Reaktionszeit von ML-Anwendungen zu verbessern, sind im Zeitalter von 5G/6G verschiedene Rechenansätze entstanden. Zu diesen Ansätzen gehören Federated Learning, Distributed Inference, In-Network Computing usw. Um jedoch die Ausführung vieler hochmoderner und rechenintensiver Modelle (z. B. LLMs und DNNs) für die ressourcenbeschränkten Geräte im Edge-to-Cloud-Kontinuum zu ermöglichen, sollte die Struktur solcher Modelle optimiert werden, ohne die endgültige Qualität der Ergebnisse zu beeinträchtigen. In diesem Zusammenhang hat sich gezeigt, dass Approximate-Computing-Techniken äußerst vorteilhafte Lösungen bieten, indem sie die inhärente Fehlerresistenz von ML-Modellen ausnutzen. Unter Berücksichtigung dieser Potenziale besteht die Hauptidee dieses Projekts darin, eine Kombination geeigneter Näherungstechniken zu finden und anzuwenden, die reduzieren können Sie können die Fläche/Leistung/Energie von ML-Modellen verbessern und ihre Leistung steigern, während gleichzeitig die Genauigkeitsanforderungen der Benutzer erfüllt werden.
Erforderliche Fähigkeiten:
- FPGA-Entwicklung und Programmierung: Verilog oder VHDL, C++ und Python
- High-Level-Synthese: Vivado und Vitis HLS
- ML: Tensorflow und/oder PyTorch, Erfahrung in der Optimierung der Struktur mittlerer bis großer ML-Modi
| LinkedIn: | www.linkedin.com/in/zahra-e-b251a0a1/ |
Zurück zur Übersicht