Dr.-Ing Zahra Ebrahimi

Dr.-Ing Zahra Ebrahimi

Wissenschaftlerin


Kontakt
Ruhr-Universität Bochum

Fakultät für Elektrotechnik und Informationstechnik
Eingebettete Systeme
ID-Gebäude, Post­fach 29

Universitätsstraße 150
44801 Bochum

Raum:
ID 2/645

Dr.-Ing Zahra Ebrahimi

Dr.-Ing. Zahra Ebrahimi erlangte ihren Ph.D. 2025 an der TU Dresden, wo sie auch als Projektmanagerin und wissenschaftliche Mitarbeiterin im Center for Advancing Electronics Dresden (cfaed) arbeitete.

Forschungsinteressen:

  • Energieeffizienz/Nachhaltigkeit im Edge-to-Cloud-Kontinuum
  • 5G/6G
  • Approximative Computing und rekonfigurierbare Beschleuniger Design
  • SW/HW-Co-Design
  • Eingebettete Systeme

Seit 2018 arbeitet sie an folgenden Projekten:

  • GREEN-DNN: Energy-Efficient Distributed Deployment of AI Models to 5G/6G Network Nodes, BMDV/Acatech grant (AI founder fellowship), 2025.
  • X-DNet: Energy-Efficient Distributed and In-Network Computing via Approximation of Applications and Accelerators, BMBF grant (collaboration with Huawei), 2023-2025.
  • X-ReAp: Cross(X)-Layer Runtime Reconfigurable Approximate Architecture, DFG grant, 2023-2025.
  • Re-Learning: Self-Learning and Flexible Electronics Through Inherent Component Reconfiguration, ESF grant, 2021-2023.

Themen für Abschlussarbeit, Masterprojekt, SHK/WHK, Praktikum

- Annäherung maschineller Lernmodelle für energieeffizientes und nachhaltiges Computing mit hohem Durchsatz im 5G/6G-Zeitalter

Um den Energieverbrauch und/oder die Reaktionszeit von ML-Anwendungen zu verbessern, sind im Zeitalter von 5G/6G verschiedene Rechenansätze entstanden. Zu diesen Ansätzen gehören Federated Learning, Distributed Inference, In-Network Computing usw. Um jedoch die Ausführung vieler hochmoderner und rechenintensiver Modelle (z. B. LLMs und DNNs) für die ressourcenbeschränkten Geräte im Edge-to-Cloud-Kontinuum zu ermöglichen, sollte die Struktur solcher Modelle optimiert werden, ohne die endgültige Qualität der Ergebnisse zu beeinträchtigen. In diesem Zusammenhang hat sich gezeigt, dass Approximate-Computing-Techniken äußerst vorteilhafte Lösungen bieten, indem sie die inhärente Fehlerresistenz von ML-Modellen ausnutzen. Unter Berücksichtigung dieser Potenziale besteht die Hauptidee dieses Projekts darin, eine Kombination geeigneter Näherungstechniken zu finden und anzuwenden, die reduzieren können Sie können die Fläche/Leistung/Energie von ML-Modellen verbessern und ihre Leistung steigern, während gleichzeitig die Genauigkeitsanforderungen der Benutzer erfüllt werden.

Erforderliche Fähigkeiten:

  • FPGA-Entwicklung und Programmierung: Verilog oder VHDL, C++ und Python
  • High-Level-Synthese: Vivado und Vitis HLS
  • ML: Tensorflow und/oder PyTorch, Erfahrung in der Optimierung der Struktur mittlerer bis großer ML-Modi


Zurück zur Übersicht