Leistungseffiziente Deep Neural Networks basierend auf der Co-Optimierung mit Mixed-Signal Integrierten Schaltungen

EdgeAI ist das verteilte Computing-Paradigma für die Ausführung von Machine-Learning-Algorithmen in der Nähe des Sensors. Im Vergleich zu zentralisierten, z. B. Cloud-basierten Lösungen werden Datensicherheit, niedrige Latenzzeiten und geringere Bandbreiten erreicht. Gleichzeitig besteht das große Problem, dass der Stromverbrauch der heutigen tiefen neuronalen Netze (die häufigste Art von Machine-Learning-Algorithmen) für solche Anwendungen viel zu hoch ist. Moderne Netzwerkarchitekturen sind komplex und stellen hohe Anforderungen an die Rechenressourcen. Dieses Problem wird auf zwei Arten angegangen.

Erstens kann der Rechenaufwand des neuronalen Netzes durch Beschneidung oder Quantisierung von Operanden reduziert werden. Dies wird gemeinhin als Netzkompression bezeichnet.

Eine zweite Möglichkeit, den Einsatz von KI-Algorithmen am Edge zu ermöglichen, ist der Einsatz spezialisierter Beschleuniger (Prozessoren), um ein häufiges Problem zu lösen: KI-Algorithmen erfordern in der Regel die Übertragung großer Datenmengen zwischen Speicher und Berechnung. Dieses Problem wird als von-Neumann-Engpass bezeichnet. Die Lösung besteht darin, die Rechen- und Speicherelemente innerhalb der Architektur des Beschleunigers zu verteilen und zu mischen.

In diesem Projekt werden verschiedene Aspekte untersucht, bei denen die Optimierung von Hardware und Algorithmus als gemeinsames Problem behandelt werden muss. Die betrachteten Hardware-Plattformen sind Mixed-Signal-Beschleuniger, die analoge Größen (Ladung, Spannung, Strom) zur Darstellung von Operanden innerhalb einer AI-Berechnung verwenden.

Nonlinearity Modeling for Mixed-Signal Inference Accelerators in Training Frameworks
J. Conrad, B. Jiang, P. Kässer, V. Belagiannis and M. Ortmanns, "Nonlinearity Modeling for Mixed-Signal Inference Accelerators in Training Frameworks," 2021 28th IEEE International Conference on Electronics, Circuits, and Systems (ICECS), Dubai, United Arab Emirates, 2021, pp. 1-4, doi: 10.1109/ICECS53924.2021.9665503.

Ein Beispiel für ein solches Problem sind analoge Nichtidealitäten innerhalb der Mixed-Signal-Rechenschaltungen. Sie können durch eine Verbesserung der Schaltung reduziert werden, was jedoch mit Nachteilen bei Leistung, Fläche und/oder Geschwindigkeit der Hardware verbunden ist. Andererseits können Nichtidealitäten beim Training eines neuronalen Netzes modelliert werden um deren Auswirkungen auf das Inferenz-Ergebnis zu minimieren.

In diesem Projekt werden beide Ansätze parallel zueinander untersucht und aufeinander abgestimmt. Die Optimierung der neuronalen Netze orientiert sich dabei an simulierten und gemessenen Hardware Spezifikationen, während die optimierten neuronalen Netze die Effizienz der implementierten Hardware signifikant erhöhen.

Zukünftige Arbeiten werden weitere Hardware implementieren um umfangreiche Messergebnisse zu erhalten, womit noch detailiertere Regeln für das Co-Design von Hardware und Algorithmus abgeleitet werden können. Dies soll neue Möglichkeiten für den Einsatz von KI-Algorithmen nahe dem Endgerät (EdgeAI) eröffnen.


Publikationen

  1. Conrad, J.; Wilhelmstätter, S.; Mandry, H.; Kässer, P.; Abdelaal, A.; Asthana, R.; Belagiannis, V.; Ortmanns, M.
    PSumSim: A Simulator for Partial-Sum Quantization in Analog Matrix-Vector Multipliers
    IEEE International Symposium on Circuits and Systems (ISCAS), London, United Kingdom
    Mai 2025
    DOI: 10.1109/ISCAS56072.2025.11043442
     
  2. Conrad, J.; Wilhelmstätter, S.; Asthana, R.; Belagiannis, V.; Ortmanns, M.
    Differentiable Cost Model for Neural-Network Accelerator Regarding Memory Hierarchy
    IEEE Transactions on Circuits and Systems I: Regular Papers ( Early Access )
    Oktober 2024
    DOI: 10.1109/TCSI.2024.3476534
     
  3. Conrad, J.; Kauffman, J. G.; Wilhelmstätter, S.; Asthana, R.; Belagiannis, V.; Ortmanns, M.
    Confidence Estimation and Boosting for Dynamic-Comparator Transient-Noise Analysis
    22nd IEEE Interregional NEWCAS Conference (NEWCAS)
    September 2024
    DOI: 10.1109/NewCAS58973.2024.10666354
     
  4. Conrad, J.; Jiang, B.; Kässer, P.; Belagiannis, V.; Ortmanns, M.
    Nonlinearity Modeling for Mixed-Signal Inference Accelerators in Training Frameworks
    28th IEEE International Conference on Electronics, Circuits, and Systems (ICECS), Dubai, UAE, 2021, pp. 1-4
    DOI: 10.1109/ICECS53924.2021.9665503
     
  5. Conrad, J.; Wilhelmstätter, S.; Asthana, R.; Belagiannis, V.; Ortmanns, M.
    Too-Hot-to-Handle: Insights into Temperature and Noise Hyperparameters for Differentiable Neural-Architecture-Searches
    6th IEEE International Conference on Artificial Intelligence Circuits and Systems (AICAS), Abu-Dhabi, UAE, 2024, pp. 557-561
    DOI: 10.1109/AICAS59952.2024.10595971