Neuronale Netze effizienter trainieren

Inhaltsverzeichnis

Bibliographische Infos


Cover der Ausgabe: VDI energie + umwelt Jahrgang 2 (2025), Heft 7-8
Kein Zugriff

Zukunft gestalten: smart, effizient und nachhaltig

Jahrgang 2 (2025), Heft 7-8


Autor:innen:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
Verlag
VDI fachmedien, Düsseldorf
Erscheinungsjahr
2025
ISSN-Online
2942-7347
ISSN-Print
2942-7347

Kapitelinformationen


Kein Zugriff

Jahrgang 2 (2025), Heft 7-8

Neuronale Netze effizienter trainieren


Autor:innen:
ISSN-Print
2942-7347
ISSN-Online
2942-7347


Kapitelvorschau:

Das Training von neuronalen Netzen für Künstliche Intelligenz (KI) erfordert enorme Rechenressourcen und damit sehr viel Strom. Eine neue Methode zeigt nun vielversprechende Ergebnisse. Statt iterativ, also schrittweise vorzugehen, werden die Parameter auf Grundlage ihrer Wahrscheinlichkeit direkt aus den Daten berechnet. Dieses Vorgehen ist bis zu hundertmal schneller und damit wesentlich energieeffizienter. Die Qualität der Ergebnisse ist mit den bislang üblichen iterativen Verfahren vergleichbar.

Literaturverzeichnis


  1. [1] Bolager, E. L.; Burak, I.; Datar, C.; Sun, Q.; Dietrich, F.: Sampling Weights of Deep Neural Networks. In Advances in Neural Information Processing Systems (NeurIPS), 36:63075-116, 2023. Curran Associates, Inc., https://proceedings.neurips.cc/paper_files/ paper/2023/hash/c7201deff8d507a8fe2e86d 34094e154-Abstract-Conference.html. Google Scholar öffnen
  2. [2] Rahma, A.; Datar, C.; Cukarska, A.; Dietrich, F.: Rapid Training of Hamiltonian Graph Networks without Gradient Descent. 2025, Pre-print, https://doi.org/10.48550/arXiv.2506.06558. Google Scholar öffnen
  3. [3] Rahma, A.; Datar, C.; Dietrich, F.: Training Hamiltonian Neural Networks without Backpropagation. Machine Learning and the Physical Sciences Workshop at the 38th conference on Neural Information Processing Systems (NeurIPS), 2024, https://neurips.cc/virtual/2024/99994. Google Scholar öffnen

Zitation


Download RIS Download BibTex
Kein Zugriff
Sie haben keinen Zugriff auf diesen Inhalt.