Neuronale Netze effizienter trainieren
Inhaltsverzeichnis
Bibliographische Infos

Kein Zugriff
Zukunft gestalten: smart, effizient und nachhaltig
Jahrgang 2 (2025), Heft 7-8
- Autor:innen:
- , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
- Verlag
- VDI fachmedien, Düsseldorf
- Erscheinungsjahr
- 2025
- ISSN-Online
- 2942-7347
- ISSN-Print
- 2942-7347
Kapitelinformationen
Kein Zugriff
Jahrgang 2 (2025), Heft 7-8
Neuronale Netze effizienter trainieren
- Autor:innen:
- ISSN-Print
- 2942-7347
- ISSN-Online
- 2942-7347
- Kapitelvorschau:
Das Training von neuronalen Netzen für Künstliche Intelligenz (KI) erfordert enorme Rechenressourcen und damit sehr viel Strom. Eine neue Methode zeigt nun vielversprechende Ergebnisse. Statt iterativ, also schrittweise vorzugehen, werden die Parameter auf Grundlage ihrer Wahrscheinlichkeit direkt aus den Daten berechnet. Dieses Vorgehen ist bis zu hundertmal schneller und damit wesentlich energieeffizienter. Die Qualität der Ergebnisse ist mit den bislang üblichen iterativen Verfahren vergleichbar.
Literaturverzeichnis
Es wurden keine Treffer gefunden. Versuchen Sie einen anderen Begriff.
- [1] Bolager, E. L.; Burak, I.; Datar, C.; Sun, Q.; Dietrich, F.: Sampling Weights of Deep Neural Networks. In Advances in Neural Information Processing Systems (NeurIPS), 36:63075-116, 2023. Curran Associates, Inc., https://proceedings.neurips.cc/paper_files/ paper/2023/hash/c7201deff8d507a8fe2e86d 34094e154-Abstract-Conference.html. Google Scholar öffnen
- [2] Rahma, A.; Datar, C.; Cukarska, A.; Dietrich, F.: Rapid Training of Hamiltonian Graph Networks without Gradient Descent. 2025, Pre-print, https://doi.org/10.48550/arXiv.2506.06558. Google Scholar öffnen
- [3] Rahma, A.; Datar, C.; Dietrich, F.: Training Hamiltonian Neural Networks without Backpropagation. Machine Learning and the Physical Sciences Workshop at the 38th conference on Neural Information Processing Systems (NeurIPS), 2024, https://neurips.cc/virtual/2024/99994. Google Scholar öffnen
Zitation
Kein Zugriff
Sie haben keinen Zugriff auf diesen Inhalt.