Neuronale Netzwerke lernen vom Gehirn.

Beim Künstlichen Neuronalen Netzwerk (KNN) werden viele einzelne Rechenelemente miteinander verschaltet – wie Neuronen im Gehirn.

Trotzdem reicht die Leistung von KNNs noch lange nicht an die des Gehirns heran. Verglichen mit dem menschlichen Gehirn sind die benötigten Computer gigantisch groß, langsam, und energieintensiv. Das menschliche Gehirn verbraucht nur 20 Watt in einer Sekunde, in der es mehrere Billionen Rechenoperationen durchführt.

Deshalb suchen Forschende nach Möglichkeiten, weitere Funktionsweisen des Gehirns auf KNNs zu übertragen.

Eine dieser besonderen Funktionsweisen ist die Verwendung von „Aktionspotentialen“. Das sind die winzigen elektrischen Spannungsspitzen, oder auch „Spikes“, mit denen Hirnzellen kommunizieren. Ähnlich wie beim Morsen steckt die Information nicht nur in den Spikes selbst, sondern auch in den Pausen dazwischen. So kann das System viel Energie einsparen.

Professor Wolfgang Maass und sein Mitarbeiter Christoph Stöckl haben gezeigt, dass sich eine Hardware entwickeln ließe, die das gleiche Prinzip anwendet. Diese „neuromorphe“ Hardware wäre praktisch genauso leistungsfähig wie konventionelle Hardware, aber viel energiesparender.

Pressemitteilung der TU Graz: „Neuer Ansatz für energieeffiziente KI-Anwendungen gefunden

Originalartikel: C. Stoeckl and W. Maass, 2021, Optimized spiking neurons can classify images with high accuracy through temporal coding with two spikes. Nature Machine Intelligence, DOI: 10.1038/s42256-021-00311-4

Foto: © Forschungszentrum Jülich