Wie lässt sich bio-inspirierte Mikrosensorik nutzen, um akustische Anomalien in industriellen Umgebungen zuverlässig und ressourceneffizient zu erkennen? Mit dieser Frage beschäftigt sich ein interdisziplinäres Forschungsteam der Ilmenau School of Electronics (ISGE) an der TU Ilmenau.
Ob in der Werkhalle, im Verkehr oder im Krankenhaus: Überall dort, wo sich Menschen oder Gegenstände bewegen, entstehen Geräusche, sei es Maschinenlärm, das Brummen von Motoren oder der Klang von OP-Robotern. Wenn sich diese Geräusche verändern, kann das etwas über die Qualität der Produkte oder industriellen Prozessen aussagen: ,,Wenn plötzlich etwas rasselt oder schleift, kann das zum Beispiel ein Zeichen dafür sein, dass eine Maschine kaputt geht oder überlastet ist und gewartet, abgeschaltet oder repariert werden muss", beschreibt Dr. Stephan Werner, Leiter des Fachgebiets Elektronische Medientechnik , die Motivation für das Forschungsprojekt:
Solche Zustandsänderungen und Ereignisse möchten wir mit dem auditorischen System, das wir entwickeln, detektieren und lokalisieren - und das möglichst energiesparend.
Bestenfalls wollen die Forschenden mit ihrem System kleinste Abweichungen schon lange, bevor ein Mensch sie wahrnimmt, erkennen und so Maschinenstörungen oder Sicherheitsrisiken vorbeugen.
Herzstück des Systems bildet ein bio-inspirierter mikroelektronischer mechanischer Sensor (MEMS), den die Wissenschaftler der TU Ilmenau in Zusammenarbeit mit der Forschungsgruppe für Biomedizinische Sensorik und Mikrosysteme der Universität Ulm entwickelt haben.
erklärt Christian Kehling, Promotionsstudent in der Ilmenau School of Green Electronics ( ISGE ) am Zentrum für Mikround Nanotechnologien.
Er besitzt ähnliche Eigenschaften wie das menschliche Ohr, das heißt er reagiert besonders empfindlich auf ausgewählte Frequenzen und kann einzeln oder zusammen mit weiteren Sensoren genutzt werden
Mitentwickelt hat den Sensor Dr. Tzvetan Ivanov, wissenschaftlicher Mitarbeiter am Fachgebiet Mikroand Nanoelektronische Systeme und drittes Mitglied in der ISGE-Forschungsgruppe:
Eingehende Audiosignale und Reize werden in unserem Sensor anders als bei anderen Sensoren nicht-linear verarbeitet. Für die Lautstärke bedeutet das zum Beispiel: Sie wird nicht wie bei einem Mikrofon passiv auf allen Frequenzen gleich verwandelt, sondern aktiv. Das heißt laute Werte werden durch einen integrierten Schaltkreis, ein sogenanntes FPGA Board, zusammengestaucht und leise Töne hervorgehoben.
Im Vergleich zu konventionellen Systemen, die Signale in separaten Modulen erledigen müssen, ist das bio-inspirierte System in der Lage, diese Schritte automatisch allein aufgrund der Beschaffenheit des Sensors zu realisieren. Außerdem ist der Sensor sehr schmalbandig, das heißt er springt - ähnlich wie die inneren Haarzellen in unserem Ohr - nur auf bestimmte Frequenzen an. Stephan Werner erklärt:
Das heißt der Sensor selbst verarbeitet ähnlich wie unser Ohr die Signale bereits vor. Daher gehen wir davon aus, dass durch diese frequenzselektive Vorverarbeitung des Eingangssignals kleinere, effiziente neuronale Netze ausreichen, um die Sensorsignale akustisch einzuordnen und sich verändernde Geräusche zuverlässig zu erkennen.
Statt wie für herkömmliches akustisches Monitoring üblich viele verschiedene Sensoren an einer Maschine anzubringen und miteinander zu vernetzen, hat das Forschungsteam der Ilmenau School of Green Electronics einen anderen Ansatz gewählt, so der Wissenschaftler:
Wir wollen ein künstliches auditorisches System entwickeln, das aus möglichst wenigen Sensoren besteht. Statt an der Maschine wird es im Raum platziert, um so einen möglichst großen Bereich des Raums auditorisch abzudecken.
Damit lässt sich nicht nur die Anzahl der Sensoren und Messsysteme sparen, die nötig sind, um Ereignisse zu erkennen und zu lokalisieren. ,,Das System bietet auch in punkto Datensicherheit Vorteile", sagt Stephan Werner. Denn anders als bei einem Mikrofon, das die Geräusche selbst aufnimmt, wird bei dem System, das die Ilmenauer Forscher entwickeln, aus den eingehenden Signalen lediglich abgeleitet, wo sich Geräuschquellen befinden, um was für ein Ereignis es sich handelt und was sich gegebenenfalls verändert hat:
Der Audiocontent selbst und damit beispielsweise auch Gespräche in der Werkhalle werden nicht aufgezeichnet und weitergegeben.
Aktuell ist das System, an dem das Forschungsteam im VR Lab des Ilmenau Interactive Immersive Technologies Center ( I3TC ) arbeitet, noch sehr groß. Das soll jedoch nicht so bleiben, sagt Christian Kehling:
Unser Ziel ist es, die Elektronik so zu verkleinern, dass auch das System selbst ,grün’ ist.
Dann, so der Wissenschaftler, ist beispielsweise auch ein Einsatz in Wearables oder Hörgeräten denkbar.

