Artikel25. Oktober 2024von Lisa Werner, Sandro Dalfovo und Tobias RotschLesezeit: 8 Minuten

Extended Music Learning! XR und die Zukunft des Musikunterrichts

Die zunehmende Vielzahl an Applikationen im Bereich Extended Reality (XR), die unter anderem die Themenfelder Rhythmus, Konzerterleben oder Musizieren betreffen, unterstreicht die Bedeutsamkeit dieser Technologien auch für den Musikunterricht. In diesem Beitrag werden daher erste Ideen zur Integration von Extended Reality (XR) in den Musikunterricht vorgestellt. Lisa Werner, Tobias Rotsch und Sandro Dalfovo berichten aus ihren Projekten, in denen sie neue Lehr-Lern-Konzepte erforschen und entwickeln.

Sofern nichts anderes angegeben wurde, stehen die Inhalte dieser Seite unter der genannten Lizenz (CC BY-SA 4.0). Verlinkte Inhalte sind von der Lizenz unberührt. Unter Beachtung der Lizenzbedingungen müssen die beteiligten Autorinnen und Autoren (hier: Lisa Werner, Tobias Rotsch, Sandro Dalfovo, schule-mal-digital.de) und der Veröffentlichungsort lernen:digital Zukunftsraum genannt werden.

Takeaways
  • Lebensweltbezug: Der Einsatz digitaler Technologien wie XR im Musikunterricht ermöglicht unter anderem niedrigschwellige Zugänge zum musikalischen Experimentieren mit ungewöhnlichen Klangobjekten, hautnahe Konzerterlebnisse oder immersive Zeitreisen zu Komponist:innen vergangener Epochen. So werden in praktischen und theoretischen Themenfeldern des Musikunterrichts neue Potentiale entfacht.

  • Musikunterricht der Zukunft: Der Prozess der Integration von XR-Technologien in Bildungskontexte wie dem Musikunterricht hat gerade erst begonnen. Es ist daher essenziell, „(angehenden) Lehrkräften derartige grundlegende Erfahrungen und Explorationsmöglichkeiten zu ermöglichen“ (Voit & Heye, 2022, S. 43), um den zukunftsgerichteten Einsatz der Technologie im Musikunterricht mit der Praxis zusammen zu entwickeln.

Abbildung 1: VR im Klassenzimmer, Quelle: Generiert mit Bing CoPilot, Prompt: Foto von Kindern im Musikunterricht, die zur Größe des Kopfes proportional passende VR-Headsets tragen, im Musikraum gemeinsam musizieren und dabei Spaß haben

Stellen Sie sich eine Musikunterrichtsstunde der nahen Zukunft vor: Sie betreten ein Klassenzimmer, das kaum wiederzuerkennen ist. Am oberen Rand des Zimmers liegen VR-Brillen mit Controllern, Tablets und Kopfhörer auf einzelnen Ablagen bereit. Auf weiteres Mobiliar wird zunehmend verzichtet, damit genügend Platz ist, um sich im Raum zu bewegen. Nachdem Sie die Brille aufgesetzt haben, treffen Sie in einer virtuellen, computersimulierten Umgebung als Avatar auf andere Teilnehmende, und begeben sich gemeinsam auf eine Reise in die Musikgeschichte: Sie haben die Möglichkeit, den Komponistinnen und Komponisten der jeweiligen Epoche über die Schulter zu schauen, entdecken die Umgebung, in der sie aufgewachsen sind, hören ihre Musik und experimentieren am Ende selbst damit. 

Zukunft als Impulsgeber

Zukunftsforscher:innen sind sich einig, dass nicht nur Künstliche Intelligenz, sondern auch Virtual, Augmented und Mixed Reality zum Lebensalltag der nahen Zukunft zählen werden: „Im Zuge des technologischen Wandels wird insbesondere VR-Medien (Virtual-Reality-Medien) das Potenzial zugesprochen, den Lernerfolg von Schüler:innen zu steigern und ein konstruktivistisches Lernen zu fördern.“ (Hellriegel & Čubela, 2018, S.58) Neue Formen der Interaktivität, Exploration und Erlebnismöglichkeit im dreidimensionalen Raum können Schlüsselkompetenzen wie das vernetzende Denken und autonome Lernkompetenzen fördern. Damit einher geht das große Potential einer dynamischen Unterrichtsgestaltung (Conrad Electronic SE, 2021). VR-bezogene Apps ermöglichen Schüler:innen schon jetzt, in virtuellen Umgebungen gemeinsam zu musizieren oder ihre eigenen Musizierumgebungen und Producing-Setups zu gestalten (siehe unten für Erläuterungen). Die Integration von Extended Reality-Anwendungen (XR) als zukunftsweisende Schlüsseltechnologien in den Musikunterricht, die vor allem Kindern und Jugendlichen aus dem Freizeitbereich bekannt sind, eröffnet so anschlussfähige Möglichkeiten musikbezogenen Lernens und immersiven Erlebens von Musik (Voit & Heye, 2022, S. 34), kann Bedürfnisse heterogener Lerngruppen integrieren und einen stärkeren Lebensweltbezug herstellen (vgl. Ahlers & Godau, 2019, S. 7). Der XR-Begriff umfasst hierbei Virtual Reality (VR), Augmented Reality (AR) und Mixed Reality (MR).

Solche Szenarien sind heute schon möglich: Das Spiel Patchworld (Abb. 3) des schweizerisch-dänischen Studios PatchXR bietet beispielsweise eine umfangreiche Bibliothek an Werkzeugen und ungewöhnlichen Instrumenten, die es den Spielenden ermöglichen, eigene Musik zu komponieren und audiovisuelle Welten aus virtuellen Musikinstrumenten, Producing Tools, visuellen Elementen und Räumen zu gestalten. Patchworld ist als eine Plattform konzipiert, die als Kreativwerkstatt und, im Multiplayer-Modus, auch als sozialer Treffpunkt funktioniert. Selbst erstellte Klänge und Produktionen können geteilt oder die Kreationen anderer erkundet werden. Sobald man aus einer Vielzahl von virtuellen Instrumenten wie Synthesizern, Drum Machines und ungewöhnlichen Klangobjekten wie Gummienten oder Flaschen seine Favoriten ausgewählt hat, steht auch einer gemeinsamen Jam-Session mit anderen Teilnehmenden nichts mehr im Wege. Die so entstehenden kreativen Prozesse gestalten die Spielenden als virtuelle Avatare. Musik lässt sich hierbei auf eine einzigartige, spielerische und innovative Weise erleben und gestalten.

Abbildung 3: Kollaborative Musikproduktion mit Sample-Bubbles und Sequencer als Avatare in Patchworld. Quelle: Eigene Darstellung

Weitere Angebote aus den vergangenen Jahre wie Schumann VR oder Konzerthaus Plus erlauben die Erkundung kultureller, musikalischer und geschichtlich bedeutsamer Wirkungsstätten. Schüler:innen können vor Ort in AR- und VR-Anwendungen mit unterschiedlichen thematischen Schwerpunkten eintauchen. Auch für das zu Beginn aufgeführte „Klassenzimmer-Szenario“ findet man bereits erste Umsetzungen: So ermöglicht es das gemeinnützige Bildungsprojekt beethoven opus 360 im Rahmen von bis dato großflächig angelegten Schultourneen in Deutschland, der Schweiz und Österreich, dass sich VR, Rap, Gaming und klassische Musik zu einer innovativen und mobilen Musikvermittlung verbinden, „die einen neuen Zugang zu dem Werk und Leben Ludwig van Beethovens eröffnet – ohne jegliche Vorkenntnisse oder musikalische Vorbildung.“ (Agon e.V., 2023).

Die Zukunft des Musiklernens im Fokus: Die Projekte LEVIKO-XR und KuMuS-ProNeD

Die Teilprojekte unter Leitung von Prof. Dr. Philipp Ahner am Standort der Staatlichen Hochschule für Musik Trossingen im Rahmen der Verbundprojekte KuMuS-ProNeD und LEVIKO-XR sind Teil des Kompetenzverbund lernen:digital. Die beiden EU & BMBF geförderten Projekte setzen sich in ihrer Laufzeit von Juli 2023 bis Februar 2026 mit dem Einsatz digitaler Technologien im Musikunterricht und der Entwicklung damit zusammenhängender Unterrichts- und Fortbildungskonzeptionen auseinander.

Die Projekte verfolgen das Ziel, die aktuellen Entwicklungen nicht hintenanzustellen, sondern heute schon den Einsatz dieser Technologien im Musikunterricht kritisch zu hinterfragen, zu begleiten und deren Möglichkeiten und Grenzen aufzuzeigen.

Wegweisend für den Prozess der Entwicklung von Lehr-Lern-Designs sind hierbei unter anderem verschiedene Kernfragen: Welche Themen und Lernziele eignen sich besonders gut für den Einsatz der Technologien? Wie können die musikbezogenen XR-Inhalte nachhaltig in den Musikunterricht integriert werden, sodass brauchbare Zusammenhänge zu den relevanten Themenbereichen und Handlungsfeldern entstehen? Wie können die Potenziale und Grenzen von allen beteiligten Akteur:innen anhand eigener Praxiserfahrungen nachvollzogen werden?

Sowohl LEVIKO-XR als auch KuMuS-ProNeD gestalten ihre Untersuchungen und Szenarien auf Basis bereits vorhandener Apps für VR-/MR-Headsets. Diese wurden zunächst als Grundlage für weitere Konzeptionen in Voruntersuchungen erforscht. Folgende mögliche Themenbereiche und Handlungsfelder wurden als besonders relevant für das Fach Musik identifiziert:

  • Kreieren und Produzieren,
  • Musizieren und Improvisation,
  • Hörerfahrung (Rezeption, Akustik),
  • Musik und Bewegung (rhythmische Spiele) sowie
  • theoretische Inhalte (z. B. zum Themenfeld Musikgeschichte, iehe Beginn des Beitrags).

Auch interdisziplinäre Möglichkeiten und Verbindungen zu Nicht-Musik-Apps gehören zu den ersten grundlegenden Bereichen, zu denen nun in den beiden Projekten konkrete Lehr-Lern-Designs entwickelt werden. Das verwendete Design-Based Research-Verfahren dient dabei als theoretische Basis, um unter Einbezug didaktischer Modelle wie u.a. TPACK praxisorientiert und explorativ bei der Konzeption und (Weiter-)Entwicklung vorzugehen.

Design-Based Research

Als Forschungsansatz im Bereich der Bildungsforschung verfolgt Design-Based Research (DBR) zwei Ziele: Zum einen sollen innovative Lösungen zu didaktischen Problemen in der Praxis gefunden und zum anderen (neue) Theorien (weiter)entwickelt werden. Durch die gezielte Verschränkung von Wissenschaft und Praxis weist der Ansatz ein hohes Potenzial auf, den Praxistransfer fachdidaktischer Forschung zu fördern.

Das Vorgehen von DBR besteht aus einem iterativen Prozess. Dabei werden zunächst relevante Probleme aus der Bildungspraxis sowie deren spezifische Kontexte theoretisch analysiert. Anschließend werden Lösungen (sogenannte Interventionen) zu diesen Problemen entwickelt, in der Praxis erprobt und evaluiert. Aufbauend auf einer theoretischen Reflexion werden Anpassungen und Änderungen an der Intervention vorgenommen, um sie daraufhin erneut zu testen und zu untersuchen. Die Erkenntnisse aus dem DBR-Prozess sind stets kontextgebunden, können jedoch auch auf andere Anwendungskontexte übertragen und angepasst werden.

 

(Quelle: https://www.e-teaching.org)

Die oben aufgeführten Themenbereiche zeigen das breite Potenzial von XR-Technologien im Musikunterricht, da mit ihnen mehrere relevante Kompetenzbereiche aus dem Bereich Musik adressiert werden. Mit Analysen der User-Experience und der Aufstellung didaktischer Kriterien und Ziele werden nun die Anwendungen in ihrer Breite für konkretere Erprobungszyklen praxisorientiert in den Projekten ausgearbeitet, dokumentiert und im weiteren Projektverlauf veröffentlicht.

Das Vorgehen mit Design-Based Research lässt sich darüber hinaus auch auf andere, jüngere Technologien übertragen. Insbesondere das Projekt KuMuS-ProNeD ergründet die Möglichkeiten der MIDI-Controller Touch me und Playtron von Playtronica.

Midi-Controller

Ein MIDI-Controller ist ein Gerät, mit dem man elektronische Musik steuern kann. Er sendet MIDI-Signale an Computer oder andere Musikinstrumente, um Töne, Rhythmen und Effekte zu erzeugen oder zu beeinflussen, ohne selbst Klänge zu produzieren. Häufig hat er Tasten, Pads, Regler oder Fader, die dem Musiker oder der Musikerin ermöglichen, die Musik in Echtzeit zu beeinflussen. Playtronica ermöglicht als MIDI-Controller, aus alltäglichen Objekten eine Schnittstelle zum Musizieren zu machen, und diese gefühlt in Musikinstrumente zu verwandeln. Durch Berühren der Objekte können Benutzer:innen unterschiedliche Töne und Klänge erzeugen oder beeinflussen, was zu einer spielerischen und kreativen Musikerfahrung führen kann.

Diese Technologie erlaubt es, mit stromleitenden Objekten Musik zu erfinden bzw. die „Intensität der Berührung zwischen Menschen“ (Playtronica, 2016) in Töne umzuwandeln (siehe Abbildung 4). Vielversprechende Möglichkeiten zum Musiklernen mit Bewegung, durch Improvisation und über Musiktheorie wurden bereits in Pretests mit Studierenden untersucht und auf der European Association for Music in Schools-Conference 2024 präsentiert (Poster). Abbildung 4 zeigt die Arbeit eines Studierenden, der ein mögliches Setup im Kontext von Playtron erarbeitet hat, um Schüler:innen die Intervalle optisch, haptisch und auditiv näher zu bringen.

Abbildung 4: Playtron im Kontext des Themenbereichs Theorie: Die Intervalle. Quelle: Eigene Darstellung

Solche und viele weitere denkbare Setups im Kontext von Playtronica und auch XR-Technologien ermöglichen hierbei neue, niedrigschwellige Zugänge zum Musiklernen. Sie können mit Blick auf ihr gestalterisches Potenzial, die flexible Anwend- und Einsetzbarkeit und den hohen Alltagsbezug zu einer engagierteren und motivierteren Begegnung mit dem Fach Musik für verschiedene Zielgruppen beitragen.

Zukunftsperspektiven

XR-Technologie kann für wichtige Faktoren des schulischen Musikunterrichts wie Interaktivität, Teilhabe, Eigenkreation oder Zusammenarbeit eine belebende Komponente sein und das Repertoire des digitalen Unterrichts erweitern. Wer schon einmal eine virtuelle Umgebung besucht hat, wird wahrscheinlich mit der Erfahrung konfrontiert worden sein, dass das Erlebte dort auf andere, spezielle Art und Weise empfunden und gespeichert wird. Die Lernpotenziale im Umgang mit virtuellen Dingen, Räumen und Personen herauszuarbeiten, stellt ein zentrales Ziel in den kommenden (Projekt-) Jahren für LEVIKO-XR und KuMuS-ProNeD dar.

Die Beteiligten bewegen sich in diesem Kontext in einem Spannungsfeld zwischen Möglichkeit und Herausforderung: Digitale Werkzeuge werden schon seit einiger Zeit als Mittel anerkannt, um die Begeisterung für das Fach Musik zu entfachen. Der technologische Fortschritt zwingt jedoch dazu, bestehende Konzepte und Designs immer wieder zu überdenken oder anzupassen und neue Wege zu finden, Technologien in den Musikunterricht einzubinden.

Die Projekte LEVIKO-XR und KuMuS-ProNeD blicken positiv auf diese Herausforderungen. Besuchen Sie unsere Webseiten, um weiter zu verfolgen, wie wir einen Beitrag zur Weiterentwicklung der Themenfelder rund um Zukunftstechnologien wie XR im Schulkontext leisten:
LEVIKO-XR

KuMuS-ProNeD

KuMuS-ProNeD und LEVIKO-XR am Standort der Staatlichen Hochschule für Musik Trossingen stehen unter der Projektleitung von Prof. Dr. Philipp Ahner.

Dieser Beitrag ist zuerst auf schule-mal-digital.de im Rahmen des Themenschwerpunkts Lernen und Unterrichten mit Virtual und Augmented Reality erschienen. Er wurde vom Redaktionsteam von schule-mal-digital.de und des Zukunftsraums betreut. 

Vertiefung

In diesem Bereich finden Sie Literatur, Materialien und Links, um sich noch weiter mit dem Thema zu beschäftigen, und die Quellenangaben für den Beitrag.

Lisa Werner

Lisa Werner ist als wissenschaftliche Mitarbeiterin im Projekt KuMuS-ProNeD am Standort der Staatlichen Hochschule für Musik Trossingen tätig. Zuvor absolvierte sie die 1. Staatsprüfung im Bereich Grundschullehramt mit den Fächern Musik und Englisch und drei Master in den Bereichen Klassenmusizieren, Musikvermittlung und Extended Music Education. Zudem ist sie derzeit Doktorandin im Fach Musikpädagogik und Leitung der Musikvermittlungsabteilung in der Rheinischen Philharmonie Koblenz.

Sandro Dalfovo

Sandro Dalfovo ist als wissenschaftlicher Mitarbeiter im Projekt LEVIKO-XR an der Hochschule für Musik Trossingen tätig. Nach abgeschlossenem Lehramtsstudium (mit Virtual Reality als essenziellem Kernelement seines Examens) und dem Master of Music im Hauptfach Klavier verfolgt er darüber hinaus die Tätigkeit als Konzertpianist.

Tobias Rotsch

Tobias Rotsch ist wissenschaftlicher Mitarbeiter im Projekt LEVIKO-XR am Standort der Staatlichen Hochschule für Musik in Trossingen. Nach seinem Studium an der Musikhochschule Münster im Hauptfach Keyboards & Music Production ist er seit 2007 als Dozent in der Lehre sowie in der Fort- und Weiterbildung im Schnittfeld von Musikpädagogik, Digitalität und Praxis tätig.