Dieser Begriff entstand bei der Komposition meines früheren Bühnenwerks Kein Licht, das ich ebenfalls in Zusammenarbeit mit Nicolas Stemann geschrieben habe. Hier habe ich die wichtigsten Zutaten beibehalten, die meiner Meinung nach diese neue Art der Aufführung, die Theater und Musik miteinander verbindet, definieren. Das Wort „Thinkspiel“ ist ein Echo des alten „Singspiels“ aus dem 18. Jahrhundert, in dem die Sänger auch sprechen mussten. Ich bin jedoch vor allem durch eine Reflexion über den Gegensatz zwischen Singen und Sprechen auf diesen Begriff gekommen. Thinkspiel ist nicht ein Spiel mit dem Singen, sondern mit dem Denken. Warum muss unbedingt alles gesungen werden? Der Gesang eignet sich nicht so gut für prosaische Äußerungen. Er ist eine Stilisierung, um nicht zu sagen Sublimierung, eines gesprochenen Textes, die sogar so weit geht, ihn zu pervertieren. Jeder, der sich mit Sprachsynthese beschäftigt hat, kann sich heute davon überzeugen, dass die gesprochene Stimme eine chaotisch gesungene Stimme ist und dass es eine tiefe Einheit zwischen beiden gibt. Diese Einheit wurde schon vor sehr langer Zeit erahnt. Zahlreiche Komponisten wie Mussorgski, Janáček, Debussy oder Schönberg haben, jeder auf seine Weise, von einer möglichen Verschmelzung dieser beiden Ausdrucksweisen geträumt. Um nicht über die Emotionen zu sprechen – ein Begriff, der heutzutage so oft strapaziert und missbraucht wird – die sowohl durch das Sprechen als auch durch das Singen transportiert werden können, möchte ich lieber den Begriff der Situation bemühen. Die heutige Technologie ermöglicht es, diesen Traum zu verfolgen. Man muss also trennen zwischen dem, was durch die Verständlichkeit der Worte verstanden werden soll, und dem, was durch die Verständlichkeit der Situation verstanden werden kann. Ein Ausdruck kann ebenso ergreifend oder komisch sein, egal ob er gesprochen oder gesungen wird, das versteht sich von selbst. In manchen Fällen kommt sie jedoch nicht ohne das Verstehen der Bedeutung aus. So weit ist das nichts Neues. Die Dinge ändern sich jedoch, wenn man die gesprochene Sprache in Richtung Musik zieht. Können die Intonationen des Sprechens nicht als der Beginn von Musik betrachtet werden? Zusammen mit Miller Puckette, der die gesamte Synthese- und Computerverarbeitungsumgebung für dieses Werk entworfen hat, haben wir Systeme entwickelt, die es ermöglichen, elektronische Klänge auszulösen und so eine Art Klangflimmern zu erzeugen, das seinen Ursprung in der gesprochenen oder sogar geflüsterten Stimme hat[1], und auch eine ganze Musik aus einem gesprochenen Dialog hervorgehen zu lassen. Auf diese Weise wird ein weiterer Schritt getan, um das Sprechen dem Singen anzunähern; auf jeden Fall werden diese beiden Modi dank der Fortschritte in der Technologie der Musik gegenüber gleichberechtigt.
Ein weiteres wichtiges Element, das bei der Definition eines „Thinkspiels“ zu erwähnen ist, wurde stark von den Theaterkonzepten beeinflusst, die Nicolas Stemann verwendet. Von Schauspielern wie auch von Sängern wird nicht mehr erwartet, dass sie einen einzelnen Charakter darstellen (verkörpern, personifizieren…). Im Theater und erst recht in der Oper geht es nicht um eine reale Situation, sondern um die Darstellung einer Situation, die früher einmal real gewesen sein mag oder auch nicht. Sänger und Schauspieler werden immer wieder von einer Figur in eine andere wechseln. Ich halte es für notwendig, über diese Ausdrucksform nachzudenken, bei der die Situation die Hauptrolle spielt und nicht die Identifikation eines Schauspielers oder einer Sängerin mit einer Figur. Die Oper kann wie das Theater nicht den Anspruch erheben, die gleiche Kraft des Realismus zu vermitteln wie Film oder Video. Die Darstellung einer Situation, sei sie nun imaginär oder real, kann durch eine Vielzahl von Ausdrucksformen erfolgen, manchmal sogar gleichzeitig; dies ist das Ergebnis eines Denkens über die Situation. Das ist es auch, was für mich das bestimmt, was ich Thinkspiel nenne.
[1] Der Fall der geflüsterten Stimme ist sehr interessant. Für das Ohr ist sie ein Geräusch ohne erkennbare Tonhöhe, nicht aber für einen Computer, der in Echtzeit alle Frequenzen analysieren kann, aus denen sie sich zusammensetzt, und der die stärkste Amplitude identifizieren kann. Der Computer kann diese Frequenz dann an ein Synthesewerkzeug weiterleiten, das sie für uns hörbar macht. So ist es möglich, allein durch das Rauschen der Stimme Musik zu schaffen, die aus hörbaren Frequenzen besteht.