Dirigieren mit Trommelschlegeln - Max Mathews, Vater der Computermusik
Bruno Spoerri
gekürzt erschienen in: Neue Zürcher Zeitung, Medien und Informatik, 27.April 2001
"Wenn ich ein besserer Geiger gewesen wäre, hätte ich mich wahrscheinlich nicht mit elektronischer Musik beschäftigt". Der 74jährige Max Mathews, der dies schmunzelnd sagt, gilt als "Vater der Computermusik". Und tatsächlich wäre die Geschichte der Computermusik anders verlaufen, wenn Mathews ein begabter Violinist oder, anders herum, ein unmusikalischer Techniker gewesen wäre.
In der dritten Schulklasse begann Mathews Geige zu spielen. Bald musste er einsehen, dass er nicht sehr talentiert war; aber er liebte Musik, spielte im Schulorchester mit und bediente im Blasorchester auch das Sousaphon. In der Zeit des 2. Weltkriegs war er zwar im Militär, hatte aber viel freie Zeit und konnte in einem Abhörraum stundenlang Musik anhören. "Ich realisierte damals, dass Musik mehr ist als nur technische Fertigkeit auf einem Instrument."
Nach dem Studium als Elektroingenieur suchte Mathews eine Stelle und landete, zufällig, wie er betont, im Jahr 1955 im Laboratorium für akustische Forschung des Telefonkonzerns Bell. Seine Aufgabe war es, die Sprachverständlichkeit und Klangfarbentreue der Telefone zu verbessern. Für seine Testreihen benötigte er genau definierte Testtöne und Sprachklänge, und da lag es nahe, die neu entwickelten digitalen Rechner zu verwenden. Die theoretischen Grundlagen dazu waren schon seit einiger Zeit von Shannon und Nyquist (auch ein Mitarbeiter der Bell Labs) bereitgestellt worden; man wusste, dass eine beliebige Schallwelle genügend genau durch eine Ziffernfolge dargestellt und somit in einem Computer errechnet werden kann. Auf dieser Grundlage schrieben Mathews und seine Mitarbeiter ein Programm, in dem die benötigten Zahlenreihen definiert werden konnten. Mutig extrapolierte der musikbegeisterte Mathews seine Aufgabe, die ja nur darin bestanden hätte, Sprachklänge herzustellen. Er entwarf ein allgemeines Klangsyntheseprogramm, das er MUSIC I nannte.
Gerechnet wurde auf dem für damalige Verhältnisse riesigen IBM 704 Computer am IBM Hauptsitz in New York; die Digitalbänder wurden dann nach Murray Hill in New Jersey zurückgebracht und auf dem ersten und einzigen Digital-Analog-Konverter der Welt in Klang umgewandelt. Der Psychologe Newman Guttman schrieb mit MUSIC I 1957 die erste digitale Klangstudie "In the Silver Scale" - ein Stück, das allerdings noch wenig vorausahnen liess, dass Computermusik auch angenehm klingen könnte. 1958 folgte MUSIC II mit der Möglichkeit, vierstimmig und mit total 16 Wellenformen zu arbeiten. Music V, zehn Jahre später entwickelt, legte die endgültige Form des Programmpakets fest, das bis heute in vielen Abwandlungen die Grundlage der Klangsynthese mit dem Computer bildet.
Der synthetische Interpret
Mathews kam immer wieder zurück auf sein Grundanliegen, Musik befriedigend zu spielen, ohne vorher grosse Fingerfertigkeit auf einem Musikinstrument erwerben zu müssen. 1970 entwickelte er ein hybrides System, einen computergesteuerten Analogsynthesizer, der ihn diesem Ziel näherbrachte. Seine Idee bestand darin, die Aufgabe der Darbietung konventionell komponierter Musik in zwei Teile zu teilen: die Partitur mit allen Angaben über Tonhöhen, Tondauern und Klangfarben wird im Steuercomputer gespeichert; die Interpretation, das heisst vor allem Tempo, Lautstärkeverlauf, Feinheiten der Ausführung werden von einem dirigierenden Musiker geregelt - eine Idee, die übrigens früher schon annähernd auf "Player Pianos" realisiert worden war.
Das Conductor-Programm (ab 1969) für den GROOVE-Synthesizer konnte von mehreren Steuereinheiten beeinflusst werden: einem Joystick, der so gross war, dass er mit Dirigiergesten bewegt werden konnte, einer Spezialtastatur und einer Trommel, die durch Dehnungsmessung der Membran die Stärke des Aufschlags übermittelte. Jeder Schlag auf die Trommel oder jede Joystick-Bewegung gab dem Computer das Signal, eine weitere Viertelnote in der eingegebenen Partitur vorzurücken. Vor allem die Trommel erwies sich als praktikables Konzept und diente als Ausgangspunkt für die weitere Entwicklungsarbeit, die Mathews auf Einladung des Dirigenten und Komponisten Pierre Boulez im Forschungsinstitut IRCAM in Paris weiterführte. Die "Sequential Drum" von 1980 hatte ein Geflecht von rechtwinklig angeordneten Drähten. Ein Schlag führte zu einem Kontakt zwischen den Drähten und erlaubte, die Position des Anschlags festzustellen. Diese x-y-Messwerte wurden dann zur Steuerung verschiedener Parameter der Musik benutzt, sowie ein zusätzlicher Messwert, der mit Hilfe eines Mikrofons aus der Anschlagstärke abgeleitet wurde.
Allerdings realisierte Mathews in dieser Phase der Arbeit, dass es bedeutend schwieriger als erwartet war, ein sinnvolles Steuersystem für Musik herzustellen. Bei starken Schlägen brachen die Drähte, zudem war keine kontinuierliche Information über die Dirigierbewegungen des Interpreten vorhanden: nur im Moment des Anschlagens wurden kurzzeitig Messungen von Anschlagort und -stärke möglich.
Der Radio Baton
Nach der Rückkehr von Paris in die Bell Labs ging Mathews das Problem mit der Hilfe des Physikers Bob Boie an. Zusammen fanden sie nach einigen Irrwegen eine neuartige und bessere Lösung: in die Spitze von zwei Trommelschlegeln wurden kleine Sender eingebaut, die Wellen in der Grössenordnung von 50 kiloHertz aussandten. In einem viereckigen, auf dem Tisch liegenden Gehäuse waren Antennen angebracht, die die Stärke der Strahlung sehr genau massen. Ein Computer wertete die Messungen aus. Die Differenz zwischen den Messwerten der linken und rechten Antenne zum Beispiel zeigte ständig die Position des Schlegels auf der x-Achse. Ebenso wurde die Position auf der y-Achse gemessen sowie durch Summierung aller Messwerte der vertikale Abstand vom Antennengehäuse.
Das Gerät, ausgestattet mit einem MIDI-Ausgang, fand sofort Anklang bei Musikern. Die amerikanischen Komponisten Richard Boulanger, Andrew Schloss and David Jaffe begannen 1986 Stücke zu schreiben und Improvisationen zu kreieren für das Instrument, das nun Radio Baton oder auch Radio Drum genannt wurde. Als besonders wertvoll erwies sich die Möglichkeit, einen gespielten Ton nach dem Anschlag durch Bewegungen in der Luft spielerisch zu verformen.
Mathews selber hatte seine eigenen Ideen zur Verwendung seines Radio Batons. Er nahm die Arbeit an seinem Conductor-Programm wieder auf, fütterte es mit Partituren von Bach und Mozart und gab Vorführungen als Dirigent seines eigenen Synthesizer-Orchesters. Es war erstaunlich: wenn man sich an den Anblick des mit zwei Trommelschlegeln dirigierenden Mathews gewöhnt hatte, entdeckte man, wie viele Nuancen er mit seinen Bewegungen aus den doch sehr synthetisch klingenden MIDI-Geräten herausholte. "Ich denke, Musik zu interpretieren, ist ein grosses Vergnügen. Und wenn man das tun kann, ohne die Mühsal, vorher ein Instrument zu beherrschen, ist es umso schöner." Mathews meint auch: "Der Radio Baton ist für einen musikalischen Menschen das am leichtesten zu erlernende Instrument der Welt." Allerdings sieht er die Bedeutung seiner Entwicklungsarbeit weniger im Konzertsaal als in der privaten Kammer, vor allem als willkommene Hilfe für Instrumentallehrer. "Vor allem beim Unterrichten von Sängern und Sängerinnen ist es für den Lehrenden mühsam, immer am Klavier begleiten zu müssen - mit dem Radio Baton kann er die Rolle des Dirigenten übernehmen und sich viel mehr auf den Schüler konzentrieren."
Eine weitere Anregung für die Anwendung des Radio Baton-Systems stammt vom Komponisten John Chowning. Er nennt es "active listening", aktives Hören von Musik. Er stellt sich vor, dass der musikinteressierte Hörer nicht einfach eine CD abspielt, sondern die Musik selber dirigiert und damit ein viel besseres Verständnis für die Komposition erwirbt.
Viele Details sind allerdings noch nicht befriedigend gelöst. Ein vergessener Schlag mit dem Baton verwirrt das System völlig. Abrupte oder auch schon kleinere Tempoänderungen können unschön interpretierte Tonfolgen bewirken, besonders wenn die Partitur an dieser Stelle viele Töne enthält.
Unabhängig von Max Mathews hat sich der Akustikforscher Johan Sundberg, Professor im Royal Institute of Technology in Stockholm schon lange mit diesen Problemen befasst. Er studierte die interpretatorischen Finessen von guten Musikern und versuchte, Regeln und Gesetzmässigkeiten der "richtigen" Interpretation zu finden. Diese Regeln übertrug er auf die Wiedergabe von Partituren mit Computern und Synthesizern und erreichte tatsächlich in vielen Fällen eine lebendigere, echter wirkende Aufführung.
Gerald Bennett, Studienleiter für Computermusik an der Musikhochschule Zürich, hat Mathews und Sundberg zusammengebracht und ein gemeinsames, von der Musikhochschule unterstütztes Forschungsprojekt initiiert. Ziel des Projekts ist ein verfeinertes Conductor-Programm. Die von Sundberg ausgearbeiteten Automatismen sollen dort in die Bresche springen, wo die Steuersignale des Radio Baton nicht genügen, um die eher leblosen Klänge des Synthesizers musikalisch zu beleben. Mathews war anfangs noch skeptisch: "Wie kann ich die Sundbergschen Regeln umgehen, wenn sie in mein System eingebaut sind, mir aber in einem Einzelfall nicht gefallen?" Die bisherige Arbeit hat effektiv zur interessanten Situation geführt, dass Regeln und Dirigent bisweilen in Konflikt geraten - eine Situation, die der realen Situation im Orchesteralltag ähnelt. Es ist die Aufgabe der kommenden Wochen, eine musikalisch überzeugende Lösung zu finden.