From Bestellnummer DMR 1007-09: ELECTRONIC MUSIC Musicians have always made more use than other artists of the technology of their period. For music, although it is the most abstract of the arts, is dependent on instruments in the broadest sense of the word, on apparatus, for its realization in sound, and thus on the organization of physical systems. At the same time, music has always been a rich field for speculative thought. Precisely because their dependence on apparatuses and their control calls for a considerable amount of theorizing, musicians have at their disposal theoretical models speculating on the potentialities of their art long before the physical capability of realizing them has been attained. In 1906, Busoni spoke of a continuum of pitch: ". . . the gradation of the octave is infinite, and let us attempt to get a little closer to infinity." He went on to develop a sixth-tone system, trusting that "sixth-tones will also have something to say one day", and raised the question of realizability. "On the other hand, the question of how and on what these tones could be played is important and critical. It is a happy coincidence that I (...) have received a direct and authentic piece of news from America which solves this question quite simply." Busoni is referring to Cahill's dynamophone, whose practical value, however, is already doubted by the person (Baker) reporting on it. This complex apparatus, says Busoni, enables "an electric current to be transformed into a precisely calculable, unalterable number of vibrations. As the pitch depends upon the number of vibrations, and the apparatus can be adjusted to any desired number, the infinite gradation of the octave can be attained simply by means of a lever which is linked to the pointer of a quadrant. It will need long and conscientious experimentation, continuous training of the ear, to make this unusual material tractable for the purposes of a new generation and for art." In 1911, Schoenberg spoke of a continuum of tone-colour. Going on the assumption that pitch is nothing but a dimension of tone colour, he developed the concept of the tone-colour melody. He did, in fact speak of it as a futuristic notion, but he did not doubt but that it would be realizable at some time in the future. Such bold ideas, expressed at the beginning of our century, were visions of potentialities which at the time had no chance of realization. They were not to bear fruit until much later - until after the first world war - when the necessary technical facilities had finally been developed. In 1922, Varese said: "What we want is an instrument that can give us a continuous note at any required pitch. Composer and electrical engineer should cooperate to achieve this goal. We cannot at any price continue to work with the tone-colours of the classical school. Speed and synthesis are the characteristics of our epoch. We need 20th century instruments if we are to express this century in music". At about the same time, J. Mager was engaged in the construction of electronic musical instruments with the aim of: "providing music with the totality of all vibrations, for both melody and harmony, yes, even for all partials, upon which tone-colour depends." Although innumerable instruments using the electronic generation of sound were constructed both before and after this, they had only a fringe effect upon the development of music in the first half of the 20th century. For all of these instruments were either orientated on traditional patterns of western musical development (whether with regard to normed systems of pitch, articulation, and tone-colour, or to traditional playing techniques) or they offered only a very limited choice of sound types. It should not be forgotten that since Pythagoras's realization, when experimenting with string lengths, that pitch relationships could be expressed in mathematical figures, musicians have always succeeded in formulating their theories in the most advanced scientific terms of their age. That still applied to the 17th century, in which real numbers, adopted generally in science following the invention of the decimal point, were also made use of in music for the foundation of equal chromatic temperament. In the 19th century came the application of physical measurement of time, and Ohm and Helmholtz formulated a physical theory of tone-colour which they provided with a solid analytical-mathematical foundation based on an interpretation of Fourier's theorem. When, in 1906, it finally became possible to generate continuous electrical oscillations and in the same year the valve was invented, the way was open not only for the overwhelming development of wireless communication techniques, including radio broadcasting, but also for a very general scientific theory of electronic sound production and transformation. The new techniques led to astonishing results in the field of electronic speech synthesis in the 1930's (Dudley 1939); but in the field of music it was first necessary entirely to abandon the conventional musical instrument with its links to traditional values before the achievements of science were able to provide completely new impulses from within. One of the reasons why this did not take place before the 1950's is undoubtedly to be sought in the fact that the technical problems of magnetic sound recording were not satisfactorily solved until after the second world war. It is true that Milhaud, Hindemith, Toch, and other composers did attempt to compose directly onto sound tracks in the 1920's, and in 1932 Stokowski saw the time coming, "when a musician who is creator can create directly into tone, not on paper"; also, as early as 1936, there was a tape recorder made by AEG for which BASF provided the magnetic tape. The technique of recording sound nevertheless only became really operational for the composer when the problem of biasing had been solved, and, after 1945,broadcasting companies switched from record to tape recordings. Now sounds could not only be recorded (which had been possible since 1877 - Cros, Edison), but could also be manipulated. Thus began the pioneer period of independent tape music, inaugurated by composers of the 1890-1910 generation, but brought to a first flowering by a younger generation, whose dates of birth nearly all fall in the 1920's. It is hardly surprising that the radio stations became the crystallization points of this new development. From the very beginning, they had worked with recording, storing, and reproducing apparatus. Ideas of independent radio music had already been discussed at the end of the 1920's. An experimental radio department was set up at the Berlin Music Academy in the hope of "making young musicians so familiar with the limits, characteristics, and potentialities of radio, that they can arrive at a kind of music that is in keeping with the purpose, spirit, and technical capabilities of radio". Hermann Scherchen had expressed similar thoughts at Radio Bremen in 1929. But the time was not yet ripe; neither the technical nor the social prerequisites could be met. Most of those in charge of music departments at that time took the view that the task of radio was solely in the sphere of reporting, that is, in the broadcasting of performances from concert halls and studios. The new possibilities of telecommunication were used, but not the creative potential of radio music. This only came into its own after the second world war, but then with remarkable vigour, richness, and creative force. In 1948, after much preliminary research, the French engineer and musician Pierre Schaeffer (born 1910) began a series of experiments at Paris Radio that he at first cautiously called "Recherches sur les bruits". "J'ai toujours eu peu de curiosite pour les instruments nouveaux d'ordre électro-acoustique, ondes où ondiolines, tout en appréciant leur ingéniosité et leurs efficacité dans certains cas . . . Mon père est violiniste, ma mère chanteuse. On peut donc penser que j'ai de 1'aversion pour toute musique directement electrique, d'òu ma démarche differénte (...). II y a parti-pris au départ, et sans doute atavisme. Je ne cherche pas à imiter, mais à fabriquer." Schaeffer's experimental objects are sounds of widely different provenance recorded on record or tape: the sounds of bells, trains, pans, orchestras, etc. By means of cutting and montage, these "concrete" sounds and noises are taken out of their context and rearranged in new, musical shape. "La musique commence là où s'exercent ces deux demarches: Distinguer un élément (1'entendre en soi, pour sa texture, sa manière, sa couleur). 'Le répéter'. Répéter deux fois la même chose, il y a musique". The five studies resulting from Schaeffer's experiments were broadcast for the first time by Radiodiffusion Francaise on 5th October 1948 under the title "Concert de bruit". A year later, the composer proposed that his new noise art should be called "Musique concrete" (a name that he had already thought of in April 1948). The first creative response to Schaeffer's music in Germany came from a young Munich composer: JOSEF ANTON RIEDL Josef Anton Riedl (born in 1929). As a boy he already began composing music for piano, organ, and voice, and later studied with Carl Orff. In 1951 he won a scholarship enabling him to take part in the "Stage International Festival d'Aix en Provence". "At it, Pierre Schaeffer played recordings of his first Musique conrete works. I was so impressed that in the following autumn I visited him in his studio in Paris in order to find out more about his productions and the technical equipment of the studio etc. After that, with 4 old Telefunken tape recorders (from the "PädagogischeArbeitsstätte" in Munich) 2 ring-modulators and band-pass filters, 1 microphone and 1 tape recorder, which was (only) used for the mechanical generation of a sound, I produced Studie I, and, using elements of this study in a different manner (order, omission) together with some harp notes ("drops of sound") and vocal sounds (processed by cutting of the tape), Studie II." The first performance was in Munich in 1956. In 1981, using the original tapes of the 2 "Studies" (in combination with "Lautgedichte" - Sound Poems), the composer produced a technically new mix for the Westdeutscher Rundfunk (WDR). At the beginning of the 1950's, an independent development in tape music, which was to become famous as "electronic music", began in Germany. On 18th October 1951, the WDR in Cologne broadcast a programme entitled "The World of Sound of Electronic Music". Those taking part were Herbert Eimert (director of the late-night music programme), his assistant Robert Beyer, Friedrich Trautwein (the inventor of the trautonium), and Werner Meyer-Eppler. The sound models presented had been produced by the acoustician Meyer-Eppler at the "Institut für Phonetik und Kommunikationsforschung" of the University of Bonn. The sounds had not been picked up by microphone, but had been electronically generated and transformed. The sound source was a melochord, an electronic melodic keyboard instrument with two independent means of sound control, invented by Bode in 1940. The instrument had already been used for years conventionally for plays and music programmes on German radio, but now it was used with a completely different aim in mind: with the aid of electronic sound generation and transformation, absolutely new musical territory was to be opened up. It was a bold, but realizable plan, because it was solidly based on the scientific communications theory, from which the aim was to develop a new, modern theory of electronic composition defined in DIN terms (DIN = Deutsche Industrie Norm, or German Industrial Standards); DIN 1320: note, note mixture, sound, sound mixture, noise, beat or click. This, then, was musical theory at the level of contemporary science, the exordium for "absolute" music liberated from the need of an interpreter. This was the stand taken by the scientist Meyer-Eppler. The musician Herbert Eimert saw things in a different light. "The composer is faced with the task of creating ordered relationships and firm formal patterns in this new, unlimited realm of sound. There are direct links to the situation of the latest 'abstract' music much of which has advanced to the limits of performability." HERMANN HEISS Hermann Heiss (1897-1966). "I had no musical training (music was regarded as too unprofitable!) and had to learn everything myself. But it was also typical of me that I did not like being taught, and preferred to discover everything for myself rather than having it served up on a plate. It is probably to this characteristic that I owe my thorough knowledge of music." In 1919, after having been a prisoner of war, he began to study music on his own, and, from 1921-23, with Sekles and Renner, and became involved with twelve-tone music. In 1925 he studied with Matthias Hauer in Vienna, and their work together led to the publication of the book "Twelve-Tone Technique", which Hauer dedicated to his pupil Heiss. "It would fill a book if I were to (. . .) relate the Odyssey of my struggle for existence at that time. I had somehow to earn my living by copying music, conducting operetta or variety, doing architectural drawings, as janitor, cabaret artiste, hack writer, etc., while at the same time I wrote a lot of chamber music, orchestral works, a fairy-tale for the stage, and a grand opera - and all this without any prospects of a performance, as I had been branded as a 'cultural Bolshevik'." From 1946 Heiss taught dodecaphonic music at the Darmstadt Ferienkurse, and was appointed teacher of composition and theory at the Music Academy in 1948. Three years later he began to develop his own ideas on electronic music, came in contact with Eimert, and, in 1955, composed his "Elektronische Musik I" at the Cologne Studio. "The range of tone-colour in modern music has been increased immeasurably by the world of electronic sound. Composing processes, however, have not kept up with this development, especially not in the sector of formal invention. Until right into the early years of twelve-tone music, this had been an evolutionary process, a process of successive developments whose end could not be foreseen with accuracy, a coming and going which used time like a rubber band or modular furniture. Anton Webern was the first to subordinate form to the characteristics of the material, and thus established a relationship between time on the one hand and contents and form on the other. Serial music consequentially developed these ideas, but neglected the problem of form as a resultant of time. (. . .) Musical form is never anything but the shaping of time. In my opinion, the luxuriant world of sound of electronic music cannot so much be brought under control by means of new methods of tempering or correlation systems, as by a highly differentiated time pattern, a discontinuum of time, organized down to the tiniest detail. A successive process is out of the question, as simply lining things up does not amount to organization. Organization presupposes a whole." (. . .) ". . . (I select) the overall shape of the musical form, the time, in advance, just as the painter chooses the size of his canvas, or the sculptor the dimensions of the block he is going to work on before he begins shaping it. In our case, the organization of time moves centripetally from the fixed total length." The sound material of electronic music is ideally suited to this process. "These sounds possess the characteristic of permeability (. . .). Different sound structures can be interwoven without clashing." They can be simultaneously combined in ever-new chronological relationships. "The time of departure can be chosen at will. (. . .) We face a landscape, a mountain range with a great variety of elevations, valleys, and plains. When we fly, drive, or, better still, walk, along this mountain landscape, the mountains, valleys and plains themselves never change - but the constantly changing relationships between them open up constantly new, unexpected aspects, and we can hardly tire of the changing perspectives." All the composers introduced on this record worked in the Cologne Studio. They are united in their will to make creative use of the new means provided by electronic music. There is, however, hardly such a thing as a Cologne School - although this term was often used in the 1950's. The composers' aims were even then just as different as their later developments turned out to be. Riedl founded the technically advanced Siemens Studio in Munich (1960-66), now works with film-makers, has been creating multimedia compositions with the group "MUSIK/FILM/DIA/LICHT-Galerie" founded by him in 1967, and processes natural material in compositions for synthesizer ensembles, percussion groups, choirs, etc. Heiss, appointed director of the "Studio fiir elektronische Komposition" at the Kranichstein Music Institute, in 1955, has devoted himself to live electronic music. It is unnecessary to sketch the careers of famous figures such as Kagel; but it is worth noting the amazing fact that the composers whose electronic works were the most advanced and future-orientated, hardly followed up their earlier ideas, but turned to new fields. The one constant factor throughout was Herbert Eimert. Werner Kaegi (Translation: Desmond Clayton) HERBERT EIMERT Herbert Eimert (1897-1972) studied in Cologne, from 1919-24 at the Academy under Bölsche, Othegraven, and Abendroth, and from 1924-30 at the University under Bükken, Kahl, and Kinsky. He composed for Cologne Radio during the years 1928-33, returning to the same institution in 1945; in 1948 he became director of the late-night music programme, and, in 1951, founded the Studio for Electronic Music, the first of its kind, which was built up by Fritz Enkel mainly on guidelines proposed by Meyer-Eppler. Eimert was not only well-informed on the problems of radio music, but also knew about developments in the field of electrical musical instruments. Furthermore, there were also Eimert's stylistic interests as a composer. As early as 1924 he had published a 'Theory of Atonal Music'; in 1950 came his 'Theory of the Twelve-Tone Technique', and, in 1964, his 'Rudiments of Serial Music'. Finally, Eimert also wrote widely: books, articles, programme notes, and radio programmes. Eimert used his talents indefatigably in the service of the new idea - as director of the late-night music programme, as editor of 'Die Reihe', and, above all, as director of the Cologne Studio at the radio station (1951-63) and of the Electronic Studio at the State Academy of Music (1965-71). His true achievement, however, lay in the way in which he combined technical and aesthetical considerations and drew his own very personal conclusions. He believed that the continuum of sound made possible by modern science and technology should be organized according to the principles of serial music. "As in the technique of serial music, the basic process of electronic music is that the composer determines each note's pitch, duration, and intensity. But he no longer has only 70 or 80 pitch levels at his disposal, as in instrumental music, with six or seven intensities from pp to ff, with minims, crotchets, quavers, and dotted and syncopated values, but electronic frequencies from 50 to 15,000 or 16,000 cycles, with 40 and more precisely measured dynamic levels, and a great number of durational values (. . .), which cannot be adequately expressed in traditional notation. Conventional musical sound appears to have been suddenly so infinitely multiplied by the explosive power of electronics, that it would be pointless to try to confine it to a single means of sound control, such as a keyboard." Thus, for the production of the first electronic compositions by Eimert and Beyer, which were given their premiere at the Neues Musikfest in Cologne in 1953, no direct use was made of electronic sound control instruments. Existing sound material from the melodium and trautonium was used indirectly, but, on the whole, only sinus tones, produced by a difference-tone generator, or buzzer, and organized on the principles of serial music, were used. In the same year, Eimert began with his "Etude über Tongemische", and in 1955/56 he composed his "Fünf Stucke", in which serially-conceived pitch configurations are introduced in constantly new variations of sound which unite in the fifth section to form a very personal, atmospheric world of sound. Werner Kaegi (Translation: Desmond Clayton) MAURICIO KAGEL Mauricio Kagel (born 1931). He received private musical tuition (piano, cello, organ, and voice), but as a composer he is self-taught. He studied literature and philosophy at the university of his home town, Buenos Aires. At the age of 19 he became artistic adviser to the Agrupación Nueva Musica of Buenos Aires, was a founding member of the Cinémathèque Argentine and musical adviser to the university in 1950, and became conductor of the Colón Chamber Opera and the Teatro Colón in 1955. In 1952 he had already composed a piece of music on tape called "Musica para la torre", which leaned in the direction of Musique concrete, and included light-effects. In 1957 Kagel moved to Cologne, where he began to work in the electronic studio the following year. Here he composed a work which was different in many ways from Cologne serialism: "Transicion I", a piece of music of slow changes, of continuous transition - one moment flowing smoothly, the next moving forward dramatically. In order to achieve his aims, Kagel developed his own technique of material transformation: "musical translation and rotation". A striking aspect of the composer's work is his attempt to formulate his strategies as abstract algorithms - which can be interpreted physically in the terms of all the control parameters of electronic sound generation. It is certainly no coincidence that Kagel (inspired by Paul Klee's ideas) puts his transformation rules into visual form: "Rising or falling (being the direction taken by a series of notes) are components of a two-dimensional geometry." In more general terms, it could be said: musical processes can be seen as interpretations of transformations in a two-dimensional vector space. Werner Kaegi (Translation: Desmond Clay ton) From Wergo 60014: Herbert Eimert EPITAPH FÜR AIKICHI KUBO Komposition für Sprecher und Sprachklänge Übersetzung der Grabinschrift: Günther Anders Sprecher: Richard Münch SECHS STUDIEN Studio für elektronische Musik im Westdeutschen Rundfunk Köln Klangliche Realisation: Leopold von Knobelsdorff Günther Anders Günther Anders gehört zu denjenigen philosophischen Schriftstellern, denen es nicht genügt, ihre Einsichten für den ausschließlichen Konsum durch andere Akademiker zu formulieren. Vielmehr hält er es für unerläßlich, die Probleme von heute, die nicht nur "Probleme", sondern Gefahren größten Ausmaßes sind, in einer Sprache vorzutragen, die jedermann verständlich ist, und seine Theorien durch Aktionen zu ergänzen. Seit 1954 hat Anders pausenlos über die Bedrohung der Menschheit durch die Atomrüstung geschrieben, seinen ersten Aufsatz über die heutige "Apokalypse-Blindheit" hat er auch in sein Buch "Die Antiquiertheit des Menschen" (München 1956) aufgenommen. Aber außerdem schien es ihm notwendig, sich in dem Lande, das bis heute als einziges wirkliche atomare Erfahrung hinter sich hat, zu informieren und mit der dortigen Bevölkerung in Kontakt zu treten. Im Jahre 1958 hat er Tokyo mit Studenten, Ärzten, Geistlichen, Gewerkschaftlern und Wissenschaftlern ein Seminar über "Moral im Atomzeitalter" abgehalten. Aber er zog auch mit den Menschenmassen, die gegen die weitere blinde Steigerung der Atomrüstung protestierten, durch die Straßen von Tokyo und Kioto, und er besuchte die Atomkranken in Hiroshima und Nagasaki. In Yaisu, dem Heimathafen Kuboyamas, des ersten Opfers radioaktiven Staubes, des Mannes, der durch das Bikini-Experiment sein Leben verloren hatte, führte er mit der Mutter und der Witwe des Toten eine TrauerProzession durch das Städtchen. Diese Szene hat er in seinem Japanbericht "Der Mann auf der Brücke" geschildert. Ein Jahr nach seiner Japanreise ist Anders in einen Briefwechsel mit Claude Eatherly getreten, dem Piloten, der das "Fertig-los"-Zeichen für den Atomangriff auf Hiroshima gegeben hatte, und der seit vielen Jahren mit dem Gedanken, an einer so unvorstellbaren und, wie wir heute wissen, völlig überflüssigen Tat mitbeteiligt gewesen zu sein, nicht fertig wird. Die Zeilen über Aikichi Kuboyama hat Anders übrigens bereits vor seiner Japanfahrt niedergeschrieben. In Yaisu erfuhr er dann, daß Kuboyama, nicht, wie er angenommen hatte, ein "kleiner Fischermann" gewesen war, sondern der Funker eines größeren Fischdampfers, des sog. "Glücklichen Drachens". = = = = = = = = = = = = = = = = = = Das "Epitaph für Aikichi Kuboyama" erscheint auf der Schallplatte in der gleichen Form, in der es in Konzertsälen und Rundfunksendungen aufgeführt worden ist, nämlich mit dem vorangehenden Textteil, der die Ansage des Stückes, einen kurzen Hinweis auf den Tod des japanischen Fischers Aikichi Kuboyama und die Grabinschrift enthält. Nach der Ansage mit Titel, Mitwirkenden und Bezeichnung der Kompositionsgattung sagt der Sprecher einige Sätze, die zum Verständnis des folgenden notwendig sind. Dann folgt ein zweiter Sprecher- in diesem Fall muß ich den Namen nennen: es ist Richard Münch vom damaligen Gründgens-Ensemble in Hamburg -, der die Grabinschrift für den japanischen Fischer spricht. Die gesprochene Grabinschrift bildet die Grundlage des aus ihrem Spektrum gewonnenen Klangmaterials; sie ist Bestandteil des Stückes, das nach dem Ende des Textvortrags sogleich wieder den Anfang der Inschrift "Du kleiner Fischermann Aikichi Kuboyama" bringt und dabei den sprachlich rhythmisierten Geräuschanteil des Spektrums immer stärker hervortreten läßt, bis das Wort nach wenigen Augenblicken von ihm zugedeckt wird. Der voraufgehende Hinweis auf den Atomtod des japanischen Fischers war notwendig, weil das Stück in sich verständlich sein muß, auch ohne gesprochene oder gedruckte Erläuterungen, wie sie bisher vielen Aufführungen und nunmehr auch dieser Schallplattenfassung mitgegeben worden sind. Der Text der Grabinschrift für den japanischen Fischer Aikichi Kuboyama gilt dem ersten Fernopfer des Atomzeitalters. Im März 1954 wurde Aikichi Kuboyama das Opfer der sogenannten Bikini-Bombe. Als diese erste Wasserstoffbombe versuchsweise im Südpazifik explodierte, befand sich der japanische Fischkutter Fikuryumara etwa 130 Kilometer vom Sprengzentrum entfernt. Die 23 betroffenen Fischer wurden monatelang ärztlich behandelt; nach fünf Monaten ging Kuboyama an der radioaktiven Vergiftung zugrunde. Die täglichen Berichte der Ärzte über seinen Zustand verdrängten damals in der japanischen Presse alle ändern Nachrichten. In englischer Übersetzung erschien die Inschrift auf dem Gedenkstein im "Sydney Chronicie" vom 3. März 1955. Die deutsche Übersetzung ist von Günther Anders, der sie in seinem Buch "Die Antiquiertheit des Menschen" veröffentlicht hat.1 In diesem Zusammenhang sagt Anders: Die nuklearen "Experimente" sind heute keine Experimente mehr. Daß man sie "inselartig" auf Korallenriffen oder irgendwo sonst im Weltmeer durchführt; daß man also zuguterletzt, um das Prinzip der Isolierung zu retten, auf "Insularität" im Ur-Sinne zurückgreift, ist zwar sehr charakteristisch. Aber diese letzten Isolierungsversuche, das heißt: die verzweifelten Bemühungen, noch "Versuche" zu machen, bleiben vergebens, Wie großartig die Versuche auch glücken mögen - das Versuchen mißlingt, weil jedes Versuchen sofort umschlägt, sofort mehr wird als Versuchen. Die Effekte sind so ungeheuer, daß im Moment des Experiments das "Laboratorium" ko-extensiv mit dem Globus wird. Das aber bedeutet nichts anderes, als daß zwischen "Probe" und "Durchführung" zu unterscheiden, seinen Sinn verloren hat; daß jedes "Experiment" zu einem "Ernstfall" geworden ist. Im Hinblick auf seinen Buchtitel charakterisiert Anders den japanischen Fischer als den antiquierten, von der modernen Technik überrollten Menschen, der wehrlos dem Experiment ausgeliefert ist, das sich als solches tarnt, in Wahrheit aber den Ernstfall mit absolut negativem Ergebnis darstellt. Die offenbar gedichtartige Grabinschrift für den japanischen Fischer, in diesem Falle die deutsch gesprochene Inschrift ist die Grundlage der Tonbandkomposition "Epitaph für Aikichi Kuboyama". Das Stück wurde im Studio für elektronische Musik des Westdeutschen Rundfunks Köln realisiert. Es bedient sich der üblichen elektronischen Mittel von Lautsprecher, Magnetophon, Verstärker und Filter, aber es verwendet keine elektronisch erzeugten Klänge, keine Sinustöne und Tongemische, keine Farbgeräusche und kein weißes Rauschen. Vielmehr besteht das Material des Stückes ausschließlich aus der einleitend gesprochenen Grabinschrift. Es gibt also in dem ganzen Stück keinen Klang, der nicht aus dem Wort des Sprechers, das heißt: aus dem Klangspektrum des gesprochenen Wortes gewonnen wurde. Deshalb heißt die Gattungsbezeichnung des Stückes: Komposition für Sprecher und Sprachklänge. Das ist etwas grundsätzlich anderes, als was man bisher im elektronisch-kompositorischen Bereich unter Einbeziehung der menschlichen Stimme kennengelernt hat, etwa in dem "Pfingstoratorium" für zwei Singstimmen und elektronische Klänge von Ernst Krenek, in Karlheinz Stockhausens "Gesang der Jünglinge", der die von einer Knabenstimme gesungenen Töne mit elektronisch erzeugten in Einklang bringt, oder in Luciano Berios "Visage" für Frauenstimme und elektronische Klänge. Zu erwähnen sind auch einzelne Silben, Worte oder gesprochene Passagen, wie sie die Musique concrete weniger mit musikalischen Absichten als im Sinne von Verfremdungseffekten verwendet. Eine Mittelstellung zwischen elektronischer Musik und Musique concrete (der Unterschied wird im einzelnen noch zu beleuchten sein) nimmt Berios "Ommaggio a Joyce" ein, wo Sprachlaute, Worte und Sätze aus einem Fragment des "Ulysses" von Joyce von einer Frauenstimme englisch, französisch und italienisch gesprochen und so manipuliert werden, daß sich zwischen Wort und musikalischem Klang der eigene Bereich eines modulationsreichen Sprechsingens einschiebt. In dem "Epitaph" habe ich versucht, das neuartige Prinzip von Sprachklängen ohne Kompromiß zu realisieren, und zwar so, daß das Gesprochene nicht nur verfremdet erscheint, sondern mit einem umfassenden Konzept in allen Schichten zwischen reinem Wort und reinem Klang aufgedeckt und kompositorisch verfügbar wird. Von allen Klangspektren, die es gibt, ist das des gesprochenen Wortes nicht nur das reichste und komplexeste, sondern ohne Zweifel auch dasjenige, das den elektronischen Klangfarben am nächsten steht. Für diese Art der Klanggewinnung eignet sich das gesprochene Wort weit besser als das gesungene, sozusagen schon mit Musik belastete; denn die sich in der Artikulation des Sprechens formenden Vokale und Konsonanten sind akustisch nichts anderes als Klang- und Geräuschfarben, wie wir sie auch bei den elektrisch erzeugten Klängen kennen. Es lag also nahe, auf die elektronisch erzeugten Töne und Farbgeräusche zu verzichten und sich stattdessen allein des überaus reichhaltigen Klang- und Geräuschspektrums von gesprochenen Worten zu bedienen. Eine Theorie der Vokaltöne ist zuerst von dem Engländer Wheatstone (1837) aufgestellt worden. Bei dem sie zitierenden H. Helmhoitz nehmen die Kapitel über die "Klänge der Vocale" und über "Künstliche Vocale" nicht weniger als 34 Seiten ein.2 Grundlegende Untersuchungen hat dann der Psychologe und Musikforscher Carl Stumpf (1848 bis 1936) in seiner Arbeit über Vokale, geflüsterte Vokale und Sprachlaute gegeben.3 Die menschliche Stimme zeigt ein Spektrum, dessen Komponenten durch die Klangbildung in verschiedenen Hohlräumen bedingt sind: in Mundraum, Rachen, Nasenhöhle und Luftröhre. Der Erkennung der vokalen Klangfarbe dienen Resonanzschichten mit maximaler Ausprägung bestimmter Resonanzstellen, . die nach L. Hermann (1894) Formanten genannt werden. Vokale sind im allgemeinen durch die Angaben von zwei Formantbereichen charakterisiert. Stimmhafte Konsonanten wie die als Halbvokale bezeichneten l, m, n, nähern sich den vokalen Klangspektren. Wesentlich breitere Formantbereiche infolge der Geräuschbeimischung haben die Zisch- und Reibelaute. Bei den Explosivlauten k, p, t, die im gesprochenen Wort nicht als ka, pe, te, sondern als k-, p-, t- erscheinen, erstreckt sich das Spektrum über den ganzen Hörbereich. Wenn man einen solchen Explosivlaut, der eine Einschwingzeit von 20 bis 100 Millisekunden (ms)4 und, isoliert, die Form eines ganz kurzen Geräuschimpulses hat, stationär macht, also permanent erklingen läßt und dazu erheblich verstärkt, so erhält man das sogenannte Weiße Rauschen. Es gibt verschiedene technische Methoden, einen ganz kurzen impulsartigen Klang in Permanenz erklingen zu lassen. Von den technisch neuen Verfahren, die in dem "Epitaph" Anwendung fanden, sei das der Klangerzeugung mittels Buchstaben-Iteration hervorgehoben: das Band steht still, es dreht sich der den Klang abnehmende Rotierkopf eines Zeitlaufreglers, der nicht für diesen Zweck, sondern für die Transposition von Tonhöhen ohne Veränderung der Bandlaufgeschwindigkeit konstruiert ist, aber sich auch als zweckverkehrtes Produktionsgerät5 für die Herstellung von Klängen aus Sprachimpulsen verwenden läßt. Auf diese Weise kann jeder Vokal, jeder Konsonant des gesprochenen Wortes beliebig lang gemacht werden (und ebenso beliebig kurz für die Herstellung von Sprachimpulsen, die von dem g e rausch hafte n Knacken eines Impulsgenerators nicht zu unterscheiden sind, wie Teile der ausgedehnten Impulsstruktur in einem der mittleren Abschnitte des Epitaphs zeigen). Schiebt man das Band ganz langsam Millimeter um Millimeter an dem Rotierkopf weiter, so erfährt man erst, welche Fülle von Klang- und Geräuschfarben die Übergänge zwischen den Vokalen und Konsonanten enthalten. Einer der ersten Versuche dieser Art wurde mit dem auf Tonband aufgenommenen Wort "Musik" gemacht. Als klarer, gleichmäßiger Dauerkiang erschien zuerst ,m' in beliebiger Bandlänge. Dann folgte das ebenfalls beliebig lang dauernde ,u', das einen tiefen, orgelhaften Klang ergab. Aber die Laute stehen nicht wie die Buchstaben auf dem Papier nebeneinander, sie haben, entsprechend langsam auf dem Band abgetastet, Übergänge, von ,m' nach ,u', noch weit ergiebiger von ,u' nach ,s', mit einer Fülle von kontinuierlich sich ändernden Klängen, Klangfarben, dichten Tongemischen und Farbgeräuschen, bis zur Klangspitze des ,s' (,ß'), das ein weißes Rauschen ist, im Gegensatz zu dem in der Tiefe leicht angefärbten Rauschen des abschließenden Explosivlautes ,k', der ebenfalls in Permanenz erscheinen kann. Andere Wege zur Herstellung von Klängen aus gesprochenem Wort wurden auf der einführenden WERGO-Schallplatte "Zur Geschichte und Kompositionstechnik" der elektronischen Musik gezeigt.6 Bei den Schallbildern der Sprache handelt es sich zunächst um Zeichengebungen, die eine kommunikative Funktion ausüben. Indessen kann man sowohl von der Funktion des Verstehens und vermittels phonatorischer Vorgänge wie auch vom linguistisch-semantischen Anteil des Gesprochenen absehen; dann hat man es mit der phonetisch-akustischen Seite des Gesprochenen zu tun, mit "Sprachklängen", die das Ausgangsmaterial für mannigfache Umwandlungen sind und damit jene Möglichkeiten von Struktur und Form erschließen, die vor allem den Musiker angehen. Denn für den Phonetiker, der grundsätzlich von der physiologischen Beobachtung und Betrachtung des phonatorischen Aktes ausgeht, steht jedes sprachliche Produkt in einem Funktionszusammenhang, den man in dem einfachen Satz zusammenfassen kann: Wir hören, wer spricht, in welchem Ton er spricht und was er sagt. So ist für den Phonetiker die Erforschung der genetischen Seite des Sprechens, der Lautproduktion durch die Artikulationsorgane, und die Beobachtung der biologisch-funktionellen Abläufe, soweit sie sich auf die Phonation beziehen, viel wichtiger als die Frage der akustischen Gegebenheiten und Wirkungen. In dem Epitaph überwiegen die Sprachklänge als akustischphonetische Vorgänge, und ihre Umwandlung ins rein Musikalische läßt ihre Herkunft oft nicht mehr erkennen. Aber auch das Wort selbst, mit seinem Ausdruck, Sinn und Erlebnisinhalt, schlägt immer wieder durch und steigert sich mit dem ganzen Gewicht seiner Bedeutung zur Sinnbezeichnung einzelner Worte oder Wortverbindungen wie "Warnungsruf", "Wo kämen wir hin?", "Als Wort für unsere Schande" oder "Als Namen unserer Hoffnung". Daneben stehen eigentümliche Sprach- und Sprechbildungen aus durcheinandergewürfelten Si(ben oder Wortteilen; ferner rückwärts gesprochene Worte (namrehcsif renielk ud = Du kleiner Fischermann)7, motivische Figuren rein musikalischer Funktion, aber deutlich erkennbarer Herkunft vom gesprochenen Wort, und schließlich Neubildungen von Worten und Sätzen, die in ihrer Nicht- Verständlichkeit als unbekannte Fremdsprache empfunden werden. Was weder bei der Rundfunkwiedergabe noch auf der Schallplatte erreicht werden kann, das ist die räumliche Konfiguration von Silben, Worten und Sätzen, die in dem Stück - wie auch alle klanglichen Vorgänge - auf vier Kanäle verteilt sind und bei der konzertmäßigen Aufführung die Verwendung eines Vierspurmagnetophons voraussetzen. Die Form des Epitaphs ist leicht überschaubar; sie besteht aus der Exposition, zu der auch der Vortrag der Grabinschrift gehört, aus den Strukturkomplexen A, B und C und der Koda. Nach dem Textvortrag signalisiert ein lang gehaltener und verhallender Klang die Exposition, die den Textanfang wiederholt und sogleich in den vom Wort gesteuerten Geräuschrhythmus überleitet. Die Grundlage der Zeitstruktur ist der Rhythmus des gesprochenen Wortes. Man muß sich das so vorstellen, als ob das Sprechband unhörbar abliefe, verdeckt durch ein System von Filtern, die abwechselnd und kontinuierlich in den verschiedenen Schichten des Wortspektrums geöffnet und wieder geschlossen werden, wobei sich viele weitere Varianten durch die Änderung der Sprechgeschwindigkeit ergeben. Mit solchen Filtern können auch Flüstersprache und verzerrte Telefonsprache hergestellt werden. Die Strukturkomplexe A, B und C beruhen auf einem jeweils einheitlichen Material. In A dominieren glissandoartige Klänge, in B Impulse, teils geschnitten, teils generiert, in C tiefe Vokale, die, nach einer Pause, posaunenartig beginnen und zu plastischen Evolutionen führen, etwa so, als wenn Klangwogen sich übereinanderwälzten und dynamisch steigerten, bis zu einem plötzlichen Abreißen des Ganzen, einer Art Gewaltpause, in die der isolierte metallische Wortchor "Wo kämen wir hin?" hineinklingt. In der langsamen Überleitung zur Koda setzt die Sprechstimme gleichsam vokal psalmodierend ein - Arbeitstitel dieser Partie: "gregorianisch" (Sprechstimme eine Oktave tiefer, die Randzonen des Spektrums durch Filter beschnitten; durch Kombination mit einem abstimmbaren Rückkoppelungsfilter zum "Singen" gebracht). Auch dort, wo der Hörer es, zumal beim ersten Hören, nicht wahrnimmt, "sprechen" die Klänge. Nach diesem psalmodierenden Teil und drei breiten Rauschakzenten beginnt ganz langsam und im äußersten Pianissimo die Koda, eine passacagliaähnlich rotierende Adagio-Struktur mit ständiger Anreicherung von Klängen und den Schlußworten: "Als Namen unserer Hoffnung!" Die verschiedenen Verständlichkeitsgrade der Silben, Worte und Sprechchöre (bis zu sechs Stimmen) ergeben sich unmittelbar aus der Behandlung des Grundmaterials, das keinen "Dualismus" zwischen Wort und Klang zu überwinden braucht, weil es ihn nicht mehr kennt. In der elektronischen Musik rücken Komponist und Gerät auf einer neuen, bisher unbekannten Ebene des Musikmachens so ungewohnt nahe zusammen, daß der Akt des Hersteilens und der des Komponierens, wenn nicht identisch sind, so doch dicht beieinander liegen.8 Das hat zur Folge, daß das Arbeiten mit elektronischen Mitteln nicht mehr im Sinne traditioneller Disziplinen gelehrt werden kann, und daß an die Stelle der Partitur die technische Arbeitsanweisung tritt. Allenfalls Sinustonkompositionen lassen sich als DiagrammPartituren aufschreiben, obwohl auch diese schon keine Partituren mehr im traditionellen Sinne sind, weil sie keine musikalischen Lesevorstellungen mehr vermitteln können. Außerhalb der Sinustonkomposition gibt es nur die Methode mit den meist bei der Produktion entstehenden Arbeitszetteln, die exakte Angaben enthalten müssen, nicht nur über Frequenzen, Bandbreiten, Klangfarben, geschätzte Helligkeitswerte, dynamische Verläufe und Dauern, sondern ebenso auch über Schaltungen und Anordnungen der Apparaturen, wobei oft nur mit Worten beschrieben werden kann, "wie" es gemacht wurde. Wahrscheinlich wird es einmal als ein grundlegender Irrtum erkannt werden, daß man Diagramme und Arbeitsaufzeichnungen elektronischer Musik als "Partituren" bezeichnet hat. Die kompositorischen und klanglichen Mittel des Epitaphs sind die bekannten elektronischen, mit Ausnahme der Klangerzeugung durch das gesprochene Wort. Damit scheint ein Unterschied nivelliert zu werden, der bisher mit wohlüberlegten Gründen zwischen elektronischer Musik und Musique concrete gemacht worden ist. Wie die Dinge jetzt stehen, kann man einigermaßen sicher ausmachen, daß künftig sowohl von elektrisch erzeugten Klängen und Schallvorgängen wie von solchen, die mit dem Mikrophon aufgenommen werden, in reichem Maße Gebrauch gemacht wird. Gleichwohl aber war es wichtig, daß wir in dem von mir begründeten Kölner Studio, dem ersten seiner Art überhaupt, an dieser Unterscheidung so viele Jahre hindurch streng festgehalten und daß wir durch die strikte Befolgung exakt serieller Methoden überhaupt erst das Kompositorische etabliert haben. Einzig die Strukturidee des Seriellen hat die elektronische Musik vor einem Absinken in die sich rasch verbrauchenden Klangeffekte bewahrt. Mag der Gesichtspunkt der "totalen" Organisation von musikalischen Elementen inzwischen auch einer vergangenen Phase angehören, so war er entscheidend wichtig für die Entwicklung der elektronischen Musik. Es ist in dieser Entwicklung, ebenso historisch wie kompositorisch-moralisch, begründet, bei einem so umfangreichen Werk wie dem Epitaph, das nicht einen einzigen elektrisch erzeugten Ton enthält, bei dem übergeordneten Begriff der elektronischen Musik zu bleiben und nicht etwa von Musique concrete zu reden. Das ist, vom Fundament her gesehen, ein Unterschied des Denkens, nicht der technischen Mittel. Eine Grabinschrift zur Grundlage einer Komposition zu machen, rührt an eine Frage, die jedem Musiker und Musikhistoriker als das vieldiskutierte Wort-Ton-Pro blem bekannt ist. Was Wort und Ton verbindet oder trennt, kann sehr verschiedenen Schichten des Dichterischen und Kompositorischen, des Sprachlichen und Musikalischen entstammen. Was die Grabinschrift für Kuboyama angeht, diesen doppelt übersetzten, vielleicht sogar von den Übersetzern ein bißchen poetisch ausgeschmückten Text, so würde man ihn sehr mißverstehen, wollte man ihn nach absoluten literarischen Werten beurteilen. Es ist, wie es für den Zweck nicht anders sein kann, ein einfacher Text, hier ein Anklang an Brecht, dort an die Bibel (was nicht so weit auseinanderliegt), ein naiver, gelegentlich gemüthafter und volkstümlicher, zugleich mahnender Text, der sich nicht in den modernen Kategorien von avantgardistisch-dichterischem Sprachbewußtsein unterbringen läßt, und den jeder, der erwartet hätte, ihn dort angesiedelt zu sehen, falsch beurteilt. Aber hier taucht eine andere, viel wichtigere Frage auf, nämlich die, ob nicht ein anderer Text die gleichen Dienste hätte leisten können, etwa ein Text aus der Bibel, ein lyrisches Konzentrat neusten Zuschnitts, eine vorgelesene Zeitungsanzeige oder die Worte auf Band genommen, die ich soeben lese. Das wäre selbstverständlich in jedem Fall möglich gewesen, da Sprachklänge sich nun als machbar und formbar, als verfügbare Kompositionsmittel erweisen und nur noch sehr lose mit der diagnostischen Sphäre des Gesprochenen zusammenhängen. Die Beziehung zwischen Wort und Sprachklang ist zwar denkbar eng, aber sie stellt zugleich einen extremen Fall des Wort-Ton- Verhältnisses dar. Um es auf die einfachste Formel zu bringen: Was kann man vom Text einer Arie, gar einer Koloraturarie verstehen. Und wie kommt es, daß in der älteren Musik vom 15. bis zum 18. Jahrhundert Textworte völlig gegensätzlichen Inhalts beliebig ausgetauscht worden sind, so daß es, jeglicher Rhetorik und Affektenlehre entgegen, zu derselben Melodie in dem einen Falle heißt "Erbarme dich" und in dem ändern "Erfreue dich"? Dieses sogenannte Parodieverfahren (das nichts mit dem Begriff der heiteren Parodie zu tun hat) ist durch die Jahrhunderte bis zu Bach hin gebräuchlich gewesen. Darin bekundet sich historisch eine Vieldeutigkeit des Klanglichen, die es erlaubt, musikalisch viele Wohnungen für sehr gegensätzliche Inhalte und Gemütsregungen einzurichten. Der Wortstrom im Epitaph ist unterirdisch immer vorhanden. Es ist so, als ob der Text der Grabinschrift in immer neuen Klangformen, Umformungen und Umstellungen am Ohr des Hörers vorbeiziehen würde, strömend, rauschend, riesenhaft vergrößert, verkleinert, gespreizt, beschleunigt, transponiert, verhallt oder trocken, sphärisch, geflüstert und artifiziell sprachproduktiv - das ist eine Art allgegenwärtiger Parodie an der sehr dünnen Scheidewand zwischen gesprochenem Wort und Sprachklang. Damit sei die Richtung angedeutet, in der man auch hier noch das alte Wort- Ton-Problem in seiner umfassenden Geltung erkennen kann. Diese uferlose Ausweitung des Parodistischen (sozusagen vom Ton und Klang bis zum weißen Rauschen) verpflichtet deshalb um so mehr dazu, streng beim Text zu bleiben. Es geht nicht darum, daß den Noten und Tönen der Arie der Text einer Zeitungsanzeige unterlegt werden kann. Vielmehr ist dies das Wort und dies sein Sprachklang, beide so wenig getrennt, ja so ineinandergeschmiegt, daß die sprachlichen und klanglichen Beziehungen zur Grabinschrift in jedem Augenblick vorhanden sind. Die "Sechs Studien" sind im Frühjahr 1962 unmittelbar im Anschluß an das elektronische Stück "Epitaph für Aikichi Kuboyama" entstanden. Sie hängen insofern aufs engste mit dem Epitaph zusammen, als sie aus dem gleichen Klangmaterial hergestellt sind, nämlich aus dem Klangspektrum des gesprochenen Wortes. Es sind wortfreie Paralipomena zur Grabinschrift für den japanischen Fischer. Die jahrelange praktische Beschäftigung mit dem Kapitel "Musik und Sprache", die einübenden Vorversuche zum Epitaph, auch schon zu den Stücken "Zu Ehren von Igor Strawinsky" und "Selektion l"9 (in der eine der fünf Grundschichten bereits Sprachklänge verwendet) förderten eine solche Fülle von Klangmaterial zutage, daß die zahlreichen nichtverwendeten Klänge - das Mehrfache des im Epitaph verarbeiteten Materials - katalogisiert und in Klangfamilien zusammengefaßt wurden. Die daraus erstellten Sechs Studien verwenden, im Gegensatz zum Epitaph, nur die rein musikalischen Klänge, das heißt solche, in deren Spektrum das gesprochene Wort nicht mehr erkennbar ist. Sie sind im Original ebenfalls räumlich disponiert (für vier Lautsprecher- gruppen). Jedes der sechs Stücke ist klanglich und formal in sich geschlossen, vergleichbar dem Charakterstück oder der monothematischen Etüde. Die Uraufführung des "Epitaph für Aikichi Kuboyama" für vier Lautsprechergruppen war am 9. Juli 1962 in der Stadthalle Darmstadt anläßlich eines Gastabends des Westdeutschen Rundfunks Köln bei den Internationalen Ferienkursen für neue Musik, Darmstadt. NACHWEISE ' Günther Anders: Die Antiquiertheit des Menschen, München 1956, S. 346. 2 Hermann Helmhoitz: Die Lehre von den Tonempfindungen, Braunschweig4 1877, S. 168-202. 3 Carl Stumpf: Die Sprachlaute, Berlin 1926. 4 Fritz Winkel: Phänomene des musikalischen Hörens, Berlin 1960, S. 40. 5 Herbert Eimert: Probleme der elektronischen Musik, in: Prisma der gegenwärtigen Musik, Hamburg 1959, S. 157 ff. ' Herbert Eimert: Einführung in die elektronische Musik, mit ausgewählten Beispielen. 30 cm 0 Schallplatte, erschienen in "studio-reihe neuer musik" Wergo Schallplattenverlag, Baden-Baden. Nr. WER 60006. 7 Es kommen sowohl rückwärts laufende wie rückwärts gesprochene Worte vor. Beim rückwärts gesprochenen "Du kleiner Fischermann" wurden phonetisch die "Vorwärts"-Laute "seh" und "ei" beibehalten, obwohl sie auf dem rückwärts laufenden Band anders artikuliert und stark verformt erscheinen. " s. unter5, S. 147. 9 Sammelplatte "Panorama des Musiques experimentales", Pilips 835.486. Durch das von Herrn Dr. Meyer-Eppler vorgeschlagene Verfahren der kompositorischen Musikgestaltung unmittelbar auf Magnettonband eröffnen sich auch für den Rundfunk neue Perspektiven. So wird es beispielsweise möglich, das Problem der "rundfunkeigenen Musik" in Angriff zu nehmen und auch für das Hörspiel akustische Effekte von bisher noch nicht gehörter Gestalt bereitzustellen. Die für die Herstellung derartiger authentischer Musik und Klangformen notwendigen technischen Hilfsmittel sind - bis auf das erforderliche elektronische Musikinstrument - in jedem Rundfunkstudio vorhanden. Es wäre nur notwendig, diese Einrichtungen geeigneten, vom Rundfunk beauftragten Komponisten zugänglich zu machen. Die betreffenden Betriebsräume werden hierdurch ihrem eigentlichen Zweck nicht entfremdet. Es ist nur erforderlich, sie im Bedarfsfall dem betreffenden Komponisten zur Verfügung zu stellen. Zusätzliche Kosten entstehen außer durch die Anschaffung des elektronischen Instrumentes nicht. Es wird empfohlen, das Problem in Köln in Angriff zu nehmen, weil die wissenschaftlichen'und technischen Voraussetzungen hier durch die leichte Greifbarkeit der Herren Prof. Trautwein (Düsseldorf) und Dr. Meyer-Eppler (Bonn) besonders günstig sind und außerdem geeignete Räume im neuen Funkhaus zur Verfügung sein sollen. Wenn die angeschnittenen Fragen in diesem Jahr nicht in Deutschland zu einer Realisierung führen, werden sie uns im nächsten Jahr von den USA vorgelegt werden. Protokoll vom 18. 10. 1951 über den Beschluß der Gründung des Studios für elektronische Musik im W'estdeutschen (damals noch Nordwestdeutschen) Rundfunk Köln. Nachtprogramm M.W. 18. Okt. 1951, 23,00 Uhr "Die Klangwelt der elektronischen Musik" Gespräch: Eimert, Meyer-Eppler, Beyer Band,ca.6-8 Sek. Einleitung: Eimert Erschrecken Sie bitte nicht, meine Verehrten; die paar Takte, die Sie eben gehört haben, wollen nur das Signal geben für unser Nachtprogramm: Die Klangwelt der elektronischen Musik. Diese paar Takte elektronischer Musik - entschuldigen Sie, daß ich mich hier schon unterbreche: Sind es überhaupt Takte? Ich meine Zählzeiten, wie sie in jeder Notenschrift festgelegt sind? Nein, es sind keine Takte, und was die Notenschrift angeht, so dürfte es vorläufig schwer fallen, Klanggebilde solcher Art schriftlich zu fixieren. Das ist natürlich gleich ein gewaltiges Problem: Musik, die man - vorerst wenigstens - nicht aufschreiben kann! Wir werden von solchen Klängen gewissermaßen überfallen und stehen ein bißchen hilflos davor, weil wir sie nicht im Notenbild kontrollieren können; weil uns die rationale Bestätigung der Notenschrift fehlt. In solchen Fällen, wo wir ein Tor aufstoßen und nicht wissen, wohin der Weg führt, empfiehlt es sich immer, Rat und Trost bei der Geschichte zu suchen. Dieser notenlose Zustand der elektronischen Musik erinnert in etwa an das frühmittelalterliche Stadium der Musik, als es noch keine Notenlinien gab und man sich mit einem Ungefähr von allen möglichen Hilfszeichen behelfen mußte. Aber das nur nebenbei, denn wir wollen uns ja hier nicht mit Fragen befassen, über die sich erst einmal die Fachleute den Kopf zerbrechen müssen, vielmehr möchten wir dem Hörer einige konkrete Eindrücke von dieser neuen Klangwelt vermitteln. Dazu bedarf es nun einiger Hinweise und Überlegungen, damit es keine Mißverständnisse gibt. In diesem Punkt möchte ich ein wenig vorbauen. Es gibt nichts Neues in der Musik, was sich im ersten Augenblick, sozusagen auf Anhieb, dem breiten Verständnis darbieten würde. Als Schönberg und Strawinsky vor 40 Jahren die erste neue Musik unseres Jahrhunderts machten, da wurden sie von fast allen Hörern ausgelacht, von Hörern, die gewiß sehr stolz auf ihre musikalische Bildung und auf ihre Urteilsfähigkeit gewesen sind. Und warum haben diese Hörer gelacht oder ihr Mißfallen ausgedrückt? Weil sie einfach ihre überkommenen Vorstellungen von Brahms, Reger, Strauß oder Pfitzner bei Strawinsky und Schönberg nicht bestätigt fanden. Das ist ja die am meisten verbreitete - und ich möchte sagen: die am meisten törichte Art des Urteilens über Musik: daß der Hörer das Neue verurteilt, einfach weil es nicht in seine mitgebrachten Klischeevorstellungen hineinpaßt. Gegen solche Mißverständnisse und Vorurteile möchte ich auch von vorneherein die elektronische Musik in Schutz nehmen, dies um so mehr, als wir ihnen in einigen Versuchen nur das Anfangsstadium dieser unerhört neuen Musik zeigen können. Es geht also nicht darum, mehr oder weniger geistreiche Meinungen darüber zum besten zu geben, wichtig allein ist...