Requiem elettroacustico

chion requiemIl Requiem elettroacustico di Michel Chion è del 1973 (non 1993 come riporta erroneamente il video su You Tube qui sotto).

Quando l’ho ascoltato (sarà stato il 1977/78), mi ha fatto una notevole impressione. È un lavoro che ridefinisce completamente i canoni della musica concreta francese. Li supera con l’uso massiccio di sonorità puramente elettroniche a cui sono accostati suoni naturali, loop concreti e frammenti musicali, spesso trattati elettronicamente in modo evidente, ma soprattutto voci recitanti con modalità fra loro diverse: intense, sussurrate, urlanti, lontane, in coro, fino a una voce di bambino che legge, con qualche esitazione, una parte del testo.

È un’opera drammatica e intensa, emozionale, che va molto al di là del puro esercizio compositivo.

Note dell’autore:

The Form of this music was not meant as an excuse to deploy refined geometry over a time frame seen as space. And if Requiem as a whole is built on a system of echoes and correspondences that seem to be symmetrically organized (see graphism) around an axis represented by the work’s middle point, it is not my fault. The form was developed in the course of the process, as a dramatic scheme that played off the listener’s memory and premonitions, since once the listener has heard the work more than once, they can predict as well as recall. The musical analysis I came to perform, and of which I am disclosing a few pieces here, I did long after composing the work and for my own enjoyment. It should be understood as a game, not as the Key of Dreams, and it is surely not essential.

Echoes and correspondences of what ? Themes, musical motives, ranging from the most elemental (a loop, raw matter) to the most elaborated (a musical development), and which are reprised, quoted or announced at various moments of the work – some are easily identifiable as “leitmotivs” (theme-chorus from the Dies Irae quoted in the finale), while others are accompanying motives, matter that does not need to be memorized at a conscious level. An extreme case of such echo effect is found in the short movements 2 & 9, which use almost the same “music” cast under completely opposite sound lighting.

The centre of the work, the axis of that symmetry, is the 6th movement (Evangile), where happens a symbolical tear in the magnetic tape, a crack in the work itself, opening in the timeline a breach of eternity that lets us glimpse “something else.” This figure illustrates that breach as a sawtooh line, while the vertical line illustrates the pasted point, the moment (at the beginning of Sanctus) when the mass itself, like a broken reel of film at the cinema show, resumes. Within this large form in two parts, we find the small forms of each movement: forms with choruses and episodes, litanies, recitativo, levelled crescendos, etc. There is also another formal course delineated by the succession of several vocal characters, their timbre, intonation, and relation to the libretto. Without giving more details, it is worth mentioning that the only time a well-assured, peremptory voice is clearly heard is, once again, at that central moment in Evangile (“il va ressusciter” or “he will rise”), where its irruption seems to spread panic throughout the whole system and provoke the breach…

Like the great requiems of the classical era, this Requiem’s text is taken from the Funeral Mass, to which are added an Epistle, a Gospel and a Pater Noster. The texts are mostly said in their original language (Latin or Greek) and in French, in some rare cases.

The Requiem was composed whilst thinking about the troubled minority of the living, rather than the silent majority of the dead. Also, I tried to turn this oratorio into a “great sonic show,” cinemascope music. One can detect the obvious (at least to me) influence of a few filmmakers and films, more in the way of playing with forms, time and space, than through realistic evocations. Thomas Mann’s Docteur Faustus was another influence, again acknowledged after the fact; the pages spent describing the imaginary works of Adrian Leverkühn might have inspired the megalomaniac dream of carrying bits and pieces of them into the sound world. With Requiem, my intention was not to deliver a message or a manifesto, whether pro- or anti-religious. Instead, this work is a personal testimony, into which listeners are invited to project their own self, if they care to inhabit it with their own experience and sensibility.

Too late, too far

sam salemSam Salem (n. 1982) è un compositore di Manchester che lavora principalmente in area acusmatica e audio/video.

È principalmente interessato ai suoni degli ambienti urbani. Molte delle sue composizioni si focalizzano sui suoni di luoghi specifici, ciò nonostante la sua musica non ha niente a che fare con l’ambient. Invece Salem esplora l’ambiente sonoro cercando di rivelare la musicalità nascosta nei suoni ambientali. In questo senso i suoi lavori vanno al di là del semplice paesaggio sonoro.

Quello che ascoltiamo qui, Too late, too far è del 2014. Note dell’autore:

Too late, too far is part of a larger work entitled The Fall, composed between 2012 and 2014. The compositional process began during a residency at STEIM in December 2011: Amsterdam was the source from which I collected the materials for this piece.

I think now of the unwitting owners of actions contained herein: the cyclists and joggers of Vondelpark, the man on a bridge who offered a bike for a cigarette, the swans calling across the Red Light District, the choir of Sint-Nicolassbasiliek, and the countless others, long since dispersed but not forgotten: shouting, singing, laughing, swearing, clapping. I think also of the creaks and rhythms of rocking boats, of passing trams, the ubiquitous bells and horns, the rain, wind and lapping water, and the 5am fireworks on New Year’s Day. I consider these materials as fragments of sound, but also, now, as fragments of time. Sometimes their shimmering light is obscured, sometimes it is revealed.

This work, “peopled by bad dreams” (and the occasional good one), balances somewhere between loss and hope: after more than two years of work, this is its final character.

Il canto della cometa

Ok. Dimenticate il titolo aulico. Quello di cui parliamo è un fenomeno scientifico che comunque ha anche dei risvolti audio e ci offre  l’occasione di parlare di una delle più affascinanti missioni spaziali degli ultimi anni.

Rosetta è una missione spaziale sviluppata dall’Agenzia Spaziale Europea e lanciata nel 2004. L’obiettivo ultimo della missione è lo studio della cometa 67P/Churyumov-Gerasimenko, una cometa periodica che ritorna ogni 6.45 anni terrestri.

La missione è formata da due elementi: la sonda vera e propria Rosetta e il lander Philae. Quest’ultimo è destinato a staccarsi dalla sonda e atterrare sul nucleo della cometa, di cui la sonda ha già inviato splendide foto. Il distacco è avvenuto proprio oggi 12/11 e il lander sta scendendo verso il nucleo (incrociamo le dita).

La parte audio della faccenda è questa. Ovviamente la sonda trasporta molti strumenti per studiare da vicino la cometa. Cinque di questi costituiscono il cosiddetto Rosetta’s Plasma Consortium (RPC) e servono a studiare l’ambiente di plasma che circonda la cometa (il plasma è uno stato della materia che appare come un gas elettricamente conduttivo che circonda i campi magnetici e le correnti elettriche).

Già in Agosto, l’RPC ha scoperto che il campo magnetico della cometa ha una oscillazione con frequenza intorno ai 40-50 millihertz. Ora, qualsiasi oscillazione più o meno periodica può essere trasformata in suono. In questo caso il problema è che la frequenza è troppo bassa per essere udibile. Le frequenze più basse che siamo in grado di percepire stanno intorno a 20 Hz, mentre qui abbiamo a che fare con 0.05 Hz.

Il problema si può risolvere trasponendo (ovvero accelerando) il tutto di circa 10000 volte. Così 0.05 Hz diventano 500 Hz che sono perfettamente ascoltabili e il suono che ne esce è questo:

Ecco un’immagine del nucleo della cometa (il piccolo 747 che vedete al centro non è alieno; è lì per confronto; clicca per ingrandire)

nucleo cometaUna nota finale. Prima di delirare con toni mistici intorno al canto della cometa, rendetevi conto che qualsiasi fenomeno periodico può essere convertito in suono. Per esempio, la rotazione terrestre è periodica. Il giorno solare medio dura circa 24 ore, cioè 86400 secondi. Di conseguenza. dato che la frequenza è l’inverso del periodo, esso ha una frequenza di 0.000011574 Hz, troppo bassa per sentirla, ma basta trasporla di 24 ottave per avere circa 194.18 Hz, che corrispondono a una nota perfettamente udibile: un Sol appena calante (con La = 440 Hz).

Il Kosmofono

Musica pilotata dai raggi cosmici. Non è una rarità. Ogni tanto qualcuno fa esperimenti del genere. Effettivamente, da quando note e frequenze possono essere espresse numericamente e inviate agli algoritmi di sintesi, la cosa non è così complessa: bisogna solo scegliere come riscalare i dati di partenza.

Da alcuni anni questi procedimenti hanno anche assunto una valenza scientifica con il nome di sonification. La trasformazione di dati di qualsiasi tipo in audio, infatti, consente di individuare più facilmente schemi ripetuti, differenze e altre caratteristiche del fenomeno su cui si indaga.

Ovviamente, dal punto di vista compositivo la faccenda assume tutto un altro aspetto. Il fenomeno fisico che origina i dati non si preoccupa minimamente di assumere un andamento che per noi possa essere sensato o significativo. Anzi, di solito il risultato è ripetitivo, noioso e monotono (spesso anche monotòno, nel senso matematico che indica movimento sempre verso la stessa direzione, per es. una curva logaritmica che sale o scende sempre approssimando un limite).

Il Kosmophono di cui parliamo è abbastanza “anziano”, essendo in attività almeno dal 2005 (sito). Si tratta di uno spettrometro a raggi gamma che opera nel range di 3-7 MeV, il cui output viene inviato al MIDI IN di un sintetizzatore.

Una breve spiegazione. La maggior parte dei raggi gamma è prodotta da fenomeni extra-solari (nello spazio lontano) di grande potenza. Le onde prodotte da tali fenomeni non sono audio (altrimenti non arriverebbero fin qui), ma fanno parte dello spettro elettromagnetico (come le onde radio e la luce che vediamo). Inoltre ne occupano la parte più bassa in termini di lunghezza d’onda (< 0.006 nanometri = 6 millesimi di milionesimo di millimetro), che equivale alle frequenze più alte, circa 5×1019 Hz e sono anche molto dannose per noi.

Fortunatamente, non arrivano fino al suolo ma si infrangono sugli strati alti dell’atmosfera e sono queste collisioni che lo spettrometro rileva. Ognuno di questi eventi produce una emissione di energia che viene misurata e convertita da un ADC a 12 bit di cui i 7 più alti vengono utilizzati come pitch MIDI e i 4 seguenti come velocity (l’ultimo bit si butta via).

Il player è un sintetizzatore MIDI, di solito un Roland JX-305 o un Alesis QSR.

Ora si può ascoltare una singola sequenza inviata al Roland. Essendo una sequenza singola è monofonica e piuttosto noiosa, però serve per capire il range e la densità degli eventi. È un MP3.

Percettivamente, le cose cambiano quando si sovrappongono due sequenze. La sovrapposizione non è in tempo reale. Semplicemente vengono mandate alla porta MIDI due sequenze salvate in tempi diversi (una è la sequenza precedente). Ne consegue che le due sequenze sono del tutto scorrelate, però è interessante notare che il nostro sistema percettivo (almeno quello di chi è abituato ad ascoltare un certo tipo di musica contemporanea) tende a fabbricare delle correlazioni. In effetti, complice anche il fatto che qui si utilizzano due timbri diversi, questo frammento è più interessante del precedente.

Un’altra sovrapposizione di varie sequenze a cui sono assegnati diversi timbri, ma tutti riconducibili a suono “biologici” (uccelli, insetti, miagolii, etc). Il risultato è decisamente piacevole perché tutti i suoni ricadono in una ben determinata tipologia e il nostro cervello ha gioco facile nel costruire delle connessioni e interpretare il tutto come un paesaggio sonoro abbastanza coerente.

Nel sito del Kosmofono potete ascoltare vari altri esempi.

Kosmophone

Eanalysis

Eanalysis

EAnalysis è un software per Mac creato specificamente per l’analisi e la rappresentazione di sound based music, ovvero la musica elettroacustica.

Ecco, ad esempio, come è possibile rappresentare parte di tre brani di François Bayle: L’oiseau moqueur, L’oiseau triste e L’oiseau zen tratti dai Trois rêves d’oiseau.

In ogni schermata possiamo vedere il sonogramma e la forma d’onda in basso, mentre nella parte superiore viene creata una rappresentazione grafica degli eventi sonori. Questa rappresentazione non è automatica, però il software dispone di strumenti individuare e marcare gli eventi sonori (in pratica una forma di segmentazione). Inoltre può importare dati da altri software come Sonic Visualiser, Audiosculpt, Acousmographe, Pro Tools, etc. (click image to enlarge)

EanalysisEAnalysis può essere scaricato da qui.

Att.ne: la versione attuale non funziona con Yosemite (come, del resto, gran parte del Mac).

Altre informazioni riportate sul sito:

Research and development: Dr Pierre Couprie. Coordination: Prof Simon Emmerson & Prof Leigh Landy

The development of EAnalysis is part of the research project entitled ‘New multimedia tools for electroacoustic music analysis’ at the MTI Research Centre of De Montfort University (Leicester, UK). The project is funded by the Arts and Humanities Research Council (AHRC).

This piece of software aims at experimenting new types of graphic representations and new analytical methods with an intuitive interface and adapted tools for analysis purposes.

Features

  • Visualise sonogram (linear or logarithmic) and waveform.
  • Import several audio and/or movie files to analyse multitrack works or compare different works.
  • Create beautiful representations with graphic events on different layers.
  • Analyse with analytical events and sound/musical parameters.
  • Create your own analytical lists of parameters and share them.
  • Annotate during playback with time text.
  • Use graphic tablet or interactive whiteboard to draw representation.
  • Use several types of views in the same interface.
  • Create charts and maps from sound extracts: paradigmatic chart, generative tree, soundscape map, etc.
  • Create synchronised slideshow.
  • Create layers of sonograms from several tracks to analyse space motions, difference between versions of same work, or different works.
  • Save configurations (snapshots).
  • Import data from other software like Sonic Visualiser, Audiosculpt, Acousmographe, etc.
  • Import Pro Tools information sessions and create graphic representation from sound clips.
  • Export to images, movies, and text files (txt, csv, xml, json).
  • Export without media to share analysis without copyright restrictions.

David Lee Myers

Questo post è la revisione di uno del 2006. Mi sembra che, essendo Myers non molto noto, sia il caso di parlarne ancora.

David Lee Myers è un compositore che si trova nella scomoda situazione di essere sconosciuto al grande pubblico perché non fa “pop” e sconosciuto agli accademici perché i suoi lavori non si inseriscono nella tradizione “colta”. Però è conosciuto dagli sperimentatori a oltranza, da quelli che non si accontentano di ri-elaborare delle idee maturate nell’ambito di una corrente, quelli un po’ scontenti e un po’ solitari che regolarmente disfano quello che hanno appena fatto per il gusto di ricominciare da capo.

Nel 1988 affermava che

True electronic music does not imitate the classical orchestra or lend well worn melodies the cloak of unexpected timbres – it exists to evoke the hitherto unknown. And it comes from circuits and wires, though I do not believe that electronic sound is “unnatural”, as some people might.

La vera musica elettronica non imita l’orchestra classica e non presta un mantello di timbri inattesi a melodie ben formate – essa esiste per evocare ciò che fino ad ora è sconosciuto. E nasce da circuiti e cavi, ciò nonostante io non credo che il suono elettronico sia così “innaturale” come qualcuno pensa.

DiaagProprio queste considerazioni hanno condotto D. L. Myers alla pratica di una musica estrema, quasi totalmente priva di input: niente partitura, nessuna tastiera, nessun suono da elaborare, nessun sistema di sintesi propriamente detto. Una musica in cui sia i suoni che le strutture non nascono dalla pressione di un tasto o dal fatto che qualcuno mette giù un accordo, ma dall’interazione spontanea di una serie di circuiti collegati fra loro in retroazione che l’essere umano si limita a controllare.
Al massimo l’input viene utilizzato solo come sorgente di eccitazione per il circuito di feedback.

Quello che Myers faceva, già nel 1987 con apparecchiature analogiche, era feedback music.

Il feedback positivo in una catena elettroacustica è stato sperimentato, con fastidio, da chiunque abbia usato un microfono e lo abbia inavvertitamente puntato verso gli altoparlanti. In breve si produce un fischio lancinante, mentre i tecnici si lanciano verso il mixer per abbassare il volume.

Questo problema, più conosciuto come Effetto Larsen, si verifica perché il microfono capta dei suoni che vengono amplificati e inviati all’altoparlante. Se gli stessi suoni, in uscita dall’altoparlante, vengono nuovamente captati dal microfono, amplificati e ri-inviati all’altoparlante, si crea una retroazione positiva tale per cui entrano in un circolo chiuso in cui vengono continuamente amplificati fino ad innescare un segnale continuo a forte volume.

Come si può immaginare, il feedback è un po’ il terrore di tutti i tecnici del suono, ma in determinate circostanze può essere controllato e se può essere controllato, può anche diventare uno stimolo per uno sperimentatore.

Bisogna puntualizzare che non si tratta di una idea di Myers. Ai tempi della musica elettronica analogica questo effetto è stato utilizzato in parecchi contesti. Anch’io ne ho fatto uso in una installazione del 1981 (si chiamava “Feedback Driver”, appunto), ma credo che negli anni ’80 l’abbiano provato un po’ tutti, con alterni risultati. I miei primi ricordi relativi a questa tecnica risalgono al lavoro di Tod Dockstader, un ricercatore e musicista americano relativamente poco noto, anche se alcune sue musiche sono finite nel Satyricon di Fellini.

Quello che distingue Myers dagli altri, però, è l’averne fatto una vera e propria poetica. Lui non sfrutta il feedback per elaborare qualcosa, non parte da algoritmi di sintesi, ma collega in retroazione una serie di dispositivi (principalmente mixer e multi-effetti) e variando i volumi sul mixer (che a questo punto diventa la sua “tastiera”) e cambiando tipo e profondità degli effetti ne trae una serie di sonorità suggestive, sempre in bilico fra il fascino di una musica che si muove in modo quasi biologico e il totale disastro delle macchine fuori controllo.

Senza dubbio, Myers è un virtuoso, ma, a differenza del virtuoso tradizionalmente inteso, lui non domina il proprio strumento. Piuttosto lo asseconda, cercando di spingerlo in una direzione. Qui la composizione consiste nel definire una rete di collegamenti fra i dispositivi e la tecnica si fa estetica.

Inoltre, come si vede in questo breve video, Myers si fa anche artista visuale elaborando una serie di tracce create dalla sua stessa musica.

Sito di riferimento: pulsewidth.

David Wessel

WesselPer ricordare David Wessel, scomparso il 13 Ottobre a 73 anni, mettiamo alcune testimonianze.

Per primo, il suo brano del 1977, Anthony.

In realtà Wessel è sempre stato un ricercatore più che un compositore, difatti la sua produzione musicale è rara. Anthony è un tipico brano costruito con fasce sonore in dissolvenza incrociata ed è stato uno dei primi pezzi realizzati con le macchine per la sintesi in tempo reale costruite da Peppino Di Giugno all’IRCAM.

Quella utilizzata qui è la 4A del 1975, uno dei primi modelli, il primo ad andare oltre lo stadio di prototipo. Si trattava di un processore capace di generare in tempo reale fino a 256 oscillatori digitali in wavetable (cioè con forma d’onda memorizzata e quindi con contenuto armonico definito dall’utente) con relativo inviluppo di ampiezza. Nonostante il fatto che gli oscillatori non si potessero connettere fra loro, era un passo avanti notevole per quegli anni perché, con i sistemi analogici dell’epoca, era già difficile arrivare a 10 oscillatori (per maggiori particolari vedi le voci 4A e Giuseppe Di Giugno sul blog di Alex Di Nunzio).

Se da punto di vista quantitativo la 4A era un grande passo avanti, la qualità del suono era limitata dal fatto che non si potevano realizzare dei metodi di sintesi a spettro sonoro variabile (per es. con filtri o modulazione di frequenza), se non ricorrendo all’additiva. In Anthony, Wessel aggira questo limite evitando una caratterizzazione melodica del materiale sonoro, affidandosi, invece, a grandi cluster in lenta mutazione armonica.

Att.ne: il brano inizia molto piano. Inoltre con gli altoparlantini del computer ne sentite metà.

Un secondo contributo video riguarda l’attività di David Wessel come ricercatore interessato principalmente all’interazione uomo – macchina, tanto che nel 1985 aveva fondato all’IRCAM un dipartimento di ricerca dedicato allo sviluppo di software musicale interattivo.

Qui viene mostrato lo SLAB, uno dispositivo di controllo composto da una serie di touch pad sensibili alla posizione e alla pressione. Ogni pad trasmette al computer informazioni relative alla posizione xy del dito che lo preme e alla pressione esercitata. Il flusso di dati è ethernet, non MIDI, per cui le misure sono accurate e la risposta è veloce (questa storia del superamento del MIDI ce la porteremo dietro per la vita; per citare Philip Dick, la cavalletta ci opprime). Maggiori dati tecnici sullo SLAB, qui. Per gli impazienti, nel video la performance inizia a 2:40.

Uppsala Analog Synthesizer Symphonic Orchestra

Per gli amanti del vintage, ecco la Uppsala Analog Synthesizer Symphonic Orchestra (UASSO). La musica è a tratti banale e nostalgica, ma il suono è quello di una volta. Un po’ più di coraggio non guasterebbe. Con tutti quei synth si può fare l’iraddiddio.

Gli strumenti con relativi strumentisti sono:

Front row:
* Erik Möller – Conductor
* Mario Pierro – Roland Juno 60, Roland SH-101
* Johan Runeson – Roland Jupiter 6
* Hans Möller – Korg Polysix
* Lisa Ulfves – Moog Rogue
* Glenn Liljestrand – Yamaha CS-5
* Kristofer Ulfves – Moog Prodigy, TR-606

Middle row:
* Peter Heerdt – ARP Odyssey
* Måns Sjöstrand – Roland MC-202
* Marcus Mohall – SH-2000

* Maja Stoltz Pierro – Jen SX-1000
* Dan Wistedt – Roland JX-3P
* Per Melander – Roland SH-09
* Tomas Bodén – Korg MS-20
* Olof Liliengren – Korg Mono/Poly

Back row:
* Håkan Lidbo – MC-202
* Daniel Araya – Pearl Syncussion, TB-303, TR-606
* Magnus Danielsson – EMS Synthi A
* Jon Nensén – Serge
* Andreas Tilliander – MS-20
* Jens Kallback – MS-10

Organ of qwerty

Distant SeasTreasury of curiosities’ is a dream-state wandering through a sonic wunderkammer, a collection of curios, oddities, freaks, gems, and objects of wonder and beauty, a display intended to provide access to non-familiar listening experiences. Although divided into separate tracks, it is meant to be listened to as one continuous piece.

This is the work from the mind of John Hanes (composing, percussion) who is also a drummer when he’s not making electronic music. He also had the help of friends Cary Sheldon (voice) and John Schott (guitar) to produce this disconcerting and amusing album.

[notes from test tube]

Free download from Test Tube site.

Excerpt:

Distant Seas

Esplorando Julien Bayle

Sto esplorando alcune produzioni di Julien Bayle (aka Protofuse). Abbastanza giovane (b. 1976, Marsiglia). Studi di biologia, informatica, forse musica. In quest’ultima spazia dalla techno all’ambient. In effetti ha iniziato come DJ Techno per passare, poi, ad Ableton, Max for Live e Max6 [notizie da wikipedia]. Si occupa anche di installazioni audio-visuali via Max + Jitter.

Ecco un lungo brano che mi è piaciuto ascoltare: Ambient Atmosphere on Air live online Nov. 30 2012 (peraltro, interessante idea quella del live online). NB il player può impiegare un po’ a caricarsi, ma non c’è altro modo per l’embed.

Ed ecco una immagine tratta da una installazione recente: Disrupt!on (2014) realizzata con Max6, OSC, OpenGL, Network connection.

impulse03

Dato che, come autore, spazia fra vari generi, alcune cose possono piacere, altre no, ma il suo è sicuramente un sito da visitare.

PS: mi sto anche chiedendo se non abbia qualcosa a che fare con François Bayle