Metaphase Sound Machine

Questa splendida e inusuale macchina sonora è stata progettata e costruita dal media-artist russo Dmitry Morozov (aka ::vtol::).

The Metaphase Sound Machine is a kind of homage to the ideas of the American physicist Nick Herbert who in the 1970s has created both Metaphase Typewriter and Quantum Metaphone (a speech synthesizer). These were some of the first attempts to put the phenomenon of quantum entanglement in practice and one of the first steps towards the creation of a quantum computer. The experimental devices, however, had not confirmed theoretical research, and Herbert’s obsession with metaphysics resulted in the publication of several of his works on the metaphysical in quantum physics, that have led to a serious loss of interest to the ideas of quantum communication. One day, in a course of his experiments, Herbert has hacked into an university computer trying to establish a contact with the spirit of illusionist Harry Houdini at the day of the centenary of his birth.

In his device Herbert in order to achieve a quantum entangled state used as a source radioactive thallium, which was controlled by the Geiger radiation counter. The time interval between pulses was chosen as conversion code. Several psychics had participated in the experiments. They tried to influence the endless stream of random anagrams arising from a typewriter or cause “the ghost voice” to be heard out of metaphone. Scientists also have conducted sessions to bring about the “spirit” of a colleague who had recently died, and who knew about this typewriter. In 1985 Herbert wrote a book about metaphysical in physics. In general, his invention and articles quite severely compromised the ideas of quantum communication in the eyes of potential researchers and by the end of the XX century no any substantial progress in this direction was observed.

The Metaphase Sound Machine is an object with 6 rotating disks. Each of the discs is equipped with acoustic sound source (a speaker) and a microphone. Each of the microphones is connected via computer and the rotary axis to the speakers on the disks. Also in the center of installation a Geiger-Mueller counter is set, that detects ionizing radiation in the surrounding area. The intervals between these particles influence rotation velocity of each of the disks. Essentially the object is an audio- and kinetic installation in which a sound is synthesized based on feedbacks, produced by microphones and speakers on rotating discs. Feedback whistles are used as triggers for more complex sound synthesis. Additional harmonic signal processing, as well as the volatility of the dynamic system, lead to the endless variations of sound. The form of the object refers to the generally accepted symbolic notation of quantum entanglement as a biphoton – crossing discs of the orbits.

Dmitry Morozov

Un altro video sullo stesso soggetto.

::vtol::

Phantom Terrains

Streams of wireless data surge from internet exchanges and cellphone relays, flowing from routers to our devices and back again. This saturation of data has become a ubiquitous part of modern life, yet it is completely invisible to us. What would it mean to develop an additional sense which makes us continuously attuned to the invisible data topographies that pervade the city streets?

Phantom Terrains is an experimental platform which aims to answer this question by translating the characteristics of wireless networks into sound. By streaming this signal to a pair of hearing aids, the listener is able to hear the changing landscapes of data that surround them. Network identifiers, data rates and encryption modes are translated into sonic parameters, with familiar networks becoming recognizable by their auditory representations.

The project challenges the notion of assistive hearing technology as a prosthetic, re-imagining it as an enhancement that can surpass the ability of normal human hearing. By using an audio interface to communicate data feeds rather than a visual one, Phantom Terrains explores hearing as a platform for augmented reality that can immerse us in continuous, dynamic streams of data.

Below the map is an audio recording of part of the same walk, as heard through the Phantom Terrains sonification interface. The sound of each network is heard originating from the router’s geographical location, producing clicks whose frequency rises with the signal strength — akin to a layered series of Geiger counters. Routers with particularly strong signals “sing” their network name (SSID), with pitch corresponding to the broadcast channel, and a lower sound denoting the network’s security mode.

Ascoltando wikipedia

listen to wikipediaListen to Wikipedia è una sonification dei cambiamenti fatti in wikipedia in tempo reale, con relativa visualizzazione. Quest’ultima esisteva già, ma adesso Hatnote ha aggiunto un gradevole audio.

Dei suoni tipo campana indicano aggiunte a un articolo, mentre le corde pizzicate suonano quando si cancella qualcosa. Le altezze sono pilotate dall’entità dell’editing (più grande = nota più bassa). Un dolce accordo di archi sottolinea l’entrata di un nuovo utente.

Questa è la pagina.

Sonification Handbook

Sonification HandbookIl Sonification Handbook (AA.VV., a cura di Thomas Hermann, Andy Hunt, John G. Neuhoff) è scaricabile gratuitamente (e legalmente) in versione PDF da questa pagina (guardate nella colonna di destra “download the book”) da cui è anche acquistabile in versione stampata. È possibile anche scaricare i singoli capitoli.

Questo libro è una presentazione introduttiva, ma completa delle aree chiave della ricerca nei campi interdisciplinari di sonificazione e visualizzazione uditiva (auditory display). I capitoli sono scritti da esperti e coprono una vasta gamma di temi centrali. Possono essere letti dall’inizio alla fine, o indipendentemente l’uno dall’altro secondo necessità (come il menu di un ricco buffet).

La sonificazione trasmette informazioni utilizzando suoni non vocali. Ascoltare i dati sotto forma di suono o rumore può essere un’esperienza sorprendentemente nuova con diverse applicazioni che vanno da nuove interfacce per i non vedenti all’analisi dei dati in molti campi scientifici.

Questo testo fornisce una solida introduzione al campo della visualizzazione uditiva (auditory display), delle tecniche per sonificazione, delle tecnologie adeguate a sviluppare algoritmi di sonificazione, e delle aree di applicazione più promettenti. Il libro è accompagnato daun’archivio online di esempi sonori.

Il canto della cometa

Ok. Dimenticate il titolo aulico. Quello di cui parliamo è un fenomeno scientifico che comunque ha anche dei risvolti audio e ci offre  l’occasione di parlare di una delle più affascinanti missioni spaziali degli ultimi anni.

Rosetta è una missione spaziale sviluppata dall’Agenzia Spaziale Europea e lanciata nel 2004. L’obiettivo ultimo della missione è lo studio della cometa 67P/Churyumov-Gerasimenko, una cometa periodica che ritorna ogni 6.45 anni terrestri.

La missione è formata da due elementi: la sonda vera e propria Rosetta e il lander Philae. Quest’ultimo è destinato a staccarsi dalla sonda e atterrare sul nucleo della cometa, di cui la sonda ha già inviato splendide foto. Il distacco è avvenuto proprio oggi 12/11 e il lander sta scendendo verso il nucleo (incrociamo le dita).

La parte audio della faccenda è questa. Ovviamente la sonda trasporta molti strumenti per studiare da vicino la cometa. Cinque di questi costituiscono il cosiddetto Rosetta’s Plasma Consortium (RPC) e servono a studiare l’ambiente di plasma che circonda la cometa (il plasma è uno stato della materia che appare come un gas elettricamente conduttivo che circonda i campi magnetici e le correnti elettriche).

Già in Agosto, l’RPC ha scoperto che il campo magnetico della cometa ha una oscillazione con frequenza intorno ai 40-50 millihertz. Ora, qualsiasi oscillazione più o meno periodica può essere trasformata in suono. In questo caso il problema è che la frequenza è troppo bassa per essere udibile. Le frequenze più basse che siamo in grado di percepire stanno intorno a 20 Hz, mentre qui abbiamo a che fare con 0.05 Hz.

Il problema si può risolvere trasponendo (ovvero accelerando) il tutto di circa 10000 volte. Così 0.05 Hz diventano 500 Hz che sono perfettamente ascoltabili e il suono che ne esce è questo:

Ecco un’immagine del nucleo della cometa (il piccolo 747 che vedete al centro non è alieno; è lì per confronto; clicca per ingrandire)

nucleo cometaUna nota finale. Prima di delirare con toni mistici intorno al canto della cometa, rendetevi conto che qualsiasi fenomeno periodico può essere convertito in suono. Per esempio, la rotazione terrestre è periodica. Il giorno solare medio dura circa 24 ore, cioè 86400 secondi. Di conseguenza. dato che la frequenza è l’inverso del periodo, esso ha una frequenza di 0.000011574 Hz, troppo bassa per sentirla, ma basta trasporla di 24 ottave per avere circa 194.18 Hz, che corrispondono a una nota perfettamente udibile: un Sol appena calante (con La = 440 Hz).

Il Kosmofono

Musica pilotata dai raggi cosmici. Non è una rarità. Ogni tanto qualcuno fa esperimenti del genere. Effettivamente, da quando note e frequenze possono essere espresse numericamente e inviate agli algoritmi di sintesi, la cosa non è così complessa: bisogna solo scegliere come riscalare i dati di partenza.

Da alcuni anni questi procedimenti hanno anche assunto una valenza scientifica con il nome di sonification. La trasformazione di dati di qualsiasi tipo in audio, infatti, consente di individuare più facilmente schemi ripetuti, differenze e altre caratteristiche del fenomeno su cui si indaga.

Ovviamente, dal punto di vista compositivo la faccenda assume tutto un altro aspetto. Il fenomeno fisico che origina i dati non si preoccupa minimamente di assumere un andamento che per noi possa essere sensato o significativo. Anzi, di solito il risultato è ripetitivo, noioso e monotono (spesso anche monotòno, nel senso matematico che indica movimento sempre verso la stessa direzione, per es. una curva logaritmica che sale o scende sempre approssimando un limite).

Il Kosmophono di cui parliamo è abbastanza “anziano”, essendo in attività almeno dal 2005 (sito). Si tratta di uno spettrometro a raggi gamma che opera nel range di 3-7 MeV, il cui output viene inviato al MIDI IN di un sintetizzatore.

Una breve spiegazione. La maggior parte dei raggi gamma è prodotta da fenomeni extra-solari (nello spazio lontano) di grande potenza. Le onde prodotte da tali fenomeni non sono audio (altrimenti non arriverebbero fin qui), ma fanno parte dello spettro elettromagnetico (come le onde radio e la luce che vediamo). Inoltre ne occupano la parte più bassa in termini di lunghezza d’onda (< 0.006 nanometri = 6 millesimi di milionesimo di millimetro), che equivale alle frequenze più alte, circa 5×1019 Hz e sono anche molto dannose per noi.

Fortunatamente, non arrivano fino al suolo ma si infrangono sugli strati alti dell’atmosfera e sono queste collisioni che lo spettrometro rileva. Ognuno di questi eventi produce una emissione di energia che viene misurata e convertita da un ADC a 12 bit di cui i 7 più alti vengono utilizzati come pitch MIDI e i 4 seguenti come velocity (l’ultimo bit si butta via).

Il player è un sintetizzatore MIDI, di solito un Roland JX-305 o un Alesis QSR.

Ora si può ascoltare una singola sequenza inviata al Roland. Essendo una sequenza singola è monofonica e piuttosto noiosa, però serve per capire il range e la densità degli eventi. È un MP3.

Percettivamente, le cose cambiano quando si sovrappongono due sequenze. La sovrapposizione non è in tempo reale. Semplicemente vengono mandate alla porta MIDI due sequenze salvate in tempi diversi (una è la sequenza precedente). Ne consegue che le due sequenze sono del tutto scorrelate, però è interessante notare che il nostro sistema percettivo (almeno quello di chi è abituato ad ascoltare un certo tipo di musica contemporanea) tende a fabbricare delle correlazioni. In effetti, complice anche il fatto che qui si utilizzano due timbri diversi, questo frammento è più interessante del precedente.

Un’altra sovrapposizione di varie sequenze a cui sono assegnati diversi timbri, ma tutti riconducibili a suono “biologici” (uccelli, insetti, miagolii, etc). Il risultato è decisamente piacevole perché tutti i suoni ricadono in una ben determinata tipologia e il nostro cervello ha gioco facile nel costruire delle connessioni e interpretare il tutto come un paesaggio sonoro abbastanza coerente.

Nel sito del Kosmofono potete ascoltare vari altri esempi.

Kosmophone

Charts Music

Johannes Kreidler (1980) è uno dei giovani compositori attualmente più discussi. Sa essere provocatore in modo molto tagliente, fa frequenti incursioni nel pop e spesso utilizza la musica per sollevare questioni etiche.

Uno dei suoi brani, Product Placements (2008), è una provocazione nei confronti della GEMA (la SIAE tedesca). In Germania, con splendida coerenza teutonica, per depositare un brano si deve compilare un modulo per ogni campionamento utilizzato, per quanto breve sia. In Product Placements Kreidler riesce a stipare 70200 campioni tratti da dischi altrui nel giro di 33 secondi. Ovviamente, con una tale concentrazione, i singoli campioni sono irriconoscibili. Ciò nonostante, Kreidler ha preteso di depositare il brano inviando 70200 moduli.

Nel pezzo che vi presentiamo, Charts Music (2009), le melodie sono generate seguendo le curve dei grafici della borsa (sostanzialmente discendenti) e delle vittime in Iraq (ascendenti), passando per l’andamento del debito  e del tasso di disoccupazione negli USA. I grafici vengono rimappati su una scala musicale e armonizzati con SongSmith, il software della Microsoft che genera automaticamente un accompagnamento in uno stile a scelta basandosi sulla melodia.

Il risultato è uno spassoso e conturbante esempio di sonification.

Kreidler vive a Berlino e insegna teoria musicale e musica elettronica all’Università della Musica e del Teatro di Rostock, al Hochbegabtenzentrum della Università della Music di Detmold e alla Hochschule für Musik und Theater di Hannover.

Tanto per non smentirsi, nel suo sito i link non sono sottolineati, ma sovralineati.

Eruption Music 2

Ricordate il post “Eruption Music” in cui parlavo della codifica musicale dei sismogrammi dell’Etna?
Bene, ecco qui il risultato: una pagina della partitura e il relativo audio.

Do you remember the “Eruption Music” post about the sonification of Mount Etna’s seismograms?
Well, here is the score and the music.

Eruption Music

Eruption Music

Volcan sonification

Apprendo ora da BBC News che alcuni scienziati italiani stanno cercando di trasformare in musica i sismogrammi dell’Etna al fine di poter meglio predire una eventuale eruzione.
La tecnica, nota come “data sonification” non è una novità. È stata usata più volte in passato per rendere più evidenti dei patterns sepolti in grandi masse di dati. Se, per esempio, si trasforma in suono l’andamento di un fenomeno ondulatorio, è molto più facile sentirne il ritmo, scoprire moduli che si ripetono, etc.
Ora, sempre secondo BBC News, gli studiosi dell’Università di Catania (in particolare il prof. Roberto Barbera e il suo team) stanno lavorando sugli infrasuoni emessi dal vulcano, altrimenti inaubili, trasformandoli in musica con un metodo messo a punto dal prof. Domenico Vicinanza dell’Istituto Italiano di Fisica Nucleare.
Il sistema, schematizzato in figura, campiona un’onda sismica e genera una serie di note interpretando il valore dell’asse y come altezza. Ignoro se il campionamento sia sincrono o meno (non ho molti dati), ma, a giudicare dall’immagine, ni. Quando l’onda procede quasi come una retta, le note sembrano piazzate a intervalli regolari, ma c’è una certa attenzione a particolari punti corrispondenti a picchi, flessi, cambiamenti di pendenza, eccetera. Sembra cioè tenere d’occhio i cambiamenti nel valore della derivata, che esprime la pendenza della curva.
Musicalmente il sistema è piuttosto banale, però bisogna ricordare che il suo scopo non è produrre una sinfonia né tantomeno scrivere musica, bensì evidenziare moduli melodici e/o ritmici e in questo senso l’applicazione è corretta.
Ricordo, invece, che, negli anni ’60, il compositore americano Gordon Mumma utilizzò proprio dei sismogrammi per comporre i suoi brani della serie Mograph. In questo caso, la conversione era finalizzata alla musica. Direttamente dal suo sito, ecco un estratto di Medium Size Mograph (1963) per pianoforte a 4 mani e elaborazione elettronica (esecutori Gordon Mumma e Robert Ashley).

I read on BBC News that Researchers in Italy have already created a concerto from the underground movements of Mount Etna on Sicily.
Well, judging from the rest of article, this is an out of line way to say that italian scientists (Professor Roberto Barbera of the University of Catania and his team) are trying to get music from seismographs data to reveal inner patterns. The musical method, known as data sonification, adds a further tool to the vulcanologist’s tool box.
Data sonification transforms complex data into audible sounds. It has previously been used to analyse astronomical data from the Shoemaker Levy comet collision with Jupiter. The data sonification software used on Mount Etna was invented by Dr Domenico Vicinanza at the Italian National Institute for Nuclear Physics. It transforms the inaudible seismic waves that travel through the Earth into music.
According to the image, to create the volcanic score, the team take a seismogram – a graphical record of an earthquake that records the timing and intensity of seismic waves – and trace the peaks and troughs on to blank music bars. They then overlay the contours with musical notes. A digital synthesiser can then play the score.
From a composer point of view, the sistem is simple, but we must remember that the intent is not to make a concert, not even to write music, but only to reveal hidden patterns and produce a sort of “sound signature” of the volcano’s behavior.
I remember that, back in the sixties, american composer Gordon Mumma make the same with the intent to produce music and wrote a sequence of pieces called Mograph starting from seismographs data. From his site, here is an extract from Medium Size Mograph (1963) for 4 hands piano with cybersonic modification (Gordon Mumma e Robert Ashley performers).