You are on page 1of 116

Instalación para altavoces y datos sonificados

Máster en Arte Sonoro


Curso 2016-2017

Proyecto final de máster

Jordi Espuny Monserrat

Tutor del proyecto: José Manuel Berenguer

Universitat de Barcelona - Facultat de Belles Arts

1
Imagen de portada: De Motibus Stellae Martis.
Movimiento del planeta Marte según Kepler, recogido en
Astronomia Nova (1609).
https://en.wikipedia.org/wiki/History_of_Mars_observation

Este texto se encuentra bajo licencia Creative Commons


Atribución-NoComercial-CompartirIgual 3.0
CC. Jordi Espuny Monserrat. Marzo 2017

2
Índice de contenidos
1. Introducción.......................................................................................................................... 6

1.1. Motivaciones................................................................................................................................... 6
1.2. Sonido e información...................................................................................................................... 8
1.3. Objetivo.......................................................................................................................................... 9
1.4. Herramientas y Metodología......................................................................................................... 10

2. Sonificación........................................................................................................................ 12

2.1. Definición...................................................................................................................................... 12
2.2. Datos............................................................................................................................................ 13
2.3. Proceso........................................................................................................................................ 14
2.4. Herramienta.................................................................................................................................. 14
2.5. Diferentes tipos de sonificación.................................................................................................... 15
2.6. Técnicas....................................................................................................................................... 16
2.7. Continuo....................................................................................................................................... 16
2.8. Paramétrico.................................................................................................................................. 17
2.9. Modelado...................................................................................................................................... 17
2.10. Estetizar los datos...................................................................................................................... 18
2.11. Aprovechar las propiedades del sonido......................................................................................18
2.12. Arte sonoro y música.................................................................................................................. 19
2.13. Conclusiones.............................................................................................................................. 20

3. Científicos y artistas........................................................................................................... 22

3.1. Fenómenos naturales................................................................................................................... 22


3.2. Sonificación en el campo científico: ¿por qué quieres escuchar estos números?........................22
3.3. Tim Perkis. Colaboración Músico/Científico.................................................................................23
3.4. Estrellas........................................................................................................................................ 24
3.5. Átomos......................................................................................................................................... 26
3.6. CERN & MIT. Tango para unos protones.....................................................................................27
3.7. Sonido en el Espacio: Play it in B-flat........................................................................................... 28
3.8. John Cage.................................................................................................................................... 30
3.9. Alvin Lucier................................................................................................................................... 30
3.10. Charles Dodge............................................................................................................................ 31
3.11. José Manuel Berenguer.............................................................................................................. 32

3
3.11.1. Plasma waves..................................................................................................................... 32
3.11.2. @RUSC.............................................................................................................................. 34
3.12. Otras materias, más allá de las estrellas....................................................................................34
3.13. Conclusiones.............................................................................................................................. 37

4. Proceso. Sistema Solar......................................................................................................38

4.1. Primer ejercicio............................................................................................................................. 38


4.2. Los datos...................................................................................................................................... 39
4.3. Senoidal........................................................................................................................................ 39
4.4. Pulsos senoidales......................................................................................................................... 41
4.5. Simultaneidad............................................................................................................................... 43
4.6. Espacialización............................................................................................................................. 43
4.7. Síntesis granular........................................................................................................................... 43
4.8. Modulación de frecuencia............................................................................................................. 45
4.9. Conclusiones................................................................................................................................ 46

5. Proceso. Astronomía..........................................................................................................48

5.1. LIGO............................................................................................................................................. 48
5.2. Audificación.................................................................................................................................. 49
5.3. Improvisando con LIGO................................................................................................................ 51
5.4. SPITZER...................................................................................................................................... 52
5.5. El telescopio................................................................................................................................. 52
5.6. Datos de Spitzer........................................................................................................................... 53
5.7. Ciencia.......................................................................................................................................... 55
5.8. 12 Victoria. IFFT........................................................................................................................... 55
5.9. 12 Victoria. Wavetable (1)............................................................................................................ 58
5.10. 12 Victoria. Wavetable (2)........................................................................................................... 59
5.11. Cassiopeia.................................................................................................................................. 60
5.12. Recorrido 1................................................................................................................................. 61
5.13. Recorrido 2................................................................................................................................. 62
5.14. Horsehead Nebula...................................................................................................................... 62
5.15. Cassiopeia Random Walk........................................................................................................... 64
5.16. Conclusiones.............................................................................................................................. 67

6. Punto y aparte.....................................................................................................................69

6.1. Don Quijote................................................................................................................................... 69

4
6.2. Proceso........................................................................................................................................ 71
6.3. Segunda sonificación.................................................................................................................... 72
6.4. Conclusiones................................................................................................................................ 73

7. Descripción de la instalación.............................................................................................75

7.1. Justificación.................................................................................................................................. 75
7.2. Descripción de la instalación........................................................................................................ 75
7.3. Descripción de los sonidos........................................................................................................... 77
7.4. Requerimientos técnicos.............................................................................................................. 79

8. Conclusiones finales.......................................................................................................... 80

9. Referencias y bibliografía..................................................................................................82

10. Anexo 1. Código las sonificaciones................................................................................87

10.1. Sistema Solar ............................................................................................................................ 87


10.2. LIGO........................................................................................................................................... 92
10.3. 12 Victoria................................................................................................................................... 93
10.4. Cassiopeia.................................................................................................................................. 96
10.5. Quijote...................................................................................................................................... 101

11. Anexo 2. Código para la instalación..............................................................................104

5
1. Introducción

1. Introducción

1.1. Motivaciones

La primera vez que oí la palabra sonificación fue en un encuentro del grupo de usuarios de
SuperCollider1 de Barcelona hacia el año 2014. En aquella reunión participó un antropólogo
interesado en generar sonido a partir de los datos obtenidos en sus investigaciones, con el fin
de detectar patrones a través de la escucha. La herramienta con la que trabajaba era NetLogo,
en entorno de programación para la simulación de modelos usado en dominios como la
economía, la biología o la física. Los datos generados eran colecciones de números
multidimensionales que se deberían tratar para obtener sonido. Si bien hice algunas pruebas,
en aquel momento dejé aparcado el tema. Algún tiempo después, en el Máster en Arte Sonoro,
me volví a encontrar con la sonificación en las clases de José Manuel Berenguer. Allí tuve la
oportunidad de profundizar más, trabajando entre otras cosas con imágenes como fuente de
datos. La idea consistía en recorrer una imagen píxel a píxel, extrayendo de cada uno de ellos
valores de color (RGB) usados luego en la generación de sonido.

La sonificación no es una disciplina muy conocida fuera de su entorno. Estamos más


acostumbrados a ver los datos representados en gráficas, esquemas e infografías. Esto es así
seguramente por razones culturales y de tradición. Es cierto que imprimir sobre papel es
mucho más práctico que almacenar el sonido, cosa que sólo se puede hacer razonablemente
bien desde hace algo más de 60 o 70 años2.

Al consultar artículos en el campo de la ciencia o de la técnica, vemos que estos están


plagados de gráficas y esquemas que muestran los resultados de las investigaciones. Si nos
abstraemos de su significado original, estas gráficas se pueden mirar como si fueran imágenes
abstractas, algunas de gran complejidad. Se puede incluso pensar en ellas como partituras
gráficas3. Al sacar esta información de su contexto original, se puede realizar una traducción

1 Ver el capítulo 1.4. Herramientas y Metodología.


2 Se han considerado los años 40 y 50 del siglo XX, en los que se popularizó la cinta magnética
3 https://en.wikipedia.org/wiki/Graphic_notation

6
1. Introducción

de tal forma que partiendo de una gramática/vocabulario nos lleva a otra gramática/vocabulario
esta vez sonoros.

Figura 1.1. Spectroscopy of Atmospheres, Fran Bagenal, 2005. https://goo.gl/VPUfyr

Independientemente del origen de la imagen de la Figura 1.1, desde un punto de vista musical
se puede interpretar por ejemplo como un glissando (algo accidentado) para 4 instrumentos. Si
nos adentramos en aspectos más técnicos del sonido, también se puede interpretar como una
forma de onda, o como un espectrograma. Para poder llevar a cabo este último proceso sería
necesario extraer los valores numéricos correspondientes a las líneas de la gráfica, para su
posterior conversión a sonido. En este caso sería más práctico partir de los datos originales de
los que dispone el o la investigadora, que son seguramente más numerosos que los que
vemos en la imagen, lo que nos va a convenir a la hora de sonificar datos.

7
1. Introducción

A partir de esta idea, este trabajo propone un recorrido que me permita profundizar en lo que
es la sonificación. ¿Quién, cómo y porqué? Los científicos usan la sonificación ya que en
algunos casos el sonido es muy útil en la exploración de datos. También lo hacen artistas
plásticos, artistas sonoros, músicos o compositores, con herramientas distintas y con
propósitos distintos. En una segunda parte del recorrido, realizaré una serie de ejercicios de
sonificación, con el fin de poner en práctica algunas de las ideas encontradas, para aprender
haciendo más que aprender mirando (o escuchando en este caso).

1.2. Sonido e información

El sonido siempre transporta información. Tomemos como ejemplo el canto de los pájaros. Si
estamos acostumbrados a oírlos, podremos saber qué tipo de pájaro es, si es grande o
pequeño, si está cerca o está lejos. Si además tenemos conocimientos en ornitología,
podremos extraer más información del sonido que escuchamos: qué tipo de canto es, si es de
alerta o de apareamiento, etc... Podemos reconocer el sonido porque lo hemos escuchado
otras veces y está en nuestra memoria. Los sonidos cotidianos que escuchamos nos informan
de sucesos de nuestro entorno, a condición de que ya hayamos escuchado estos sonidos y los
podamos reconocer. En el caso de la música, podemos saber qué instrumento está sonando.
Puede ser un violín o un saxofón, y si tenemos más experiencia, podremos saber si el saxofón
es tenor o soprano. Si se ha realizado un entrenamiento mayor, se podrá saber si el que lo
toca es un determinado músico, por ejemplo John Coltrane, Charlie Parker o Sonny Rollins.
Pero la música en sí transporta información más abstracta, que no corresponde a un fenómeno
concreto del entorno, podríamos decir que sugiere más que informa, creando una determinada
atmósfera.

Se puede hablar de diversas capas de información contenidas en el sonido. La primera,


siempre presente, va a informarnos de su origen, a través de su composición espectral, de su
envolventes y otras características propias del timbre. Una segunda capa es quizás más
personal, corresponde a lo que un determinado sonido sugiere, incluso de forma inconsciente,
en función de nuestras propias vivencias. Por último, la tercera capa podría ser más cultural, y
corresponder al mensaje que transmite un sonido, por ejemplo el lenguaje, o una alarma que
me va a indicar algo muy concreto y que he tenido que aprender con anterioridad. De hecho es
posible que le prestemos mucha atención a la segunda o tercera capa, y dejemos de fijarnos
en la primera. Por ejemplo en el caso de una melodía interpretada con una guitarra, una vez

8
1. Introducción

detectado el instrumento (la primera capa de información) se le puede prestar más atención a
la melodía y dejar de darle importancia al timbre.

En el caso de la sonificación, el sonido también es portador de un mensaje, y sólo se va a


poder extraer si se tiene conocimiento del contexto de los datos que están en su origen y de la
estrategia usada para generar el sonido. El oyente deberá estar entrenado para poder detectar
patrones o explorar los datos mediante el sonido que escucha.

Tomemos por ejemplo una onda senoidal. La frecuencia puede corresponder pongamos, al
radio del planeta Tierra, esto es 6371 Hz (si se traducen Km a Hz). La información está ahí,
aunque no seamos conscientes de ello. Si componemos una pieza formada por acordes, en
los que las frecuencias de las ondas corresponden al radio de los planetas del Sistema Solar,
esta decisión va a condicionar el mundo sonoro que se genere. Creo que este hecho no se
puede pasar por alto. Además sólo con que se indique que el sonido tiene signos y eventos
sonoros con significado y que representan algo, aun sin decir qué, posiblemente el oyente
atento intente descubrir estos elementos en su acto de escucha, cambiando así su actitud.
Digamos que va a poner en marcha su imaginario personal y lo va a usar para crear su propia
interpretación a partir de lo que el sonido le sugiera.

1.3. Objetivo

El resultado de este trabajo va a ser una instalación para 8 o 16 altavoces y datos sonificados.
El objetivo es por lo tanto sonificar para entender, reflexionar y profundizar en la sonificación
de datos. Entender qué son los datos, qué papel juegan y qué importancia tienen. Poner en
marcha un proceso de trabajo que incluya la búsqueda de datos, su extracción y su
manipulación. En una etapa posterior, aunque a veces también simultánea, programar
algoritmos que permitan la escucha de estos datos, para permitir una primera exploración que
sea más sonora que visual.

Las sonificaciones se han realizado a partir de datos científicos, la mayoría procedentes del
campo de la astronomía, aunque éste no es un hecho relevante. Los datos, procedan de
donde procedan, pueden ser muy similares. Pueden corresponder a fenómenos ondulatorios,
representar espectrogramas o ser datos discretos. Lo que busco es una reflexión sobre datos,
significado y sonido. El interés se centra en la sonificación en sí, como proceso y técnica para
la creación sonora.

9
1. Introducción

En la instalación propuesta, el sonido resultante de las sonificaciones se va a sacar


deliberadamente de su contexto científico original. Se propone al visitante/oyente escucharlos
sabiendo que el sonido es portador de información (el mensaje), que está ahí, pero que está
fuera de su alcance, invitando así a la reflexión de cómo el sonido transporta la información y
de qué condiciones deben darse para que el oyente la interprete correctamente y la pueda
extraer.

1.4. Herramientas y Metodología

Todo el material que se ha usado en este trabajo es de acceso libre. La mayoría de


observatorios astronómicos y otras instituciones ponen a disposición del público la gran
mayoría de los datos que generan en sus trabajos de investigación. En internet existen una
infinidad de datos de distinta naturaleza y procedencia, que se pueden descargar y usar
libremente. Además, gran parte de los textos y artículos científicos/técnicos consultados están
disponibles en los sitios web de universidades y otros centros de investigación. En el sitio web
de IRSA4 (InfraRed Science Archive) se encuentra una herramienta web que permite la
búsqueda, acceso, visualización y descarga de los datos de algunas de las misiones
espaciales de la NASA. Lo mismo pasa en el sitio web de LIGO 5 (Laser Interferometer
Gravitational-Wave Observatory). Este contexto es en realidad una arma de doble filo: facilita
el acceso a la información, pero obliga a invertir mucho tiempo y esfuerzo filtrando todo el
material disponible. En cualquier caso, es seguro que los resultados obtenidos se verán
influidos por ello.

E l software utilizado también es de uso libre. Python es un lenguaje de programación con


licencia de código abierto, muy extendido en la comunidad científica 6. Supercollider7, también
de código abierto, es un lenguaje de programación para la síntesis de sonido y composición
algorítmica utilizado por músicos, artistas y por investigadores. Python se ha usado aquí para
la extracción de datos de los archivos descargados de las webs citadas anteriormente. Estos
archivos incluyen datos y metadatos que es necesario tratar antes de poder usarse para su
sonificación. Las sonificaciones, pruebas y manipulaciones de sonido se han realizado con
Supercollider. Este lenguaje de programación también se usa para la ejecución a tiempo real
4 http://irsa.ipac.caltech.edu/frontpage/
5 http://ligo.org/
6 https://es.wikipedia.org/wiki/Python
7 http://supercollider.github.io/

10
1. Introducción

de la obra. De esta manera las sonificaciones, la espacialización del sonido y la estructura


generada evolucionan libremente de tal modo que las situaciones que se producen son
imprevisibles y diferentes en cada momento.

Otras herramientas usadas son Audacity8, un programa de código abierto para la edición de
audio, Sonic Visualizer9, una aplicación para la visualización y el análisis de sonido y en menor
medida WebPlotDigitizer10, una herramienta online para extracción de datos a partir de
imágenes y gráficas. Estos programas no se han usado para la sonificación, pero son
herramientas útiles para realizar otras tareas importantes para el análisis de resultados. El
espectrograma (o sonograma) por ejemplo puede mostrar la estructura del sonido generado, y
en algunas ocasiones permite incluso ver claramente la forma de los datos originales
reflejados en él. Este espectrograma puede ser interpretado como la partitura para un
determinado sonido, mostrando su forma, su evolución en el tiempo y su contenido frecuencial.

8 http://www.audacityteam.org/
9 http://sonicvisualiser.org/
10 http://arohatgi.info/WebPlotDigitizer/

11
2. Sonificación

2. Sonificación

2.1. Definición

Los seres humanos poseemos un sistema auditivo capaz de percibir el entorno sonoro de una
manera muy precisa. Del complejo entramado de ondas presentes en el aire que nos rodea,
podemos distinguir con facilidad los objetos que las producen, además de poder detectar la
posición en la que se encuentra cada uno de ellos. A pesar de esto, son raras las veces en las
que se nos ofrece la posibilidad de "oír" ciertos aspectos del mundo, si lo comparamos con las
veces que se nos propone "ver" estos mismos fenómenos a través de imágenes, gráficos o
animaciones. Estamos acostumbrados a ver imágenes de fenómenos que en realidad son
invisibles, como por ejemplo la variación de la temperatura según las estaciones del año, pero
es más raro escuchar un sonido que refleje esta misma información. La sonificación se ocupa
precisamente de esto, hacernos oír fenómenos que normalmente no emiten sonido. La palabra
sonificación nos remite a la idea de transformación, en este caso transformar a sonido o hacer
sonar algo que de por sí no pertenece al campo de lo sonoro.

En este artículo publicado a principios de los años 90 el debate en la búsqueda del término
más adecuado seguía abierto:

Witten argues for the use of the term scientific realization, while D. Cox at NCSA argued for the
use of the term viscerization. Others have proposed using the terms sonification, audification,
numerosonics, and sonometrics (the last two suggested by T. Mikiten) as identifiers for the field
of sonic visualization, the idea of using sound to aid in our understanding of data and of what it
is telling us about our model. [1]

Finalmente se impuso el término sonificación. La definición que se puede leer en The


Sonification Handbook puntualiza que esta transformación a sonido tiene la finalidad de
comunicar y representar información con sonido no hablado. Además la sonificación depende
de los datos, debe ser una transformación sistemática, objetiva y reproducible [2]. Queda claro
al leer esta definición que nos movemos en el terreno de la ciencia y de la tecnología. Otra

12
2. Sonificación

definición, más amplia quizás, nos dice que la sonificación es una representación sonora
intuitiva de datos complejos [3]. Los datos de los que se parte, obtenidos en campos como la
física, ciencias sociales, economía o ingeniería, son el primer eslabón de la cadena. Al final del
proceso está el sonido, que informa y representa estos datos.

La pregunta en sonificación no es cómo percibimos el sonido (tarea propia de la


psicoacústica), sino cómo creamos un mundo sonoro que pueda comunicar significado:

However, in a way sonification research and design work addresses a problem that is inverse
to what psychoacoustics studies: rather than asking how we perceive existing worlds of
sounds, the question in sonification is, how can we create a world of sounds that can
communicate ’meaning’ by aggregates of finely differentiated streams of sound events? [4]

La sonificación también se usa con finalidades artísticas o musicales:

This mainly discriminates sonification from data-driven music composition where the primary
intent is different: with data-driven music composition, the sound is the product, whereas the
linkage to the data is a by-product, thus the main concern lies onto the sound and on its
(mostly emotional) effect onto the recipient and not in learning something about the data. [5]

Se pueden distinguir tres elementos o tres etapas en esta transformación: los datos, la idea o
procesos que se van a aplicar a los datos y una herramienta, normalmente informática, que
permite aplicar este proceso y así generar el sonido. Como se ve, la sonificación es una
actividad multidisciplinar, en la que intervienen expertos en la materia tratada (los datos), en
sonido, en psicoacústica, en programación informática, en arte o en música.

2.2. Datos

Los datos son la materia prima. Son el resultado de las mediciones de un fenómeno o de un
suceso cuantificable. Su naturaleza es muy variada. Pueden ser datos "lentos" que se tomen
durante un largo período de tiempo, o pueden ser datos muy abundantes que correspondan a
un suceso que ha durado tan sólo algunos segundos. Algunos de estos datos pueden ser
sensibles, como por ejemplo la temperatura, o inalcanzables para nuestros sentidos, como los
generados en el campo de la física de partículas. Pueden provenir de disciplinas muy diversas
como la física, las ciencias sociales, la economía o la medicina. Puede que incluyan el factor

13
2. Sonificación

tiempo, es decir que muestren cómo evoluciona un determinado valor con el paso del tiempo,
o puede que ninguna de sus propiedades dependa del tiempo, por ejemplo cómo varía la
temperatura de la atmósfera respecto de la altitud. Esta consideración es importante ya que el
sonido incluye siempre el factor tiempo, a diferencia de un gráfico que es "instantáneo" y no lo
requiere.

2.3. Proceso

Las decisiones que se tomen a la hora de sonificar van a depender de distintos factores. Uno
de ellos es la naturaleza de los datos, otro es el objetivo de la sonificación, que puede ser la
presentación de resultados, la exploración de los datos, alertar de situaciones críticas
(alarmas), tener fines didácticos y divulgativos [4] o componer una pieza musical. También
habrá una serie de decisiones aparentemente "arbitrarias" que obedecerán a diversas razones,
como la experiencia en este campo, la intuición o las preferencias estéticas. Quizás ésta es la
parte más creativa y que requiera de más imaginación. Si el sonido no es propio de un
determinado fenómeno, no está en su esencia, ¿qué es lo que nos va a dar pistas o sugerir el
tipo de sonido que lo va a representar mejor? ¿qué metáfora se va a usar para comunicar un
determinado fenómeno? Es difícil saber a priori cuál va a ser la mejor decisión. Entramos en el
terreno de la prueba y del error, aquí se impone el método recursivo propio del diseño. Se
pueden idear métodos muy originales, como hicieron Katharina Vogt y Robert Höldrich [6] para
sonificar el resultado de experimentos en la física de partículas: decidieron entrevistar a los
físicos del equipo para que imitaran con la voz el sonido que ellos esperaban o asociaban al
fenómeno, y lo utilizaron como punto de partida para sugerir los sonidos usados. Pero la
pregunta quizás no sea ¿Cómo suena tal fenómeno? que de hecho no suena, si no qué sonido
va a permitir entender y transmitir mejor la información que se quiere mostrar.

2.4. Herramienta

Aunque hay varias maneras de transformar un fenómeno en sonido, este trabajo se centrará
fundamentalmente en herramientas informáticas. Como ejemplo de sonificación en el que no
intervenga un ordenador, imaginemos un pequeño molino eólico, que al girar activa una rueda
dentada que golpea sobre una caja de madera, produciendo un sonido percusivo. El sonido
resultante nos va a informar claramente de la fuerza y velocidad del viento. Los elementos
molino de viento → rueda dentada → caja forman una cadena capaz de traducir la energía del

14
2. Sonificación

viento en sonido a tiempo real. Recordemos también la obra de Alvin Lucier, Music for a solo
performer (1965), en la que las ondas alfa generadas por la actividad cerebral se transforman
en sonido mediante una cadena formada por ondas alfa → amplificador → actuador
electromecánico → instrumento de percusión. En estos ejemplos, se ha construido físicamente
(o diseñado) un dispositivo que realiza una determinada tarea. En el caso de un algoritmo
informático, también se está construyendo o diseñando un proceso de transformación. Primero
se ha convertido el fenómeno a valores numéricos: conversión analógico a digital (A/D)11. A
partir de aquí se pueden aplicar todas las operaciones matemáticas o lógicas que se deseen.
Al final, se realiza el proceso inverso de conversión digital a analógico (D/A), obteniéndose la
señal eléctrica que es amplificada y que se puede escuchar a través de un altavoz. La cadena
sería: instrumento de medida → conversión A/D → algoritmo → conversión D/A → amplificador
→ altavoz.

2.5. Diferentes tipos de sonificación

No existe una clasificación exacta de todos los tipos de sonificación, pero se pueden organizar
en cuatro grandes categorías, dependiendo del tipo de datos, del objetivo que se persigue con
la sonificación y del de proceso utilizado. Según The Sonification Handbook [2], las principales
categorías son:

1. Alarmas, alertas y advertencias


2. Mensajes de estado, proceso y monitoreo
3. Exploración de datos
4. Arte, entretenimiento, deportes y ejercicio

Como vemos, el arte queda incluído en la categoría de entretenimiento, deporte y ejercicio. En


referencia a la composición musical, en este mismo texto se puede leer:

As the sound-producing capabilities of computing systems have evolved, so too has the field of
computer music. In addition to yielding warnings and sonifications, events and data sets can be
used as the basis for musical compositions. Often the resulting performances include a
combination of the types of sounds discussed to this point, in addition to more traditional
musical elements. While the composers often attempt to convey something to the listener

11 Este paso no va a ser necesario si se parte de datos de naturaleza digital, como por ejemplo el
tráfico en una red informática.

15
2. Sonificación

through these sonifications, it is not for the pure purpose of information delivery. [2]

En este párrafo se resalta un aspecto muy importante: "Mientras que los compositores intentan
a menudo transmitir algo al oyente a través de estas sonificaciones, no es con la pura finalidad
de mostrar información". Aunque nos hemos alejado del campo científico-técnico, ¿la
sonificación debería seguir transmitiendo la esencia del fenómeno o hecho inicial que se está
tratando? Ésta es una pregunta importante ya que va a condicionar el proceso. De todas
formas los datos son parte del material, por tanto de alguna manera var a estar siempre
presentes en el resultado de manera más o menos evidente al oído, seamos o no conscientes
de ello.

2.6. Técnicas

Dependiendo del tipo de datos y de las propiedades que se quieran resaltar, se pueden
distinguir tres tipos de tratamientos [4]:

1. Continuo
2. Paramétrico
3. Modelado

2.7. Continuo

Continuo hacer referencia a que se dispone de una gran flujo de datos, que se convierten en
un archivo de sonido, escalándolos y normalizándolos, pero sin alterar su forma. Este proceso
se llama audificación, esto es, convertir los datos directamente a sonido. Si el archivo de audio
tiene una frecuencia de muestreo de 44100 Hz, se necesitan 44100 valores para obtener un
segundo de sonido. Un ejemplo sería un onda electromagnética, que tiene un frecuencia del
orden de los GHz o más (miles de millones de Hz). Si capturamos la onda y le cambiamos la
frecuencia a un rango audible y normalizamos los valores entre -1 y 1, obtendremos el sonido
de la onda.

16
2. Sonificación

2.8. Paramétrico

Si se disponen de menos datos, no continuos sino discretos, se pueden mapear estos valores
a algunas de las propiedades de una onda portadora. Por ejemplo si disponemos de los
registros diarios de la luminosidad de la Luna, pongamos un valor por día, en un año
tendremos 365 valores. En este caso podemos pensar en traducir estos datos a un valor de
frecuencia, y modular con ellos la frecuencia de una onda senoidal. Existe una gran cantidad
de técnicas de síntesis de sonido que admiten diferentes parámetros de control con los que
modificar el sonido resultante, lo que abre un sinfín de posibilidades sonoras. La diferencia
importante de este método respecto al anterior, es que en el primero el timbre del sonido venía
dado por los datos mismos, mientras que aquí se tiene que elegir qué parámetro y que tipo de
síntesis se va a usar, y por lo tanto el resultado final dependerá en mayor medida de
decisiones arbitrarias.

2.9. Modelado

En el Modelado, los datos se usan para diseñar un modelo (informático) que va a reflejar la
naturaleza del fenómeno medido. Este modelo puede ser usado después como si fuera un
instrumento (musical), es decir interaccionando con él a través de sus propiedades. Por
ejemplo los datos pueden determinar algunos valores según el tipo de síntesis usado,
pongamos por caso el número de armónicos y la envolvente de una onda, mientras que el
intérprete/usuario va poder cambiar la frecuencia y la amplitud del sonido, explorando de esta
manera el comportamiento del modelo. En este caso la cualidad del sonido o su timbre vendrá
determinado por los datos, pero será necesario interactuar con él para generar sonido. El
modelo también podría ser activado por otro algoritmo (en vez de por una persona) alimentado
a su vez por otro conjunto de datos, con lo que se obtendría un sistema híbrido Modelado-
Paramétrico.

Es importante destacar que para que un oyente puede percibir el fenómeno reflejado en la
sonificación, tiene que ser "entrenado" para que pueda entender cómo son los sonidos, qué
indican, o cómo evolucionan. Queda claro que si el objetivo de una sonificación es el
diagnóstico o la detección de un suceso concreto, el oyente debe saber a priori cómo se ha
diseñado la sonificación y qué eventos sonoros se va a encontrar.

17
2. Sonificación

2.10. Estetizar los datos

El ICAD12 (International Community for Auditory Display) es sin duda una de las fuentes más
amplias de información sobre sonificación. Las convocatorias empezaron en 1992 y siguen
realizándose hoy día, siendo la próxima en junio de 2017 en Pensilvania. No obstante, no fue
hasta el año 2001 y sobre todo en 2002, 10 años después de la primera edición, cuándo se
introdujo una sección dedicada específicamente al arte. Este año se abrió la posibilidad a
presentaciones que hablaran de la importancia de la estética en la sonificación. En ediciones
posteriores, se presentaron composiciones musicales (Music from the Ocean, Bob Sturm,
2002), se habló de sonificaciones con estructura musical (Maria Barra, 2001), se realizaron
instalaciones sonoras (Atmospherics/weatherworks, Andrea Pollis, 2002), e incluso
sonificaciones más conceptuales (Guernica, Guillaume Potard, 2006) [2]. A partir de este
momento quedó claro que estética y funcionalidad no son independientes. En los años
siguientes, se realizaron conciertos abiertos al público en los que las piezas presentadas se
basaban en la sonificación de datos [7]. Hay que resaltar aquí, más que la valoración artística
de los resultados, el hecho de que la estética, el arte o el diseño sonoro se haya visto como
una necesidad imperativa, imprescindible para poder comunicar y transmitir mejor lo que se
pretende aunque nos encontremos en el terreno científico.

2.11. Aprovechar las propiedades del sonido

Uno de los argumentos de peso a favor de usar el sonido en vez (o como complemento) de
representaciones gráficas, es la posibilidad de tratar con él datos complejos de varias
dimensiones, difíciles de visualizar conjuntamente, pero que podrían aprovechar las capacidad
del sistema auditivo para distinguir múltiples eventos sonoros simultáneos o para separar
determinados sonidos respecto de un fondo ruidoso (Efecto de fiesta de cóctel 13). Otro
argumento podría ser que el sonido permite tratar grandes cantidades de datos continuos
(audificación) y aprovechar la facilidad del oído para diferencias pequeñas variaciones de ritmo
y tono en la tarea de detectar anomalías en los datos. En estos dos casos, se podría decir que
se le pide a la escucha que realice tareas que hasta ahora se llevaron a cabo usando
herramientas propias de la vista, pero que son más eficientes si se utiliza el oído. Pero quizás
más importante que esto sea el poder destacar o mostrar mediante la sonificación propiedades

12 http://www.icad.org/
13 https://es.wikipedia.org/wiki/Efecto_de_fiesta_de_c%C3%B3ctel

18
2. Sonificación

completamente ajenas al sentido de la vista, usando por ejemplo la espacialización del sonido,
o cierto tipo de respuestas afectivas o emotivas, más propias del sentido del oído. Una
sonificación resulta menos interesante si se limita a representar la misma "cosa" que también
se está mostrando de forma gráfica, y lo más importante es que en muchos casos
probablemente la representación gráfica sigue siendo una mejor herramienta para el análisis y
la comprensión de los datos estudiados. ¿No sería mejor centrarse en mostrar con sonido
aquellas propiedades o información que no es posible entender racionalmente?

Un ejemplo claro de sonificación es el del estetoscopio, nombrado habitualmente como el


primer ejemplo de sonificación [4], en este caso de los latidos del corazón y de la respiración,
que son imposibles de percibir con la vista. Aquí la sonificación está realizando una tarea
inasequible para la vista. Otro ejemplo clásico es el diagnóstico por el oído que realiza un
mecánico experto a un motor en funcionamiento, pudiendo detectar cierto tipo de anomalías
internas sin tener que desmontarlo.

Quizás la sonificación deba proponer una aproximación completamente diferente al fenómeno


que pretende estudiar, ofreciendo una perspectiva más amplia y alejada del modo en que se
aborda para el sentido de la vista. Una evidencia clara es que cuando el sonido sale del
altavoz, el entorno acústico que produce es de la misma naturaleza que el sonido habitual de
nuestro entorno. Esto no pasa con los sistemas de visión, como gráficos, imagen de vídeo e
incluso imagen 3D o hologramas. Éstos son siempre una representación que engaña a nuestro
cerebro, quien se encarga de reconstruir la imagen e interpretarla como si fuera real. Éste es
un aspecto importante que nos debe guiar a la hora de pensar como realizar una sonificación
de datos. Con el sonido podemos generar una "realidad" imposible de alcanzar con los
sistemas actuales para la visión.

Este capítulo da una visión general de lo que se entiende por sonificación. Esta disciplina, que
está bajo el paraguas del llamado Auditory display, es muy amplia y resulta casi inabarcable.
Aquí se ha hecho una presentación de algunos de sus principales aspectos, con el fin de
disponer de los elementos de reflexión suficientes que permitan una aproximación crítica.

2.12. Arte sonoro y música

Lo que se está buscando con la sonificación y lo que se quiere mostrar con esta
transformación va a influir en las decisiones que se tomen a la hora de llevarla a cabo. Aparte

19
2. Sonificación

del aspecto puramente científico/técnico existe una parte creativa y de diseño sonoro, que va a
dar resultados diferentes dependiendo las propiedades de los datos que se quieran resaltar, ya
sea en el campo científico o en el artístico. Aquí podemos plantear alguna duda: Si nos
movemos en terreno de la ciencia, ¿las restricciones o exigencias impuestas a la sonificación
pueden/deben ser de naturaleza diferente que si lo hacemos en el terreno musical o del arte
sonoro? En objetivo o las razones en estos dos contextos son sin duda diferentes. El científico,
aunque base sus motivaciones en lo puramente divulgativo, va a pretender informar de
hechos, mientras que el artista quizás se va a esforzar más en estetizar los datos.

Para el artista o para el músico, la sonificación de datos también pueden ser vistas como una
técnica de síntesis de sonido y de composición musical, en los que tanto el timbre de los
instrumentos como la estructura de la pieza vienen determinados por la naturaleza de los
datos y sus estructura. También permite proponer una manera de acceder a un determinado
fenómeno a través de una instalación sonora. Un propiedad importante del sonido es su
cualidad envolvente e inmersiva. Usando técnicas de espacialización sonora, se pueden
recrear espacios sonoros que permitan mostrar propiedades espaciales de los datos,
difícilmente accesibles a otros sentidos como por ejemplo el de la vista.

2.13. Conclusiones

Escuchemos los resultados de las sonificaciones realizadas por los asistentes al ICAD. Aquí se
puede acceder a las sonificaciones correspondientes al capítulos 6 de The Sonification
Handbook: http://sonification.de/publications/paper-media y a q u í l a s d e l c a p í t u l o 7
http://sonification.de/handbook/index.php/chapters/chapter7. Además hagámoslo fuera de
contexto, es decir sin leer las presentaciones que los acompañan. Los sonidos nos pueden
parecer más o menos interesantes, pero lo que queda claro es que no nos informan de ningún
fenómeno en particular. Podemos apreciar variaciones del sonido, como el ritmo o la
frecuencia, pero no permiten deducir cuál es el origen de los datos. Sería como una gráfica
muda, sin leyenda ni indicaciones sobre los valores representados en los ejes X e Y.

¿Cómo afecta a nuestra escucha el hecho de conocer o no lo que están representando los
datos? Desde el punto de vista científico, la respuesta puede parecer evidente, pero en el
contexto del arte sonoro o el de la música, ¿hasta qué punto nos podemos desentender del
origen de los datos? Los datos en bruto, su plasticidad, su estructura, ¿son elementos
suficiente que justifique su uso como base para la creación? ¿O se debe tener en cuenta

20
2. Sonificación

también su origen, el contexto del que provienen, cómo se han obtenidos y con qué propósito?
La respuesta va a depender de lo que se pretenda. Un obra sonora puede querer explorar un
contexto determinado o un concepto tomando los datos como punto de partida, o puede querer
usar los datos como una base de información aleatoria, independiente de su significado. En
cualquier caso, parte de la información del fenómeno que ha generado los datos estará
incluida en el resultado sonoro.

En las sonificaciones realizadas en este trabajo la intención ha sido la de explorar los datos,
buscando una estructura interna que pueda genera sonido y que me permita llegar a ideas
inspiradas (o condicionadas) por los datos, a las que difícilmente habría llegado si no hubiera
partido de ellos. Para la exploración normalmente he empezado con algoritmos simples, como
por ejemplo ondas senoidales puras, que permiten una primera escucha, para luego ir
avanzando en procesos más complejos, a medida que iba entendiendo qué tipo de sonido
podría extraer con la sonificación. Si bien en cada caso ha habido una primera fase de
documentación sobre los datos usados, una vez entendido el contexto básico, he empezado a
trabajar con sonido con la idea de completar la comprensión con la escucha, más que con el
análisis teórico. De todas formas en muchos casos un análisis más profundo de los datos
hubiera requerido un conocimiento avanzado en una determinada disciplina. El hecho de no
tener estos conocimientos se ha compensado con una investigación intuitiva basada en la
prueba/error y en los resultados sonoros, que fueron seleccionados como válidos o no
siguiendo un criterio estético.

21
3. Científicos y artistas

3. Científicos y artistas

3.1. Fenómenos naturales

Recoger datos con la finalidad de estudiarlos, buscando entender el mundo que nos rodea. La
ciencia es una de las disciplinas que más se esfuerza en esta tarea, utilizando para ello
métodos precisos y aparatos de medición sofisticados. ¿Esconde la naturaleza estructuras
bellas? Ésta es la pregunta principal del libro "El mundo como Obra de Arte", de Frank Wilczek
[8]. Alvin Lucier afirma: Los experimentos científicos a menudo me han dado ideas para
piezas; A veces hago poco más que enmarcarlos en un contexto artístico [9]. No todos los
fenómenos naturales emiten sonido, pero a pesar de ello, pueden ser el origen de una piezas
sonora. Un experimento científico puede inspirar una obra, o la obra puede ser la metáfora de
un fenómeno natural, o puede estar ligada directamente a los datos recogidos en un
experimento. Existen por tanto varios grados en la incorporación del fenómeno en la obra, que
van de una vaga inspiración, un metáfora más clara, o la sonificación directa de los datos. En
la sonificación también se pueden establecer grados. Se pueden usar los datos de manera
rigurosa, sin alteraciones, siguiendo el fenómeno original de la manera lo más fiel posible, o se
pueden tomar decisiones subjetivas que determinen el resultado más que los propios datos.
Ésta es una decisión que va a tomar el autor en su proceso de trabajo, que dará resultados
diferentes aun partiendo de los mismos datos. La sonificación representará el fenómeno de
manera más o menos evidente dependiendo de estas decisiones.

3.2. Sonificación en el campo científico: ¿por qué quieres escuchar


estos números?

Son muchos los ejemplos que encontramos en los que científicos usan datos de sus propias
investigaciones y los sonifican. Se muestran a continuación algunos ejemplos con el fin de
averiguar cuáles han sido sus motivaciones y los resultados obtenidos. En estos ejemplos, los
datos que se usan provienen de investigaciones que tratan fenómenos inabarcables para
nuestros sentidos, bien porque son muy pequeños y rápidos, como las partículas subatómicas,

22
3. Científicos y artistas

o porque son muy grandes y lejanos, como las galaxias y estrellas del Cosmos. En el capítulo
12 del Sonification Handbook se habla de sonificaciones muy tempranas, por ejemplo:

In audifying physical data, as introduced above, the earliest examples date back as early as
1878, when a series of papers was published about connecting muscle cells with the newly
invented telephone [2].

Se deduce de la lectura del texto mencionado que el sonido, a pesar de ser poco utilizado si se
compara con otras formas de representación como los gráficos, puede resultar muy útil en
algunos campos. Al igual que el cuerpo de una guitarra que amplifica el sonido de las cuerdas,
podemos entender la sonificación como una caja de resonancia que permite amplificar
fenómenos hasta hacer posible su escucha.

3.3. Tim Perkis. Colaboración Músico/Científico

En el año 2013, Tim Perkis, uno de los fundadores de la banda de música experimental The
Hub14, tuvo ocasión de trabajar con la sonificación en una residencia de 5 meses en el
Mediterranean Institute of Advanced Research (IméRA). Como él mismo comenta:

In my time here I've discovered the existence of a sophisticated discourse on the nature of
sonification that I didn’t imagine [10].

Perkis trabaja desde los 70 creando música utilizando ordenadores conectados en red,
generándose así sistemas complejos con un comportamiento difícil de prever, y hasta cierto
punto anárquicos. Después de su estancia en el IMéRA llegó a afirmar que lo que está
haciendo en realidad es sonificar los resultados de estas redes de ordenadores. Refiriéndose a
la sonificación de datos científicos comenta en el mismo artículo:

A similar belief seems to underlie the practice of scientific sonification: the belief that we can
listen into a complex sound, and glean understanding about the processes that are forming it,
and if these processes are driven by some scientific data set, that patterns in the data can be
revealed in the act of listening [10].

Para Perkins, no se trata tanto de sonificar un hecho concreto sino más bien de crear una

14 https://en.wikipedia.org/wiki/The_Hub_(band)

23
3. Científicos y artistas

atmósfera a través de la sonificación. En esta residencia colaboró con científicos que trabajan
en el campo de la física de los gases en estado de plasma. En el laboratorio, se maneja un
complejo instrumental que muestra el grado de estabilidad del gas a tiempo real. El reto
consistía en poder sonificar los datos generados, con el fin de monitorizar a través del sonido
el estado del gas en cada momento. Esto resultaría más práctico que tener que estar mirando
continuamente la pantalla de los instrumentos. Finalmente no se pudo alcanzar la meta
deseada debido a una serie de problemas técnicos. Las sonificaciones se realizaron de todas
formas, pero a partir de datos de mediciones anteriores. Al final Perkis se pregunta si
realmente se pueden extraer información a partir de la sonificación. Quizás no, según él, lo que
el sonido proporciona es un nuevo tipo de inmediatez, una relación diferente con el proceso
que está ocurriendo en un momento determinado, que pueden hacer emerger cierta atmósfera
o ambiente, creando un tipo de inmersión para los oyentes.

Aquí se puede ver la entrevista entera https://youtu.be/qb55F55F2M0


y aquí se pueden escuchar algunos resultados de la sonificación https://vimeo.com/170884425.

3.4. Estrellas

Paul Francis es astrofísico en la Australian National University, donde enseña física. También
es el responsable de algunos cursos online (MOOC) sobre astronomía [11]. Según él mismo
explica en su página web:

Sound waves cannot travel through the vacuum of space. But electromagnetic waves can.
These electromagnetic waves can be recorded by devices called spectrographs on many of the
world's most powerful telescopes.

On this web page, we have converted these electromagnetic waves into sound waves. we've
also reduced the frequency 1.75 trillion times: the original frequencies are much too high for
humans or even dogs to hear.

This allows us to listen to many parts of the universe for the first time. We can hear the song of
a comet, the chimes of stars being born or dying, the choir of a quasar eating the heart of a
galaxy, and much more [12].

24
3. Científicos y artistas

En el caso de las ondas electromagnéticas, los sonidos se generan a partir de espectroscopias


provenientes de un telescopio, que son después remuestreadas con el fin de adaptarlas al
rango de frecuencias audibles. Queda claro que el resultado obtenido no se corresponde al
sonido del espacio. Aquí más bien se está convirtiendo un tipo de energía en otro tipo, o un
tipo de información en otro tipo, en este caso ondas electromagnéticas en ondas mecánicas de
sonido. A la vista de que la mayoría de los datos astronómicos son espectroscopias y no
imágenes, Paul Francis plantea la siguiente pregunta, ¿no sería mejor usar el oído en lugar de
la vista?:

It occurred to me (and has doubtless occurred to many other people) that perhaps we are
using the wrong sense to present spectra. Perhaps we should use our ears, not our eyes, to
examine spectra? Our eyes give us excellent spatial information but only a little spectral
information, while our ears give us the opposite. Thus our ears seem a better match to the
capabilities of most spectrographs [13].

Podemos decir que lo que se obtiene es una equivalencia sonora de las ondas
electromagnéticas. Simplificando el proceso, el método consiste en un cambio de escala, esto
es, ondas de frecuencias muy altas, por ejemplo una onda electromagnética de 3000 GHz, que
corresponde al rango del infrarrojo, se puede escalar hasta los 1000 Hz para convertirla en
audible. De todas formas, al oír los resultados obtenidos por Francis, debemos ser conscientes
de que éstos no son el sonido de ninguna estrella o agujero negro, ni serían así en el caso
remoto de que se pudiera escuchar algún sonido. De lo que se trata es de informar, mediante
el sentido del oído, de los datos presentes en las mediciones realizadas de las ondas
electromagnéticas producidas por los fenómenos que emiten estas radiaciones. Los sonidos
son de todas formas interesantes [14], así como la forma de obtenerlos. Como sugiere el
propio Paul Francis, estos sonidos se podrían usar como bandas sonoras en documentales o
animaciones, lo que sería más auténtico que usar algunas de las músicas que pretenden ser
una metáfora propuesta por el compositor sobre cómo debe sugerirse el sonido del Cosmos.

Aparte de las posibles aplicaciones cinematográficas, Francis propone el uso de la sonificación


en el campo de la educación, con el fin de enseñar espectroscopía:

This approach, combined with more conventional approaches, might get the students
interested, and engage those with a preference for auditory (as opposed to visual) learning
styles [13].

25
3. Científicos y artistas

Otro hecho evidente es la repercusión en los medios de comunicación de este tipo de


experiencias. És fácil encontrar en internet todo tipo de artículos que hacen referencia al
sonido del Universo o de otros campos de la ciencia, como se verá a continuación.

3.5. Átomos

En otro campo de la ciencia, relacionado con las partículas subatómicas, como el bosón de
Higgs, algunos científicos cómo la Dra. Lily Asquith, física especializada en partículas de altas
energías, se han preguntado como debe ser el sonido que proviene de los resultados de sus
experimentos [15]. En el CERN (Organisation Européenne pour la Recherche Nucléaire) se
encuentra el acelerador de partículas LHC (Large Hadron Collider), que juntamente con el
detector ATLAS, son los encargados de medir las colisiones entre electrones. Estos datos son
procesados y guardados en archivos que se pueden descargar libremente del sitio web del
CERN. No cabe duda de que el reciente descubrimiento del bosón de Higgs (2012) ha
generado un gran revuelo mediático, y estos experimentos paralelos, fuera del campo de la
ciencia pura y dura, normalmente difícil de transmitir al gran público, son de gran ayuda para la
divulgación científica. La Dra. Lily Asquith en colaboración con el músico experimental Ed
Chocolate, ha utilizado estos datos para generar sonido:

Sound seems the perfect tool with which to represent the complexity of the data; our ears are
superb at locating the source and location of sounds relative to one another, we can hear a
vast range of frequencies and distinguish timbres (different instruments) before they have even
played a full cycle. We also have an incredible ability to notice slight changes is pitch or tempo
over time and to recognise patterns in sound after hearing them just once [16].

El sonido es indisociable del tiempo, pero algunos de los datos analizados no están ordenados
de manera temporal. Aun así, se debe poner esta variable en juego cuando se trabaja con el
sonido. Por lo tanto aquí vemos claramente la necesidad de tomar ciertas decisiones de
manera arbitrarias. Por ejemplo si queremos escuchar cómo evoluciona una variable respecto
a otra, pero ninguna de las dos es el tiempo, debemos interpretar una de ellas como tal.

Some kinds of data sets are time-dependent, but in the case of the Atlas data, the decision of
which parameter to map to time is arbitrary…and yet the parameter you select has a huge
impact on the sound that you hear. [17]

26
3. Científicos y artistas

En el TEDxZurich que tuvo lugar en Zurich en el año 2013, podemos ver la presentación
"Listening to data from the Large Hadron Collider" de la Dra. Asquith:
https://youtu.be/iQiPytKHEwY

La exploración de los datos con la finalidad de sonificarlos puede volverse un juego de prueba
y error, decidiendo por razones más estéticas que científicas, la validez de una forma de
tratarlos respecto a otra. ¿Qué pasaría si … ? es una pregunta frecuente en estas situaciones.
Un parámetro que en un caso se usa como frecuencia puede pasar a usarse como amplitud o
como tiempo en otras pruebas, cambiando por completo el resultado final. Es posible que lo
que se escucha pueda sugerir algo, o dar pistas sobre algo, y llevar a otra prueba. En
cualquier caso, este tipo de actitudes, la de mirar (escuchar en este caso) las cosas de otra
manera, en un campo tan alejado del habitual en ciencia a la hora de analizar datos, puede ser
muy enriquecedor y ayudar quizás a encontrar respuestas inesperadas. Los resultados que
presenta pueden escucharse en su sitio web https://lhcsound.wordpress.com/sonification-of-di-
photon-channel-part-2/. En una residencia en el CERN, el coreógrafo Gilles Jobin utilizó
sonidos generados con los resultados de estas sonificaciones como base para la banda
sonora de su pieza QUANTUM15.

Aquí puede verse un fragmento de la obra: https://videopress.com/v/hWGarBpz

3.6. CERN & MIT. Tango para unos protones

El proyecto Quantizer16 es una colaboración entre el CERN y el MIT (Massachusetts Institute


of Technology), que tiene como objetivo proporcionar datos de detector ATLAS al que se ha
hecho referencia en el apartado anterior. En este caso, se proporcionan datos a tiempo real de
las colisiones de partículas en el acelerador, con el fin de que compositores puedan usarlos
para componer música:

We present a sonification platform for generating audio driven by real-time particle collision
data from the ATLAS experiment at CERN [18].

En este caso los datos se mandan mediante el protocolo OSC (Open Sound Control) para ser
usados a través de entornos como MAX/MSP o Ableton. Con estas herramientas los

15 https://gillescollides.wordpress.com/
16 http://quantizer.media.mit.edu/

27
3. Científicos y artistas

compositores diseñan sus propios instrumentos que son alimentados (Data Driven) por los
datos del detector ATLAS. Después, el sonido generado se transmite en directo para poder ser
escuchado por la audiencia:

Data-driven streaming audio can be treated as a reimagined form of live radio for which
composers craft the instruments but real-time particle collisions pluck the strings. [18].

Una de las interfaces diseñadas con Pure Data transforma los datos del detector ATLAS en
eventos MIDI, con el fin de usarlos para componer música de estilos tradicionales como
samba, clásica, pop-rock, electrónica y tango, sin al parecer haber obtenido mucho éxito en el
intento. De la misma manera que usar el Theremin para interpretar música clásica puede
considerarse desaprovechar las posibilidades del nuevo instrumento [19], usar las colisiones
de los átomos para componer un tango no parece tampoco la mejor opción.

3.7. Sonido en el Espacio: Play it in B-flat

El sonido necesita de un medio para propagarse, no puede hacerlo en el vacío. Pero en el


Espacio no existe el vacío absoluto, sino que lo ocupa un medio llamado plasma, un gas
ionizado a muy alta temperatura, compuesto por iones y electrones (el plasma es uno de los
cuatro estados de la materia, junto al gaseoso, líquido y sólido). Por él se propagan ondas
mecánicas, que consisten en las oscilaciones de los electrones que lo componen. Estas ondas
fueron captadas por los instrumentos de la sonda Voyager 1, enviada al espacio por la NASA
en 1977.

Strictly speaking, the plasma wave instrument does not detect sound. Instead it senses waves
of electrons in the ionized gas or "plasma" that Voyager travels through. No human ear could
hear these plasma waves. Nevertheless, because they occur at audio frequencies, between a
few hundred and a few thousand hertz, "we can play the data through a loudspeaker and
listen," says Gurnett [20].

Las ondas captadas por los instrumentos del Voyager 1 y 2 fueron adaptadas para poder ser
escuchadas. En esta página se pueden escuchar una selección de los resultados obtenidos:
http://www-pw.physics.uiowa.edu/space-audio/sounds/

Otro fenómeno sonoro más impresionante si cabe es el registrado por el observatorio de rayos

28
3. Científicos y artistas

X Chandra en el año 2002, debido a una explosión cerca de un agujero negro:

These sound waves are thought to have been produced by explosive events occurring around
a supermassive black hole (bright white spot) in Perseus A, the huge galaxy at the center of
the cluster. The pitch of the sound waves translates into the note of B flat, 57 octaves below
middle-C. This frequency is over a million billion times deeper than the limits of human hearing,
so the sound is much too deep to be heard [21].

Se trata en este caso de una onda con un período de aproximadamente 10 millones de años,
lo que corresponde a una frecuencia de 3.3e-15 Hz (según sus cálculos), que trasladado a
notación musical corresponde a un Si bemol, 57 octavas por debajo de Do medio [22]. Esto es
evidentemente un cálculo aproximado. Esta frecuencia corresponde a la nota midi -613
(redondeado), mientras que el Si bemol medio es la nota midi 70. Es decir un intervalo de 683
semitonos, que divididos por 12 dan como resultado 57 octavas.

Figura 3.1. Chandra Ripple Image of Perseus


http://chandra.harvard.edu/photo/2003/perseus/perseus_ripple_illustration.jpg

29
3. Científicos y artistas

Aunque en este caso no podamos hablar de sonificación, puesto que no se ha generado


ningún sonido con los datos anteriores, sí que me parece interesante destacar que para
explicar este fenómeno tan poco musical se haya usado, de manera un tanto forzada, este
símil que busca la equivalencia de la frecuencia de la onda con su correspondiente nota.

3.8. John Cage

Los casos anteriores son algunos de los muchos ejemplos recientes del uso de la sonificación
en el campo científico. En el contexto musical podemos encontrar ejemplos anteriores. Sin
utilizar datos obtenidos con avanzados instrumentos, se han realizado obras como Atlas
Eclipticalis (1958) de John Cage [23] o más recientemente Panorama (1992) de Alvin Lucier
[24], ambas piezas para instrumentos tradicionales, la orquesta sinfónica en el primer caso, y
un dúo compuesto por un trombón de varas y un piano en el segundo. En la obra de John
Cage se podría hablar de una sonificación indirecta. El atlas astronómico usado por el
compositor fue realizado por el astrónomo checo Antonín Bečvář en 1950. Para la composición
de la obra el mapa de las estrellas se sitúa sobre papel pautado con el fin de posicionar las
notas. Pero aquí Cage busca más lo aleatorio que el sonido de las estrellas.

Cage overlaid the star charts with musical staves, and then used chance operations to
determine pitch and to construct events ["constellations"] within each instrument's part [25].

En este caso no intervienen los números, es un proceso gráfico, pero que equivaldría a medir
la posición de las estrellas en un determinado cuadrante del cielo, y luego traducir los
resultados a notas o frecuencias mediante un algoritmo. De todas formas, si la intención del
artista no es sonificar un conjunto de datos ni mostrar alguna de sus características ¿podemos
seguir afirmando que es un proceso de sonificación?

3.9. Alvin Lucier

Nos encontramos con una situación similar en la obra Panorama (1992) de Alvin Lucier, en la
que las pendientes de las montañas suizas se han usado para escribir la partitura de los
glissandi tocados por un trombón de varas y los acordes del piano. Una parte del proceso de
translación de las montañas a notas es gráfico también aquí:

30
3. Científicos y artistas

In his composition, Lucier kept the scaling of both dimensions fixed: The mountain height in
meters divided by 8 results in the frequency in Hz, and the distance between two mountain
peaks in mm is interpreted as time in seconds, leading to a total duration of 16 minutes [26].

En este caso hay una transformación numérica que permite calcular las notas de los
instrumentos y el tempo, que equivale a la distancia en milímetros entre montañas. Pero la
obra no pretende transmitir ningún fenómeno físico o geológico, sino que la pieza está
inspirada por la imagen.

Aquí se podría discutir si realmente estamos ante procesos de sonificación, ya que según
Stephen Barrass [2] además de usar datos como base generadora del sonido, la intención del
compositor debe ser la de revelar el fenómeno. Esta apreciación es importante. Aquí se ha
optado por considerar que de alguna manera, al partir de unos determinados datos, el
fenómeno quedará siempre reflejado en el resultado, aunque sea de manera involuntaria.

3.10. Charles Dodge

En 1970 C. Dodge realizó dos piezas para ordenador recogidas en el disco Earth’s magnetic
field. Aquí ya no se trata de instrumentos tradicionales sino de música electrónica. En ella
Dodge usa las variaciones del campo magnético terrestre debido las radiaciones solares [27]
medidas durante el año 1961. El disco que se publicó consta de dos piezas, en las que cada
uno de los valores medidos del campo magnético son mapeados a notas. En la primera pieza,
la asignación de notas es una decisión arbitraria, consiguiendo aproximarse a la sonoridad
típicamente dodecafónica. En la segunda obra, que es de hecho la más conocida, el mapeo
con las notas es correlativo con las mediciones17.

"The succession of notes in the music corresponds to the natural succession of the Kp indices
for the year 1961. The musical interpretation consists of setting up a correlation between the
level of the Kp reading and the pitch of the note (in a diatonic collection over four octaves), and
compressing the 2,920 readings for the year into just over eight minutes of musical time."
(Dodge, 1970) [28].

Aunque no es especialmente relevante, algunos años más tarde la NASA publicó el disco
Symphonies of the Planets (1990) realizado a partir del tratamiento de las ondas de la sonda
17 https://youtu.be/j5MHsnc67yw

31
3. Científicos y artistas

Voyager, aunque este disco no tiene un autor identificado. Curiosamente Discogs lo clasifica
como género: Non-Music y estilo: Field Recording [29]. En la contraportada del disco podemos
leer:

Share the journey of a 5 billion mile trek to the outer limits of our solar system. Hear the
beautiful songs of the planets. The complex interactions of the cosmic plasma of the universe,
charged electromagnetic particles from the solar wind, planetary magnetosphere, rings and
moons create vibration soundscapes which are at once utterly alien and deeply familiar to the
ear. Some of these sounds are hauntingly like human voices singing, giant Tibetan bowls, wind
waves, birds and dolphins. Many are familiar in a way unique for each listener.

De hecho la NASA tiene una buena recopilación de sonidos de todo tipo en su canal de
SoundCloud: https://soundcloud.com/tags/nasa.

3.11. José Manuel Berenguer

3.11.1. Plasma waves


El compositor y artista sonoro José Manuel Berenguer ha usado registros de las ondas
originadas en el plasma para su pieza Plasma Waves [30] encargada y realizada en el Institut
International de Musique Eléctroacoustique de Bourges, y estrenada en 2006. El material en el
que se basa la obra fue registrado en la misión Dynamic Explorer, lanzada por la NASA en
1981. A partir de las imágenes espectrales archivadas en el Space Physics Data Center de la
Universidad de Iowa [31], el autor sintetizó los sonidos que componen la obra:

Cada imagen da cuenta del comportamiento espectral entre 0 y 50 kHz a lo largo un período
entre 20 y 30 minutos. Así que construí una aplicación, que llamé Cassini, por la sonda
Cassini-Huygens, exploradora de las ondas de plasma de Júpiter y Saturno, para multiplicar el
espectro de un ruido blanco por el correspondiente a la decodificación de cada una de las
imágenes. El tiempo se comprime a unos diez segundos y el espectro se transfiere a una
franja que va de 0 a 20 kHz18

18 Entrevista personal con José Manuel Berenguer

32
3. Científicos y artistas

Figura 3.2. Ejemplo del espectro registrado por el Dynamics Explorer 1. [31]

Según explica José Manuel Berenguer, estas imágenes remiten claramente a partituras, ya
que definen perfectamente el comportamiento del sonido, e incluso en algunas de ellas se ven
bandas de frecuencia que representan acordes. El proceso de sonificación consiste en
transformar estas imágenes en un sonido correspondiente. El campo magnético de la Tierra se
usa aquí como un sintetizador de sonido. Después, con un proceso minucioso de escucha a
catalogación, los diferentes sonidos sirvieron para componer la pieza final. Estas decisiones
son arbitrarias y se inscriben en un proceso compositivo, dirigido en parte por la naturaleza del
sonido y también por la voluntad del compositor. Como comenta él mismo: “Llama la atención
que de un lugar tan alejado de la superficie de la Tierra procedan sonidos tan parecidos a
algunos de los que en ella se generan”.

Compuestas originalmente para 8 pistas independientes, una versión estereofónica se puede

33
3. Científicos y artistas

escuchar aquí: http://sonoscop.net/jmb/musicas/pm.mp3.

3.11.2. @RUSC
Otra obra de José Manuel Berenguer, @RUSC, se presentó en el Festival de Ciència,
Tecnologia i Innovació de Barcelona en el año 2014. La instalación consiste en una colmena
monitorizada en tiempo real a través de sensores que miden su temperatura, peso y humedad.
Además se determina el número de abejas que hay en el interior y en el exterior de la
colmena, por medio de un sistema de 25 puertas. El flujo de datos así obtenido se transmite a
través de internet, hasta el lugar de la instalación, donde se sonifican. Estos datos tienen una
doble finalidad: por un lado el sonido es espacializado a través de 8 altavoces, dependiendo de
la actividad en cada una de las puertas; por otro lado, el flujo de datos es usado por diversos
algoritmos de síntesis de sonido, como el GENDYN de Xenakis [32], transformadas de Fourier
(FFT) y ondas senoidales. Si bien los algoritmos de síntesis son una elección arbitraria, el
autor ha tenido en cuenta que el sonido generado sugiera el sonido propio de las abejas. Aun
así, la instalación no tiene un objetivo científico, sino que se ha centrado más bien en dar una
significación sonora y musical a los datos de la colmena. Como el mismo autor puntualiza, es
difícil que los oyentes puedan entender el comportamiento de las abejas con esta instalación.19

3.12. Otras materias, más allá de las estrellas

Está claro que no todo ocurre en el Espacio, muchos otros tipos de datos se han usado para
sonificaciones con una finalidad científica y artística. A continuación se citan brevemente
algunos ejemplos que, sin pretender ser exhaustivos, pueden dar un idea general del uso de la
sonificación, reflejada aquí en diferentes contextos, sobre todo en instalaciones.

La instalación "Earthworks" presentada en el festival Sonar del año 2016 utiliza datos sísmicos
que son trasladados al rango audible mediante un proceso de audificación:

There are four distinct sections to the work, each using a different set of seismic data. This
includes; glacial, earthquake, volcano and man-made seismic activity captured at La Planta
quarry, Spain, to represent the Anthropocene, a new geological era influenced by humans. The
data has been translated to audio to form the soundtrack of the work [33].

19 Entrevista personal con José Manuel Berenguer

34
3. Científicos y artistas

Figura 3.3. Sonar 2016. Earthworks [33]

El resultado es una instalación audiovisual hipnótica e inmersiva, con imágenes sintéticas


proyectadas en una gran pantalla horizontal de unos 25 metros. Estas imágenes están
sincronizadas con el sonido inquietante procedente de las profundidades de la Tierra.

Otro artista que también ha usado datos sísmicos es Mitchell Akiyama en su instalación
Seismology as Metaphor for Empathy (2012). El terremoto que golpeó Fukushima, el más
fuerte medido hasta la fecha, impresionó a Akiyama. Pero como él mismo comenta, los datos
gráficos que pudo consultar no le ayudaron a conectar con lo sucedido. La instalación que
propone consiste en una gran plataforma de madera recubierta de arena con un subwoofer
montado debajo:

Emanating from the speaker is a sonified data set of the 2011 earthquake, in which a day’s
worth of data was compressed into 20 minutes [34].

El visitante se sube a la plataforma, donde percibe físicamente el sonido a través de las

35
3. Científicos y artistas

vibraciones, dejando huellas en la arena que acabarán desapareciendo. La intención de la


instalación es el deseo de hacer entender el desastre físicamente, afectivamente y
empáticamente:

It is successful or powerful to the degree that it brings audiences into relation with disaster. [34]

Vemos aquí que el sonido es un medio, no es la finalidad en sí. La obra se compone de varios
elementos más, como la plataforma y la arena. El espectador no percibe el sonido como un
elemento sonoro exclusivamente, sino que son las vibraciones físicas y sus huellas en la arena
que quedarán borradas por estas mismas vibraciones lo que le hace partícipe de la instalación.

Figura 3.4. The spectrogram of the frequencies of radiation registered by the induction magnetometer HAARP
during the earthquake in Japan on March 11, 2011. https://goo.gl/5Ks2av

36
3. Científicos y artistas

3.13. Conclusiones

En los capítulos anteriores se muestran las obras de algunos autores sin pretender hacer un
análisis de las mismas. La intención ha sido más bien la de recoger diversas aproximaciones a
la sonificación y conocer sus experiencias. El recorrido va desde científicos más o menos
anónimos hasta compositores y artistas más conocidos. Cada uno de ellos ha utilizado la
sonificación con un enfoque y un objetivo distintos. Para los científicos la sonificación debe
mostrar la naturaleza del fenómeno a través de los datos o debe permitir la extracción de
información mediante la escucha. La intención es en este caso la de usar los datos iniciales,
desde una perspectiva diferente y a la vez complementaria a la ofrecida por otras formas de
análisis. En el caso de los artistas, nos encontramos con intenciones diversas. Para algunos la
sonificación queda completamente oculta en el resultado, en otros casos es más evidente y no
pasa desapercibida en su obra.

Cuando un científico hace una sonificación, el sonido no es su objetivo, sino que busca más
bien obtener un resultado estudiando el fenómeno a través de datos sonificados. El objetivo de
la sonificación es extraer información a través del sonido pero el aspecto estético de éste es
secundario. Por lo contrario, para un artista o un compositor el foco está en el sonido y en las
emociones que produce. Para el compositor, el objetivo, lo que quiere mostrar es el sonido
mismo y por lo tanto va a focalizar su interés en él. Esta diferencia en el objetivo y en las
motivaciones hace que el proceso y la aproximación a los datos sean diferentes, y el resultado
sonoro, aun partiendo de los mismos datos, también.

Se puede intervenir en muchas propiedades del sonido, como por ejemplo el timbre, la textura,
la forma, la altura, la intensidad, la posición o el movimiento en el espacio. El sonido puede
evolucionar de una determinada manera, produciendo una sensación de reposo y calma o una
sensación de estrés. Cada uno de estos parámetros puede ser conducido y modulado por un
conjunto de datos, y en todos los casos hablaremos de sonificación. En algunos casos los
datos forman parte del proceso pero quedan ocultos y en otros casos los datos son el sonido
final.

37
4. Proceso. Sistema Solar

4. Proceso. Sistema Solar

Expongo a continuación el proceso de trabajo, empezando por las primeras pruebas de


sonificación, realizadas con el objetivo de poner en práctica algunas de las ideas y técnicas
expuestas en los textos consultados. Esta primera parte del proceso ha sido a la vez un banco
de pruebas para fomentar la reflexión, sacar conclusiones y asimilar ideas a partir de hechos
tangibles. También ha sido una investigación que ha tenido como propósito responder algunas
preguntas, como por ejemplo: ¿El sonido permite mostrar la estructura de los datos? ¿Pueden
aparecer sonidos interesantes a partir de aplicar ciertas transformaciones a los datos? ¿Puede
la sonificación transmitir información que muestre algún aspecto particular de los datos? ¿Es
válida la sonificación como método de composición y de síntesis de sonido?

No parto aquí de una idea clara del resultado al que quiero llegar. Tengo la convicción de que
el propio proceso conducirá a situaciones que me permitan tomar decisiones, y definir de
manera más precisa el objetivo. Lo veo a la vez como una búsqueda y también como el primer
paso en la creación de una obra basada en la sonificación. Escoger el conjunto de datos sobre
el que empezar a trabajar fue la primera tarea. Con ello se pretende averiguar el peso de esta
elección y cómo va a condicionar el resultado, ya que los datos van a modelar no sólo el
sonido, sino también el flujo de ideas que vayan apareciendo de su estudio. Para esta primera
experiencia he usado el Sistema Solar. El motivo ha sido poder trabajar con datos en cierto
modo conocidos y cotidianos, para poder centrarme en una sonificación que fuera un ejercicio
de manual.

4.1. Primer ejercicio

El Sistema Solar no se puede representar gráficamente sobre el papel: las diferencias entre la
dimensión de los planetas y su distancia al Sol son demasiado grandes. Si se quieren ver
todos los planetas en una hoja, de por ejemplo de 1 metro por 1 metro, los planetas resultan
demasiado pequeños, y no se verán. Por lo contrario, si se quieren ver los planetas, al menos
como puntos, todo el Sistema Solar no cabe en la hoja. El diámetro del Sol es de
aproximadamente 1.4 millones de kilómetros, el radio medio de la Tierra es de unos 6371

38
4. Proceso. Sistema Solar

kilómetros, y la distancia de la Tierra al Sol es de unos 150 millones de kilómetros. Si se


representa la Tierra como un punto de 1mm de diámetro, el tamaño del Sol sería de unos 11
cm y la distancia de la distancia de la Tierra al Sol de 12 metros. Neptuno, el planeta más
lejano, está unas 30 veces más lejos del Sol que la Tierra, a esta escala quedaría a 350
metros y mediría 3.8mm de diàmetro. Por lo tanto un observador situado en el Sol difícilmente
podría ver un punto de unos 4mm a esta distancia, a menos que fuera de noche y el punto
estuviera iluminado intensamente. Por otro lado, algunas propiedades no se pueden dibujar
fácilmente: ¿Cómo se dibuja la densidad de un planeta o su temperatura? La pregunta es: ¿se
pueden salvar estas diferencias usando el sonido, es decir, sonificando estos datos,
traduciendo los valores del Sistema Solar en términos de frecuencia, amplitud, espacialización
y otras propiedades propias del medio sonoro? ¿Se pueden percibir las características de los
planetas mediante el sonido, diferenciándolos claramente entre sí?

4.2. Los datos

Para la sonificación del Sistema Solar se han tomado los siguientes datos, consultados en la
Wikipedia20:

Período orbital, Velocidad orbital, Distancia al Sol, Radio del planeta, Masa, Densidad,
Temperatura en la superficie, Duración del día, Gravedad y Velocidad de escape.

En total hay ocho planetas en el Sistema Solar. En esta primera prueba se va a buscar que
cada uno de ellos produzca su sonido propio utilizando el mismo modelo de síntesis, con el fin
de poder compararlos entre sí. En otras pruebas se utilizará un anillo de altavoces (por
ejemplo 8) para espacializar el sonido de los diferentes planetas, haciendo que se desplacen
por el espacio con un movimiento circular, equivalente a su período orbital.

4.3. Senoidal

En la primera prueba, se va a usar una onda senoidal, con una frecuencia que va a depender
del radio del planeta y una amplitud (la percepción del volumen) que va a depender de su
masa. El oyente se sitúa en la posición del Sol. Por tanto la distancia al Sol también debería
influir en el volumen percibido, según la ley de la proporción inversa, que permite calcular cuál
20 https://es.wikipedia.org/wiki/Anexo:Datos_de_los_planetas_del_sistema_solar

39
4. Proceso. Sistema Solar

es la disminución de decibelios (pérdida de volumen) a medida que nos alejamos de una


fuente sonora21. Pero al aplicar esta ley, la diferencia entre amplitudes es demasiado grande y
es difícil o casi imposible percibir el sonido de todos los planetas, por lo tanto se ha decidido
minimizar el efecto de la distancia al Sol usando su logaritmo. Para esta sonificación la
elección de parámetros utilizados es arbitraria, pero intuitiva, un planeta mayor va a producir
un sonido más grave (frecuencia inversamente proporcional al radio), mientras que para uno
menor será más agudo. De la misma manera, cuanto mayor sea el planeta, tanto más alto será
el volumen que va a emitir y viceversa (directamente proporcional). Los resultados obtenidos
son los siguientes:

Planeta Radio Masa Distancia Frec. Hz Amplitud Ampl. log


Mercurio 0.39 0.055 0.39 2564 0.00044 0.017
Venus 0.95 0.815 0.72 1052 0.00356 0.012
Tierra 1.00 1.00 1.00 1000 0.00314 0.011
Marte 0.53 0.107 1.52 1886 0.00022 0.008
Júpiter 11.2 318 5.20 89 0.192 0.116
Saturno 9.41 95 9.54 106 0.031 0.034
Urano 3.98 14 19.19 251 0.0023 0.008
Neptuno 3.81 17 30.06 262 0.0018 0.008

En la tabla anterior, el radio, la masa de los planetas y su distancia al Sol son relativos a los
valores de la Tierra. La frecuencia está en Hz. Se toman 1000 Hz como frecuencia de la Tierra.
Para el primer cálculo la amplitud varía de 0 a 1. Se toma 1 para la amplitud de Júpiter, que es
el mayor de los planetas. Como se ve, el valor resultante del cálculo de la amplitud para este
planeta es 0.192 y no 1, debido a su distancia respecto del oyente, situado en el centro del Sol.
Si se usa el logaritmo de la distancia al Sol, los valores para la amplitud que se pueden ver en
la última columna de la tabla, se igualan entre ellos. Aquí se ha tenido que sacrificar el valor
real de la distancia, para reducir el rango dinámico de la amplitud de la onda. Todos estos
valores se han obtenido a partir del mismo modelo de síntesis.

Aquí se puede escuchar una grabación que incluye el sonido de los 8 planetas de Mercurio a
Neptuno22 (Atención si se usan auriculares, el sonido de Júpiter puede resultar muy fuerte

21 https://en.wikipedia.org/wiki/Sound_pressure
22 Es posible que los altavoces de tu ordenador no pueden reproducir las frecuencias más graves.

40
4. Proceso. Sistema Solar

comparado con los de los otros planetas):

01. Sistema Solar. http://zoom3.net/TFM/index.html#sistema-solar-1


Ver el código MODELO 1 en el Anexo 1. Sistema Solar.

Figura 4.1. Amplitud de la onda para cada planeta, que nos da una idea de la masa sonora de cada uno.

En la figura 4.1 se aprecia la diferencia de la amplitud de la onda, inversamente proporcional a


la distancia al Sol y directamente proporcional a su diámetro. El orden de izquierda a derecha
es Mercurio, Venus, Tierra, Marte, Júpiter, Saturno, Urano y Neptuno.

Al escuchar esta secuencia lenta de 8 tonos, mientras se imagina el planeta correspondiente a


cada uno de ellos, se percibe algo de su esencia, que aun no siendo tan concreta como en una
imagen, produce una sensación que es de alguna manera clara y reveladora de su distancia y
tamaño.

4.4. Pulsos senoidales

El siguiente paso es generar el sonido simultáneo de todos los planetas del Sistema Solar. La
variable que se introduce ahora será el movimiento de los planetas alrededor del Sol. Por lo
tanto se añade otra propiedad a las tres que ya se están usando, que se va a mapear para la
introducción del factor tiempo. Para ello cada planeta va a ser representado por un pulso, cuya
frecuencia será inversamente proporcional a la duración de su período orbital (período mayor,
frecuencia de paso menor), y la duración del pulso proporcional a su radio (planeta más
grande, pulso más largo). El período del pulso sería el equivalente al paso del planeta por
delante del oyente.

41
4. Proceso. Sistema Solar

Planeta Período orb. Radio Período paso Duración


Mercurio 0.24 0.39 2 1.56
Venus 0.61 0.95 5.11 3.8
Tierra 1.00 1.00 8.31 4
Marte 1.88 0.53 15.62 2.12
Júpiter 11.86 11.2 98.51 44.8
Saturno 29.44 9.41 244.52 37.64
Urano 84.01 3.98 697.76 15.92
Neptuno 164.79 3.81 1368.69 15.24

El período orbital y el radio del planeta son relativos a la Tierra. El período de paso y la
duración del pulso se miden en segundos.

En este caso vemos que los cuatro primeros planetas, los más cercanos al Sol, se escuchan
con regularidad. Marte que es el más lento de los cuatro lo hace cada 15 segundos. Para los 4
planetas más lejanos, la frecuencia de paso es mucho menor, con lo que se escuchan menos.
Júpiter tarda casi 100 segundos en escucharse, es decir más de un minuto y medio, Saturno
pasa cada 4 minutos, Urano lo hace cada 11 minutos y Neptuno lo hace cada 22 minutos. Nos
encontramos aquí con una situación parecida a la de la representación gráfica del Sistema
Solar: la diferencia entre algunos valores, como por ejemplo el período orbital, es muy grande,
lo que queda reflejado en la sonificación, y como consecuencia no se obtiene una idea clara de
conjunto de todo el Sistema Solar.

Aquí se puede escuchar una versión de 5 minutos y que por lo tanto incluye el paso de
Saturno dos veces y el de Urano y Neptuno una sola vez:

02. Sistema Solar: http://zoom3.net/TFM/index.html#sistema-solar-2

Versión anterior acelerada 16 veces, en la que Neptuno pasa cada minuto y medio
aproximadamente:

02.1. Sistema Solar. http://zoom3.net/TFM/index.html#sistema-solar-2-1


Ver el código MODELO 2 en el Anexo 1. Sistema Solar.

42
4. Proceso. Sistema Solar

4.5. Simultaneidad

Se va a introducir ahora la espacialización del sonido, mediante una anillo de altavoces. El


sonido del planeta ya no será un pulso sino que será continuo e irá pasando de altavoz a
altavoz a una velocidad proporcional a su período orbital. El problema con el que nos
encontramos aquí es que todos los sonidos se superponen, y es prácticamente imposible
diferenciar los 8 planetas sonando simultáneamente. Esto obliga a encontrar la manera de que
los 8 sonidos tengan características que permitan diferenciarlos entre si, manteniendo el
mismo modelo de sonificación, es decir no usar un sonido de naturaleza distinta para cada uno
de ellos (aunque ésta es una solución a explorar). Aun así, la diferencia entre planetas es muy
grande y no es posible encontrar una configuración válida para todos. Júpiter, el planeta mayor
y más pesado se impone claramente a los demás planetas si se incluyen su diámetro y su
masa dentro de la ecuación. Al igual que antes, nos encontramos con un problema de
naturaleza similar al que nos encontramos con el dibujo del Sistema Solar: si las diferencias
entre algunas de las magnitudes son muy grandes, es difícil o imposible no falsear la realidad
para poder representar el sistema total.

4.6. Espacialización

La espacialización elegida es muy sencilla. Consiste en hacer "rotar" el sonido, de un altavoz


al siguiente de manera continua, con la finalidad de simular la rotación del planeta alrededor
del Sol. No se ha considerado una elipse sino una circunferencia como camino recorrido, ya
que la excentricidad de las órbitas elípticas de los planetas es muy baja, si exceptuamos la de
Mercurio, que es 0.2 aproximadamente. La frecuencia de rotación es inversamente
proporcional a la duración de su período orbital, es decir el tiempo que el planeta tarda en dar
una vuelta completa al Sol. El más rápido de los planetas (Mercurio) tarda poco más de 2
segundos en dar la vuelta completa al anillo de altavoces, mientras que el más lento (Neptuno)
tarda casi media hora. Esta técnica se va aplicar para los modelos de síntesis expuestos a
continuación.

4.7. Síntesis granular

Con la síntesis granular se ha querido encontrar un sonido característico para cada planeta,

43
4. Proceso. Sistema Solar

combinando un mayor número de sus propiedades. El objetivo aquí no es transmitir


información concreta respecto al planeta, sino obtener una textura del sonido que dependa de
los datos de los que se dispone, independientemente del significado de éstos. El sonido de
cada grano se genera con una onda cuadrada a la que se aplica un filtro resonante pasa bajos,
y se multiplica por una envolvente simétrica. En la siguiente lista se muestra el mapeo
escogido, a la izquierda la propiedad del sonido y a la derecha la del planeta:

- Frecuencia de la onda cuadrada → Velocidad de escape del planeta


- Ancho del pulso de la onda anterior → Velocidad orbital del planeta
- Frecuencia de corte del filtro → Temperatura del planeta
- Calidad del filtro (q) → Densidad del planeta
- Duración del grano → Fuerza de la gravedad del planeta
- Densidad de granos → Diámetro del planeta
- Relación silencio/sonido → Duración del día del planeta
- Reverberación → Distancia del planeta al Sol
- Amplitud → Masa del Planeta

Éste ha sido hasta el momento el modelo más complejo de afinar, pero se ha conseguido un
sonido claramente diferenciado para cada planeta, aun siendo todos del mismo tipo. Se han
usado 9 valores para la síntesis, por supuesto sin la intención de informar de cada uno de ellos
por separado. Pero se ha obtenido un sonido rugoso que sugiere algún aspecto del planeta,
como su densidad, tamaño o temperatura. También puede sugerir el sonido característico del
ruido de interferencias en las ondas de radio, lo que se puede considerar apropiado para el
contexto en el que se está realizando la sonificación. La secuencia que se produce, aparición y
desaparición de los planetas, o su duración, no es aleatoria, sino que está controlada por la
duración del día de cada planeta, aunque se ha ralentizado para que el silencio predomine
sobre el sonido, con la idea de mostrar el Cosmos silencioso y lento, con el paso regular de los
planetas por su órbita.

Para reproducir esta sonificación es necesario usar un anillo de altavoces por el que se mueve
lentamente cada planeta. Aquí se puede escuchar una versión estereofónica.

03. Sistema Solar. http://zoom3.net/TFM/index.html#sistema-solar-3


Ver el código MODELO 3 en el Anexo 1. Sistema Solar.

44
4. Proceso. Sistema Solar

4.8. Modulación de frecuencia

Esta sonificación va a consistir igual que en la anterior, en un pulso proporcional a la duración


del día de cada planeta. El sonido se genera con una onda senoidal modulada en frecuencia,
espacializada con el anillos de altavoces. Se van a usar 6 parámetros, de la siguiente manera:

- Amplitud de la portadora → Masa del planeta en escala logarítmica


- Frecuencia de la portadora → Diámetro del planeta
- Frecuencia de la moduladora → Densidad del planeta
- Índice de modulación → Fuerza de gravedad del planeta
- Duración y frecuencia del pulso → Duración del día del planeta
- Paneo entre altavoces → Período orbital

Éste es sin duda el resultado más interesante. El sonido para cada planeta se diferencia con
facilidad. Los pulsos que se obtienen, proporcionales a la duración del día de cada planeta,
introducen un elemento rítmico muy variable, que se va sincronizando y desincronizando
lentamente produciendo ritmos complejos. La modulación de frecuencia tiene un sonido muy
característico. Aquí sugiere una máquina o reloj, un mecanismo metálico semejante a los
planetarios antiguos.

Figura 4.2. Plano del planetario mecánico de Ferguson23.

Aunque el aspecto más interesante de esta sonificación es la espacialización, aquí se propone

23 https://es.wikipedia.org/wiki/Planetario_mec%C3%A1nico

45
4. Proceso. Sistema Solar

una versión estéreo en la que se pueden apreciar los ritmos creados a medida que avanza la
pieza:

04. Sistema Solar. http://zoom3.net/TFM/index.html#sistema-solar-4


Ver el código MODELO 4 en el Anexo 1. Sistema Solar.

4.9. Conclusiones

En las pruebas anteriores se han estado mapeando datos del Sistema Solar a propiedades del
sonido de manera arbitraria. Se puede decir que cada prueba me ha llevado a la siguiente, en
la que se ha refinado (o afinado) el modelo generador de sonido (el algoritmo). Aquí no
muestro todas estas pruebas, muchas de las cuales no dieron resultados destacables, y se
desecharon, pero sirvieron de puente de unión entre las que sí han funcionado. Inicialmente
me he permitido imaginar que cada planeta emite un sonido tipo onda senoidal pura, quizás
por lo de la Música de las Esferas. Además al ser los planetas (casi) circulares, intuitivamente
es fácil pensar en un sonido puro.

Aparte del trabajo de sonificación y síntesis, el ejercicio también ha servido para aprender
aspectos desconocidos del Sistema Solar. Aunque ésta no haya sido inicialmente la intención,
ha sido inevitable. Por ello pienso que la parte didáctica del ejercicio podría tener muchas
aplicaciones en las aulas de las escuelas. Por ejemplo, redondeando los datos, vemos que las
distancias de los planetas al Sol son 0.4, 0.7, 1, 1.5, 5, 10, 20 y 30 unidades astronómicas 24.
Se puede ver aquí cierta relación armónica. Si se observan detenidamente otros valores, se
descubren fenómenos inesperados o poco intuitivos, por ejemplo que el día en Mercurio, el
planeta más pequeño, tiene una duración de 58 días terrestres, mientras que el día en Júpiter,
el planeta más grande con diferencia, dura tan sólo 0.4 días terrestres, es decir unas 10 horas!
El planeta más grande gira sobre sí mismo mucho más rápidamente que el más pequeño.
Estos hechos sorprendentes también pueden ser el origen de algunas de las decisiones que
se van tomando durante el proceso de sonificación.

No esperaba dedicar tanto tiempo a este ejercicio, que pretendía ser solamente el primer
banco de pruebas, pero a medida que me fui adentrando en él, fueron apareciendo nuevas
ideas que me llevaron a más reflexiones, cada vez más alejadas del campo científico, usando

24 https://es.wikipedia.org/wiki/Unidad_astron%C3%B3mica

46
4. Proceso. Sistema Solar

los datos a modo de "juego", en un proceso de prueba y error, formulando constantemente la


pregunta ¿qué pasaría si … ? Poco a poco, mientras los planetas empezaban a sonar, iba
percibiendo sus propiedades de forma poco habitual.

Algunas de la preguntas planteadas inicialmente han quedado contestadas. Está claro que las
diferencias entre las propiedades de los planetas se perciben claramente en la síntesis del
sonido. Se puede sugerir con la sonificación el tamaño de un planeta, su densidad o su fuerza
de gravedad. Al incluir la espacialización, se entienden las grandes diferencias entre las órbitas
de los planetas: mientras que Urano y Neptuno apenas se mueven, Mercurio y Venus dan una
vuelta al anillo de altavoces en pocos segundos. Se requiere una escucha larga, de media
hora o más, para poder apreciar el proceso que tiene lugar.

Escuchando los planetas girando lentamente por el anillo de altavoces, me viene a la mente la
idea de proceso extremadamente gradual expuesta por el compositor Steve Reich en su
conocido texto “Music as a gradual process (1968)”. El proceso de giro se percibe porque es
repetitivo y muy lento, siempre los mismos sonidos, uno para cada planeta, además se
escuchan en un orden que va cambiando gradualmente: mientras los sonidos de unos
planetas se acercan lentamente entre sí, otros se alejan, generando así ritmos y pequeñas
frases melódicas. Cuando el proceso se pone en marcha, evoluciona de manera autónoma.

El ejercicio del Sistema Solar es quizás algo ingenuo: el radio de un planeta determina el
volumen o la frecuencia de una onda. De todas formas era obligatorio pasar por esta
experiencia, y también es obligatorio contarla, puesto que es el punto inicial.

47
5. Proceso. Astronomía

5. Proceso. Astronomía

En los siguientes casos se van a usar datos más complejos (también relacionados con la
astronomía). Como consecuencia de ellos, los algoritmos creados también serán más
sofisticados. La dificultad para entender estos datos forma parte del proceso, y va a quedar
reflejada en el resultado. Ahora los datos distan mucho de ser intuitivos, los científicos que los
estudian infieren a partir de ellos hechos poco o nada evidentes a simple vista. Lo ideal en este
caso es trabajar conjuntamente con un experto, pero las circunstancias han hecho que esto
sea imposible (Aunque contacté con la Associació Astronòmica de Barcelona, me explicaron
que no disponían de expertos que pudieran ayudarme en este terreno). He usado los datos a
partir de lo que me iban sugiriendo y en menor medida por su contenido científico. Los datos
son el material de base, a partir del que empezar a trabajar.

5.1. LIGO

LIGO son las siglas de Laser Interferometer Gravitational-Wave Observatory. Este observatorio
es el que detectó por primera vez en septiembre de 2015 las ondas gravitatorias, anticipadas
teóricamente por la teoría general de la relatividad de Einstein en 1916, unos 100 años antes:

On September 14, 2015 at 5:51 a.m. Eastern Daylight Time (09:51 UTC), the twin Laser
Interferometer Gravitational-wave Observatory (LIGO) detectors, located in Livingston,
Louisiana, and Hanford, Washington, USA both measured ripples in the fabric of spacetime –
gravitational waves – arriving at the Earth from a cataclysmic event in the distant universe. The
new Advanced LIGO detectors had just been brought into operation for their first observing run
when the very clear and strong signal was captured [35].

Este Observatorio consiste en un sistema interferométrico láser de dos brazos perpendiculares


y en condiciones de vacío con un recorrido óptico de 4 km. Su objetivo es detectar las ondas
gravitacionales a través de los minúsculos movimientos que deben producir en los espejos, lo
cual resultaría en un patrón de difracción en la señal del interferómetro. El observatorio ha
estado en funcionamiento desde el año 2001. Han pasado 15 años hasta conseguir la primera

48
5. Proceso. Astronomía

medición comprobable.

Aunque se puede encontrar mucha información sobre LIGO y los datos que recoge, aquí me
centraré en unos tutoriales en los que se explica cómo descargar los datos y procesarlos [36].
Con ellos se obtiene la onda correspondiente a las señales medidas por los aparatos.

5.2. Audificación

LIGO genera un flujo continuo de datos, a diferencia de los del Sistema Solar en que eran
discretos. Escalándolos y normalizándolos se pueden exportar como archivos de audio. Por lo
tanto, como se vio anteriormente, nos encontramos aquí con el método de sonificación llamado
audificación. Los datos originales son muestreados a una frecuencia de 4096 Hz, y los valores
son del orden de 10e-16 o 10e-19. Éstos son valores extremadamente pequeños que se
deben normalizar para poder ser audibles. Originalmente los datos se usan para realizar
cálculos, no para ser escuchados. No se trata de ondas sonoras, de ahí que una frecuencia de
muestreo baja no represente un problema. En la conversión a audio esta frecuencia se va a
modificar a un valor propio de un archivo de audio, en este caso 48000 Hz. Los archivos
originales suelen tener una duración de 4096 segundos (un poco más de una hora), con el
cambio de frecuencia de muestreo, va a tener un duración de unos 6 minutos. Además el
contenidos espectral del archivo también se va a ver afectado, si inicialmente abarcaba de 0 a
2048 Hz, es decir la mitad de la frecuencia de muestreo, ahora abarca de 0 a 24000 Hz
(frecuencia de Nyquist25). La figura siguiente realizada con la ayuda de Python muestra un
fragmento de la onda original. Se puede apreciar que los valores de amplitud son del orden de
3*10e-16.

25 https://es.wikipedia.org/wiki/Frecuencia_de_muestreo#Teorema_de_Nyquist

49
5. Proceso. Astronomía

Figura 5.1. Forma de onda original capturada por LIGO.

Aquí se puede escuchar el sonido correspondiente, normalizado y remuestreado a 48000 Hz.


LIGO. 01. H-H1_LOSC_4_V1-820207616-4096, http://zoom3.net/TFM/index.html#ligo-1

Después de audificar varios archivos de datos, se puede escuchar que todos son muy
similares entre sí. Lo más sorprendente es que el sonido resultante es el perteneciente al
propio aparato de medida:

You can see strong spectral lines in the data; they are all of instrumental origin. Some are
engineered into the detectors (mirror suspension resonances at ~500 Hz and harmonics,
calibration lines, control dither lines, etc) and some (60 Hz and harmonics) are unwanted [37].

Para encontrar las ondas gravitacionales, estos datos deben ser limpiados mediante técnicas
de procesamiento digital de señales. En este artículo se puede acceder a las sonificaciones
realizadas por los propios científicos de LIGO, donde se pueden escuchar las ondas
gravitacionales: https://losc.ligo.org/events/GW150914/. Ver sección Audio Files al final de la
página.

50
5. Proceso. Astronomía

5.3. Improvisando con LIGO

Los archivos de audio generados a partir de la sonificación (audificación) de los datos de LIGO
contienen señales complejas, de un gran rango dinámico, repartidas por todo el ancho de
banda audible. La banda del espectro con más energía se encuentra en la parte comprendida
entre los 0 Hz y los 300 Hz aproximadamente, y es tan fuerte que impide escuchar las
frecuencias superiores. Si se consiguen atenuar estas frecuencias para poder amplificar las
otras, se descubre una gran riqueza sonora, que incluye ruido y algunos armónicos que
destacan claramente. Con SuperCollider he realizado un sencillo algoritmo que hace
exactamente esto. Usando algunas operaciones en el dominio de la frecuencia (FFT) se
consigue filtrar y potenciar diferentes partes del espectro.

En este caso, la sonificación va un paso más allá. Después de audificar los datos originales
para poder escucharlos y extraer algunas de sus características, se ha usado el material
sonoro como base para una aproximación creativa, sin otro objetivo que el puramente estético.
Sorprende aquí el espectro resultante, que sugiere un paseo por el fondo marino.

Figura 5.2. Espectro de un fragmento de la improvisación con datos de LIGO. En este enlace se puede acceder al
vídeo completo https://youtu.be/KAdQ1ewsxcs

51
5. Proceso. Astronomía

El resultado se puede escuchar en LIGO – 02. Variaciones a partir de la sonificación


anterior. http://zoom3.net/TFM/index.html#ligo-2
Ver el código MODELO 5. LIGO en el Anexo 1. LIGO.

5.4. SPITZER

La siguiente fuente de datos que encontré difiere esencialmente del Sistema Solar y de LIGO.
No son valores discretos que se puedan mapear ni son ondas que se puedan audificar
directamente. Se trata de fotometrías infrarrojas (IR) tomadas en su mayoría por el telescopio
Spitzer y por el telescopio WISE. Estas fotografías no son visibles al ojo humano ya que las
ondas electromagnéticas capturadas están en la parte de los infrarrojos del espectro
electromagnético (entre 2 y 200 micrómetros). En ellas se recoge el flujo de fotones por unidad
de superficie (estereoradión) para una determinada zona de Espacio. La mayoría de datos
usados provienen de este telescopio y una de las imágenes (asteroide 12 Victoria) proviene
del telescopio WISE.

5.5. El telescopio

El Telescopio Espacial Spitzer consiste en un observatorio espacial infrarrojo, capaz de


estudiar objetos que van desde nuestro Sistema Solar hasta las regiones más distantes del
Universo. Spitzer es el elemento final del Programa de Grandes Observatorios de la NASA, y
una pieza clave desde el punto de vista científico y técnico del nuevo Programa para la
Búsqueda Astronómica de los Orígenes. El observatorio Spitzer consiste en un telescopio de
0.85 metros con tres instrumentos científicos enfriados criogénicamente, capaces de tomar
imágenes y espectros de 3 a 180 micras. Con su gran sensibilidad, su conjunto de detectores
de gran formato, su alta efectividad observacional y su larga vida criogénica, el Spitzer ofrece
una capacidad observacional sin precedentes. El observatorio fue lanzado en Agosto del 2003
y las estimaciones actuales sugieren una vida de unos 5 años [38]. El Spitzer sigue a la Tierra
en su órbita alrededor del Sol, aunque se aleja de ella a razón de 15 millones de kilómetros al
año, al tiempo que se va enfriando. En el año 2009 acabó su misión oficial y hoy en día sigue
funcionando en lo que se ha llamado una misión extendida.

52
5. Proceso. Astronomía

5.6. Datos de Spitzer

En el sitio web de IRSA (Infra Red Science Archive) se encuentran los resultados de las
misiones de los telescopios Spitzer y WISE:

IRSA is chartered to curate the science products of NASA's infrared and submillimeter
missions, including many large-area and all-sky surveys. In total, IRSA provides access to
more than 20 billion astronomical measurements, including all-sky coverage in 20 bands.
Approximately 10% of all refereed astronomical journal articles cite data sets curated by IRSA.

IRSA offers access to digital archives through powerful query engines (including VO-compliant
interfaces) and offers unique data analysis and visualization tools. IRSA exploits a re-useable
architecture to deploy cost-effective archives, including 2MASS, Spitzer, WISE, Planck, and a
large number of highly-used contributed data products from a diverse set of astrophysics
projects [39].

De aquí se han sacado los datos que se van a usar en las siguientes sonificaciones. El tipo de
archivo que se pueden descargar es del tipo FITS (Flexible Image Transport System) que es el
formato más utilizado en el campo de la astronomía. Estos archivos se procesan con ayuda del
lenguaje de programación Python para extraer la parte que nos interesa y exportarlos en una
tabla de valores numéricos, que se importan posteriormente con Supercollider. Aunque los
archivos de datos no corresponden a imágenes visibles, al ser infrarrojos, existen algunos
programas que sí los muestran como tales, lo que permite una primera aproximación a su
contenido, como por ejemplo la siguiente imagen. El programa que he usado se llama FITS
Liberator26.

26 https://www.spacetelescope.org/projects/fits_liberator/

53
5. Proceso. Astronomía

Figura 5.3. Imagen tomada por Spitzer. HD 141569 es una estrella de secuencia tipo-B a aproximadamente 320
años luz, y se sitúa en la Constelación de la Balanza.

Se ha de tener en cuenta de todas formas que estas imágenes no representan fielmente la


realidad, sino que ésta queda distorsionada por el propio aparato de medida. En la imagen
anterior por ejemplo se puede observar un halo y rayos alrededor de las estrellas que en
realidad no existen.

Al igual que ocurrió en LIGO, los tutoriales encontrados en internet han hecho el papel del
"experto consultado". Para el análisis de los archivos FITS se han seguido los ejemplos
encontrados en el sitio web de Astropy:

The Astropy Project is a community effort to develop a single core package for Astronomy in
Python and foster interoperability between Python astronomy packages [40].

Cada una de las imágenes corresponden a los valores de intensidad lumínica [41] o densidad
del flujo de fotones (medidos en MJy/sr) para una determinada longitud de onda. Lo que
vemos en la imagen anterior es la luminosidad de los objetos presentes en esta región del
espacio para una longitud de onda de 15 micrómetros.

54
5. Proceso. Astronomía

5.7. Ciencia

A partir de los datos del telescopio Spitzer se han generado una inmensa cantidad de artículos
científicos. Su lectura es compleja y requiere conocimientos avanzados de física y astronomía.
Con los infrarrojos se pueden detectar materia y objetos que no son visibles al estar ocultos en
grandes nubes de polvo y gas. Los astrónomos que analizan los datos obtenidos sacan
conclusiones inaccesibles para los neófitos. Aquí se puede consultar un resumen claro de
algunos de estos resultados, donde se habla de la búsqueda de super-planetas, el
descubrimientos de discos de polvo alrededor de las estrellas, el estudio de galaxias infrarrojas
ultraluminosas y núcleos galácticos activos o el estudio del Universo joven.
http://legacy.spitzer.caltech.edu/espanol/ciencia/resumen.shtml

Otros artículos consultados, como por ejemplo los que se incluyen en


http://irsa.ipac.caltech.edu/data/SPITZER/docs/spitzermission/missionoverview/papers/ estan
fuera de mi alcance [42]. Aunque puedo intuir su importancia y entrever algunos de los
resultados expuestos, no voy a utilizar de forma directa esta información en el momento de
plantear las sonificaciones. He analizado los datos desde distintos puntos de vista. De ellas he
extraído algunos aspectos que he interpretado libremente. A continuación expongo los
resultados obtenidos.

5.8. 12 Victoria. IFFT

12 Victoria es un asteroide que forma parte del cinturón de asteroides del Sistema Solar,
situado entre las órbitas de Marte y Júpiter. Ésta es la imagen correspondiente a los datos
descargados de IRSA.

55
5. Proceso. Astronomía

Figura 5.4. Imagen IR del asteroide 12 Victoria.

La imagen mide 215 x 219 píxeles (px). El primer paso consiste en extraer los valores
numéricos del archivo FITS descargado, para procesarlos después con SuperCollider. Este
primer paso se ha realizado con la ayuda de un pequeño programa escrito en Python. Con él
se obtiene un archivo en formato CSV (Coma Separated Value, tabulados tipo Excel). Después
se realiza un primer análisis básico de los datos obteniendo el valor mínimo, el máximo, la
media etc… con la única intención de entrever cuál es su comportamiento. No he usado
herramientas gráficas sofisticadas para "ver" los datos. He querido evitar de esta manera que
el sentido de la vista pueda influir de alguna manera en las decisiones tomadas para las
sonificaciones. He procurado que las ideas pasen directamente de los datos al sonido. La
única forma de visualización usada es el método plot27 del propio SuperCollider que muestra
gráficos 2D básicos de los datos.

Al importar el archivo CSV a SuperCollider, éstos se convierte en una lista de datos (Array) de
dos dimensiones, que incluye 219 columnas de 215 valores cada una. El valor mínimo en este
caso es 3505 y el máximo 34473, las unidades son de luminosidad, que aquí se van a traducir
en algún valor equivalente para la generación de sonido. En cualquier caso la luminosidad es

27 http://doc.sccode.org/Reference/plot.html

56
5. Proceso. Astronomía

energía y si se transforma en amplitud de onda también es energía, por lo tanto se establece


una equivalencia de energía luminosa a energía sonora.

En la primera sonificación, cada fila de datos va a ser considerada como el espectro de una
onda sonora. En la siguiente imagen (Figura 5.5) se puede ver el perfil de una de las filas,
correspondiente aproximadamente a la mitad de la imagen de la Figura 5.4. En ella se
aprecian valores máximos en el medio que equivalen a los puntos más luminosos del
asteroide. Lo que va a hacer el algoritmo es recorrer los datos de la imagen de arriba a abajo,
generando el sonido equivalente para cada fila mediante el cálculo de la transformada inversa
de Fourier (IFFT). Cada una las filas será así convertida en un objeto sonoro o grano al que se
le aplica una envolvente senoidal.

Figura 5.5. Importación de datos en SuperCollider. Corte de la imagen de 12 Victoria, usado como espectro para la
síntesis de sonido mediante el cálculo de la IFFT.

El ancho de la imagen se traducirá con este método al rango de frecuencias del sonido, que va
de 0 a 24000 Hz, con lo que la parte izquierda de la imagen del asteroide corresponderá a las
frecuencias más graves mientras que la parte derecha de la imagen lo hará a las agudas. Por
tanto se transforma distancia (del espacio, es decir millones de kilómetros) en ancho de banda,
lo que puede ser discutido y considerado algo arbitrario y sin significado físico. Se puede
argumentar aquí que los datos sirven como base para la síntesis de sonido, reinterpretando
libremente su significado original. En cualquiera caso, lo que se se aprecia al escuchar el
sonido obtenido es la variación de intensidad (flujo luminoso) de la imagen. De hecho, si

57
5. Proceso. Astronomía

miramos el espectro del sonido, que no es otra cosa que la transformada de Fourier (FFT), por
lo tanto la operación inversa para reconvertir el sonido a espectro, vemos (Figura 5.6) que
equivale exactamente al de la imagen original del asteroide (Figura 5.4).

Figura 5.6. El espectro del sonido generado deja entrever la misma forma que en la imagen original del asteroide.

El código se puede ver en MODELO 6 – 12 Victoria – IFFT del Anexo 1. 12 Victoria.


La sonificación se puede escuchar en Spitzer - 01. 12 Victoria – IFFT.
http://zoom3.net/TFM/index.html#victoria-1

5.9. 12 Victoria. Wavetable (1)

Partiendo de los mismos datos que para la sonificación anterior, se va a usar ahora un
algoritmo en el que las mismas filas de datos se van a convertir en una forma de onda. Esta
forma de onda será la suma de senoides cuya amplitud corresponde al valor de cada elemento
de una fila de la matriz (síntesis aditiva). Esta vez los granos serán más cortos y la matriz de

58
5. Proceso. Astronomía

datos se va a recorrer a mayor velocidad, produciendo un efecto de síntesis granular.

El código se puede ver en MODELO 7 – 12 Victoria - Wavetable (1) del Anexo 1. 12 Victoria.
La sonificación se puede escuchar en 02. 12 Victoria - Wavetable (1).
http://zoom3.net/TFM/index.html#victoria-2

Aquí se pueden escuchar 4 fragmentos de la misma sonificación, ejecutados a diferentes


frecuencias. Esto es posible ya que al manipular formas de onda con un oscilador, ésta se
puede reproducir a la frecuencia que se desee.

5.10. 12 Victoria. Wavetable (2)

No todos los datos medidos por el telescopio provienen de valores útiles de IR. Algunos son
ruidos o interferencias, introducidos por el mismo aparato, o valores borrosos que se podrían
eliminar. En siguiente proceso de sonificación es igual al anterior, pero se han eliminado todos
las valores inferiores a un determinado umbral, con el fin de obtener un sonido más nítido, con
menos armónicos. En la siguiente imagen (Figura 5.7) se ilustra el resultado después del
filtrado. Se trata de los mismos datos mostrados en la Figura 5.5, de los que se ha eliminado el
ruido.

Figura 5.7. Datos equivalentes a los que se muestran en al Figura 5.5, eliminando el ruido.

59
5. Proceso. Astronomía

Esta sonificación, al igual que la anterior, admite otras variables que permiten obtener
diferentes texturas sonoras, como son la duración y la densidad de la nube de granos. En el
siguiente ejemplo no podemos hablar de síntesis granular, ya que los datos se recorren más
lentamente y la envolvente para cada fila se ha alargado hasta 20 segundos.

El código se puede ver en MODELO 8 – 12 Victoria - Wavetable (2) del Anexo 1. 12 Victoria.
La sonificación se puede escuchar en 03. 12 Victoria - Wavetable (2).
http://zoom3.net/TFM/index.html#victoria-3

5.11. Cassiopeia

Después de realizar algunas sonificaciones más con los datos de 12 Victoria, busqué una
imagen con una textura diferente, con el fin de poder probar los algoritmos anteriores y generar
otros, guiados por este nuevo material. En la Figura 5.8 se pueden ver los datos de una
fotometría IR de la zona de la constelación de Casiopea.

Figura 5.8. Constelación de Casiopea.

60
5. Proceso. Astronomía

Como se ve, la distribución de objetos luminosos (estrellas) es muy diferente de lo que se tenía
en 12 Victoria. Aunque son de la misma naturaleza y se van a extraer de forma similar, van a
inspirar maneras diferentes de recorrerlos y tratarlos. La sonificación va a seguir proceso
distintos, como si se construyera otro instrumento. No estoy buscando un sonido determinado,
sino otra manera de manipular y moldear los datos, dejando que el sonido aparezca
espontáneamente. El sonido que va apareciendo poco a poco es el que guía las etapas
posteriores para la afinación del algoritmo de síntesis.

5.12. Recorrido 1

En la primera sonificación de los datos de Cassiopeia28, se ha usado un algoritmo ya conocido,


que consiste en calcular la IFFT, esto es, interpretar los datos como el espectrograma para
obtener una onda sonora. La diferencia aquí está en cómo se escogen y recorren los datos.
Primero, la imagen es mucho más grande, 783 x 785 píxeles, lo que da un total de 614655
puntos. Se van a escoger pequeñas regiones cuadradas de 22 x 22 píxeles (484 puntos). La
matriz obtenida es de 2 dimensiones pero se va a convertir en una matriz de una sola
dimensión concatenando todas las filas una después de la otra. La forma de los datos que se
obtiene de esta manera se puede ver en la siguiente imagen.

Figura 5.9. Zona cuadrada de 22x22 píxeles de la imagen de Cassiopeia, convertida a una dimensión.

28 Voy a usar indistintamente Casiopea y Cassiopeia, ya que éste último es el nombre usado en IRSA

61
5. Proceso. Astronomía

Cada una de estas zonas va a generar un sonido particular dependiendo del flujo lumínico que
incluya. El algoritmo recorre aleatoriamente la imagen obteniéndose como resultado una
secuencia sonora muy variable, ya que al ser las zonas exploradas en cada ciclo muy
pequeñas respecto a la imagen total, los datos encontrados en cada caso pueden ser muy
poco luminosos o muy luminosos en el caso de contener una estrella.

El código se puede ver en MODELO 9 – Cassiopeia del Anexo 1. Cassiopeia.


La sonificación se puede escuchar en 01. Cassiopeia 22x22 – IFFT.
http://zoom3.net/TFM/index.html#cassiopeia-1

5.13. Recorrido 2

Con el fin de que cada evento sonoro sea más variable en el tiempo, se van a recorrer ahora
los datos de Cassiopeia en matrices de 50 x 50 píxeles. Pero esta vez no se van a alinear sino
que se van a ejecutar secuencialmente, de manera que cada sonido va a ser el cálculo de 50
IFFTs de 50 puntos cada una, con una duración de 0.1 segundos para cada ciclo, lo que va a
dar un evento sonoro de 5 segundos. Este pequeño cambio de enfoque produce una
estructura sonora muy diferente a la anterior. Aquí se proponen dos variaciones, la primera con
una envolvente para cada cálculo IFFT, y la segunda con una envolvente común para los 50
ciclos, otro pequeño matiz que va a dar como resultado otra textura sonora. Estos cambios son
una de las partes más interesantes del proceso de sonificación. A medida que avanzan las
pruebas, éstas sugieren variaciones que aunque pequeñas hacen evolucionar poco a poco los
resultados.

El código se puede ver en MODELO 10 – Cassiopeia del Anexo 1. Cassiopeia.


La sonificación se puede escuchar en 02. Cassiopeia 50x50 - IFFT y Cassiopeia 50x50 B –
IFFT. http://zoom3.net/TFM/index.html#cassiopeia-2

5.14. Horsehead Nebula

Hasta el momento para cada conjunto de datos se ha diseñado un algoritmo específico de


sonificación. Ahora se va a usar el mismo modelo de Cassiopeia para otros datos, de modo
que se pueda probar un algoritmo "afinado" para un contexto dado en otro contexto, en este
caso la Nebulosa Cabeza de Caballo. De todas formas algo se debe ajustar, ya que la matriz

62
5. Proceso. Astronomía

de datos es mayor, y además los valores mínimo, máximo y medio de la luminosidad así como
el nivel de ruido de la imagen son otros. El modelo ya prevé estos pequeños ajustes. Aunque
el resultado es válido y no se requieren mayores cambios, estos nuevos datos sugieren otras
ideas. En una nueva variación, se eliminan por completo las envolventes y se genera un
sonido continuo. Está claro al escuchar el sonido que es de la misma naturaleza que el
conseguido para 12 Victoria. Las variaciones se dan a nivel de ritmo y estructura general.

Supongo que de seguir trabajando con este algoritmo para otros datos, el modelo sufriría otros
cambios inspirados por estos nuevos valores. Aquí me encuentro otra vez con esta parte
minuciosa y lenta en la que se suceden nuevas ideas y situaciones imprevisibles al inicio del
proceso de sonificación, que se va adaptando necesariamente para cada caso.

Figura 5.10. Nebulosa Cabeza de Caballo.

El código se puede ver en MODELO 11 - Horsehead Nebula del Anexo 1. Cassiopeia.


La sonificación se puede escuchar en 03. Horsehead Nebula.
http://zoom3.net/TFM/index.html#horsehead-3

63
5. Proceso. Astronomía

5.15. Cassiopeia Random Walk

Durante unos días estuve probando otras fuentes de datos, que sugirieron otras
aproximaciones a la hora de sonificar. Algunos datos provenían de Spitzer, otros del
radiotelescopio ALMA. A decir verdad, cada tipo de datos requería por mi parte un gran
esfuerzo para el análisis e investigación de su significado, su contenido o las razones
científicas por las que se generaron dichos datos. Es decir que a cada vez he necesitado
entender mínimamente el contexto antes de empezar a trabajar, incluso si deseaba abordar la
sonificación de forma más intuitiva y guiada más por la estetización de datos que por su
aspecto científico. Al final decidí seguir trabajando con datos conocidos y volví a Cassiopeia.
Como habían pasado algunas semanas y mientras tanto había hecho otras pruebas, el
enfoque fue diferente y por lo tanto los resultados también, ya que me centré más en la
manera de recorrer los datos, y no tanto en que éstos fueran responsables de la síntesis de
sonido. Por lo tanto de esta prueba cabe destacar que una parte del algoritmo, guiada por los
datos, no genera sonido directamente. Digamos que a medida que avanzaba en el proceso de
trabajo, me alejaba más del contenido real de los datos, para trabajar con ellos de maneras
más libres y con menos prejuicios.

La idea de la siguiente sonificación se va a centrar en cómo recorrer los datos. En la Figura


5.11 se muestra una de las filas de la matriz, que corresponde al corte transversal de la
fotografía de la Figura 5.8.

64
5. Proceso. Astronomía

Figura 5.11. Corte transversal de la imagen de la Figura 5.8. Corresponde a una filad de datos.

La diferencia fundamental respecto a las sonificaciones anteriores es que no se van a


interpretar estos datos como una forma de onda ni como un espectrograma, sino como un
camino a recorrer, siguiendo una regla simple. A cada punto de este camino les va a
corresponder un sonido que va a depender de su valor numérico, es decir que se va a mapear
un valor a una propiedad del sonido, por ejemplo frecuencia o duración (en este aspecto es
similar a la sonificación de Sistema Solar).

Imaginemos la imagen como un tablero de dos dimensiones, en el que cada punto tiene un
valor numérico que representa su luminosidad. Se escoge un punto al azar para empezar el
camino (punto X,Y). Desde este punto, se miran los 8 puntos vecinos que lo rodean, buscando
el de mayor luminosidad, para movernos hacia él. Se repite este proceso indefinidamente. De
esta manera se obtiene un camino que recuerda a los caminos brownianos (pero no lo es), en
el que nos movemos, aparentemente, de manera aleatoria por el tablero. El camino recorrido
tenderá a moverse hacia zonas cada vez más luminosas del tablero, hasta alcanzar puntos de
máxima luminosidad, correspondientes a las estrellas29.

29 De hecho no se trata de un recorrido aleatorio, ya que siempre que se empiece en el mismo punto se
hará el mismo recorrido, y por tanto no es un movimiento browniano.

65
5. Proceso. Astronomía

Figura 5.12. Detalle del recorrido por la imagen. Movimiento hacia puntos más luminosos.

En la Figura 5.12 se muestra una ampliación de la imagen de Cassiopeia, que representa el


recorrido de un punto menos luminoso a otros cada vez más luminosos. El problema con el
que nos encontramos aquí es que una vez alcanzado el punto más luminoso de una zona, el
proceso se detiene. Para salvar esta situación se probaron varias opciones. La primera es que
cuando llegamos a este punto de bloqueo, saltamos aleatoriamente a otro punto de la imagen.
Así se recorren pequeños espacios de la imagen que en realidad son muy cortos, ya que con
muy pocos píxeles recorridos se llega a la situación de bloqueo. Lo mismo sucede si en lugar
de mirar los 8 puntos vecinos se miran los 24 puntos más próximos. Un solución que evita esta
situación consiste en cambiar el valor del punto cuando ya se ha visitado, igualándolo a cero.
De esta manera, nunca va a ser mayor que los puntos vecinos, y se consigue un recorrido
continuo por toda la matriz de datos. De hecho lo que se está haciendo es borrar la imagen a
medida que se recorre.

Para sonificar este movimiento, lo más sencillo es una onda senoidal cuya frecuencia
corresponde al valor del punto. Pero en realidad se disponen de más parámetros que permiten
generar sonidos más complejos. Aparte del valor del punto actual, también se pueden usar los
8 valores de los puntos vecinos, o la media de estos valores, lo que nos daría una idea de la
luminosidad media en cada instante. Otro dato disponible es la dirección del movimiento y su

66
5. Proceso. Astronomía

posición en el tablero, lo que podría usarse para espacializar el sonido.

Para la sonificación del recorrido he usado un resonador cuyas frecuencias de resonancia son
la del punto actual más la de los 8 puntos vecinos, la amplitud y la velocidad del movimiento
por la matriz de datos dependen del valor del punto máximo para cada ciclo.

El código se puede ver en MODELO 12 - Cassiopeia Random Walk del Anexo 1. Cassiopeia.
La sonificación se puede escuchar en 04. Cassiopeia Random Walk.
http://zoom3.net/TFM/index.html#cassiopeia-4

5.16. Conclusiones

Con estos ejercicios me encontré por primera vez con una cuestión fundamental: ¿qué hacer
con datos que son en gran parte desconocidos, y para los que se requieren conocimientos
pertenecientes a otra disciplina, en este caso la astrofísica? Se pueden leer textos y
publicaciones de los propios científicos que trabajan en el proyecto, algunos de los cuales
tienen un carácter divulgativo que los hace más asequibles. Esto nos puede dar una idea del
contexto y un punto de partida sobre el que meditar. Pero cada vez tengo más claro que poder
consultar con un experto es algo importante. Se podría decir que en este caso los tutoriales
realizados representan a este experto. Sonificar significa generar sonido que informe sobre
alguna propiedad de los datos. Esto está claro en un contexto científico, pero ¿sigue siendo
necesario si la finalidad es artística?

Se pueden buscar metáforas o narrativas que permitan una aproximación intuitiva al proceso
de sonificación. Por ejemplo para LIGO, como me sugirió José Manuel Berenguer, se pueden
incorporar ideas sobre el tiempo de espera necesario, 15 años de mediciones en este caso,
hasta obtener los primeros resultados. O se puede reflexionar sobre los complejos aparatos
que se necesitan para realizar estos experimentos, que tienen sus propios sonidos y que en
ocasiones aparecen en las mediciones realizadas. El objetivo ha sido la búsqueda de material
sonoro. Se podrían considerar los primeros bocetos, que sirven para provocar ideas,
situaciones, conflictos, tensiones, y que llevarán a la creación de los sonidos para la obra que
se va a realizar.

Está claro que los sonidos que hemos podido escuchar no nos informan de la misma manera
que las gráficas. Crean más bien un ambiente sonoro subjetivo. La percepción de la

67
5. Proceso. Astronomía

información es más visceral y emocional. No se debe pretender extraer la información de


manera racional, sino más bien permitirse la comprensión del fenómeno o de los datos desde
un punto de vista más intuitivo y situarnos en otro plano de comprensión de la realidad. El
sonido nos permite escuchar un fenómeno a través de uno de nuestros sentidos a diferencia
del análisis de una gráfica, que es más mental y en el que no intervienen los sentidos (aunque
interviene la vista, ésta no se usa aquí de la misma manera que cuando se mira un atardecer).
Ésta es quizás una buena excusa para querer sonificar.

68
6. Punto y aparte

6. Punto y aparte

Existen muchos tipos de datos. Los tratados anteriormente provenían en su totalidad de


fenómenos físicos medibles. En su forma original muchos ya eran ondas, como por ejemplo las
ondas electromagnéticas, aunque de otra naturaleza que las ondas de sonido. Algunas
sonificaciones han sido directas, de onda a onda. Una onda de radio se convierte en una onda
sonora en un proceso de audificación, que consiste básicamente en un cambio de escala.
Otros fenómenos no son ondas pero son periódicos, por ejemplo la rotación de un planeta. En
este caso el fenómeno comparte con el sonido la propiedad de periodicidad. Las ondas
abundan en la naturaleza y su sonificación es casi un diálogo de tú a tú entre ondas. Pero hay
otros tipos de datos, alejados de la física o de las ciencias en general. Datos más abstractos,
que no están al alcance de nuestros sentidos. Hay datos que incluso no son números, no se
pueden medir ni por lo tanto cuantificar, quizás no sean ni datos, pero a pesar de todo, se
puede pensar en sonificarlos.

6.1. Don Quijote

Para obtener el siguiente tipo de "datos" (quizás pseudo-datos o simplemente signos), basta
con eliminar de un texto todas las palabras, dejando solamente los espacios y los signos de
puntuación. Aquí se muestra el capítulo primero del Quijote después de realizar esta sencilla
operación:

, , , , . , , , , , . , , , . , , ,
. ; , , , . , , ;, , . ; ., , , , , , , ,
. , , , ; , , , , : , , . : ... ,
. , , , . , , , ., , , , ; , , .
- ,
-, : ; , , , , , , ; , , ., , , ; , , , .
, ,,,,,, ; , . , , . , , , , , . ,,
, , ., , , , , . , , , ., , ; , , ,

69
6. Punto y aparte

, , ,, . , , ; , , , . ,, , . , , , ; ,
,, , . , , ; ,, , , , ;, , . ,, ,
, . ;, , , , ; , , , ; , , , , . , , ,,
, :, ,, , , ., , , , , ; - - , , , , ., , ,
, , , , , , , , ., , , , , ; . :- , , , ,
, , ,,, ,¿ , :,, , , , , ?¡, , ! , ,
, ,, , , . , ;, , , , ;, , , .

Quedan 2531 caracteres (espacios y signos). Si los comparamos con los datos del telescopio
Spitzer, los signos de puntuación son más abstractos. No provienen de un fenómeno físico,
son más bien un constructo cultural. Sin las palabras su significado no está claro. Son puntos y
comas, no son números. ¿Cómo sonificarlos? Seguramente hay que usar otras reglas, el
razonamiento debe ser diferente ¿Qué se busca al sonificar estos datos? A simple vista son
muy minimalistas, aparentemente hay muy poca información, pero quizás el proceso para
sonificarlos deba ser más complejo que los vistos anteriormente. Quizás hay más espacio para
la interpretación. Aquí difícilmente se va a pensar en hacer una transformada de Fourier (FFT
o su inversa IFFT), hay que crear e imaginar más, el espacio para la reflexión es mayor, está
menos acotado. No se trata de un gran flujo de datos que permita sintetizar el sonido, ni de
datos multidimensionales que permitan diseñar un modelo. Son datos discretos. Pero son
datos con los que empezar a trabajar. Se podría decir que son casi aleatorios, lo que me lleva
a pensar por ejemplo en el Atlas Eclipticalis (1962) de John Cage.

Si lo miramos desde el punto de vista musical, lo primero que nos viene a la mente es la
similitud de la serie de signos con una partitura. Un punto (.) es un DO, una coma (,) es un RE,
y así sucesivamente. Está claro que los signos de puntuación marcan el ritmo del texto y su
entonación. Una coma es una parada más corta que un punto. Un signo de exclamación o de
interrogación dan una dinámica particular a la frase. La sonificación de los caracteres va a dar
un resultado sonoro diferente si se trata de un texto de Cervantes o de uno de Shakespeare,
aparte de estar escritos en lenguas diferentes, el uso de la puntuación es probablemente otro.

Por supuesto que aquí, al igual que con los datos científicos anteriores, se puede tener en
cuenta el contexto y el significado del texto para llevar a cabo la sonificación. Por ejemplo la
época del autor, algún estudio literario o filológico que se haya realizado. Incluso se podrían

70
6. Punto y aparte

usar técnicas propias de la estilometría30 para analizar el texto de manera más estadística y
usar algoritmos de inteligencia artificial para extraer información. Pero no voy a entrar aquí en
estas cuestiones. Voy a tratar los signos de puntuación como signos neutros, que van a guiar
el sonido al ser recorridos secuencialmente. De todas formas, la sonificación siempre va a
mostrar alguna particularidad de los datos de los que parte.

6.2. Proceso

La eliminación de todos los caracteres alfanuméricos se ha realizado con la ayuda de un editor


de texto y de una expresión regular, que no es otra cosa que un patrón de búsqueda 31. La
siguiente expresión permite seleccionar todas las letras del alfabeto y los saltos de línea. Una
vez seleccionados, se eliminan: [A-Za-zñÑüÜéáíóúÁÉÍÓÚ\r\n]

He decidido dejar los espacios, ya que indican el número de palabras entre dos signos de
puntuación (menos en la primera frase, en la que hay un espacio menos). En realidad de los
datos de que disponemos se pueden obtener números. Uno es el número total de caracteres,
otro es la proporción de espacios comparados con el número total de caracteres, que nos
podría dar una idea de la densidad del texto. Contar el número de espacios puede ayudar a
marcar el ritmo o el tiempo entre eventos sonoros o notas.

El primer algoritmo va a tener en cuenta los espacios, puntos, comas, dos puntos, punto y
coma, signos de exclamación, signos de interrogación y guiones. A los puntos y las comas,
que son los más abundantes, les corresponderán sonidos percusivos y a los otros signos
sonidos más tonales (sin usar ninguna tonalidad ni notas MIDI). Los espacios van a marcar el
ritmo y a modificar ligeramente el volumen, decisión esta última arbitraria, pero que de alguna
manera quiere indicar que cuantos más espacios hay (más palabras) se llega al siguiente
signo de puntuación con tanto más ímpetu (o con menos oxígeno). Para poder hacer una
comparación, he realizado la misma sonificación para un texto de Shakespeare (Henry VI, Part
1. Act 1, Scene 1), con el fin de apreciar la diferencia entre los dos textos debido al distinto uso
de la puntuación. La relación entre el número de espacios y el número de caracteres totales
(signos y espacios) se va a usar para modificar la tonalidad del sonido. En el caso de
Cervantes es de 0.867, mientras que en el caso de Shakespeare es de 0.796, por tanto más

30 https://en.wikipedia.org/wiki/Stylometry
31 https://es.wikipedia.org/wiki/Expresi%C3%B3n_regular

71
6. Punto y aparte

densidad de signos de puntuación en el texto de Shakespeare.

El código se puede ver en MODELO 13 - Quijote del Anexo 1. Quijote.


La sonificación se puede escuchar en. 01. Quijote 1
http://zoom3.net/TFM/index.html#quijote-1

6.3. Segunda sonificación

En el caso anterior, la relación "signo de puntuación" con "evento sonoro" es muy clara.
Siguiendo esta misma idea se pueden hacer muchas variaciones, más o menos melódicas,
más o menos abstractas o conceptuales. En el siguiente caso voy a usar los signos de
puntuación para guiar un modelo que de por sí ya es autónomo, es decir que si se pone en
ejecución genera sonido a partir de unas condiciones iniciales, evolucionando de manera
aleatoria sin necesidad de que se interaccione con él. Los signos de puntuación se van a usar
aquí para modificar estas condiciones iniciales, reiniciando el modelo cíclicamente. Cada signo
se va a encargar de modificar uno o dos parámetros del modelo, con la idea de percibir el
efecto de cada uno de ellos, no tanto en el aspecto sonoro, sino más bien como un reinicio
breve del sistema.

Para esta sonificación he usado la puntuación sin espacios de los 10 primeros capítulos del
Quijote, en total 3716 signos. Cada segundo se van a leer 10 signos, es decir que cada
iteración va a durar 0.1 segundo, de manera que el modelo no tenga tiempo de evolucionar al
reiniciarse a un ritmo tan rápido, creando así un efecto casi granular. Aquí se muestra una
pequeña parte de la puntuación usada:

,,,,.,,,,,.,,,.,,,.;,,,.,,;,,.;.,,,,,,,,.,,,;,,,,:,,.:...,.,,,.,,,.,,,,;,,.-,-,:;,,,,,,;,,.,,,;,,,.,,,,,,,;,.,,.,,,,,.,,,,.,,,,,.,,,.,,;,,,,,,,.,,;,,,.
,,,.,,,;,,,,.,,;,,,,,;,,.,,,,.;,,,,;,,,;,,,,.,,,,,:,,,,,.,,,,,;--,,,,.,,,,,,,,,,,.,,,,,;.:-,,,,,,,,,,¿,:,,,,,,?
¡,,!,,,,,,,.,;,,,,;,,,.,,,,,,,,.,,,,,,,,,,,,,.,,,,;,,,;,,,,,.;,,,,.,,,;,,.,,,:-¿,,,,?:«,,,,,,,,»..:-,,,.¡,,,,,!,:-
¡,!,.,,,.,,.,,,,.,,.;;,,,,,,;,,,,,,,.,.,,;,,,,,,.,,,.,,,,.,-,,-,,,;,,,,,,,;,,,,:-;,.,,;,,,,:-,;;.,,;,,,,,,,,,.,,,;,:-,,,
(),.,,:-,,,,,.,,,,;,:-,,,;,,,.,,,,.,.,,;,,,,;,,,,,,;,,,;,,,:-:;,,,,,,;,,;,,.,,;.---,,,.,,,,,.,.---,,.,,,.,,,.,,,;,,,;,.,,,,,;,.,;,,,,,;,;,;,,.,.,,;,,
,,,:-,,,.,,,,,,.-,--;,,,,;,,,,,,,,,.,,,,,,,;,,;,,,,,,,,,,,,,,,,,,,,;,,,,,,,.,;,,,;,,,,.;,.;,,,;,,,,;,,,,,,,,,.,,,;,,,,,,;,,;,,,,.;,;,,,,,;.,.,,,;,,,.,,
,.,,;,,:-¡,,,!,,.(,);,,.,,,--,:-,,;.,,,,,,,.,.,(),;,,,,,,,.,.,,,,:-
¡,!,.,,,,.,,,,,,.,,,.,,,,;,:-,,:,,,.,;,,,.,,.,,,;.,;,,,,,,.,,;,,,.,,,,,;,,,,,,,,.,,,;.,:-.,;.,,.,,.,,:,,;,.,,,;,,,,,,,.,,,,,,,.,,,,.,,,,,,,.,,,,.,,,,;,

72
6. Punto y aparte

:-,,.,,,.,,.,,,,,,;,,.:-.:-,;,;.,,:-,;--,.,,,:-,,,,;,,,,,.-¿'',,?--.,.;,,..,,,.,.,,.--,,.---,;,;,;,,.-,,:,.-¿?--.,
¡!,,;,,.---:;,.-,,--,;,.---,;,.---;,¿,,?-,--;,,,,.---;,;;,,,.,,,;,,.,,,.,,,:-,,,.---;¡,;,,,,!---;,,.,,,,.-,,--,;,,.,,,.,,.,,.;,,,,:-,
¡!,,,,,:.,,,,,;,,,,,.,,,,,.,,.,;,,.,,,,,,,,;,,,:-,,.,;,,;,,,:-,;:,.---,¿?,,,;,,.,,,,,,.---,,,,,,,;,,;,,,,.-,-,-;,,,;,..,,,,,.,;,,:,,,.,,:-¡,;,!

El modelo está formado por 4 osciladores modulados en frecuencia, con una envolvente
percusiva de duración variable, realimentados (feedback) y filtrados con un filtro pasa bajos
resonante. En total el algoritmo tienen 10 parámetros, de los que se van a modificar 6
dependiendo del signo de puntuación. El código se puede ver en el archivo quixot2.scd.

El código se puede ver en MODELO 14 - Quijote del Anexo 1. Quijote.


La sonificación se puede escuchar en. 02. Quijote 2.
http://zoom3.net/TFM/index.html#quijote-2

6.4. Conclusiones

Lo más sorprendente es que al realizar estas sonificaciones no he tenido ningún inconveniente


en dejar de lado el significado original de los datos. Quizás porque no lo tienen. Son signos
escritos por el autor, necesarios para delimitar el texto y hacerlo comprensible. Si se elimina el
texto, su función desaparece. En las sonificaciones realizadas con datos científicos, su
significado ha tenido un peso importante. Antes de empezar a trabajar con sonido, sentí la
necesidad de analizar de manera más o menos profunda su procedencia, por qué fueron
tomados, con qué fin y usos. En el caso de la puntuación de los textos, desde el primer
momento los he interpretado como signos abstractos, fuera de ningún contexto particular. A
pesar de haber seleccionado dos autores determinados y de la misma época (¡murieron con
un día de diferencia!), esta selección no responde a un criterio u objetivo determinados. Son
textos conocidos y que se pueden encontrar libres de derechos en internet.

Cada tipo de datos abre un mundo nuevo. No he profundizado tanto en esta parte del proceso
como en las anteriores. Pero ésta ha sido una etapa importante, casi una conclusión. La idea
de trabajar con los signos de puntuación apareció espontáneamente. Después de algunas
semanas trabajando con datos "complejos", en gran medida desconocidos, tuve la necesidad
de encontrar un contexto más próximo en el que me sintiera cómodo, en el que poder tomar
decisiones desligadas de una base de conocimiento específica. Los signos de puntuación sin
texto son como una huella, indican una intención, pero quedan completamente mudos al

73
6. Punto y aparte

eliminar las palabras. La sonificación devuelve la sonoridad del texto que se ha suprimido. Los
signos de puntuación detienen las palabras un instante para luego dejar fluir el texto, hasta
llegar al punto final. Son elementos útiles para la lectura, colocados entre las palabras indican
con qué intención deben ser leídas. Al asignar a cada signo un comportamiento nuevo en el
proceso de sonificación, recuperan su función anterior, pero ahora son los protagonistas. Se
cumple por lo tanto una de las funciones de la sonificación: hacer sonar aquello que no suena.

74
7. Descripción de la instalación

7. Descripción de la instalación

7.1. Justificación

Como he explicado anteriormente, lo que he pretendido con esta investigación es hacer una
aproximación a la sonificación, para incorporarla en un proceso creativo, pero sin tener
delimitado al principio el resultado al que quería llegar. He estado abierto a todos los caminos
que se fueran presentando. El trabajo con los datos, la escucha de las sonificaciones y
algunas dudas de las que no conseguía deshacerme me han conducido hasta aquí.
Finalmente se introdujo una idea que ahora es uno de los aspectos conceptuales importantes
de la obra: el sonido transporta información que en el caso de la sonificación corresponde al
fenómeno que los datos representan. Este hecho, no siempre evidente, es la reflexión que se
le va a proponer al visitante a través de la escucha. Inicialmente pensaba que la pieza sería
una composición (musical) que tuviera como material sonoro los resultados de las
sonificaciones. Esto ha cambiado por dos razones fundamentales. La primera es que no creo
que ésta sea la mejor forma de proponerle al oyente que escuche de la manera que pretendo.
La segunda es que me doy cuenta de que la aproximación que he adoptado hacia los datos, el
sonido, el tiempo y el espacio es más plástica que musical. Esto me lleva a pensar en el
espacio y la relación de éste con el visitante como un elemento a añadir al sonido, y como
consecuencia he optado por la forma de instalación, al ser más atemporal y adireccional.

7.2. Descripción de la instalación

La obra es un collage de sonidos obtenidos con la sonificación de diversas fuentes de datos.


También se puede ver como un paisaje sonoro abstracto en el que los sonidos muestran
fenómenos esquematizados a través del proceso de sonificación, devolviéndolos al espacio
circundante en forma sonora. Algunas sonificaciones ya fueron generadas durante el proceso
de estudio, otras son revisiones de las mismas y otras se han hecho a partir de nuevos datos,
por ejemplo del telescopio Spitzer o los índices Kp32 (mediciones del campo magnético

32 Se han usado los del año 1961, los mismos que usó Dodge en su obra Earth's Magnetic Field.

75
7. Descripción de la instalación

terrestre). Las sonificaciones se han concebido en algunos casos de manera más o menos fiel
al significado de los datos, y en otros usándolos como material de base llegando al resultado
por "oído", prestando menos atención a su significado, pero sin perderlo de vista. Algunas de
las ideas han aparecido espontáneamente, manipulando los datos, explorándolos a través del
sonido. He procurado no embellecer el resultado añadiendo efectos y elementos ajenos a los
propios datos. Los sonidos así obtenidos son de diversa complejidad, algunos son senoidales
puras, cuya frecuencia representa un valor que proviene de los datos, otros son más cercanos
al ruido, llegando en algunos casos a mostrar más al instrumento/aparato de medición que al
propio fenómeno.

La obra evoluciona de manera aleatoria recorriendo los datos a tiempo real. Cada conjunto de
datos forma una pequeña pieza, que tendrá una duración variable, de pocos segundos a varios
minutos. El todo se reproduce indefinidamente, pasando por momentos de calma y otros con
un nivel sonoro más denso. Cada una de estas micro-piezas se ejecutará en una parte del
espacio, usando para ello un solo altavoz, o un grupo reducido de altavoces, que permita situar
el sonido en un lugar menos concreto. Dependiendo de la naturaleza de los datos, el sonido
también se va a desplazar, moviéndose de un lugar a otro de la sala. Se puede dar la situación
de que en dos puntos distintos suenen simultáneamente sonidos diferentes. En este caso se
va a procurar que éstos se puedan diferenciar claramente, a través de su textura o intensidad.
Cada sonido debe verse como un elemento diferenciado de los demás, independiente, aunque
todos en conjunto acaben formando un único ambiente inmersivo [43].

El silencio va a tener un papel importante. Entre cada estímulo sonoro, se dejará un espacio
vacío, que permita al oyente asimilar y de alguna manera memorizar lo que acaba de oír,
sugiriendo de esta manera un tipo de escucha más detenida. Así se consigue crear una
sucesión de instantes sin fin y separar la obra del devenir temporal, volviéndola más estática, y
quizás por esto más plástica [44]. El sonido se inserta de esta manera más en el espacio que
en el tiempo, que queda dilatado y del que se pierde la noción. Este silencio además debería
crear cierta expectativa, ya que el siguiente sonido puede aparecer en cualquier parte del
espacio circundante. Se crea así un ambiente poblado de pequeños estímulos sonoros, que
delimitan el espacio, lo hacen aparecer y desaparecer, lo moldean y modifican su tamaño. El
espacio sonoro será cambiante, es decir que en un determinado punto se van a escuchar
sonidos distintos en momentos distintos, lo que va a dibujar una imagen diferente del entorno a
medida que la pieza evolucione. Se trataría pues de componer el propio espacio [44], que se
podría dividir en el espacio externo y en el interno propio de cada oyente.

76
7. Descripción de la instalación

7.3. Descripción de los sonidos

Con el fin de ampliar la paleta de sonidos, en algunas de las sonificaciones he usado nuevas
fuentes de datos. Una de ellas es la medición del campo magnético terrestre (obtenidos en el
National Oceanic and Atmospheric Administration33). Se podría decir que a modo de homenaje,
he escogido los valores del año 1961, que son los que usó Charles Dodge en su pieza Earth's
Magnetic Field (1970). Los valores del índice Kp (Índice geomagnético K) varían de 0 a 9,
dividiéndose este intervalo en una escala de 28 valores. Se toman un total de 8 registros al
día, uno cada 3 horas, lo que da 2920 valores para un año de 365 días. Para estos datos se
han realizado varios tratamientos. Primero se han convertido a formas de onda usando todos
los valores del año (Síntesis mediante tabla de ondas34). El resultado es un sonido muy
próximo al ruido. En otra aproximación se han usado los 8 valores de cada día para generar
una envolvente con la que modular la amplitud (AM) una onda senoidal, cuya frecuencia es
proporcional a la media de dichos valores. Por último, se han usado los valores de un día para
excitar filtros resonantes obteniendo pequeños granos de sonido. Con estas tres formas de
tratar los datos se consiguen sonidos con de carácter muy diferente. Con la forma de onda se
escucha una textura rugosa de la variación anual del campo magnético, que dura menos de 1
segundo y que se repite en un bucle. Con la modulación de frecuencia se muestra la variación
diaria del campo magnético a través de la modulación de una onda portadora, y en el último
caso, se aprecian los valores discretos de manera independiente para cada valor individual.

Otros datos también nuevos provienen del telescopio Spitzer, pero no pertenecen a ninguna
fotometría concreta. Es un archivo FITS que contiene una imagen llamada data coverage que
se usa como fondo sobre el que situar las imágenes tomadas en una determinada región del
Espacio. No se trata de valores de infrarrojos, sino de una imagen abstracta, que carece de
utilidad una vez sacada de contexto. Es una imagen muy regular, que comprende valores
enteros de 0 a 20. Sentí mucho interés por ella, primero porque proviene del telescopio Spitzer,
del que ya se han sonificado mucho datos aunque todos de naturaleza muy distinta (Véase el
apartado 5.4 y siguientes) y porque contiene un tipo de datos muy poco frecuentes y que no
tienen interés ni significado científico. A pesar de ello tiene una función importante en la
exploración de las fotometrías del telescopio. Podríamos decir que es un subproducto del
telescopio, necesario para su funcionamiento, y por tanto lo que se ha querido mostrar con
esta sonificación es el sonido del propio instrumento de medida.

33 https://www.ngdc.noaa.gov/stp/GEOMAG/kp_ap.html
34 https://es.wikipedia.org/wiki/S%C3%ADntesis_mediante_tabla_de_ondas

77
7. Descripción de la instalación

Figura 7.1. Imagen del data coverage para el cúmulo de estrellas NGC 3603, generado por el telescopio Spitzer.

Por esta razón aquí se han buscado sonidos ruidosos y rítmicos, más mecánicos y agresivos.
He realizado varios tipos de sonificaciones, obteniendo resultados muy diferentes según el
proceso aplicado. En una primera aproximación, al igual que para los índices Kp, los datos se
han convertido directamente a ondas de sonido, recorriendo la imagen de izquierda a derecha.
En otro algoritmo, las ondas obtenidas se han usado para modular la amplitud de una onda
senoidal de muy baja frecuencia (0.5 Hz), trasladándole así el ritmo de la imagen. En el último
algoritmo, los valores numéricos se usan directamente para generar pulsos rítmicos muy
rápidos, obteniéndose patrones que se corresponde con la malla que se aprecia en la imagen
de la Figura 7.1.

Los otros sonidos provienen de las sonificaciones realizadas anteriormente, explicadas en el


apartado 5. Para LIGO, 12 Victoria y Cassiopeia he seleccionando algunos de los algoritmos
ya creados, acotando para cada caso los valores y parámetros del modelo con el fin de
obtener el resultado deseado. La combinación de estas sonificaciones con las del data
coverage de NGC 3606 muestra a la vez el fenómeno que se quiere medir y el aparato de
medida.

El código que contiene todos los algoritmos necesarios para producir el sonido de la
instalación así como las sonificaciones de los nuevos datos (índices Kp y la imagen del data
coverage del cúmulo de estrellas NGC 3603) se puede ver en el Anexo 2.

Las sonificaciones de los nuevos datos se pueden escuchar en


http://zoom3.net/TFM/instalacion.html

78
7. Descripción de la instalación

7.4. Requerimientos técnicos

Material: 8 o 16 altavoces, tarjeta de sonido, ordenador, cables, iluminación tenue, sillas u


otros elementos para sentarse o estirarse.

La instalación requiere una sala diáfana, de un tamaños medio o grande, por ejemplo 8 metros
por 8 metros. Los altavoces están situados formando un anillo alrededor de la sala, cerca de
las paredes o colgados a cierta altura, enfocados hacia el centro. Los oyentes se pueden
mover libremente por ella, con los altavoces a su alrededor. La iluminación será mínima
quedando la sala en penumbra. Se situarán unas pocas sillas, con el fin de permitir sentarse.
No se trata de una instalación "Site Specific", quizás incluso se podría hablar de escultura
sonora o dispositivo sonoro.

Como propuesta alternativa, la instalación se podría interpretar como una exposición, en la que
cada altavoz o zona de la sala muestra un sonido, invitando al espectador a acercarse a cada
uno de ellos para escuchar una pieza. En este caso la sala debería estar bien iluminada y los
altavoces montados sobre pedestales, convirtiéndose así en esculturas.

79
8. Conclusiones finales

8. Conclusiones finales

Aunque cada capítulo tiene sus propias conclusiones, quiero destacar un par de ideas
generales y cuál va a ser a partir de aquí el siguiente paso.

La intención inicial de este trabajo fue la de sonificar datos como recurso para la síntesis de
sonido y la composición. En esta primera fase he trabajado a partir de datos concretos y
probado diversas formas de sonificarlos, buscando sobre todo provocar la reflexión y adquirir
ciertos hábitos de trabajo. Una de las cuestiones a resolver fue si la sonificación, aunque se
haga con finalidades artísticas, se podía desentender del significado de los datos. Respecto a
esto destacaría lo siguiente. Primero que es importante conocer el contexto tratado y que éste,
y no sólo los datos, también se debe usar en el diseño de la estrategia para la sonificación.
Segundo que puede resultar útil hablar con un experto, para que nos explique el significado de
los datos, y a ser posible para que valore el resultado obtenido, aunque la sonificación no
tenga una finalidad práctica o científica. Por último, que la sonificación debería usar el medio
sonoro explotando todas sus posibilidades, como son el timbre, el espacio, la acústica y la
psicoacústica, la memoria e incluso las emociones.

Después de realizar sonificaciones con distintas aproximaciones, llegué a la conclusión de que


tanto si se hacen siguiendo las consideraciones anteriores como si no, los datos van a moldear
el sonido. Así que quedó claro que un planteamiento muy estricto en la estrategia escogida no
repercute necesariamente en que un resultado sea mejor que otro. La prueba y el error, el
juego y usar todas las posibles combinaciones de datos y propiedades del sonido por muy
extrañas que parezcan, han dado resultados inesperados y me han permitido disolver algunos
prejuicios.

Otra conclusión importante y que enmarca conceptualmente la instalación propuesta, es el


hecho de que el sonido siempre transporta algún tipo de información, y que dado el contexto
adecuado, vamos a ser capaces de extraerla. La sonificación es un campo ideal para plantear
esta reflexión, ya que por lo general el sonido obtenido es abstracto y no forma parte de
nuestro entorno cotidiano. No obstante, el resultado va a estar muy condicionado por los datos
de los que se parte. Estos datos son de hecho una herramienta útil para capturar o representar

80
8. Conclusiones finales

un determinado fenómeno de nuestro mundo (físico, cultural, ...), que por lo tanto quedará
reflejado de una manera más o menos evidente en el sonido.

La relación entre los datos, el sonido, la información que transporta y cómo la percibimos e
interpretamos no ha sido estudiada con detalle en este trabajo. Digamos que esta cuestión
llegó después de invertir cierto tiempo en investigar teórica y prácticamente la sonificación.
Estos campos de estudio son a partir de aquí el próximo paso a dar: profundizar en aspectos
como la psicoacústica, la percepción del sonido y la noción de información. Conocer estas
disciplinas debería darme elementos para la toma de decisiones a la hora de realizar una obra
o diseñar un determinado sonido. Saber a priori qué efectos puede producir en el oyente, o
qué atmósfera puede crear, conociendo los mecanismos de la percepción, influirá
seguramente en el enfoque del trabajo. ¿Qué es información o qué significados transmite el
sonido cuando éste es completamente desconocido porque no es verbal, no pertenece a un
objeto cotidiano, y difícilmente lo podemos asociar a algo de nuestro entorno? Estas preguntas
son el inicio de un nuevo camino de investigación.

81
9. Referencias y bibliografía

9. Referencias y bibliografía

1. Witten M. The sounds of science: II. Listening to dynamical systems—Towards a musical


exploration of complexity. Computers & Mathematics with Applications. 1 de julio de
1996;32(1):145-73.

2. Thomas Hermann, Andy Hunt, John G. Neuhoff. The Sonification Handbook. Logos Verlag
Berlin GmbH, 2011

3. Ben-Tal O, Berger J. Creative aspects of sonification. Leonardo. junio de 2004;37(3):229-32.

4. Alberto de Campo. Science By Ear. An Interdisciplinary Approach to Sonifying Scientific


Data. 2009.

5. Thomas Hermann. Sonification for Exploratory Data Analysis. 2002.

6. Höldrich R, Vogt K. A Metaphoric Sonification Method - Towards the Acoustic Standard


Model of Particle Physics [Internet]. Georgia Institute of Technology; 2010 [citado 5 de marzo
de 2017]. Disponible en: https://smartech.gatech.edu/handle/1853/49863

7. ICAD 2006 @ Queen Mary, University of London [Internet]. [citado 5 de marzo de 2017].
Disponible en: http://cogsci.eecs.qmul.ac.uk/oldpages/icad2006/proceedings/concert/index.html

8. Wilczek. Frank. El mundo como obra de arte: En busca del diseño profundo de la naturaleza.
Editorial Crítica; 2016.

9. Lucier A. Origins of a Form: Acoustical Exploration, Science and Incessancy. Leonardo


Music Journal. 6 de julio de 2016;8(1):5-11.

10. Tim Perkis. Artistic Sonification [Internet]. 2013 [citado 5 de marzo de 2017]. Disponible en:
http://www.perkis.com/_site/writings/imeraFinal.pdf

82
9. Referencias y bibliografía

11. Astrophysics XSeries Program [Internet]. edX. 2015 [citado 5 de marzo de 2017].
Disponible en: https://www.edx.org/xseries/astrophysics

12. Paul Francis. Sounds of the Universe [Internet]. [citado 5 de marzo de 2017]. Disponible en:
http://www.mso.anu.edu.au/~pfrancis/Music/

13. Paul Francis. Converting Astronomical Spectra into Sounds: a Tool for Teaching and
Outreach? [Internet]. [citado 5 de marzo de 2017]. Disponible en:
http://www.mso.anu.edu.au/~pfrancis/Music/Paper/draft.htm

14. Paul Francis. Sounds of the Universe. Showcase [Internet]. [citado 5 de marzo de 2017].
Disponible en: http://www.mso.anu.edu.au/~pfrancis/Music/showcase.html

15. TEDx Talks. Listening to data from the Large Hadron Collider | Lily Asquith |TEDxZurich
[Internet]. 2013 [citado 5 de marzo de 2017]. Disponible en: https://www.youtube.com/watch?
v=iQiPytKHEwY

16. Listening to the ATLAS detector | LHCsound [Internet]. [citado 5 de marzo de 2017].
Disponible en: https://lhcsound.wordpress.com/2010/04/27/listening-to-the-atlas-detector/

17. Higgs : 2011 data – part 2 | LHCsound [Internet]. [citado 5 de marzo de 2017]. Disponible
en: https://lhcsound.wordpress.com/sonification-of-di-photon-channel-part-2/

18. Juliana Cherston, Steven Goldfarb, Ewan Hill, Joseph A. Paradiso. Musician and Mega-
Machine: Compositions Driven by Real-Time Particle Collision Data from the ATLAS Detector
[Internet]. 2016 [citado 5 de enero de 2017]. Disponible en:
http://www.nime.org/proceedings/2016/nime2016_paper0017.pdf

19. John Cage. Silencio. 4.ª ed. Ardora Ediciones; 2002

20. The Sounds of Interstellar Space | Science Mission Directorate [Internet]. [citado 5 de
marzo de 2017]. Disponible en: https://science.nasa.gov/science-news/science-at-
nasa/2013/01nov_ismsounds

21. Chandra :: Photo Album :: Perseus Cluster :: 9 Sep 03 [Internet]. [citado 5 de marzo de
2017]. Disponible en: http://chandra.harvard.edu/photo/2003/perseus/

83
9. Referencias y bibliografía

22. Chandra :: Chronicles :: How an X-ray Telescope Detected Sound Produced by a Black
Hole :: September 16, 2003 [Internet]. [citado 5 de marzo de 2017]. Disponible en:
http://chandra.si.edu/chronicle/0303/perseus/index.html

23. John Cage Complete Works [Internet]. [citado 5 de marzo de 2017]. Disponible en:
http://johncage.org/pp/John-Cage-Work-Detail.cfm?work_ID=31

24. Panorama - Alvin Lucier | Songs, Reviews, Credits [Internet]. AllMusic. [citado 5 de marzo
de 2017]. Disponible en: http://www.allmusic.com/album/panorama-mw0000380939

25. John Cage, Antonin Becvar, And Leonard Bernstein Walk Into A Bar | greg.org: the making
of, by greg allen [Internet]. [citado 5 de marzo de 2017]. Disponible en:
http://greg.org/archive/2012/06/25/john_cage_antonin_becvar_and_leonard_bernstein_walk_int
o_a_bar.html

26. Volker Straebel. The sonification metaphor in instrumental music and sonification’s
romantic implications. 2010.

27. Taruskin R. Music in the Late Twentieth Century: The Oxford History of Western Music.
Revised ed. edition. New York: Oxford University Press; 2009. 610 p.

28. Paul Doornbusch. A brief survey of mapping in algorithmic composition [Internet]. [citado 5
de marzo de 2017]. Disponible en:
https://www.academia.edu/941104/A_brief_survey_of_mapping_in_algorithmic_composition

29. No Artist - Symphonies Of The Planets 1 - NASA Voyager Recordings [Internet]. Discogs.
[citado 5 de marzo de 2017]. Disponible en: http://www.discogs.com/No-Artist-Symphonies-Of-
The-Planets-1-NASA-Voyager-Recordings/release/1882807

30. José Manuel Berenguer. plasma waves [Internet]. [citado 5 de marzo de 2017]. Disponible
en: http://sonoscop.net/jmb/pw/

31. Index of /spds/wbgifs/de-1/40k [Internet]. [citado 5 de marzo de 2017]. Disponible en:


http://www-pw.physics.uiowa.edu/spds/wbgifs/de-1/40k/

84
9. Referencias y bibliografía

32. Nick Collins. Implementing stochastic synthesis for SuperCollider and iPhone [Internet].
2011 [citado 10 de enero de 2017]. Disponible en:
https://composerprogrammer.com/research/stochasticsynthesis.pdf

33. Earthworks | semiconductor [Internet]. [citado 5 de marzo de 2017]. Disponible en:


http://semiconductorfilms.com/art/earthworks/

34. Mitchell Akiyama. Dataffect: Numerical Epistemology and the Art of Data Sonification
[Internet]. 2012 [citado 10 de enero de 2017]. Disponible en: http://www.intr-
version.com/akiyama/akiyama_dataffect_leonardo_v24.pdf

35. Detection | LIGO Lab | Caltech [Internet]. [citado 5 de marzo de 2017]. Disponible en:
https://www.ligo.caltech.edu/detection

36. LIGO Open Science Center [Internet]. [citado 5 de marzo de 2017]. Disponible en:
https://losc.ligo.org/tutorials/

37. GW150914_tutorial [Internet]. [citado 5 de marzo de 2017]. Disponible en:


https://losc.ligo.org/s/events/GW150914/GW150914_tutorial.html

38. Sobre Spitzer [Internet]. [citado 5 de marzo de 2017]. Disponible en:


http://legacy.spitzer.caltech.edu/espanol/sobre/index.shtml

39. About IRSA [Internet]. [citado 5 de marzo de 2017]. Disponible en:


http://irsa.ipac.caltech.edu/about.html

40. Astropy [Internet]. [citado 5 de marzo de 2017]. Disponible en: http://www.astropy.org/

41. Photometry - CoolWiki [Internet]. [citado 5 de marzo de 2017]. Disponible en:


http://coolwiki.ipac.caltech.edu/index.php/Photometry

42. Michael Werner, Giovanni Fazio, George Rieke, Thomas L. Roellig, Dan M. Watson. First
Fruits of the Spitzer Space Telescope: Galactic and Solar System Studies. [citado 10 de enero
de 2017]; Disponible en: https://arxiv.org/pdf/astro-ph/0606563.pdf

85
9. Referencias y bibliografía

43. Robin Minard. «Sound Installation Art», from Silent Music - Between Sound Art and
Acoustic Design [Internet]. 1999 [citado 5 de marzo de 2017]. Disponible en:
http://www.robinminard.com/data/media/Minard_SoundInstallationArt.pdf

44. Makis Solomo. De la musique au son. L’émergence du son dans la musique des XXe-XXIe
siècles. Presses Universitaires de Rennes; 2013.

86
10. Anexo 1. Código las sonificaciones

10. Anexo 1. Código las sonificaciones

10.1. Sistema Solar

(
// Datos para la sonificación del Sistema Solar
// https://es.wikipedia.org/wiki/Anexo:Datos_de_los_planetas_del_sistema_solar
a=[0.2408,0.6151 ,1.00,1.8808 ,11.86,29.44 ,84.01,164.79]; // periode (ref. a año terrestre)
b=[2439.7,6051.8,6371,3389.5,69911,58232,25362,24622]; // radio (km)
c=[0.055,0.815 ,1,0.107,318 ,95,14,17]; //massa, ref. a la Tierra
d=[5.43,5.24 ,5.515,3.94,1.33,0.697,1.29,1.76]; // densidad (g/cm3)
e=[47.8725,35.0214,29.7859,24.1309 ,13.0697,9.6724,6.8352,5.4778];//velocitat orbital media
f=[440,730,288,227,152,134,76,53]; // temperatura ºK
g = [0.39,0.72,1,1.52,5.2,9.54,19.19,30.06]; // distancia al Sol, en ref. a la Tierra
h = [0.39,0.95,1,0.53,11.2,9.41,3.98,3.81]; // diametro respecto a la Tierra
k = [58.65,243,1,1.026,0.41,0.44,0.72,0.67]; // duración del día
q = [2.8,8.9,9.81,3.71,22.9,9.1,7.8,11.00]; // gravedad
r = [4.25,10.36,11.18,5.02,59.54,35.49,21.29,23.71]; // velocidad de escape
p = ["Mercurio","Venus","Tierra","Marte","Júpiter","Saturno","Urano","Neptuno"]
)

// sound pressure level "https://en.wikipedia.org/wiki/Sound_pressure"


~spl = {arg db1=100,d1=1,d2=2; db1 + (20*log10(d1/d2)); }

/***********************************
MODELO 1 - Senoidal
***********************************/

// Sonificación de los 8 planetas


// Usando radio (frec), masa y distancia al Sol (amplitud)

(
{
3.wait;
8.do { arg i;
{
var snd, ind, freq, amp;
ind =i;
freq = 1000/h[ind]; // diametro
// amplitut depende de la masa, com a ref a Jupiter (amp=1)
amp = c[i].linlin(c.minItem,c.maxItem,0.01,0.2);// massa: relación a Júpiter
amp = ~spl.value(db1:amp.ampdb,d2:(log10(g[i])+1)).dbamp; // aplicando la distancia al sol

87
10. Anexo 1. Código las sonificaciones

amp.postln;
[p[i],freq,amp].postln;
snd = SinOsc.ar(freq,0,amp)*EnvGen.kr(Env([0,1,1,0],[1,5,1]),doneAction:2);
Out.ar(0,snd!2);
}.play;
8.wait;
};
}.fork;
)

/***********************************
MODELO 2 - Pulsos senoidales
***********************************/

// sonificación del sistema solar introduciendo el período orbital


(
{
2.wait;
8.do { arg i;
{
var snd, freq, amp, dur, freq_pulso;
freq = 1000/h[i];
// amplitut depende de la massa, tomando com a ref, a Jupiter (amp=1)
amp = c[i].linlin(c.minItem,c.maxItem,0.01,0.2); // amplitud en relació a Júpiter
amp = ~spl.value(db1:amp.ampdb,d2:(log10(g[i])+1)).dbamp;
amp.postln;
//version normal
dur = h[i]*4; // duración del pulso proporcional al radio
// frec. del pulso proporcional al período orbital, ref a Mercurio
freq_pulso = a.minItem/a[i]/2;
// version acelerada
//dur = h[i]/8;
//freq_pulso = a.minItem/a[i]*8;
snd = SinOsc.ar(freq,0,amp)*EnvGen.kr(Env.perc(0.01,dur),Impulse.kr(freq_pulso));
[p[i],freq,1/freq_pulso,dur,amp].postln;
Out.ar(0,snd!2);
}.play;
(4+(g[i]/4)).wait;
};
}.fork;
)

88
10. Anexo 1. Código las sonificaciones

/***********************************
MODELO 3 - Síntesis granular
***********************************/

// Con este ejemplo no se trata de percibir las diferentes propiedades del planeta,
// Se usan demasiados parámetros para que sea posible,
// pero si de que den un carácter al sonido.
// Recuerdan ondas de radio, o plasma waves
// Aquí no hay una idea de conjunto del sistema solar
// los sonidos están demasiado separdos, parece aleatorio pero no lo es
// Los planetas se afinan para que todos suenen bien diferenciados
// Se percibe la materialidad del planeta, más que sume musicalidad

~buses = {Bus.audio(s,1)}!8;
(

SynthDef(\planeta_3,{arg out,freq=300,with=0.5,ff,rq,dur,amp=0.01;
var snd,env;
snd = RLPF.ar(
// OTRAS ondas de base
//WhiteNoise.ar(amp),
LFPulse.ar(freq,0,with,amp),
//LFTri.ar(freq,0,amp),
//Saw.ar(freq,amp),
//SinOsc.ar(freq,0,amp),
//Dust.ar(freq,amp),
//ClipNoise.ar(amp),
ff,rq
);
snd = snd * EnvGen.kr(Env([0,1,0],[dur,dur],[4,-4]),doneAction:2);
// para probar sin envolvent
//env = EnvGen.kr(Env([0,1,0],[dur,dur],[4,-4]),doneAction:2);
Out.ar(out,LeakDC.ar(snd));
}).add;

// paneja el so amb envolvent


SynthDef(\orbita_pulse,{arg out=0, in, a, fase=0,mix=0.4,rev=0.3, dur=1;
var snd,pan,env,channels, pos;
snd = In.ar(in,1);
snd = FreeVerb.ar(snd,mix,rev,rev);
env = EnvGen.kr(Env.perc(dur,dur),Impulse.kr(0.20/dur));
snd = snd*env;

// n canals
channels = 2;
pos = channels*2-2/channels;
// depende de la velocitat orbital
pan = LFSaw.kr(1/a*0.01,fase).range(0,pos);
Out.ar(out,PanAz.ar(channels,snd*env,pan,width:2,orientation:0.5));

89
10. Anexo 1. Código las sonificaciones

// pera estéreo
//pan = SinOsc.kr(1/a*0.01,fase);
//Out.ar(out,Pan2.ar(snd,pan));
}).add;
)

(
{
var time, pan, ind, bus, dur, amp, rev;
ind = 2; // id del planeta, de 0 a 7

// densitat de granos: depend del diametre: h


// el planeta más grande tiene menos densidad de granos
time = h[ind].linlin(h.minItem,h.maxItem,0.005,0.02);
bus = ~buses[ind];

// a) constant
//Synth(\orbita,[\in,bus,\a,a[ind],\fase,0,\mix,0.5,\rev,0.3]);

// b) pulsa con la durada del día


dur = k[ind].linlin(k.minItem,k.maxItem,10,30);
rev = g[ind].linlin(g.minItem,g.maxItem,0.2,0.8).postln; // distancia al Sol
Synth(\orbita_pulse,[\in,bus,\a,a[ind],\fase,pi.rand,\mix,0.4,\rev,rev,\dur,dur]);

// Sin paneo
//bus = 0;

amp = c[ind].linlin(c.minItem,c.maxItem,0.01,0.05); // masa del planeta


amp.postln;
p[ind].postln;

inf.do {
Synth(\planeta_3,[
\out,bus,
\ff,f[ind].linlin(f.minItem,f.maxItem,8000,300).gaussian(100), // temperatura
\rq,d[ind].linlin(d.minItem,d.maxItem,0.001,0.005), // densitat
\dur,q[ind].linlin(q.minItem,q.maxItem,0.01,0.001), // gravetat
\freq,r[ind].linlin(r.minItem,r.maxItem,500,2000).gaussian(10), // vel escape
\with,e[ind].linlin(e.minItem,e.maxItem,0.1,0.5).gaussian(0.05), // vel orbital
\amp,amp
]);
time.wait;
};
}.fork;
)

90
10. Anexo 1. Código las sonificaciones

/***********************************
MODELO 4 - FM
***********************************/
(
// FM
SynthDef(\planeta_5,{arg
out=0,freq=100,amp=0.01,dur=1,gate=1,orbita=1,fm=1,ind=1,mix=0.3,rev=0.2;
var snd;
snd =
SinOsc.ar(freq+SinOsc.kr(fm,0,ind),0,amp)*EnvGen.kr(Env.perc(0.01,dur),Impulse.kr(gate));
snd = FreeVerb.ar(snd,mix,rev,rev);
// anillo de altavoces
Out.ar(out,PanAz.ar(4,snd,LFSaw.kr(orbita,pi.rand),width:2,orientation:0.5));
// per a estéreo
//Out.ar(out,Pan2.ar(snd,SinOsc.kr(orbita,pi.rand)));
}).add;
)

(
{
8.do {arg i;
var amp;
amp = log(c[i]+2).linlin(c.minItem,c.maxItem,0.05,0.5); // amplitut relació a la massa
p[i].postln;
Synth(\planeta_5,[
\freq,h[i].linlin(h.minItem,h.maxItem,2000,100), // diametre
\dur,k[i].linlin(k.minItem,k.maxItem,1,30), // durada del dia
\gate,0.25/k[i].linlin(k.minItem,k.maxItem,1,30),
\orbita,1/a[i]*0.1, // período orbital
\fm,d[i].linlin(d.minItem,d.maxItem,800,50), // densitat
\ind,q[i].linlin(q.minItem,q.maxItem,300,100), // gravedad
\amp,amp,
\mix,0.4,
\rev,g[i].linlin(g.minItem,g.maxItem,0.2,0.8)
]);
(4+(g[i]/4)).wait;
};

}.fork;
)

91
10. Anexo 1. Código las sonificaciones

10.2. LIGO

/***********************************
MODELO 5 - LIGO
***********************************/

~path = PathName(thisProcess.nowExecutingPath).parentPath;

Buffer.freeAll
~b1 = Buffer.read(s,~path ++ "dades/H-H1_LOSC_4_V1-815411200-4096.wav");
~b2 = Buffer.read(s,~path ++ "dades/H-H1_LOSC_4_V1-820207616-4096.wav");

(
SynthDef(\LIGO_1,{arg out=0, amp=1, buf, rate=1,gate=0;

var snd,chain,env;

snd = PlayBuf.ar(1,buf,BufRateScale.kr(buf)*rate,loop:1);
env = EnvGen.kr(Env.adsr(attackTime:5,sustainLevel:1,releaseTime:10),gate);
chain = FFT(LocalBuf(2048),snd* amp);
chain = PV_BrickWall(chain,LFNoise0.kr(0.12).range(0.01,0.07));
chain = PV_LocalMax(chain, LFNoise0.kr(0.15).range(0, 1));
snd = IFFT(chain)!2;
snd = FreeVerb.ar(snd,0.3,0.4,0.3);
Out.ar(out,Limiter.ar(LeakDC.ar(snd*env),0.1));

}).add;

SynthDef(\LIGO_2,{arg out=0, amp=1, buf, rate=1,gate=0;

var snd,chain,env;

snd = PlayBuf.ar(1,buf,BufRateScale.kr(buf)*rate,loop:1);
env = EnvGen.kr(Env.adsr(attackTime:5,sustainLevel:1,releaseTime:10),gate);
chain = FFT(LocalBuf(2048),snd* amp);
chain = PV_Cutoff(chain,LFNoise0.kr(0.12).range(0.01,0.07));
chain = PV_MagAbove(chain, LFNoise0.kr(0.15).range(0, 1));
snd = IFFT(chain)!2;
snd = FreeVerb.ar(snd,0.3,0.4,0.3);
Out.ar(out,Limiter.ar(LeakDC.ar(snd*env),0.1));

}).add;

SynthDef(\LIGO_3,{arg out=0, amp=1, buf, rate=1,gate=0;

var snd,chain,env;

92
10. Anexo 1. Código las sonificaciones

snd = PlayBuf.ar(1,buf,BufRateScale.kr(buf)*rate,loop:1);
env = EnvGen.kr(Env.adsr(attackTime:5,sustainLevel:1,releaseTime:10),gate);
chain = FFT(LocalBuf(2048),snd* amp);
chain = PV_BrickWall(chain,LFNoise0.kr(0.12).range(0.01,0.07));
chain = PV_MagAbove(chain, LFNoise0.kr(0.15).range(0, 1));
snd = IFFT(chain)!2;
snd = FreeVerb.ar(snd,0.3,0.4,0.3);
Out.ar(out,Limiter.ar(LeakDC.ar(snd*env),0.1));

}).add;
)

// ejecutar y poner en marcha con gate=1


~l1 = Synth(\LIGO_1,[\buf,~b1,\amp,300]);
~l1.set(\gate,1);

~l2 = Synth(\LIGO_1,[\buf,~b2,\amp,50]);
~l2.set(\gate,1)

~l22 = Synth(\LIGO_2,[\buf,~b2,\amp,50]);
~l22.set(\gate,1)

~l3 = Synth(\LIGO_3,[\buf,~b1,\amp,300]);
~l3.set(\gate,1);

10.3. 12 Victoria

~path = PathName(thisProcess.nowExecutingPath).parentPath;
// Datos de 219x215
~x2 = CSVFileReader.read(~path ++ "dades/01577b161-w3-victoria-12.csv",true).asFloat
~x2[95].plot
~x2.flat.minItem
~x2.flat.maxItem

/***********************************
MODELO 6 - 12 Victoria - IFFT
***********************************/

(
SynthDef(\star3, {arg dur=1;
var mags, phases, chain, snd, env,samples,bins;
bins=512;
samples=bins/2;
mags = Control.names([\mags]).kr(0!samples);
phases = 0!samples;
chain = FFT(LocalBuf(bins), Silent.ar());

93
10. Anexo 1. Código las sonificaciones

chain = PackFFT(chain, bins, [mags, phases].flop.flatten,zeroothers:1);


snd = IFFT(chain,0,samples);
env = EnvGen.kr(Env.sine(dur),doneAction:2);
snd = LPF.ar(snd,5000)*SinOsc.kr(4).range(0.9,1);
snd = snd.softclip * 0.85;
Out.ar(0,snd*env!2);
}).add;
)

// Asteroide 12 Victoria
(
{
var y;
~x2.size.do {arg i;
y = ~x2[i];
// Filtra los valores por debajo de 3775
y = y.linlin(3775,4500,0,40,\min);
y.maxItem.postln;
Synth(\star3,[\mags,y,\dur,2]);
0.5.wait;
};
}.fork;
)

/************************************************
MODELO 7 - 12 Victoria - Granular - wavetable (1)
*************************************************/

Buffer.freeAll
~buffer_v1 = Buffer.alloc(s,1024);
(
SynthDef(\star4, {arg dur=1,freq=1;
var snd, env;
snd = Osc.ar(~buffer_v1,/*freq*/MouseX.kr(1,100),0,0.1);
env = EnvGen.kr(Env([0,1,0],[0.1,dur,0.1]),doneAction:2);
snd = LPF.ar(snd,5000);
snd = snd.softclip * 0.85;
Out.ar(0,snd*env!2);
}).add;
)
(
{
var y,a,w;

~x2.size.do {arg i;
y = ~x2[i].linlin(3700,6500,0,40,\min);
a = Signal.sineFill(256,y);
i.postln;

94
10. Anexo 1. Código las sonificaciones

w = a.asWavetable;
~buffer_v1.sendCollection(w,0);
Synth(\star4,[\freq,50,\dur,1]);
0.01.wait;
};
}.fork
)

/************************************************
MODELO 8 - 12 Victoria - wavetable (2)
*************************************************/

(
SynthDef(\star5, {arg dur=1,freq=1;

var snd, env, wt, buf;

wt = Control.names([\wt]).kr(0!256);
buf = LocalBuf.newFrom(wt);
snd = Osc.ar(buf,/*freq*/MouseX.kr(1,100),0,0.1);
env = EnvGen.kr(Env.sine(dur),doneAction:2);
snd = LPF.ar(snd,5000);
Out.ar(0,snd*env!2);
}).add;
)
(
{
var sig, data, wt;

~x2.size.do {arg i;
// filtrado del ruido por debajo de 3838
data = ~x2[i].linlin(3858,10000,0.0,1000.0,\min);
~x2[i].minItem.postln;
sig = Signal.sineFill(256,data);
i.postln;
wt = sig.asWavetable;
Synth(\star5,[\freq,50,\dur,20,\wt,wt]);
0.5.wait;
};
}.fork
)

95
10. Anexo 1. Código las sonificaciones

10.4. Cassiopeia

~path = PathName(thisProcess.nowExecutingPath).parentPath;
~x3 = CSVFileReader.read(~path ++ "dades/Cassiopeia-13001984-DSS.csv",true);
~x3 = ~x3.asInteger
~x3[0].size

/***********************************
MODELO 9 - Cassiopeia
***********************************/

// funciones
(
// Conveirte una región 2D en un array de una dimensión
b = {arg py=0, px=0, size=15;

a = Array.new;
~x3[py..(py+size)].do {arg item;
a = a ++ item[px..(px+size)];
};
a;

};

// Devuelve una matriz 2D


c = {arg py=0, px=0, size=50;

a = Array.new;
~x3[py..(py+size-1)].do {arg item;
a = a.add(item[px..(px+size-1)]);
};
a;
};
)
(
SynthDef(\star31, {arg dur=1;
var mags, phases, chain, snd, env,samples,bins;
bins=1024;
samples=bins/2;
mags = Control.names([\mags]).kr(0!samples);
phases = 0!samples;
chain = FFT(LocalBuf(bins), Silent.ar());
chain = PackFFT(chain, bins, [mags, phases].flop.flatten,zeroothers:1);
snd = IFFT(chain,1,bins);
env = EnvGen.kr(Env([0,0,1,0],[0.01,0.01,dur],[0,0,-2]),doneAction:2);
snd = LPF.ar(snd,2000);
snd = snd.softclip * 0.85;

96
10. Anexo 1. Código las sonificaciones

snd = snd*env;
Out.ar(0,snd!2);
}).add;
)
// zona de cassiopeia
(
{
1000.do {arg i;
// Si la FFT es de 1024, el max. de valores que le tengo que pasar es 512, por ejemplo 22 *
22
// Si se pasan más, el resto no los usa. Si paso 10 * 10, obtendré sonidos más graves
// ya que no tendré componentes frecuenciales más agudas
b.value(rrand(0,750),rrand(0,750),22); // probar 5, 10, 15 o 22 (para una FFT de 1024)
// Varía de 3000 a 25000, que son los valores min y max de los datos
// Cuanto más bajo es el primer valor, más datos coge del archivo FITS
// Esto hay que afinarlo para cada caso, por ejemplo si se pasa una matriz de 10 puntos
// y el valor inferior es 8000, se generará más sonido, ya que hay menos datos, al ser
// el rango de valores inferior
a = a.linlin(7000,25000,0,30,\min);
if (a.maxItem > 0, {
Synth(\star31,[\mags,a,\dur,2]);
});
0.2.wait; // variar el tempo, por ejemplo 1s
};
}.fork;)
/***********************************
MODELO 10 - Cassiopeia
***********************************/

(
SynthDef(\star34, {arg out, dur=1, t_gate=0;
var mags, phases, chain, snd, env,samples,bins;
bins=1024;
samples=bins/2;
mags = Control.names([\mags]).kr(0!samples);
phases = Array.fill(samples,{Rand(-pi,pi)}); //fases random;
chain = FFT(LocalBuf(bins), Silent.ar());
chain = chain.pvcalc(bins,{arg mags1, phase1;
mags1 = [0,0]++mags;
phase1 = Array.fill(samples,{pi.rand});
[mags1,phase1];
},frombin:0,tobin:52,zeroothers:0);
snd = IFFT(chain,0,bins);
env = EnvGen.kr(Env([0,0,1,0],[0.01,0.1,dur],[0,0,-2]),t_gate/*,doneAction:2*/);
snd = LPF.ar(snd,6000);
snd = snd*env;
snd = FreeVerb.ar(snd,0.6,0.8,0.5);
Out.ar(out,Pan2.ar(snd,LFNoise2.kr(0.25)));
}).add;

97
10. Anexo 1. Código las sonificaciones

)
(
{
var data;
d = Synth(\star34,[\dur,2]);
1000.do {arg i;
// el valor 50 puede ser inferior para obtener sonidos más graves
data = c.value(rrand(0,750),rrand(0,750),50);
d.set(\t_gate,1);
data.do {arg item, index;
// varia de 3000 a 25000, que són els valors min i max de les dades
// el rang inferior i superior depend de la imatge, s'ha de provar
item = item.linlin(5500,26000,0,50,\min);
if (item.maxItem > 0, {
d.set(\mags,item);
d.set(\t_gate,1);
});
0.1.wait;
};
0.5.wait;
};
}.fork;
)
// versión B
(
{
var data;
e = Synth(\star34,[\dur,5]);
1000.do {arg i;
data = c.value(rrand(0,750),rrand(0,750),50);
e.set(\t_gate,1);
data.do {arg item, index;
item = item.linlin(5000,26000,0,50,\min);
if (item.maxItem > 0, {
e.set(\mags,item);
});
0.1.wait;
};
e.set(\t_gate,1);
1.wait;
};
}.fork;
)

98
10. Anexo 1. Código las sonificaciones

/***********************************
MODELO 11 - Horsehead Nebula
***********************************/

~x3 = CSVFileReader.read(~path ++ "dades/HorseHead.csv",true);


~x3 = ~x3.asInteger
~x3[0].size
~x3[100..120].plot
(
{
var data;
d = Synth(\star34,[\dur,0.1]);
2000.do {arg i;
data = c.value(rrand(0,840),rrand(0,840),rrand(10,50)); //
d.set(\t_gate,1);
data.do {arg item, index;
item = item.linlin(15000,23000,0,90,\min);
if (item.maxItem > 0, {
d.set(\mags,item);
d.set(\t_gate,1);
});
0.002.wait; // probar con 0.02
};
0.01.wait;
};
}.fork;
)
// variación
(
{
var data;
d = Synth(\star34,[\dur,600,\t_gate,1]);
2000.do {arg i;
data = c.value(rrand(0,840),rrand(0,840),rrand(10,50));
data.do {arg item, index;
item = item.linlin(15000,23000,0,80,\min);
if (item.maxItem > 0, {
d.set(\mags,item);

});
0.02.wait;
};
0.01.wait;
};
}.fork;
)

99
10. Anexo 1. Código las sonificaciones

/***********************************
MODELO 12 - Random Walk
***********************************/

~b1 = Buffer.alloc(s,1024);
(
{
var i,j,p,p1,y,x,o,q,z;
y = ~x1.size-1; // número de puntos en vertical
x = ~x1[0].size-1; // número de puntos en horitzontal
i = 300; //rrand(0,x); // punto inicial, horitzontal
j = 550; //rrand(0,y); // punto inicial vertical
p = ~x1[j][i]; // valor del punto

5000.do {
o = 0;
q = 0;
p1 = p;
z = Array.new(9);
z.add(p);

// recorre los 8 puntos vecinos


[-1,0,1].do {arg m;
[-1,0,1].do {arg n;
// comprueba que no esté fuera de la imagen o que no sea él mismo
if ((j+m < 0) || (j+m > y) || (i+n < 0) || (i+n > x) || (m==0 && n==0) ,{/*'Punto no
válido'.postln;*/}, {
// si el punto vecino es >= se guarda el valor para la siguiente comparación
if (~x1[j+m][i+n] >= p, {p = ~x1[j+m][i+n]; o = n; q = m;});
z.add(~x1[j+m][i+n]);
});
};
};

// elimina los 0
z.takeThese({ arg item; item==0; });
i = i + o;
j = j + q;
p = ~x1[j][i]; // corresponde a X[y][x]
[j,i,p,z].postln;

Synth(\sound_1,[
\out: 0,
\decay: p.linlin(~x1[j].minItem,~x1[j].maxItem,3,0.2), //más agudo más breve
\lpf: 5500,
\z: z,
\j: j,
\y: y,
\p: p,

100
10. Anexo 1. Código las sonificaciones

\amp: p.linlin(~x1[j].minItem,~x1[j].maxItem,0.001,0.5) //más agudo más fuerte


]);

// la duración del loop depende del valor del punto


p.linlin(~x1[j].minItem,~x1[j].maxItem,0.1,2).wait;
~x1[j][i] = 0; // iguala a 0 los puntos recorridos
};
}.fork;
)
(
SynthDef(\sound_1,{arg out,decay=2,lpf=2500,
z=#[100,100,100,100,100,100,100,100,100],j=1,y=1,p=1,amp=0.1;
var snd;
snd = Ringz.ar(
Impulse.ar(1,0,0.03)+
WhiteNoise.ar(0.0008),
// la freq. de resonancia depende de los 9 puntos de la lista
z/[20,10,5,2,1]*(j/y),
decay
).mean
*EnvGen.kr(Env.perc([2,4],[4,2],[0.8,0.9],[2,-4]),doneAction:2)
*amp*4;
snd = LPF.ar(snd,lpf);
Out.ar(out,snd);
}).add;
)

10.5. Quijote

/***********************************
MODELO 13 - Quijote
***********************************/
(
{
var e,g,amp;
e=0; // los espacios acumulados, modifica la duración
amp=0.3;
g = ~a1.findAll(" ").size/~a1.size; // porcentaje de espacios, modifica la freq
g.postln;
~a1.do{
arg item,i;
var f,d,x;
f=0;d=1;
x = case
{ item.asString == " " } { e = e + 0.1; amp = amp + 0.05; amp.clip2(0.9);}
{ item.asString == "," } { f=400*g; d = 0.2; d=d+e; e=0; Synth(\m2,
[\freq,f,\dur,d,\amp,amp]); amp = 0.3;}
{ item.asString == "." } { f=600*g; d = 0.3; d=d+e; e=0; Synth(\m2,

101
10. Anexo 1. Código las sonificaciones

[\freq,f,\dur,d,\amp,amp]); amp = 0.3;}


{ item.asString == ";" } { f=600*g; d = 0.5; d=d+e; e=0; Synth(\m1,[\freq,f,\dur,d]); }
{ item.asString == ":" } { f=1000*g; d = 0.75; d=d+e; e=0; Synth(\m1,[\freq,f,\dur,d]); }
{ item.asString == "?" } { f=1500*g; d = 0.3; d=d+e; e=0; Synth(\m1,[\freq,f,\dur,d]); }
{ item.asString == "!" } { f=1700*g; d = 0.4; d=d+e; e=0; Synth(\m1,[\freq,f,\dur,d]); }
{ item.asString == "-" } { f=1200*g; d = 0.15; d=d+e; e=0; Synth(\m1,[\freq,f,\dur,d]); };
(e/10).wait;
}
}.fork;
)
(
SynthDef(\m1,{arg freq, dur, amp=0.1;
var snd;
snd = RLPF.ar(
Pulse.ar(freq*[0.5,0.6],dur*0.1),
freq*[0.6,0.7],dur*0.01
)*EnvGen.kr(Env.perc(dur/2,dur*5),doneAction:2)*amp;
Out.ar(0,snd);
}).add;

SynthDef(\m2,{arg freq, dur=0.5,amp=0.8;


var snd;
snd = RLPF.ar(Impulse.ar(0.1),freq*1.5,0.01)
*EnvGen.kr(Env.perc(0.01,dur),doneAction:2)!2;
Out.ar(0,snd*amp);
}).add;
)

/***********************************
MODELO 14 - Quijote
***********************************/
(
{
var model;

model = Synth(\glic_fm2,[\t_gate,1]);
"Quijote. Sonification of the punctuation of the first 10 chapters. ".postln;

~a10.do {

arg item,i;
var x;

if (i.mod(80)==0,{"".postln}); // salto de línia


if (item.ascii > 0, {(item++" ").post},{ " ".post});

// modelo
x = case
{ item.asString == "," } { model.set(\delay,rrand(0.01,1.5)); }

102
10. Anexo 1. Código las sonificaciones

{ item.asString == ";" } { model.set(\pc,rrand(0.1,5)); }


{ item.asString == "." } { model.set(\t_gate,1); }
{ item.asString == "?" } { model.set(\dp,rrand(500,1000)); model.set(\t_gate,1); }
{ item.asString == "!" } { model.set(\t_gate,1); model.set(\decay,rrand(1,20)); }
{ item.asString == ":" } { model.set(\dp,rrand(1000,5000)); }
{ item.asString == "-" } { model.set(\pc,rrand(2,10)); }
{ 1==1 } { model.set(\dur,rrand(0.1,1.5)); };
0.1.wait;
}
}.fork;
)
(
SynthDef(\glic_fm2, {arg
out=0,amp=0.4,freq=300,fm=300,ind=100,t_gate=1,dur=1,gate=1,pc=1,dp=3000, delay=1, decay=10;
var snd,env,freqs,env2;
env = EnvGen.ar(Env.perc(0.01,dur),t_gate); // els punts
freqs = Array.geom(4,freq,1.5);
snd = SinOsc.ar(freqs*pc+Pulse.ar(fm,0.5,ind),0,amp);
snd = snd * env;
snd = CombN.ar(snd,2,delay,decay);
snd = RLPF.ar(snd,dp,0.01);
snd = Splay.ar(snd,1,1,0);
env2 = EnvGen.ar(Env.adsr(0.01,0.1,1,10),gate,doneAction:2);
snd = Limiter.ar(snd*env2,0.2);
snd = LPF.ar(snd,500);
snd = FreeVerb.ar(snd,0.4,0.3,0.3)*0.5;
Out.ar(out,snd);
}).add;
)

103
11. Anexo 2. Código para la instalación

11. Anexo 2. Código para la instalación

///////////////////////////////////////////////////////////////////////
// Máster en Arte Sonoro - UB
// Curso 2016-2017
// Jordi Espuny Monserrat
///////////////////////////////////////////////////////////////////////

(
///////////////////////////////////////////////////////////////////////
// Variables globales
///////////////////////////////////////////////////////////////////////

// Establece el num de canales


~channels = 4;
~path = PathName(thisProcess.nowExecutingPath).parentPath;
~amp = 0.1;
~wait = 1; // tiempo de espera global, para un sonido
~silent = 1; // tiempo de silencio
~attack = 1; // ataque de la envolvente
~dur = 1; // duración de la envolvente
~loop_wait = 1; // espera en los ciclos
~n_loops = 10; // num. de ciclos
~out = 0;

s.options.numOutputBusChannels_(~channels);
// RAM
c=Server.local.options;
c.memSize = 2.pow(20); // 1 GB

// sample Rate
s.options.sampleRate=48000;

// free all buffers


Buffer.freeAll;

// devuelve la posición máxima para PanAz, segun el num. de channels


~pos = ~channels*2-2/~channels;
)
// Devices disponibles
ServerOptions.devices

s.reboot;

104
11. Anexo 2. Código para la instalación

///////////////////////////////////////////////////////////////////////
// Datos, Buffers y Buses
///////////////////////////////////////////////////////////////////////
(

// Kp
~kp_1961_2_csv = CSVFileReader.read(~path ++ "dades/kp_index/kp_1961_2.csv",true).asFloat;

// Tamaño potencia de 2, aun que corte los datos originales


~buffer_kp_1 = Buffer.alloc(s,2.pow(11)*2);
~buffer_kp_2 = Buffer.alloc(s,2.pow(11)*2);

// LIGO
~buf_ligo_1 = Buffer.read(s,~path ++ "dades/H-H1_LOSC_4_V1-815411200-4096.wav");
~buf_ligo_2 = Buffer.read(s,~path ++ "dades/H-H1_LOSC_4_V1-820207616-4096.wav");

// NGC 3606
~ngc_3606_csv = CSVFileReader.read(~path ++ "dades/NGC-3603_3.csv",true).asFloat;

// De Motibus Stellae Martis


~demotibus = CSVFileReader.read(~path ++ "dades/martis/demotibus_vei_7.csv").asFloat;

// bus binaural
~bus_binaural = Bus.audio(s,1);

// buffers NGC
~buffer_ngc_1 = Buffer.alloc(s,1024);
~buffer_ngc_3 = Buffer.alloc(s,1024);
~buffer_ngc_4 = Buffer.alloc(s,512);

///////////////////////////////////////////////////////////////////////
// índices KP
///////////////////////////////////////////////////////////////////////

// Synth generales KP
// play buffer as wavetable
(
SynthDef(\wavetable, {arg out=0, attack=0.1, dur=1, freq=1, amp=0.1, buf, t_gate=1,
doneAction=2;
var snd, env;
snd = Osc.ar(buf,freq,0,amp);
env = EnvGen.kr(Env.perc(attack,dur),t_gate,doneAction:doneAction);
snd = snd * env;
snd = LeakDC.ar(snd);
Out.ar(out,snd);
}).add;

105
11. Anexo 2. Código para la instalación

// play a buffer
SynthDef(\playbuffer,{arg out=0, attack=0.1, dur=1, rate=1, amp=0.1, buf, t_gate=1,
doneAction=2,loop=1;
var snd, env;
snd = PlayBuf.ar(1,buf,BufRateScale.kr(buf)*rate,loop:loop);
env = EnvGen.kr(Env.perc(attack,dur),t_gate,doneAction:doneAction);
snd = snd * env * amp;
snd = LeakDC.ar(snd);
Out.ar(out,snd);
}).add;

// wavetable
// el size ha de ser potencia de 2
~do_wavetable_sinus = { arg data, buffer,size;
var a,w;
a = Signal.sineFill(size,data);
w = a.asWavetable;
buffer.sendCollection(w,0);
};

~do_wavetable = { arg data, buffer;


var a,w;
a = data.normalize.as(Signal);
w = a.asWavetable;
buffer.sendCollection(w,0);
};

~do_wavetable_sinus.value(~kp_1961_2_csv.flat,~buffer_kp_1,2.pow(11));
~do_wavetable.value(~kp_1961_2_csv.flat[0..2047],~buffer_kp_2);
)

///////////////////////////////////////////////////////////////////////
// WaveTable
//
(
~task_kp_WT_1 = Task {

"task_kp_WT_1".postln;
~channels.do {arg i;
Synth(\wavetable,[\amp,~amp*2,\attack,~dur,\dur,~dur/*300*/,\freq,(0.5+
(i+1*0.025)),\buf,~buffer_kp_1,\out,i]);
2.wait;
};
};
~task_kp_WT_2 = Task {

"task_kp_WT_2".postln;
~channels.do {arg i;

106
11. Anexo 2. Código para la instalación

Synth(\wavetable,[\amp,~amp*2,\attack,~dur,\dur,~dur/*60*/,\freq,(0.5+
(i+1*0.025)),\buf,~buffer_kp_2,\out,i]);
2.wait;
};
};

//////////////
// AM 1
~task_kp_AM_1 = Task {

"task_kp_AM_1".postln;
~kp_1961_2_csv.do {arg item,i;
{
var snd;
snd = SinOsc.ar((item.mean*20),0,~amp) *
EnvGen.ar(Env(item.normalize,1!7),Impulse.kr(0.5),1,0,0.1) *
EnvGen.kr(Env.perc(0.01,20),doneAction:2);
Out.ar(IRand(0,~channels-1),snd);
}.play;
5.wait;
};
};

// AM 2 Fast
~task_kp_AM_2 = Task {

"task_kp_AM_2".postln;
~kp_1961_2_csv.do {arg item,i;
{
var snd;
snd = SinOsc.ar((item.mean*50),0,~amp*0.1) *
EnvGen.ar(Env(item.normalize,1!7),Impulse.kr(10),1,0,0.001) *
EnvGen.kr(Env.perc(0.01,3),doneAction:2);
Out.ar(IRand(0,~channels-1),snd);
}.play;
0.5.wait;
};
};

///////////////////////////////////////////////////////////////////////
// KP index 2

~task_KP_Filter_1 = Task {

"task_KP_Filter_1".postln;
~kp_1961_2_csv.do {arg item, i;
var values=Array.new(8);
// elimina els 0
//item.do ({arg i; if (i>0,{values.add(i)})});

107
11. Anexo 2. Código para la instalación

values = item.takeThese({ arg item; item==0; });


{
Out.ar(~out,
LeakDC.ar( Klank.ar(`[values*200, nil, nil], Dust.ar(values.mean/10,[0.25,0.3]) )
* EnvGen.kr(Env.sine(10), doneAction:2)*~amp*0.1)
);
}.play;
//values.postln;
5.wait;
};
};

~task_KP_Filter_2 = Task {

"task_KP_Filter_2".postln;
~kp_1961_2_csv.do {arg item, i;
var t;
t=0.1;
item.do {arg f;
{
var snd;
EnvGen.kr(Env.perc(releaseTime:t),doneAction:2);
snd = RLPF.ar(Impulse.ar(f,0.01),item*100,0.1).mean*~amp*0.5;
//Ringz.ar(snd,item.maxItem*20,1)*0.3!2;
Out.ar(~out,snd);
}.play;
0.1.wait;
};
};
};
)

///////////////////////////////////////////////////////////////////////
// LIGO
///////////////////////////////////////////////////////////////////////

// Synth
(
SynthDef(\LIGO_1_xy,{arg out=0, fft_amp=300, amp=1, buf, rate=1,gate=0, x=0.16, y=0.06, dur=1;

var snd,chain,env;

snd = PlayBuf.ar(1,buf,BufRateScale.kr(buf)*rate,loop:1);
//env = EnvGen.kr(Env.adsr(attackTime:5,sustainLevel:1,releaseTime:10),gate);
env = EnvGen.kr(Env([0,1,0],[dur,dur]),timeScale:0.5,doneAction:2);
// la fft_amp debe ser muy alta ya que la parte del espectro con la que trabajo tiene muy poca
energía
chain = FFT(LocalBuf(2048),snd*fft_amp);
chain = PV_BrickWall(chain, x);

108
11. Anexo 2. Código para la instalación

chain = PV_LocalMax(chain, y);


snd = IFFT(chain)!2;
//snd = FreeVerb.ar(snd,0.3,0.4,0.3);
Out.ar(out,Limiter.ar(LeakDC.ar(snd*env),0.2)*amp);

}).add;

SynthDef(\LIGO_2_xy,{arg out=0, fft_amp=300, amp=1, buf, rate=1,gate=0, x=0.07, y=1.0, dur=1;

var snd,chain,env;

snd = PlayBuf.ar(1,buf,BufRateScale.kr(buf)*rate,loop:1);
//env = EnvGen.kr(Env.adsr(attackTime:5,sustainLevel:1,releaseTime:10),gate);
env = EnvGen.kr(Env([0,1,0],[dur,dur]),timeScale:0.5,doneAction:2);
chain = FFT(LocalBuf(2048),snd* fft_amp);
chain = PV_Cutoff(chain, x);
chain = PV_MagAbove(chain, y);
snd = IFFT(chain)!2;
//snd = FreeVerb.ar(snd,0.3,0.4,0.3);
Out.ar(out,Limiter.ar(LeakDC.ar(snd*env),0.1)*amp);

}).add;

SynthDef(\LIGO_3_xy,{arg out=0, fft_amp=300, amp=1, buf, rate=1,gate=0, x=0.07, y=1.0,dur=1;

var snd,chain,env;

snd = PlayBuf.ar(1,buf,BufRateScale.kr(buf)*rate,loop:1);
//env = EnvGen.kr(Env.adsr(attackTime:5,sustainLevel:1,releaseTime:10),gate);
env = EnvGen.kr(Env([0,1,0],[dur,dur]),timeScale:0.5,doneAction:2);
chain = FFT(LocalBuf(2048),snd* fft_amp);
chain = PV_BrickWall(chain, x);
chain = PV_MagAbove(chain, y);
snd = IFFT(chain)!2;
//snd = FreeVerb.ar(snd,0.3,0.4,0.3);
Out.ar(out,Limiter.ar(LeakDC.ar(snd*env),0.1)*amp);

}).add;
)

//// Tasks LIGO


(
~task_LIGO_1 = Task {

"task_LIGO_1".postln;
50.do {
Synth(\LIGO_1_xy,
[\out,~out,\amp,~amp*10,\buf,~buf_ligo_1,\x,rrand(0.03,0.07),\y,rrand(0.2,1.0),\dur,~dur]);
7.wait;

109
11. Anexo 2. Código para la instalación

};
};
~task_LIGO_2 = Task {

"task_LIGO_2".postln;
50.do {
Synth(\LIGO_2_xy,
[\out,~out,\amp,~amp*10,\buf,~buf_ligo_2,\x,rrand(0.03,0.07),\y,rrand(0.08,1.0),\dur,~dur]);
7.wait;
};
};
~task_LIGO_3 = Task {

"task_LIGO_3".postln;
50.do {
Synth(\LIGO_3_xy,
[\out,~out,\amp,~amp*10,\buf,~buf_ligo_1,\x,rrand(0.02,0.07),\y,rrand(0.2,1.0),\dur,~dur]);
7.wait;
};
};
)

///////////////////////////////////////////////////////////////////////
// NGC 3606
///////////////////////////////////////////////////////////////////////

(
SynthDef(\NGC_1b, {arg dur=10,freq=10,amp=0.1,t_gate=1;
var snd, env;
"NGC_1b".postln;
snd = Osc.ar(~buffer_ngc_1,[freq,freq*1.1],0,amp);
env = EnvGen.kr(Env.perc(1,dur),t_gate);
snd = snd * env;
snd = LPF.ar(snd,5000);
Out.ar(0,PanAz.ar(~channels,snd[0],LFSaw.kr(0.01),width:2,orientation:0.5));
Out.ar(2,PanAz.ar(~channels,snd[1],LFSaw.kr(0.02),width:2,orientation:0.5));
//Out.ar(0,snd);
}).add;

SynthDef(\noise_1,{arg freq=500,i=1,amp=0.1,dur=0.5;
var f,snd,env;
f = i+1*freq;
env = EnvGen.kr(Env.perc(0.01,dur),doneAction:2);
snd = WhiteNoise.ar(0.1);
snd = LPF.ar(
RLPF.ar(
snd,f,0.01/(0.1+i)
),3000);
Out.ar(Rand(0,~channels),snd*amp*env);

110
11. Anexo 2. Código para la instalación

}).add;

SynthDef(\NGC_3, {arg freq=0.5,freq2= 200,amp=0.1,dur=10;


var snd, env, env2;
"NGC_3".postln;
env = Osc.ar(~buffer_ngc_3,freq,0,1,0);
snd = SinOsc.ar(freq2,0,amp) * env;
env2 = EnvGen.kr(Env.perc(0.1,dur),doneAction:2); // per a parar el Synth
snd = LPF.ar(snd,2000);
snd = snd * env2;
Out.ar(0,PanAz.ar(~channels,snd,Rand(-1,1),width:2,orientation:0.5));
//Out.ar(2,PanAz.ar(4,snd[1],Rand(-1,1),width:2,orientation:0.5));
//Out.ar(0,snd!2);
}).add;

SynthDef(\NGC_4, {arg out=0, freq=1,amp=0.1, buf,dur=1,ff=1000;


var snd, env, w,x,y,z;
"NGC_4".postln;
snd = Osc.ar(buf,freq,0,amp);
env = EnvGen.kr(Env.sine(dur),doneAction:2);
snd = RLPF.ar(snd,ff,0.01);
snd = LeakDC.ar(snd*env);
Out.ar(out,snd);
}).add;

SynthDef(\binaural,{arg out,azimuth=0;

var snd,w,x,y,z;

snd = In.ar(~bus_binaural);
#w, x, y = PanB.ar(snd, azimuth);
//decode for 4 channels
Out.ar(out,DecodeB2.ar(~channels, w, x, y, 0.5));

}).add;
)

// Tasks NGC
(
~task_NGC_1b = Task {
var y,a,w,snd;

snd = Synth(\NGC_1b,[\amp,~amp,\freq,10,\dur,15]);

~ngc_3606_csv.size.do {arg i;
y = ~ngc_3606_csv[i];
y.mean.postln;
a = Signal.sineFill(512,y);

111
11. Anexo 2. Código para la instalación

w = a.asWavetable;
~buffer_ngc_1.sendCollection(w,0);
snd.set(\t_gate,1);
snd.set(\freq,10*y.mean); // la frecuencia depende del valor medio de la fila
20.wait;
};
};

// Recorre las 50 primeras filas


~task_NGC_rhythm_1 = Task {
var a;
a = ~ngc_3606_csv[0..50].flat;
a.do {arg item,i;
if ( item > 1, {Synth(\noise_1,[\i,item,\freq,1000,\amp,~amp])});
0.1.wait;
}
};
~task_NGC_rhythm_2 = Task {
var a;
a = ~ngc_3606_csv[51..100].flat;
a.do {arg item,i;
if ( item > 1, {Synth(\noise_1,[\i,item,\freq,2000,\amp,~amp])});
0.1.wait;
}
};
~task_NGC_rhythm_3 = Task {
var a;
a = ~ngc_3606_csv[101..200].flat;
a.do {arg item,i;
if ( item > 1, {Synth(\noise_1,[\i,item,\freq,3000,\amp,~amp])});
0.1.wait;
}
};
~task_NGC_rhythm = Task ({
~task_NGC_rhythm_1.start;
~task_NGC_rhythm_2.start;
~task_NGC_rhythm_3.start;
});

~tasks.remove;
~tasks = SimpleController(~task_NGC_rhythm).put(\userStopped, {
~task_NGC_rhythm_1.stop;
~task_NGC_rhythm_2.stop;
~task_NGC_rhythm_3.stop;
});

~task_NGC_3 = Task {

var a,w,f;

112
11. Anexo 2. Código para la instalación

f = 200;
~ngc_3606_csv.do {arg item, i;
a = Signal.sineFill(512,item);
//a = item[0..255].normalize.as(Signal);
w = a.asWavetable;
~buffer_ngc_3.sendCollection(w);
Synth(\NGC_3,[\freq,0.5,\freq2,f,\dur,10,\amp,~amp*0.8]);
f = f + 10;
5.wait;
Synth(\NGC_3,[\freq,0.5,\freq2,f+50,\dur,10,\amp,~amp*0.8]);
5.wait;
};
};

~task_NGC_4 = Task {
var a,w;
var item;
inf.do {
// usa un valor random per a ser menys monoton
item = ~ngc_3606_csv[rrand(0,~ngc_3606_csv.size-1)];
a =item[0..255].normalize.as(Signal);
w = a.asWavetable;
~buffer_ngc_4.sendCollection(w);
Synth(\NGC_4,
[\out,~bus_binaural,\buf,~buffer_ngc_4,\dur,12,\freq,1,\ff,item.mean*1000,\amp,~amp]);
15.wait;
};
}

/// binaural
(
// De Motibus Stellae Martis, Control Binaural
~bus1 = Synth(\binaural,[\azimuth,0],nil,\addToTail);
// fork pera el binaural
{
var b;
~demotibus.do {arg item, i;
b = item[1].linlin(0,360,-1,1);
~bus1.set(\azimuth,b);
0.05.wait;
};
}.fork;
)

113
11. Anexo 2. Código para la instalación

///////////////////////////////////////////////////////////////////////
// Score
///////////////////////////////////////////////////////////////////////
(

~events = [
// [task, wait, silent, attack, dur, loop_wait, n_loops, out, amp]
[~task_kp_WT_1,200,10,nil,200,nil,nil,nil,0.1], // 0
[~task_kp_WT_2,100,10,nil,100,nil,nil,nil,0.1], // 1
[~task_kp_AM_1,100,10,nil,nil,nil,nil,nil,0.01], // 2
[~task_kp_AM_2,10,10,nil,nil,nil,nil,nil,0.01], // 3
[~task_KP_Filter_1,60,10,nil,nil,nil,nil,0,0.1], // 4
[~task_KP_Filter_2,60,10,nil,nil,nil,nil,2,0.1], // 5
[~task_LIGO_1,120,10,nil,10,7,50,0,0.1], // 6
[~task_LIGO_2,120,10,nil,10,7,50,2,0.1], // 7
[~task_LIGO_3,120,10,nil,10,7,50,1,0.1], // 8
[~task_NGC_1b,100,10,nil,nil,nil,nil,0,~amp], // 9
[~task_NGC_rhythm,100,10,nil,nil,nil,nil,0,~amp], // 10
[~task_NGC_3,100,10,nil,nil,nil,nil,0,~amp], // 11
[~task_NGC_4,100,10,nil,nil,nil,nil,0,~amp], // 12
];

//~compo_1 = [6,7,5,7,8,4,1,6,7,0,1,2,4,5,6];

~score = Task {
// podría ser random
//~events.do {arg item,i;
var item;
//~compo_1.do {arg part,i;
inf.do {

//item = ~events[part]; //.choose; // scramble o fer en stream


item = ~events.choose;

~attack = item[3];
~dur = item[4];
~loop_wait = item[5];
~n_loops = item[6];
~out = item[7]; //rrand(0,~channels-1);
~amp = item[8];

item[0].reset;
item[0].play;

~wait = item[1]; //rrand(10,200);


["wait",~wait].postln;
~wait.wait; //item[1].wait;

item[0].stop;

114
11. Anexo 2. Código para la instalación

~silent = item[2]; //rrand(5,30)


["silent",~silent].postln;
~silent.wait; //item[2].wait;
};
};
)

~score.start

115

You might also like