Tocando electrones para los nuevos sonidos

¿Qué tienen en común los músicos de rock sinfónico y de cumbia?
A primera vista, poco; pero en realidad, mucho: ambos componen y tocan sus ritmos usando instrumentos y equipos basados en los principios de la electrónica.

La música ha acompañado a la especie humana por decenas de miles de años.

Los antropólogos han rastreado sonidos musicales y percusión hasta unos 50 mil años a. C y los arqueólogos han hallado instrumentos en yacimientos que demuestran que los primeros “vientos”, las flautas, tienen alrededor de 37 mil años. Por otra parte, hacia el 3000 a. C. en la Mesopotamia, los músicos de Sumeria tañían cuerdas de arpas y liras.

Lo verdaderamente curioso para cualquier amante de la música es que atravesando civilizaciones, descubrimientos y cambios culturales, los sonidos de la humanidad se basaron en la misma tecnología original que fue evolucionando en forma muy gradual: el rasguido de cuerdas, la percusión y soplidos de aire. ‟Sin embargo en apenas diez décadas, un mínimo suspiro de la historia cultural de la humanidad, se registraron cambios tecnológicos revolucionarios que abrieron camino a la música que escuchamos hoy”, comenta Emilio Loëbe, ingeniero electrónico que trabaja en la Gerencia de Metrología del Instituto Nacional de Tecnología Industrial (INTI) de Argentina.

Cambios

‟A principios del siglo XX, con los avances de la electrónica, la música comenzó a experimentar cambios revolucionarios. Básicamente al comenzar a manipular electrones y al desarrollar circuitos eléctricos, se abrieron las puertas de tecnologías que hoy son fundamentales para la música, incluyendo cómo se la interpreta, pero también cómo se la escucha”, detalla Leandro Kornblit, estudiante de Física que trabaja en el Laboratorio de Temperatura en el Centro de Física y Metrología del INTI. ‟Un ejemplo clave de esta evolución es la potencia acústica. Hoy un recital de un gran grupo de rock puede llegar a 500 mil personas, como ocurrió en el histórico concierto de los Rolling Stones en marzo de 2016, en Cuba. ¿Cómo fue posible? ¡Gracias a los amplificadores!”.

Hoy no resulta fácil entender como, desde que nació la música hasta inicios del siglo XX, la única manera de escuchar sonidos era con la potencia propia de cada instrumento. Los coros medievales, los conciertos de Bach, las sinfonías de Beethoven o las óperas de Mozart, e incluso las grandilocuentes obras de Richard Wagner, solo podían escucharse en espacios acotados, a un volumen limitado y con el espectador ubicado relativamente cerca de la orquesta, aprovechando los principios de la acústica.

Pero el invento del ingeniero estadounidense Lee de Forest abrió el juego a la electrónica y revolucionó el status quo; y la primera variable posible fue amplificar la potencia acústica. De Forest, en 1911, comenzó a desarrollar la idea de amplificar electrónicamente el sonido, recurso que luego utilizaron la compañía de telecomunicaciones ATT y sin censura las primeras radios AM.

Durante las siguientes cuatro décadas los amplificadores musicales —siempre basados en el funcionamiento de válvulas de vacío— evolucionaron mejorando sus parámetros: la respuesta de frecuencia y la potencia de amplificación. Y, al mismo tiempo, minimizaron la distorsión y el ruido que se suma a la señal original.

‟Durante la década del ´50 y principios de los ´60 la electrónica pegó un salto inmenso gracias al avance de los transistores y los circuitos integrados electrónicos que reemplazaron a los equipos de válvulas con amplificadores más pequeños y económicos pero con mejores prestaciones”, detalló Ángel Castro, también integrante de la Gerencia de Metrología del INTI. La manipulación de los electrones que permitió la física moderna generó una nueva etapa de posibilidades musicales: los instrumentos electrónicos.

Sintetizadores profesionales

El impulso de la industria de la electrónica en la segunda mitad del siglo XX le abrió las puertas al vuelo creativo de artistas y músicos que experimentaron conectando diferentes tipos de amplificadores unidos ‟en cascada” y en paralelo.

No sólo buscaban potencia, sino también la creación de nuevos sonidos. Así, año tras año, en la década del ´60 —en la que predominó la exploración en una amplia variedad de rubros culturales— se fue sumando a la música lograda con los instrumentos tradicionales la posibilidad de usar generadores y sintonizadores de señales capaces de crear sonidos artificiales y de modificar una señal musical.

La tecnología aportada por la electrónica permitió amplificar, mezclar ondas, hacer distorsiones y aplicar filtros. ‟Muchos músicos se sintieron atraídos por la creación de sonidos que no existían originalmente en forma natural”, explicó Ángel Castro del INTI.

Uno de los pioneros de la música electrónica fue el ingeniero Robert Moog, quien es frecuentemente nombrado como el ‟padre del sintetizador” por su invento de 1964. El moog integraba distintos módulos (un oscilador, un amplificador y varios filtros) y permitía imitar sonidos de cualquier instrumento musical, generar nuevos, modificarlos y combinarlos.

‟Desde entonces las posibilidades creativas aumentaron, porque los equipos permiten varios tipos de síntesis: desde mezclas sonoras logradas por adición o por sustracción, a otras como la granular, que es una suma de sonidos cortos para generar una nueva “masa” sonora con una textura musical diferente y más compleja. En definitiva, permite aprovechar las ondas simples para mezclarlas y lograr nuevos sonidos complejos. Esto abre la puerta a nuevas creaciones”, detalló Federico Serrano, licenciado en Artes Electrónicas e integrante del Grupo de Acústica del INTI.

Todos estos caminos abiertos por el desarrollo de la tecnología digital les facilitan a los músicos una mayor creatividad, más posibilidades y una forma diferente de componer. También permiten jugar, en una partitura, con sonidos propios de la naturaleza pero que fueron creados y replicados en forma sintética ‟…por ejemplo, se podría simular el sonido de un piano, pero sin martillos ni cuerdas”, detalló el experto.

Samplers y midi

Otro gran paso de la música se dio con el sampler, que comenzó a usarse a mediados de los´70. Es una variante del sintetizador ya que, en lugar de generar sonidos, utiliza las grabaciones (samples) producidas por cada músico, las cuales pueden ser reproducidas mediante un teclado, secuenciador u otro dispositivo y sirven para interpretar o componer. Si bien suelen asociarse a estilos como el rap y el hip-hop, lo cierto es que músicos de todos los estilos han utilizado los samplers. De hecho, los primeros en explorar sus posibilidades fueron Herbie Hancock, Kate Bush, Peter Gabriel y Duran Duran.

También permitió un gran avance el MIDI (por sus siglas en inglés, Musical Instrument Digital Interface). Se trata de un estándar tecnológico que describe un protocolo, una interfaz digital y conectores, y que permite unir instrumentos electrónicos con otros dispositivos. Nació en 1982 y abrió la posibilidad de unir instrumentos, computadoras y otros equipos para que se comuniquen entre sí. De manera que todos los instrumentos electrónicos “lo entienden” y permiten ejecutar el rock sinfónico —que entronizó a Rick Wakeman—, una cumbia o un ragetton.

Instrumentos virtuales

Hace tres décadas, la pareja de la música y la electrónica dio otro salto técnico notable gracias al nacimiento de los instrumentos virtuales, capaces de emular y explorar nuevas sonoridades.

Los músicos que buscaban expandir los límites musicales buscaron respuestas a preguntas tales como “¿Cómo sonaría el timbre de una guitarra si su caja tuviera el doble de tamaño que el de una guitarra tradicional?”

‟Para eso sirven los instrumentos virtuales, capaces de generar sonidos sin necesidad de construirlos y que permiten explorar diferentes rangos sonoros a través de la variación de múltiples parámetros que van desde la temperatura o la tensión de las cuerdas a un sinfín de variables. Y todos estos recursos, otra vez, expanden las posibilidades creativas de la música”, aseguró Kornblit.

Claramente, las tendencias musicales acompañan la evolución de la electrónica en general: miniaturización de equipos, mejores prestaciones, y todo con mayor accesibilidad económica. Y no solo con equipos dedicados. ‟Hoy es posible convertir una computadora común en un instrumento electrónico versátil: agregarle un teclado de piano, software y conectores electrónicos y sumarle un dispositivo con MIDI”, detalla Kornblit.

Claramente, el avance y combinación de disciplinas como la física, la electrónica y la informática permitieron un enorme crecimiento de las posibilidades musicales y creativas de los músicos. Los recursos para producir y escuchar sonidos melodiosos ahora son muy amplios, pero lo que parece no haber cambiado es nuestra natural, primitiva y ancestral necesidad musical.

Enrique Garabetyan (Argentina)

Más información

Los pioneros electrónicos

Entre los instrumentos pioneros en el aprovechamiento y la modulación de los electrones figura el telharmonium, creado por Taddeus Cahill en 1891 y patentado en 1897. Es considerado el primer instrumento musical eléctrico plenamente desarrollado. Era una especie de órgano a electricidad, que empleaba generadores por ruedas dentadas (dínamos que movilizaban engranajes) que producían tensiones sinu-soidales a distintas frecuencias cuyas amplitudes (volumen) podían ser atenuadas mediante resistencias, determinando las características de cada registro. Pesaba cerca de 200 toneladas y, ante la inexistencia de altavoces o parlantes, el instrumento solo podía escucharse por medio de una red telefónica.

Otro clásico fue el creado por León Theremin, en 1919. El theremin utilizaba generadores de ondas y antenas; al interferirlas con sus manos el ejecutante podía controlar la altura y amplitud de las ondas sin tener contacto físico con el instrumento. Dado el timbre casi puro producido por el theremin, el rango musicalmente aprovechable no superaba las cuatro octavas.

Además de inventar violoncelos, teclados y de percusión electrónicos, Theremin además creó el terpsitone cuya interpretación se realizaba con el cuerpo entero y el Titmicón, primitivo secuenciador de mecanismo fotoeléctrico.

Glosario de física y música

  • El sonido consiste en la propagación de una perturbación mecánica en un material (en general el aire). Además, se considera sonido al intervalo de frecuencias de 20 Hz a 20 kHz, que es el rango de audición del ser humano. Para comprender mejor la producción de sonido es posible representarse un tubo largo lleno de aire (como una flauta), en el cual inicialmente el aire está en reposo y las moléculas se encuentran homogéneamente distribuidas. Si una persona sopla por el extremo, el aire se comprime; las moléculas cercanas son ‟empujadas” —lo que crea una zona de presión más alta— mientras que las que se encuentran alejadas no; esa zona de alta presión se va trasladando por el tubo, alejándose de la fuente y generando una transmisión de energía. Luego de que la primera perturbación recorre cierta distancia en el tubo, comienza la segunda y así sucesivamente. Eso permite definir a la longitud de onda como la distancia entre perturbaciones sucesivas en el espacio.
  • La frecuencia es la cantidad de perturbaciones por segundo (en ciclos por segundo o Hz). Si un sonido es una sucesión de ondas de compresión que se propaga por un material, al ubicarnos en una posición fija registraremos cómo la presión del aire aumenta y disminuye periódicamente a medida que tienen lugar las sucesivas perturbaciones. Aquí aparece el concepto de presión sonora.
  • La presión sonora o acústica es producto de la propagación del sonido. La energía provocada por las ondas sonoras genera un movimiento ondulatorio de las partículas del aire (o del agua), provocando pequeñas variaciones de la presión atmosférica de manera alterna. Se mide en pascales (Pa) y se define como la diferencia de presión instantánea que se produce en la atmósfera por efecto del sonido. El umbral de audición se sitúa en los 20 μPa (micropascales).
  • ¿De qué forma se relacionan la longitud de onda y la frecuencia de una onda sonora? A mayor frecuencia, menor longitud de onda y viceversa.
  • La velocidad con la que se propaga el sonido no depende de la frecuencia ni de la intensidad ni de la longitud de onda, sino de las características del medio. En el aire su velocidad es de aproximadamente
    344 m/s (o 1200 km/h). En los líquidos es un poco mayor (1440 m/s en el agua) y más aún en los sólidos (5000 m/s en el acero).
  • No cualquier perturbación del aire puede ser percibida por el oído humano. La frecuencia más baja que podemos distinguir es alrededor de 20 hertz (oscilaciones por segundo). La más alta es de unos 20 000 hertz. Cuanto más baja la frecuencia, más grave es el sonido.
  • Cada nota musical posee una determinada frecuencia, por ejemplo, la nota ‟la”, que se usa como patrón para afinar los instrumentos, tiene una frecuencia de 440 Hz. La frecuencia es lo que en música se conoce como ‟altura”.
  • Lo que hace que una misma nota, con la misma intensidad, sea percibida de manera diferente según el instrumento que la produzca es lo que musicalmente se conoce como timbre, y en física se designa como contenido armónico. El timbre se refiere a que alrededor de una onda sonora dominante se presentan otras de distintas frecuencias que en conjunto provocan una percepción diferenciada cuando la misma nota se produce por instrumentos distintos. El ‟la”de un guitarra se percibe de manera completamente distinta al ‟la” de una trompeta, aunque la frecuencia de la onda dominante sea de 440 Hz.
  • La intensidad, denominada como amplitud en el ámbito musical, se refiere a cuán fuerte o débil es un sonido y se corresponde con la amplitud de la oscilación. El nivel de presión sonora se mide en decibeles (db),
    mientras que la intensidad se mide en W/m2 (potencia por área). Al pulsar una cuerda, cuánto más se aparta ésta del equilibrio, mayor es la intensidad, aunque la frecuencia sigue siendo la misma. En la partitura se indica con los términos pianissimo, para el volumen más bajo, o fortissimo, para el más alto.
  • La octava es el intervalo de frecuencias entre dos sonidos cuyas frecuencias fundamentales tienen una relación de dos a uno. Por ejemplo, el intervalo entre el ‟la” de 440 Hz y el ‟la” de 880 Hz.

Dejar respuesta

Please enter your comment!
Please enter your name here