El Sonido en la Producción Audiovisual: Características, Grabación y Funciones

1. La Función Expresiva del Sonido

El sonido, elemento crucial en el lenguaje audiovisual, posee una gran importancia narrativa. Junto con la imagen, transmite sensaciones e información al receptor a través de dos canales: auditivo y visual. La función expresiva del sonido se puede resumir en tres puntos clave:

  1. Aumenta la sensación de realidad de la imagen.
  2. Transmite información.
  3. Contribuye a la creación de ambientes.

Aportaciones del sonido:

  • El sonido guía nuestra mirada, indicando qué debemos observar.
  • Puede anticipar elementos visuales, dirigiendo nuestra atención.
  • La banda sonora puede aclarar, contradecir o generar ambigüedad en los hechos presentados en la imagen.

La aplicación del sonido en una obra audiovisual debe ser cuidadosamente planificada, considerando todas las circunstancias acústicas que intervendrán en la grabación.

2. Características Técnicas del Sonido

Definición de sonido: El sonido es la sensación producida por una variación de presión en el aire, generada por el movimiento vibratorio de un cuerpo. Esta vibración se propaga en un medio elástico (gaseoso, líquido o sólido) en forma de ondas. El oído humano percibe estas ondas sonoras y las convierte en impulsos eléctricos que el cerebro interpreta. El rango de frecuencia audible para los humanos se encuentra entre 20 y 20000 Hz. Por debajo de este rango se encuentran los infrasonidos y por encima, los ultrasonidos.

Para que se produzca sonido, son necesarios tres elementos:

  • Un cuerpo vibrante (emisor).
  • Un medio elástico para la propagación de las vibraciones.
  • Un receptor (generalmente una membrana).

Un sonido se define por tres variables:

  1. Tono: Frecuencia de la onda (número de vibraciones por segundo). Define si un sonido es agudo o grave. Se mide en hercios (Hz).
  2. Intensidad: Energía contenida en el sonido, dependiente de la amplitud de la onda. Se traduce en el volumen. Se mide en decibelios (dB).
  3. Timbre: Frecuencias secundarias (armónicos) que identifican la fuente del sonido y su “personalidad”. Permite distinguir voces, instrumentos, etc.

3. Grabación del Sonido: Tipos de Microfonía

Para captar y grabar sonido, se utilizan micrófonos. El micrófono es un transductor acústico-eléctrico que transforma las variaciones de presión del aire (ondas sonoras) en oscilaciones mecánicas y, posteriormente, en corriente eléctrica. Esta corriente puede ser manipulada y almacenada en formato analógico o digital. Se utiliza un micrófono cuando es necesario reforzar el sonido de una voz o instrumento.

Los micrófonos se clasifican según tres características técnicas:

  1. Tipo de transductor: El transductor acústico-mecánico es una membrana (diafragma) que se mueve según las variaciones de presión. Según el transductor, los micrófonos se dividen en:
    • Micrófonos de presión: Su respuesta eléctrica depende de las variaciones de presión.
    • Micrófonos de gradiente de presión: Responden a la diferencia de presión entre dos puntos cercanos.

    Tipos de transductores más comunes (según su construcción):

    • Micrófonos dinámicos.
    • Micrófonos de condensador.
    • Micrófonos de cinta.
  2. Respuesta en frecuencia: Indica si la sensibilidad del micrófono es igual en todas las frecuencias. Existen dos tipos:
    • Respuesta en frecuencia plana: Todas las frecuencias audibles tienen el mismo nivel de salida. Ideal para reproducir el sonido sin alteraciones (grabación de actuaciones musicales).
    • Respuesta en frecuencia personalizada: Diseñados para mejorar el sonido de una fuente específica (ej., aumentar la inteligibilidad de las voces en directo).
  3. Patrón polar/direccionalidad: Refleja la sensibilidad del micrófono según el ángulo de procedencia del sonido. Los diagramas polares principales son:
    1. Omnidireccionales: Captan sonido desde cualquier dirección con igual sensibilidad. Usados para sonido ambiente.
    2. Bidireccionales: Captan sonido desde dos direcciones opuestas (forma de ocho). Mayor sensibilidad frontal y posterior, menor sensibilidad lateral. Usados para entrevistas.
    3. Unidireccionales: Mayor sensibilidad a los sonidos frontales. Se subdividen en: cardioides (ideales para vocalistas, aíslan la fuente principal), supercardioides e hipercardioides (captan algo de sonido posterior).

Técnica de Colocación del Micrófono

Una vez elegido el micrófono adecuado, se debe considerar el sonido deseado, el emisor (voz, instrumentos), la acústica del lugar y los ruidos ambientales. Para la grabación de voz, se recomienda:

  • Situar el micrófono a 15-30 cm de la boca.
  • Evitar el “efecto de proximidad” (aumento de graves al acercar un micrófono direccional).
  • Preferir micrófonos frontales a los de corbata.
  • Hablar directamente al micrófono, orientándolo para evitar “popeos” (sonidos explosivos de consonantes como “p” y “t”). Usar filtros “anti-pop” también ayuda.
  • Alejar el micrófono de superficies reflectantes (mesas, atriles).

4. Registro del Sonido

Parámetros de Medición del Sonido

Las ondas sonoras generan variaciones de presión en el aire, que se miden como “nivel de presión sonora” (NPS). Se utiliza una medida relativa del NPS en decibelios (dB). El decibelio expresa proporciones logarítmicas entre fuerzas, presiones, voltajes, etc. La fórmula para el NPS es: 20 log (Presión/Pre.Ref.), donde Pre.Ref. es la presión de referencia.

Nivel de Línea y Nivel de Micro

Las señales de audio tienen diferentes características y requieren tratamientos distintos. Existen tres tipos de entradas en un canal:

  1. Señal de micrófono: Señal débil (entre -60 y -20 dBu) y de baja impedancia (600 ohms). Requiere amplificación.
  2. Nivel de línea: Señal analógica utilizada para transmitir audio entre equipos (reproductores de CD/DVD, televisores, mesas de mezclas, reproductores MP3). Acepta señales de media impedancia (entre 1.5 kohms y 5 kohms).
  3. Nivel de instrumentos: Señales de guitarras y bajos, con impedancia más alta (mayor a 10 kohms).

La Cadena de Grabación

El proceso de grabación puede originarse en fuentes acústicas reales (voz, instrumentos, sonidos ambientales) o en señales eléctricas generadas electrónicamente. Las primeras se captan con micrófonos, mientras que las segundas se pueden tratar directamente en una mesa de mezclas. Las señales se combinan, filtran, ecualizan y manipulan en la mesa antes de ser grabadas.

La Mesa de Mezclas

La mesa de mezclas (o mezclador de sonido) realiza diversas funciones además de combinar señales:

  1. Adapta niveles de entrada (línea, micrófonos) e impedancias.
  2. Ajusta el nivel de entrada (fader) y salida (máster fader).
  3. Realiza correcciones de frecuencia (ecualizaciones, controles de graves y agudos).
  4. Monitorea las señales de entrada y salida.
  5. Proporciona alimentación “phantom” a los micrófonos de condensador.
  6. Ubica cada señal en el “encuadre sonoro” de la mezcla estereofónica.

5. Sistemas de Audio: Monofónico, Estereofónico, Dolby Surround, 5.1 (Dolby Digital) y MP3

Los sistemas de audio se diferencian por la cantidad de pistas de audio que utilizan:

  1. Monofónico: Una pista de audio.
  2. Estereofónico: Dos pistas de audio.
  3. Multicanal (sonido envolvente):
  • Dolby Surround: Cuatro canales.
  • Dolby Digital 5.1: Seis Canales. Altavoces delanteros, traseros, izquierdo, derecho y un subwoofer (altavoz de graves).

Sonido Digital y Analógico

  1. Sonido analógico: Se almacena, procesa y reproduce mediante circuitos electrónicos y dispositivos analógicos (cinta magnética, disco de vinilo).
  2. Sonido digital: Se almacena, procesa y reproduce en soportes digitales (minidisc, DAT, CD-Audio, CD-Rom, DVD, discos duros) en forma de datos numéricos. La señal eléctrica del micrófono se convierte en datos numéricos mediante un convertidor analógico/digital.

Este proceso se llama Muestreo Digital del Sonido (sampling). La frecuencia de muestreo se mide en Khz. En CD-Audio, la frecuencia es de 44.1 Khz (calidad profesional). El oído humano escucha de 20 a 20,000 Hz, y se multiplica por dos para el estéreo. En ordenadores y CD-Rom, la frecuencia de muestreo puede ser menor (22 Khz para música, 11 Khz para locución).

La resolución del sonido digital puede ser de 8, 16, 24 o 32 bits. A mayor resolución, mayor tamaño del archivo. Los ordenadores suelen trabajar a 8, 16, 24 bits.

MP3 (Motion Picture Experts Group) es un formato de archivo de sonido de alta calidad y tamaño reducido. Utiliza compresión de datos y técnicas para eliminar sonidos imperceptibles, reduciendo el espacio de almacenamiento.

6. Relación Perceptiva entre Imagen y Sonido

En una producción audiovisual, existen dos tipos de sonido:

  1. Sonido diegético: Sonido cuya fuente está representada en el espacio de la imagen (voces de personajes, sonidos de objetos, música de instrumentos presentes).
  2. Sonido extradiegético: Sonido cuya fuente no está representada en la imagen (voz del narrador, efectos sonoros para dramatismo, música ambiental).

7. Hitos de la Grabación del Sonido

La grabación del sonido ha pasado por cinco etapas principales:

  1. Era arcaica (grabación en cilindros) (1877-1902).
  2. Era de producción de discos en masa (1902-1927).
  3. Era del tubo de vacío eléctrico (1927-1952).
  4. Era de la grabación de alta fidelidad (cinta magnética y transistores) (1952-1977).
  5. Era digital (1977-presente).

El Sonido Digital

El sonido digital representa la señal de audio mediante codificación binaria (0 y 1). La digitalización del sonido ha revolucionado los métodos de trabajo, simplificando, acelerando y abaratando los procesos, y otorgando mayor libertad creativa. Permite realizar operaciones complejas (como la edición de un estribillo) de forma sencilla, ahorrando tiempo y reduciendo costes.

8. Adecuación de la Música y los Sonidos a las Intenciones Expresivas y Comunicativas

Efectos Narrativos del Sonido

El sonido y la imagen colaboran narrativamente de tres formas:

  1. Por contraste: Imagen y sonido se contraponen, creando un significado (ej., anciana sonriente y un grito = anciana muerta).
  2. Por superposición: El referente visual coincide con el sonido (“vemos lo que oímos”).
  3. De manera pasiva: El sonido aparentemente no se relaciona con la imagen, pero puede ser una forma sutil de contraste (ej., personaje frío con la canción “Bad Boy”).

Funciones Narrativas de la Música

La música en una película no es un adorno, sino un lenguaje que ofrece información y provoca emociones. Los elementos que influyen en las emociones del espectador son:

  1. Melodía: Combinación de sonidos que expresa una idea musical. Influye en la afectividad (placer/desdicha, alegría/tristeza).
  2. Ritmo: Orden y proporción en la música. Estimula estados anímicos y físicos. Constante = monotonía; cambiante = confusión.
  3. Armonía: Estructura musical que sostiene melodía y ritmo. Consonancia = serenidad, equilibrio; disonancia = inquietud, ansiedad.
  4. Tono: Propiedad del sonido (grave o agudo). Genera sensaciones según la naturaleza del instrumento, armonía, ritmo y melodía. Grave = debilidad, pesadez; agudo = brillantez, nerviosismo.
  5. Intensidad: Potencia acústica. Débil = intimidad, serenidad; alta = molestia, tensión.
  6. Tiempo: Velocidad de ejecución. Lenta = monotonía, control; rápida = excitación.
  7. Ataque: Inicio del sonido. Violento = peligro, dureza; suave = previsible, aburrido.
  8. Decaimiento: Final del sonido. Brusco = encierro, definición; pausado = alejamiento, duda.

El leitmotiv es un fragmento musical o sonido repetitivo asociado a un personaje o situación, anticipando lo que va a suceder (recurso común en cine de suspense o terror). Introducido por Wagner.

9. El Sonido y la Continuidad Narrativa

El sonido actúa como “cemento” que une los planos de un montaje, proporcionando continuidad (ej., plano-contraplano de una conversación).

10. La Banda Sonora

La banda sonora engloba todos los sonidos de una obra audiovisual (película, programa de televisión, videojuego). Incluye diálogos, efectos de sonido, música y sonido ambiente, que pueden presentarse mezclados o por separado.

  • Diálogo y voces en off: Las voces son fundamentales en el relato. Desarrollan la historia, la economizan y la hacen comprensible. Puede ser sonido directo (grabado durante la filmación) o doblado (grabado en estudio).
    • Diálogo: Comunicación (verbal o no) entre dos o más personajes. También existe el diálogo interno (un solo personaje). Sucede dentro del plano y es generalmente sincrónico.
    • Voz en off: Voz de un individuo que no está visualmente presente. Usada en documentales o reportajes para explicar información.
  • Efectos de sonido: Ruidos (onomatopéyicos) que destacan la acción y buscan la semejanza con lo cotidiano. Pueden tener su fuente en la escena o no. Se utilizan para provocar reacciones en el espectador o sustituir acciones fuera de campo. Muchos efectos son producidos artificialmente (vidrios rotos, agua, viento) y se encuentran en archivos sonoros.
  • Música: Crea ambientes, anticipa personajes o situaciones, potencia la imagen y refuerza la atmósfera. Esencial para la historia y eficaz para comunicar situaciones sin explicación verbal. Sus funciones son:
    • Informativa (la letra de una canción explica).
    • Llamar la atención.
    • Dar ritmo a la imagen.
    • Expresiva (crea climas emocionales).

La música como elemento expresivo se analiza desde tres puntos de vista:

  1. Música objetiva o diegética: Protagonismo esencial en la historia. La fuente de la música está presente.
  2. Música subjetiva: Crea un ambiente emocional en el espectador, apoyando la narración.
  3. Música descriptiva: Evoca una situación real concreta (viento, fuego, batalla, agua, lugar, época).

La música subjetiva y descriptiva son extradiegéticas (fuera del contexto de la historia) y subrayan el carácter expresivo de la imagen.