Guía para el uso de un ecualizador gráfico

Iniciado por Benedetti, 23 de Abril de 2009, 02:08:16 AM

Tema anterior - Siguiente tema

0 Usuarios y 2 Visitantes están viendo este tema.

Benedetti

Lo que aquí se expone es una guía para la ecualización de los reproductores Mp3 u otros dispositivos de audio. Para que os resulte más cómodo, el Forero Findulas ha recopilado todo el tutorial en un único pdf que se encuentra disponible para su descarga como archivo adjunto a éste primer post, así como en el apartado de descargas de esta web.

En éste primer post abordaremos el método general para una correcta ecualización, independiente del dispositivo concreto que se ecualice. Para ilustrarlo mejor, consideraremos el caso de la voz humana. Bueno, vamos al lío. Pero antes, tomáos una tila. ¿Ya? Estupendo. Comencemos entonces.

USO GENERAL DEL ECUALIZADOR

1   Se selecciona la frecuencia (o frecuencias) base, llamada fundamental o primer armónico.
Por ejemplo, para la voz humana será la frecuencia de 125 Hz, que corresponde al régimen normal del habla. En éste sentido, y para empezar, podemos considerar que la misma ecualización nos valdrá tanto para un aria a cappella cantada por Pavarotti como para un recital de chelo de Jacqueline du Pré, pues el tenor y el chelo comparten el mismo rango de frecuencias. Lo que variará, como luego veremos, es la distribución de armónicos.

Para localizar la frecuencia base podéis usar cualquier editor de onda. Tal frecuencia corresponderá a lo que habitualmente se llaman los 'picos'. Más cómodo aún es usar una tabla (como la que se adjunta al final del post) para buscar las frecuencias de trabajo de cada instrumento. Sin embargo, qué duda cabe que lo mejor en este asunto es tener buen oído musical y algo de experiencia acumulada en el asunto, pues digo yo que no siempre vais a tener estas cosas a mano.

2   Se obtienen los armónicos de tal frecuencia (o frecuencias) distribuidos por octavas (las octavas son potencias de la frecuencia original, es decir, son octavas aquellos sonidos que se encuentren en relación de 2 a 1 entre sí).

Evidentemente, buscaremos solo aquellos armónicos que se encuentren dentro de los límites de la audición humana (entre 20 Hz y 20 kHz).
Si no sabéis lo que son los armónicos, debéis de pensar que en la naturaleza los llamados 'tonos puros' (sonido periódico simple), como el sonido de un diapasón por ejemplo, son muy inusuales. En cambio, lo habitual es que cada sonido se vea acompañado por una serie de 'rebotes' del mismo cuya frecuencia es siempre superior a la fundamental, y múltiplo de la misma (sonido periódico complejo). Es a estos 'rebotes' a los que llamamos armónicos. Por ejemplo, tomando como base un tono de 440 Hz, tendremos:

  440 Hz --> Tono fundamental   --> Primer armónico.
  880 Hz --> Primer sobretono    --> Segundo armónico.
1320 Hz --> Segundo sobretono --> Tercer armónico.

Como se observa, los armónicos constituyen una serie aritmética respecto de la fundamental. De todos ellos nos interesarán un conjunto muy especial, aquellos que se encuentran en relación geométrica con la fundamental, esto es, sus octavas. En la siguientes imágenes se ilustran las diferencias entre los sonidos periódico simple y periódico complejo:



Pitágoras explicó el asunto de una forma muy gráfica, estudiando los armónicos de una cuerda bribratoria:


La razón de ecualizar los armónicos es que los instrumentos musicales difícilmente producen sonidos puros, viéndose acompañado el tono principal por diferentes armónicos, que suenan con menor intensidad y colorean el sonido. La distribución de los armónicos es diferente y característica para cada instrumento, y es por eso que la misma nota tocada por un clarinete o por un saxofón no suena igual (el clarinete es uno de los instrumentos con un contenido armónico más pobre). De la misma manera, distinguimos entre la voz de dos personas, aunque sean hermanos, porque las ligeras diferencias en su aparato fonador se traducen en unos armónicos diferentes. De otra forma: la distribución de armónicos se corresponde con lo que habitualmente llamamos el timbre de los instrumentos.

3   Ecualizamos la fundamental, y posteriormente ecualizamos sus armónicos, de los que consideraremos solo aquellos que se encuentren por encima de la fundamental.

Respecto a la ecualización de los armónicos, la tradición 'manda' ecualizar únicamente el llamado tercer armónico (que es el más importante). Aunque la localización de éste tercer armónico puede obtenerse matemáticamente, a la hora de la verdad descubrir dónde se colocan los armónicos para cada instrumento o cantante es una cuestión puramente empírica, se va probando hasta dar con ellos. Los sonidos son ondas electromagnéticas, y de la misma forma que cada cuerpo posee un color singular, pues su capacidad de absorción lumínica varía dependiedo de la longitud de onda, también los niveles de absorción sonora de cada material varían con las distintas frecuencias. Igualmente, el tamaño y la disposición de las 'cajas acústicas' en los instrumentos o en la voz humana son diferentes en cada caso. Todas estas y otras consideraciones son responsables del sonido final que da cada instrumento (lo cual también es aplicable a sistemas electrónicos como los altavoces). El asunto como podéis apreciar es complicado, y por eso nosotros nos limitaremos al método canónico y consideraremos entre los armónicos únicamente aquellos de mayor contenido energético (principalmente el tercer armónico), que por lo general es suficiente.

El siguiente enlace puede serviros de guía:

http://www.hispasonic.com/revista/22

Abundando en más detalles, si en nuestra ecualización optamos por destacar más la fundamental el sonido tomará más cuerpo. Si por el contrario se busca destacar los armónicos (lo cual es recomendable con sonidos nebulosos o graves) el sonido ganará presencia y definición, parecerá más lleno. De la misma manera, si nos interesa una ecualización que separe muy bién los instrumentos, por ejemplo, para atender al trabajo por familias orquestales en una sinfonía de Mozart, prestaremos mayor atención a los armónicos. Indudablemente, hay instrumentos que se benefician más de una ecualización que destaque los armónicos. La percusión, el piano o las guitarras son un buen ejemplo, y pueden sonar metálicos si se presta demasiada atención a la fundamental. Una vez más coloco un enlace como referencia:

http://sonido.uchile.cl/manuales/TablasEcualizacion.pdf

Todo lo dicho compone el método general para la ecualización. Ilustraremos el asunto con un ejemplo, la ecualización de la voz humana:


ECUALIZACIÓN DE LA VOZ HUMANA:

1   Obtención de la fundamental.
Como todo el mundo sabe, la voz humana se produce cuando el aire de los pulmones, impulsado por el diafragma, pasa por la laringe, en la que se encuentran las cuerdas vocales. Como consecuencia del flujo de aire se genera un movimiento cíclico de apertura y cierre de las mismas, el llamado pulso glotal, cuya duración aproximada es de 8 milisegundos. Es decir, 125 ciclos por segundo. Es decir, 125 Hz. Acabamos de obtener la fundamental.

2   Obtención de los armónicos.
Como ya hemos explicado, trabajamos bajo el supuesto de un sonido periódico complejo, y puesto que en todo sonido periódico complejo, como es el caso, la fundamental se ve acompañada de armónicos que se distribuyen en bandas de octava (es decir, en frecuencias múltiplo de la frecuencia base) nos dará, para la voz humana, las siguientes bandas de frecuencia:

31,5 Hz      63 Hz      125 Hz      250 Hz      500 Hz      1 kH      2 kHz      4 kHz      8 kHz      16 kHz.

Que quedarán distribuidas de la siguiente forma:

    125-250 Hz      --> Graves.
  500-1000 Hz      --> Medios.
2000-4000 Hz      --> Agudos.



Éstas son las bandas de frecuencia que más se utilizan en todo el mundo, por razones obvias; de hecho, son las reglamentarias en Europa y están reguladas por una norma ISO (ISO 266). Sin embargo, no siempre serán éstas las que vais a encontrar. Por ejemplo, los reproductores de ciertas marcas (Cowon) utilizan otras bandas de frecuencia. De cualquier forma, es importante señalar que salvo caso de sibilancias o sonidos molestos en bandas específicas, es mejor no tocar mucho el ecualizador paramétrico para 'corregir' las bandas de frecuencia, pues la ecualización da resultados más naturales si se mantiene la relación de bandas de octava.

Todo esto es más fácil para los que tocan el piano (sobre todo si tienen un buen oído musical). Para que nos entendamos, en un piano típico de 88 teclas, el La encima del Do central del piano está a 440 Hz (el famoso La 440 que se usa para afinar, ISO 16) y la última tecla a mano derecha sonaría a 4400 Hz. Por la otra parte, la nota más grave comprendería una frecuencia de 27,5 Hz.
La voz humana estaría comprendida por lo general entre los 63 Hz y algo más de 1 kHz.
En la siguiente tabla puede observarse su rango frecuencial:


La tabla usa las frecuencias 'canónicas' para cada instrumento. Es decir, se entiende que la soprano no es la Callas y que la trompeta no la está tocando Arturo Sandoval :risa:

Dicho todo esto el componente principal de toda ecualización estaría cubierto, pero aún resta por explicar el 'grano fino' de la misma, así como algunas cuestiones básicas de acústica. A eso destinaremos el siguiente post.


Reproductores: Cowon D2 8 GB // Cowon O2 32 Gb + SDHC 16 GB.
Auriculares: Head-Direct RE0 // Ultimate Ears Triple.Fi 10.

Benedetti

#1
Explicados los asuntos generales (¿a que no era tan complicado?) paso a detallar algunas cuestiones básicas sobre la física del oído humano, de las que se derivarán una serie de consejos sobre la ecualización:


CONSIDERACIONES ADICIONALES

A) Respuesta del oído humano a las distintas frecuencias
Como ha quedado dicho, el oído humano capta un margen de frecuencias entre los 20 y los 20000 Hz. Sin embargo no muestra la misma sensibilidad a diferentes frecuencias. Concretamente:

a)   Para bajos niveles de presión sonora (poco volumen) el oído humano es muy insensible a bajas frecuencias, y presenta cierta atenuación a altas frecuencias.

b)   Conforme aumenta el nivel de presión sonora la respuesta del oído a las diferentes frecuencias se hace más homogénea, de tal forma que con niveles elevados de presión sonora la sonoridad (sensación subjetiva de nivel sonoro) es muy similar en las distintas frecuencias.

Es por esta razón que al subir el volumen de un reproductor la sensación subjetiva de la calidad del sonido aumenta, y que parezcan mejores los equipos que radian mayor potencia sonora, pues el contenido en graves (y de forma menos significativa también en agudos) aumenta. Queda mejor expresado en el gráfico.

No sólo esto, además, la percepción interválica en el oído humano no se corresponde exactamente con los armónicos obtenidos matemáticamente. Como curiosidad que ilustra el asunto, en un piano las octavas que se alejan de la zona central del teclado son algo más amplias para compensar la falta de linealidad del oído humano respecto de la percepción de intervalos musicales, de tal forma que si se afinaran las teclas en octavas perfectas se percibirían menos contrastadas (los agudos menos agudos y los graves menos graves) de lo acostumbrado. Es un ardid similar al de los antiguos griegos, que curvaban ligeramente el friso del Partenón precisamente para que se percibiera como perfectamente recto.

B) Inteligibilidad de la palabra
Es éste un asunto fundamental en el uso de podcasts, así como en un buen número de géneros musicales.
Para explicarlo mejor os pondré un ejemplo. Imaginad que infláis un globo completamente, y luego dejáis que se deshinche soltando el aire. Eso mismo es lo que pasa con el sistema de fonación humana: los abdominales y el diafragma impulsan el aire de los pulmones, que al pasar por la laringe hace entrar en vibración a las cuerdas vocales, produciendo sonido. Éste sonido es lo que denominamos vocales, y se corresponde con el 80% del régimen del habla.

Sin embargo, también podéis apretar el cuello del globo cada cierto tiempo mientras este se deshincha. Pues bien, las consonantes actúan igual: producen una constricción del flujo de aire que modifica el sonido. Ésta constricción puede producirse en diferentes lugares (punto de articulación) y de diferentes formas (modo de articulación); éstas consideraciones constituyen el ámbito de una ciencia llamada fonética articulatoria, que estudia el funcionamiento físico del habla articulada.

Lo que a nosostros nos interesa es que, al producirse la constricción del flujo de aire, la presión sonora disminuye, y la representación de las ondas de alto contenido energético (graves) se reduce. De otra forma: las vocales van a sonar siempre más fuerte y más graves que las consonantes.

Adjunto otro gráfico, que se que os gusta:


Esto significa que la inteligibilidad de, digamos, una conversación dependerá fundamentalmente de la percepción de las consonantes, que copan frecuencias más altas (mayoritariamente entre 2 kHz y 4kHz). De tal forma que si potenciamos estas frecuencias en el ecualizador obtendremos una mejor comprensión del mensaje oral.
Otros dos gráficos explican el asunto:



Entrando en mayor detalle, mientras el régimen vocálico es más o menos constante en su densidad frecuencial, no todas las consonantes suenan a la misma altura. Así, por ejemplo, las consonantes originadas por vibración de las cuerdas vocales (b, d, g) presentan un comportamiento más afín a las vocales, mientras que las fricativas (como por ejemplo la s) se comportan como ruidos puros, presentando un mayor contenido en agudos (no es casual que sibilancia o siseo, ambas palabras onomatopéyicas, se escriban con s). Sólo como curiosidad adicional, las consonantes se representan en acústica mediante las siguientes 14 bandas de modulación, aplicadas a las octavas de la voz humana:


C) Fenómenos de enmascaramiento del sonido
El enmascaramiento es un fenómeno que se produce cuando un sonido tapa a otro, impidiendo su percepción. Un ejemplo de esto sería lo difícil que resulta entender una conversación en presencia de ruido (el llamado efecto 'cocktail party', en el que todo el mundo sube la voz porque no se oyen unos a otros, y en consecuencia todos terminan oyéndose menos :risa:).

Esto es debido, una vez más, a la forma en la que percibimos el sonido, pues mientras los tonos más agudos producen un desplazamiento de la membrana basilar en las zonas próximas a la ventana oval, los graves involucran una excitación de carácter más periférica (esto ya es anatomía del oído humano). Por otra parte, la excitación es asimétrica puesto que presenta una cola que se extiende hasta la misma ventana oval en las frecuencias altas, mientras que para las frecuencias bajas sufre una severa atenuación. La consecuencia de tal asimetría es que un tono de baja frecuencia puede enmascarar a otro de frecuencia más elevada. Observemos la enésima gráfica para entender bien el asunto:




Como veréis, la casuística queda reducida a 4 posibilidades:

a)   La frecuencia del tono A es mayor a la del tono B, y los niveles semejantes --> Se produce un enmascaramiento que resulta casi inapreciable.
b)   La frecuencia de A es mayor a la de B, y los niveles semejantes --> B enmascara parcialmente a A.
c)   La frecuencia de A es mayor a la de B, y su nivel inferior --> Como diría Borat 'malo malo', se produce un enmascaramiento casi total.
d)   La frecuencia de A tanto como su tono son superiores a los de B --> Se produce un ligero enmascaramiento.

Llegados a éste punto debo decir que los fenómenos de enmascaramiento no deberían ser habituales en música de estudio, que suele grabarse con varias tomas de sonido y mezclarse luego, y para eso están los ingenieros de sonido, sin embargo a la hora de la verdad no es extraño encontrarse con éste tipo de efectos, bien por un amplificador que potencie excesivamente los graves o por un sonido demasiado coloreado vía ecualizador. Los más valientes podéis ampliar información sobre el fenómeno en los siguientes enlaces (ambos extraídos de Fastl y Zwicker):

http://iie.fing.edu.uy/investigacion/grupos/gmm/audio/seminario/seminariosviejos/2005/charlas2005/charla4_Informe.pdf
http://www.eumus.edu.uy/docentes/maggiolo/acuapu/enm.html

De todo esto derivaremos una serie de conclusiones que nos ayudarán a corregir errores comunes en la ecualización. Caca, culo, pedo, pis..... bueno, esto es para ver si seguíais leyendo. ¿Sí? Pues tomáos otra tila y prosigamos. Ya queda menos.


CONSEJOS PARA UNA CORRECTA ECUALIZACIÓN:

1    Usar como base una ecualización lo más neutra posible, sin efectos añadidos.
Como se ha explicado, para obtener una buena ecualización es conveniente tratar cada franja de sonidos así como sus armónicos de forma separada. Sin embargo, en formaciones orquestales de cierta entidad eso se hace imposible debido al gran número de instrumentos implicados. De donde inferiremos que la ecualización podrá ser tanto más exagerada o extrema cuanto menor sea el número de instrumentos, pudiendo llegar por una parte al sonido de teléfono característico de los programas de radio (donde se tapan casi completamente tanto los graves  como los agudos para potenciar la claridad del mensaje oral), lo cual resultaría recomendable por ejemplo para la escucha de podcasts, y por otra a un ecualizador casi plano para escuchar a una gran orquesta.

Quizá sean las bandas de jazz o rock las formaciones instrumentales que permitan una ecualización más diferenciada. El caso extremo de esto es mucha música heavy, donde la voz copa la casi totalidad de los medios mientras la percusión crea un colchón sonoro en los graves y se escuchan guitarreos en la mismísima estratosfera.

Por último, aquí también entraría el tema del margen dinámico, mucha de la música que ahora se comercia viene empaquetada de tal forma que una ecualización medianamente buena se vuelve una tarea ardua.

Sea cual sea el caso, la mejor opción consiste en tomar como partida una ecualización más o menos plana (la que viene 'de serie' con cada reproductor serviría), y a partir de ahí ir añadiendo o restando puntos en las diferentes bandas, hasta conseguir el sonido deseado. Luego podremos añadir los diferentes efectos de que nuestro reproductor disponga para colorear el sonido a gusto. Queda mejor ilustrado en el siguiente post.

2    No añadir puntos a todas las frecuencias a la vez.
Éste punto queda explicado en el primer apartado del post (respuesta del oído humano a las diferentes frecuencias). Como se observa, estamos físicamente preparados para oír como de mejor calidad la música cuanto mayor sea su intensidad sonora. Esto da lugar a un error muy común, y es subir muchas (o todas) las bandas de frecuencia en un ecualizador, pues ciertamente se aprecia una mejoría en la calidad del sonido. Al hacer esto, obtenemos un aumento de volumen, pero también un considerable aumento de la distorsión. Por tanto, siempre que sea posible, será preferible restar puntos en una determinada frecuencia antes que ponerlos en otra.
Recupero esta gráfica para explicar el asunto (gracias Loignoro):

Tomando como base una ecualización al azar, la línea verde discontinua es el eje imaginario de los "ceros". El azul muestra el resultado actual y el verde como debería quedar. Volveremos seguidamente sobre éste punto.

3    No saturar de graves la ecualización.
Éste punto lo deduciremos de los apartados segundo y tercero del post.
El estudio de la inteligibilidad y de los fenómenos de enmascaramiento es fundamental para comprender qué es lo que pasa cuando no percibimos bien los detalles en la música, caso del típico 'las voces no se oyen con intensidad', 'los graves emborronan el sonido', etc. Como veréis, el punto en común en ambos fenómenos es que una sobreabundancia de graves desequilibra completamente la escucha, y produce una pérdida de definición en el sonido.

Entramos aquí en terreno subjetivo, pues hay mucha gente que directamente entiende por un equipo de calidad aquel que le proporciona unos graves poderosos, y no seré yo quien diga que eso está mal, pero siempre es importante considerar qué es lo que perdemos por el camino. Una ecualización con graves potentes es recomendable sólo en casos muy particulares, pues como hemos visto, los graves tienen la mala costumbre de tapar otras frecuencias. Por eso, si por ejemplo se quiere potenciar la voz de una soprano en un aria de ópera, es mejor localizar las frecuencias que nos impiden escucharla claramente, y restarle puntos en la ecualización, antes que subir aquellas en las que la voz de la soprano trabaja.
Cito al compañero Griji:
Cita de: griji en 17 de Diciembre de 2008, 06:25:29 PM
En el cursillo sobre sonido que acabo de terminar, dejaron bien claro que es más importante quitar en las frecuencias que añadir. Me explico, si tienes los graves potenciados, más de lo que necesitas, intenta modificar la frecuencia de graves quitando uno o dos puntos, no intentes subir todas las demás frecuencias para igualar el sonido. ¿El porqué?, pues por lo siguiente: Es más fácil quitar en una frecuencia que no modificarlas todas, y es muy posible que si añades, en este caso en las medias y agudas, lo que hagas es añadir en frecuencias que no lo necesitan [...]. Si notas que te faltan voces, no potencies la frecuencia de medios para realzar las voces, intenta primero quitar a las frecuencias que no te dejan escuchar con claridad las voces, o bien, parte de cero con todas frecuencias y primero trabaja con las de las voces para ajustarlas a tu gusto y a continuación trabaja con el resto para ponerlas en sintonía con ésta [...]. Dándole demasiados puntos a las frecuencias lo que consigues generalmente es más distorsión con volumen.

4    Ecualizar las bandas por grupos.
No me extenderé en éste punto; una subida o bajada del ecualizador en una determinada frecuencia debería ir acompañada de una subida o bajada correspondiente, pero más leve, en las bandas colindantes, especialmente la que está por debajo. En los ecualizadores profesionales, si subimos o bajamos una frecuencia también lo harán por defecto las adyacentes; un truco en éste caso consiste en corregir cada subida de banda con una ligera bajada de las adyacentes, o viceversa. De cualquier forma, una ecualización en bandas separadas tiene como consecuencia un sonido poco natural, y eso sí es importante saberlo. Existe por supuesto una excepción a esto, y es la siguiente:

5    Uso del ecualizador para la eliminación de sonidos concretos.
Una vez más carne de debate, pues hay quien considera que un ecualizador no es el mejor sistema para corregir este tipo de problemas, y hay quien no lo usa para otra cosa.
El asunto es el siguiente: a veces existen ciertos ruidos, muy bien localizados en ciertas bandas de frecuencia, que nos dificultan una buena escucha, bien se trate del hum producido por la fuente de alimentación, el hiss de los casssetes, del dither producto del uso de algoritmos de compresión a 8 o 16 bit, o cualquier otro ruido con nombre cursi que os esté amargando la vida.
Mi consejo en esto es que busquéis algún editor de onda que incorpore buenos filtros (todos son de pago) y los quitéis ya en el mismo archivo (aunque el sonido quedará inevitablemente más sordo). El ecualizador no emplea algoritmos complejos, así que todo lo que hagáis con él será más o menos una chapuza, eso sí, con la ventaja de no tocar en lo más mínimo el archivo original.

6    Uso del ecualizador para corregir la respuesta sonora del dispositivo de salida de audio
A modo de curiosidad, también podríamos usar un ecualizador para producir un sonido más natural en nuestro mp3. Hacer esto es complicado, ya que se requiere un analizador de espectro. Para ello todo lo que tenemos que hacer es reproducir un ruido rosa y analizar el espectro de onda. Entonces podremos corregir todos aquellos excesos o defectos que notemos, buscando un sonido lo más neutro posible. Posteriormente reproduciremos alguna canción a la que estemos muy acostumbrados, buscando un sonido lo más natural posible, pues dejar el ecualizador plano tampoco es sinónimo de calidad sonora.

Con unos altavoces el procedimiento sería igual, pero además necesitaríamos un micrófono de medida lo más neutro posible para analizar el comportamiento de la sala. Personalmente diré que nunca he hecho esto con un mp3, sin embargo, éste es uno de los usos principales de un ecualizador, y conviene que lo conozcáis. El amigo Jokerman hizo una review donde se explicaba cómo hacer para meter un ruido rosa en un mp3. Los más valientes podéis echarle un vistazo (copiad y pegad la dirección):

http://www.reproductormp3.net/reviews-de-foreros/review-'tecnica'-de-sonidonano-vs-creativezen-vs-shuffle-vs-archos-604-vs-airis/?PHPSESSID=c47j70hf35j88ebprq5gvcb560

En el siguiente post veremos algunos ejemplos de ecualización y un glosario de términos empleados en acústica.


Reproductores: Cowon D2 8 GB // Cowon O2 32 Gb + SDHC 16 GB.
Auriculares: Head-Direct RE0 // Ultimate Ears Triple.Fi 10.

Benedetti

#2
En este último post abordaremos el comentario de ecualizaciones concretas y prestaremos atención a la expresión física de las sensaciones subjetivas más comunes sobre el sonido. Comencemos.


1   CÓMO TRABAJA CADA ECUALIZACIÓN: EJEMPLOS DE ECUALIZACIÓN COMENTADOS

Un ecualizador es un dispositivo que procesa señales de audio modificando el contenido frecuencial de la señal que procesa (cambiando la amplitud en los coeficientes de sus series de Fourier), atenuando u ofreciendo ganancia en cada banda de frecuencias concreta, bien mediante el uso de potenciómetros bien por software. Aquí podéis encontrar más información sobre su funcionamiento (para iniciados en la electrónica):

http://www.monografias.com/trabajos29/ecualizador-audio/ecualizador-audio.shtml

Nosotros por nuestra parte nos centraremos en las posibilidades de modificación del sonido que el ecualizador nos ofrece. Como hemos dicho, el ecualizador actúa potenciando o atenuando ciertas bandas de frecuencia. Por regla general, este trabajo se realiza dentro de un régimen de entre -12 dB a +12 dB respecto de la frecuencia de corte. Mayores amplitudes no son recomendables, pues introducen una gran distorsión por saturación, produciendo el fenómeno conocido como clipping.

Para que os hagáis una idea el mínimo cambio perceptible con facilidad es de 1 dB, y un aumento de 10 dB corresponde a un incremento del doble de intensidad en la apreciación subjetiva de la música (la música se oye el doble de fuerte), aunque la energía sonora radiada se dobla cada 3 dB más o menos. Aquí trabajaremos con un ecualizador de 10 bandas normalizadas (las explicadas en el primer post) potenciadas en un ámbito de entre -12 dB a +12 dB. Lo que sigue es una pequeña muestra de las muchas posibilidades de ecualización:

Conversación

Estudiaremos en primer lugar esta ecualización tan característica, pues cumple el doble cometido de potenciar la voz y de atenuar al mismo tiempo todas las demás frecuencias. Podríamos considerarla como el ejemplo por antonomasia de ecualización dedicada a un solo instrumento. Es idónea para la escucha de la radio o podcasts, sobre todo porque reduce muchísimo el ruido de fondo por desgracia tan presente en estos medios. Es también una de las pocas ecualizaciones 'extremas' que realmente merecen la pena, así que no os acostumbréis.
Observad los picos entre 500 Hz y 1 kHz, y como a partir de ahí la atenuación es gradual para no capar los armónicos. En el caso de música cantada habrá que respetar los armónicos, como se muestra, mientras en escuchas de radio esto es irrelevante y reduciendo las altas frecuencias limpiaremos mucho ruido de fondo.

Música clásica

Una ecualización totalmente diferente, tanto que es la contrapartida dialéctica de la anterior, y eso por dos buenas razones: por una parte, porque produce una curva más plana, más neutra, idónea para la ecualización de grandes conjuntos orquestales, y por otro porque las frecuencias realzadas son aproximadamente las contrarias al ejemplo anterior. En éste caso se potencian los graves y los armónicos de las cuerdas, dando lugar a una sensación más envolvente. Para escuchar mejor el trabajo por familias orquestales y las diferencias tímbricas entre los diferentes instrumentos mantendremos el modelo pero rebajaremos los graves. Ésta ecualización también da buenos resultados con formaciones de jazz, etc.

Reducción de graves

Bueno, este gráfico lo dedico a todos aquellos que, como yo, tengáis los infames CX300 :-P.
Tenemos aquí otro ejemplo prototípico del uso de un ecualizador, en éste caso, neutralizar ciertas frecuencias que porque gozan de demasiada presencia  o por la razón que sea consideramos molestas.

Potenciación de agudos

Poco que comentar, es fundamentalmente el ejemplo contrario al anterior, y sin embargo en muchas ocasiones sirve para lo mismo. Éste tipo de ecualizaciones son usadas casi siempre para corregir el sonido que nos dan los altavoces o auriculares (o el mismo dispositivo de salida). Por lo demás, es más común el caso anterior, y creo que ya hemos explicado por qué. Puede ser un buen experimento que probéis ambas e intentéis observar las diferencias para decidir cuál os gusta más.

Música Electrónica (sin presencia vocal)

Un ejemplo que transmite las bondades que cierta música (metal, electrónica, etc.) tiene a la hora de ser ecualizada, pues se trata de estilos que (siempre por regla general) trabajan en bandas muy diferenciadas, y así es todo mucho más fácil. Observad la potenciación selectiva de las bandas de 64 kHz (percusión) y 2 kHz (melodía).

Hip-Hop, R&B y otros

Ahora vamos a tratar aquellos estilos que acompañan a la voz de una fuerte base rítmica en tonos más graves. Una vez más estamos ante un caso en el que se nos presenta la posibilidad de hacer una ecualización bastante selectiva. Observar los picos en las frecuencias de 250 Hz (voz masculina) y de nuevo en los 64 Hz (percusión) y los 2kHz (viento-madera, cuerdas).

Música para piano

De forma parecida a las anteriores, es de recibo observar cómo se potencian dos bandas de frecuencia muy concretas, que corresponden al trabajo de ambas manos en el piano, dentro de una ecualización general bastante plana.

Música Pop

Un buen ejemplo de cómo realzar una banda de frecuencias, la correspondiente a la voz humana, sin castigar excesivamente las demás.

He usado el ecualizador del reproductor 'Xion', que ni lo recomiendo ni dejo de recomendarlo, y que aquí solo coloco con fines didácticos. Lo mismo digo respecto de cada ecualización en concreto, el sonido es un asunto muy subjetivo, para empezar, porque cada oído es distinto, lo importante es que aprendáis a 'leer' un ecualizador y ver cómo trabaja. Alguna de las ecualizaciones que aquí se muestran está un poco exagerada, lo ideal sería poder ir siempre hacia sonidos menos coloreados.



2   CÓMO CONSEGUIR  DE NUESTRA MÚSICA EL EFECTO QUE DESEAMOS: GLOSARIO DE TÉRMINOS EMPLEADOS EN ACÚSTICA

Hablar de ecualización es hablar de la física del sonido, y de cómo impresiones subjetivas sobre la música pueden ser definidas mediante parámetros mensurables. Es muy habitual encontrar definiciones de la música como 'retumbona', 'cercana', 'vibrante', 'nítida', etc. En general todas estas sensaciones auditivas se corresponden con ciertas características de onda, que podéis simular en vuestro ecualizador. En el siguiente enlace podéis consultar algunos de los términos más comunes, así como su equivalente frecuencial (gracias de nuevo, loignoro):

http://www.matrixhifi.com/contenedor_terminos_sonido.htm


3   IMPLEMENTACIÓN DE EFECTOS ADICIONALES: ALGUNOS CONCEPTOS EMPLEADOS EN ACÚSTICA (¡BONUS TRACK!)

Para terminar explicaré ciertos efectos de sonido que no forman parte de las posibilidades que una ecualización puede ofrecer, y que son la causa de que a veces no quedemos completamente satisfechos con el sonido que obtenemos pues sentimos que le falta... 'algo'. Últimamente, el funcionamiento físico de algunos de estos fenómenos ha sido simulado vía software y forma parte del catálogo de efectos sonoros con los que cuentan ciertos dispositivos de audio modernos tales como auriculares, reproductores mp3, etc. En este último punto nuestro papel será puramente pasivo, decidiendo únicamente si aplicarlos o no.
Éste último epígrafe es complementario y lo coloco únicamente como un glosario donde ampliar conocimientos sobre ciertos fenómenos acústicos comunes, así como su explicación física.

A) ESPACIALIDAD
Quizá sea una obviedad enunciarlo, pero la espacialidad en la música es un concepto que va ligado al espacio (la sala) de grabación. Sin embargo, es posible simularla por medios electrónicos. Estudiemos como funciona.
Cuando un sonido es producido dentro de un recinto cerrado (y dependiendo del material de las paredes) digamos que 'rebota' un número prácticamente ilimitado de veces antes de apagarse. Estos rebotes van reduciéndose en intensidad conforme aumenta su número. Los primeros, las llamadas primeras reflexiones, son muy importantes por su mayor contenido energético; al resto las agruparemos bajo el nombre común de 'cola reverberante' pues producen un efecto de eco más o menos presente a su vez genera la impresión subjetiva de tridimensionalidad en el sonido. El asunto queda ilustrado en la siguiente imagen, donde los cuadrados simulan las paredes de una sala:


Todas aquellas reflexiones que llegan al oyente dentro de los primeros 50 ms (milisegundos) son integradas por el oído humano, y por tanto su percepción no difiere del resto. En general se consideran de carácter positivo pues mejoran la claridad con que se escucha la música en general.
En cambio, las reflexiones que llegan después de los 50 ms no son integradas, produciendo una impresión de eco. Éste fenómeno es el responsable de la espacialidad que se aprecia en ciertas grabaciones. En éste caso su apreciación es más controvertida, pues se considera positiva para la escucha de música en general; sin embargo, puede oscurecer la comprensión de la voz humana. Coloco una nueva imagen para explicar el asunto:


En base a éstos parámetros se definen los siguientes conceptos:

a)   Claridad de la voz
Es la diferencia entre la energía que llega al oyente durante los primeros 50 ms (sonido directo + primeras reflexiones) y la que llega después (cola reverberante).

b)   Claridad de la música
Es la diferencia entre la energía que llega al oyente durante los primeros 80 ms (sonido directo + primeras reflexiones) y la que llega después (cola reverberante).

c)   Definición
Es la diferencia entre la energía que llega al oyente durante los primeros 50 ms y la energía total recibida. Cuanto menor sea, mayor será la inteligibilidad y la sonoridad.

d)   Sonoridad
Es la percepción subjetiva de la intensidad (amplitud) sonora. En acústica arquitectónica, es la diferencia entre el nivel medio de presión sonora producido por la música y un nivel de referencia (39 dB). En general es indicativa del grado de amplificación que sobre la música produce un determinado recinto.

Como dije antes, este tipo de efectos pueden ser simulados por dispositivos de audio mediante software, y mejoran de forma muy notable la impresión subjetiva de caliad sonora. Marcas como Cowon, Samsung, Meizu o Samsa cuentan con opciones para provocar una impresión de mayor espacialidad en el sonido, o implementan un sonido muy espacial de serie.

B) REVERBERACIÓN
Volviendo al apartado anterior, esos 'rebotes' producidos por la música o la voz tardan un determinado margen de tiempo en apagarse. Al efecto sonoro producido entre la eliminación de la fuente sonora (por ejemplo, la orquesta deja de tocar) y la desaparición del sonido en una sala lo llamaremos tiempo de reverberación. De él dependen dos parámetros muy importantes, la calidez acústica y el brillo.

a)   Calidez acústica
Se corresponde con la representación de graves. Se calcula como el cociente entre la suma de los tiempos de reverberación correspondientes a las bandas de 125 Hz y 500 Hz y la suma de los correspondientes a las bandas de 500 Hz y 100 Hz.

b)   Brillo
De forma sencilla, es el contenido en agudos del sonido en cuestión. Se calcula como el cociente entre la suma de los tiempos de reverberación correspondientes a las bandas de 2 kHz y 4 kHz respecto de la suma de los correspondientes a las bandas de 500 Hz y 100 Hz.

c)   Cercanía
Si la calidez depende de la representación de graves y el brillo de la de agudos, por su parte el concepto de cercanía está relacionado en general con la representación de las frecuencias medias. Diremos de una canción, unos auriculares, etc., que son cercanos cuando los medios están muy presentes y destacan sobre el resto de frecuencias.
Sin embargo, aquí interviene también un factor de directividad. Es en éste sentido que a veces la cercanía se puede considerar como el opuesto de la espacialidad en el sonido. Explicaremos seguidamente los fenómenos de directividad:

C) DIRECTIVIDAD DE LA FUENTE SONORA

Una fuente sonora, sea del tipo que fuere, siempre va a radiar una mayor potencia en una dirección que en otra. A eso se lo llama directividad. Por ejemplo, para el caso de la voz humana, una conversación en el exterior (en ausencia de ruido de fondo) podrá escucharse con claridad a unos 42 metros si estamos en frente del interlocutor, pero solo a 17 si estamos de espaldas a él. Las fuentes sonoras se vuelven más directivas conforme más agudos son los sonidos que producen; ésto es debido a que los sonidos agudos poseen menor longitud de onda con lo cual su emisión es mucho más focalizada. Un buen ejemplo de fuente sonora altamente directiva podrían ser unos auriculares cerrados, o el Tweeter (altavoz de agudos) de un sistema de altavoces.
Los fenómenos de directividad son muy importantes para entender la percepción de las voces; en los albores del estéreo (y aún hoy) eran muy comunes los cantantes que abusaban del llamado 'sonido de micrófono', que de hecho es la expresión de una fuente sonora altamente directiva. Sin embargo, y como consecuencia del mismo fenómeno, la voz sonaba plana (principalmete porque se le restaba representación en los graves). Éste fenómeno es característico de ciertas grabaciones, y explica por qué a veces no conseguimos sacar todo el 'brillo' a las voces aún con ecualizaciones bien enfocadas.

D) DISTORSIÓN ARMÓNICA E INTERMODULACIÓN
También es importante que conozcáis aunque sea de forma somera algunos problemas que afectan al funcionamiento regular de los altavoces. Empecemos por la distorsión. Entendemos por distorsión para un dispositivo de audio dado, la diferencia entre la señal de entrada y la de salida del mismo. Distinguiremos entre:

a)   Distorsión armónica
Es la forma en que el dispositivo de audio 'colorea' la señal de audio, mediante la introducción de nuevos armónicos. No es necesariamente negativa, y a veces resulta incluso agradable, siempre que no sea excesiva. De hecho, se considera esencial en varios géneros, como el rock. En el siguiente enlace podéis ampliar información:
http://es.wikipedia.org/wiki/Distorsi%C3%B3n_arm%C3%B3nica

b)   Distorsión por intermodulación
Es el tipo de distorsión que se produce cuando dos señales de audio atraviesan al mismo tiempo un dispositivo no lineal, generando nuevos sonidos cuya característica principal es que no son armónicos de la señal (y por tanto suenan mal). Ningún equipo de audio es completamente lineal, y por ello se tolera siempre un cierto nivel de distorsión, sin embargo, resulta muy desagradable si se hace demasiado presente. La distorsión por intermodulación es característica de una mala calidad en la construcción de los dispositivos de audio en temas tales como cableado, etc, y su valoración es siempre negativa.

E) RESPUESTA TEMPORAL DE LOS ALTAVOCES

Junto a la distorsión, el desfase temporal es otro fenómeno de carácter negativo producido por diferentes circustancias que atañen al funcionamiento interno de los altavoces. Supone un grave problema desde un punto de vista psicoacústico, principalmente en la percepción de la percusión, que pierde pegada y equilibrio, afectando también a la comprensión de la voz humana en casos más graves.


AGRADECIMIENTOS

Con esto doy por acabada esta pequeña guía sobre la ecualización. Antes de nada, me gustaría decir dos cosas:

-   Primero, gracias a los varios foreros que me han animado a abordar este trabajo.

-   En segundo lugar, si de verdad hay algo que no entendáis o que consideréis que no ha quedado claro, me gustaría que lo dijerais abiertamente. He desechado conscientemente toda alusión a electrónica compleja, logaritmos, fonética articulatoria, física de la percepción, los señores Sabine o Weber-Fechner, y tantas otras cosas. Las cuestiones relativas a la anatomía o el funcionamiento del oído humano se explican de pasada incidiendo solo en lo que nos interesa, que esto no es el Sobotta. Yo creo que no es necesaria ninguna instrucción especial para entender lo que aquí se explica, y aparte considero que es un tema bastante intuitivo. Si alguien tiene interés en ahondar más en alguna de estas áreas, que me lo haga saber.

BIBLIOGRAFÍA

- Rossing, T. D. - The Science of Sound.
- A. Carrión - Diseño Acústico de Espacios Arquitectónicos.
- H. Fastl & E. Zwicker - Psychoacoustics: Facts and Models.
- Wikipedia/Wikimedia Commons.

Reproductores: Cowon D2 8 GB // Cowon O2 32 Gb + SDHC 16 GB.
Auriculares: Head-Direct RE0 // Ultimate Ears Triple.Fi 10.

KaoS

Vaya trabajo te estás dando Benedetti, gracias por todas las aportaciones!  ;-)
Pasaba por aquí...

Benedetti

Gracias a todos vosotros por vuestros ánimos, me han ayudado a seguir adelante con ésto, ¡aunque ya no pienso seguir adelante con ésto por más que me animéis! :risa: :risa:
Reproductores: Cowon D2 8 GB // Cowon O2 32 Gb + SDHC 16 GB.
Auriculares: Head-Direct RE0 // Ultimate Ears Triple.Fi 10.

ManuJedi

Buf, había visto algo de esto en medio de uno de los hilos, pero ha llegado el momento de la verdad: Leerlo con calma y tratar de aplicarlo.

Mil gracias MAESTRO. :dios:

grimbergen_beer

Para la calle: Cowon S9 16GB -> SoundMAGIC PL30 / Sennheiser IE8
Para casa: Gigabeat F120 Rockbox -> Bass Boost cMoy v2.0 -> Goldring DR150

Anteriores: Meizu SP 8GB (Vendido) - Sennheiser CX300 y Trekstor Vibez 12GB (Confiscados por mi pareja)

ManuJedi


griji

Vaya pasada recordar lo que dí en el cursillo. La verdad es que me parece mucha chicha para utilizar en un reproductor portátil, más bien sería para un equipo estacionario ( como mínimo ), sino para un equipo profesional. Saber ecualizar bien, no sólo es aprovechar todo el jugo sobre un disco, sino también poder llegar a conseguir el sonido que a tí te gusta. Muy buen hilo Benedetti, me prestó un montón seguirlo entero. Gracias por el aporte.
Reproductores: Md nf 810, rh 910, md rh1, Iaudio m5, Cowon D2, Creative zen v plus, Iriver clix2
Auriculares: Sennheiser cx 300, sony ex 85

Benedetti

Oye, que si no estáis de acuerdo en algo podéis llevarme la contraria  :mrgreen:
(a ver si alguien se pica y se lo lee) :roll:

Cita de: griji en 23 de Abril de 2009, 05:33:37 AM
La verdad es que me parece mucha chicha para utilizar en un reproductor portátil, más bien sería para un equipo estacionario ( como mínimo ), sino para un equipo profesional.
Griji, estoy de acuerdo, es demasiado para un repro portátil, sin embargo como de todo lo que se lee se queda la mitad, y se recuerda la mitad de la mitad, de ésta forma la gente se familiariza con lo básico y cuando quieran ampliar conocimientos ya sabe dónde mirar.
Reproductores: Cowon D2 8 GB // Cowon O2 32 Gb + SDHC 16 GB.
Auriculares: Head-Direct RE0 // Ultimate Ears Triple.Fi 10.

penedezzo

Una clase magistral. Benedetti, fija fecha para el examen porque esta asignatura es obligatoria para todos los que pretendamos sacarle el máximo partido a nuestro reproductores.
Reproductores: iaudio7 / Nationite S:Flo Lite / Cowon J3 / Samsung GP 4.2 / Motorola M500 /  Zune HD/30 / mPio HD300 / Sansa Clip/C240 / Meizu M3/M6 / iRiver H340/H10 / Ipod Nano 6G / Rio Cali / SONY NW-MS7
Auriculares orejeros: Fischer FA002 / GMP450 Pro / TAKSTAR PRO80 / Goldring DR150 / Ultrasone HFI-780 / AKG K518DJ
Auriculares in ear: SONY XBA3 / Audéo PFE 112 / Westone UM1/UM2 / Xears TD100/M1 Pro / Brainwavz ProAlpha / Miu MR2 Pro / Auvio Armature driver / XKDUN CK-700 / Radiopaq Custom Pop

griji

Sí, pero así todo veo perfecto que te hayas esmerado tanto y que hayas escrito tanto sobre la matería, pues los conocimientos nunca están de menos y siempre los puede utilizar quien tenga un equipo estacionario. De otra forma, cada vez los repros tráen mejores ecualizadores, ( véase Cowon y sus modificaciones en el ancho de banda y demás ), por eso está muy bien saber todo ésto. Vaya pedazo de trabajo te has currao compañero. Opino igual que Grimbergen_beer, es de chincheta.
Reproductores: Md nf 810, rh 910, md rh1, Iaudio m5, Cowon D2, Creative zen v plus, Iriver clix2
Auriculares: Sennheiser cx 300, sony ex 85

obarriel

Ya tiene la chincheta puesta :)

No lo he podido leer todavía, pero impresiona. ¡Muchas gracias por el trabajo!
Reproductores:  Sonys: X1060,S205F, S639, S545, E465, A846, HD5, HD3 y HD1, Philips HDD1830, Samsung YH-820, Olympus m:robe 500, Sansa Clip Zip, Iriver B100, MPMan F10
Auriculares: Westone UM3x
No uses mp para lo que se puede preguntar en el foro.

adrigd

 8-O Sin palabras, sinceramente... sin palabras  :dios: :dios: :dios: :dios:
Reproductores Galaxy S4
IEMs: Shure SE846//FA-4E XB//Q-Jays v.2
Orejeros: Beyerdinamic DT770//Focal Spirit Pro
DAC: JDS Labs ODAC
Amplis: HA INFO NG27
Altavoces: Audioengine A2

ManuJedi

#14
Cita de: Benedetti en 23 de Abril de 2009, 02:08:56 AM
B) Inteligibilidad de la palabra
Es éste un asunto fundamental en el uso de podcasts, así como en un buen número de géneros musicales.
Sin entrar en menudencias, la mayor parte del mensaje oral corresponde a las vocales, que se ven alternadas de cuando en cuando por consonantes. Al ser mayor la duración de las vocales, la presión sonora asociada a las mismas también es mayor, y aumenta el contenido de graves.
Adjunto otro gráfico, que se que os gusta:


Esto significa que la inteligibilidad de, digamos, una conversación dependerá fundamentalmente de la percepción de las consonantes, que copan frecuencias más alta (mayoritariamente entre 2 kHz y 4kHz). De tal forma que si potenciamos estas frecuencias en el ecualizador obtendremos una mejor comprensión del mensaje oral.
Otros dos gráficos explican el asunto:



Entrando en mayor detalle, mientras el régimen vocálico es más o menos constante en su densidad frecuencial, no todas las consonantes suenan a la misma altura. Así, por ejemplo, las consonantes originadas por vibración de las cuerdas vocales (b, d, g) presentan un comportamiento más afín a las vocales, mientras que las fricativas (como por ejemplo la s) se comportan como ruidos puros, presentando un mayor contenido en agudos (no es casual que sibilancia o siseo, ambas palabras onomatopéyicas, se escriban con s).

Primero, perdón por las burradas que pueda decir; de todos modos, sólo se equivoca (y por tanto aprende) el que lo intenta, así que vamos allá con alguna duda surgida tras la primera lectura:
Creo entender hasta aquí que en el rango de los 2-4Hz se encuentra la inteligibilidad de las palabras, pues es aquí donde "suenan" las consonantes. En fin, he probado y efectivamente puedo decir que si subo esa frecuencia (en mi S9 aparece a 3Hz, pudiendo variarse de 1,8 a 4,1 - creo que será mejor dejarlo a 3Hz, ¿no?) puedo entender mejor por ejemplo las canciones en inglés, las palabras son más claras.
Hasta aquí más que nada estoy recitando a ver si lo estoy entendiendo bien. Ahora viene la duda: No entiendo los datos del gráfico de Nivel de Presión Sonora (grito, voz muy alta, etc) y la tabla de valores de dos filas que aparece justo después. ¿Qué son las dos filas de valores? ¿Vocales y consonantes como en la tabla anterior? Por otro lado en el gráfico ¿qué implica mayor presión sonora a determinadas frecuencias? Porque por ejemplo veo que hay un máximo a 500Hz para la voz normal, ¿significa esto que modificando un ecualizador en la zona de 500Hz se escuchará "mejor" la voz normal? Porque claro, esto entonces contradice lo de las consonantes a 2-4Hz (que efectivamente marca una diferencia a lo poco que he experimentado).

Bueno, a ver si de noche le doy la segunda lectura y los enlaces los miro con calma. Otro tema que me "preocupa" es, de acuerdo, una vez sabemos esto, ¿con qué conviene ecualizar? ¿rock, metal... por su buena separación? ¿algún otro tipo?

En fin, poco a poco lo lograré  :confuso: