#9 Sorry, fui inpreciso, confuso, e incluso indique mal el termino. Pero en digital, en cuanto te metes en programación, se ve claramente que el reducir el pictch es más complejo.
Es diferente un pedal a un plugin, no tienen nada que ver un entorno analógico y uno digital. El comportamiento y la forma de procesar la señal son muy diferentes, aunque ambos buscan modificar la misma onda. Si hablamos de un plugin digital todo depende del flujo de programa, la rapidez con la que este actúa y la información disponible que tienen en cada momento. Es la razón por la que los plugins en tiempo real deben de programarse en C++ y no, por ejemplo, en Python, que no garantiza procesamiento en tiempo real y podría aumentar la latencia. Y es también el motivo por lo que es conveniente tener el mejor hardware posible en producción de audio.
En un periodo de muestreo, las ondas graves tienen más puntos por ciclo debido a su longitud, pero en un mismo intervalo de tiempo completan menos ciclos. Esto es fundamental para el cambio de pitch, ya que la frecuencia de la onda se estima contando ciclos o mediante transformada de Fourier. En los graves, la menor cantidad de ciclos por bloque reduce la resolución temporal y, por tanto, la precisión en la estimación de la frecuencia fundamental.
Por otro lado, La percepción humana puede ser limitada en agudos, pero la señal digital contiene toda la información que se ha muestreado, incluidos los armónicos por encima del rango audible y esas bandas pueden ser procesadas a conveniencia. Siempre teniendo en cuenta que esos armónicos son los que dan, no el cuerpo, pero si sino el color y definición, el carácter y son diferentes a los de la guitarra que da la onda de entrada principal para el swifter.
En el contexto de transformación en tiempo real, las frecuencias bajas de la guitarra dan bastante menos información en el flujo de programación para transformarlas en un bajo. Más o menos hay que pasarlas por las siguientes etapas.
1. Muestrear la onda desde la tarjeta (sampling)
2. Analizar la onda de entrada y sus frecuencias mediante transformadoras de Fourier.
3. Determinar sus ciclos y frecuencias.
4. Generar una nueva onda a la frecuencia deseada, interpolando entre muestras para que suene natural.
En los graves, la limitación principal es el análisis de frecuencia (punto 2), mientras que en los agudos es la reconstrucción/interpolación (punto 4). En el caso de los agudos hay muchas oscilaciones por bloque, lo que genera abundante información de muestra para determinar sus frecuencias, aunque cada oscilación debe procesarse y pasarse a la CPU para su conversión.
En el caso de los bajos el problema esta en el análisis de onda de entrada sobre todo si el sistema esta haciendo otras cosas que le demanden CPU, dado que par su conversión se precisa información de picos que a veces es confusa, dado que muchas veces no hay información de frecuencia suficiente que estabilice la frecuencia exacta. Esto se ve muchas veces al afinar en afinadores de DAW, donde las cuerdas graves muestran un comportamiento más errático para ajustarlas.
En el caso de bajar o subir el pitch digitalmente a una onda de guitarra hay que tomar un bloque de señal, aplicar windowing, realizar la transformada de Fourier, analizar el espectro y determinar las frecuencias en intensidades de su fundamental, sus armónicos, transformar sus frecuencias aumentándola o disminuyéndola en la medida que sea necesaria y realizar la transformada de Fourier inversa. Los graves tienen pocos ciclos por bloque, lo que disminuye la precisión de estimación de su frecuencia fundamental, que suele mitigarse a base de algorítmica compleja que permita una buena conversión y que intente no hinchar la latencia. Y optimización de la representación fiel de la onda original no suele llevarse bien con optimizar la latencia.
La reducción de información para precisar las frecuencias exactas al procesar graves y subgraves en pitch shifting digital —debido a pocos ciclos por bloque, baja amplitud y limitaciones de interpolación— puede generar artefactos como ruidos metálicos, flanging, distorsión de fase o modulaciones lentas tipo “wow”. En el caso de los subgrabes, por debajo de la fundamental, importantísimos en la sensación de un bajo - porque son los que se sienten físicamente y por eso en producción se atenúan en el bajo, pero no se cortan-, hay que sumarles la poca intensidad.
Una vez compilado C++, la algorítmica y el DSP de cada plugin es una caja negra a prueba de copias, bench marking y mejoras entre desarrolladores. Queda probar con unos y otros, pero en mi experiencia por lo general acaba muy desangelado en mezcla.