#37
Osea que te quejas porque esos grupos se repiten y prefieres escuchar música que ha creado un ordenador... copiando a esos grupos!!!
Pues ya estaría por hoy.
#37 Me da igual lo que te guste, aunque flipo. Sería como decir que prefieres mezclar las fresas con nata del postre con la fabada del primer plato y el entrecot del segundo, todo pasado por la batidora, porque llevas la vida entera comiendo los platos del menú en el mismo orden. Pruébalo, seguro que está rico. Yo es que pa los alimentos soy más clásico.
Escuchando el último disco de acdc no voy a encontrar nada nuevo, va a ser la misma canción de siempre
Escuchando la IA hay una posibilidad de encontrar algo nuevo
Y si, hay gente que empieza a comer por el postre y se come el yogur mezclado con la fabada, pruébalo, salirse de lo que dicta la norma es liberador y es cuando se crean cosas interesantes
Para empezar la IA no se diferencia mucho en la forma de aprendizaje a la banda de fans que tocan como cierto grupo, como cierto estilo como ciertos patrones repetidos hasta la saciedad. Casi todos los grupos de cercanía que conozco quieren tocar como o tienen un referente en. Y además en ciertas franjas de edad con cierto fanatismo.
La IA no te va a hacer un estilo de canción distinta a AC/DC. Te puede hacer algo parecido a AC/DC o al rock duro, aprende a base de patrones del dataset que se le ha incluido, generando una especie de músicas medias generales.
Y vive en el mundo del soporte. Solo afecta al soporte. Y eso es importante. No es lo mismo ir a ver a una vocalista de jazz o AC/DC a un concierto con toda la memoria sobre el evento y la percepción natural que el soporte. Algo en lo que nos gusta incluso oír las cosas mal usando vinilos o mp3.
Aparte está la reproducibilidad. Si metes una letra con errata y la corriges en programas como Suno no puedes. Te va a cambiar toda la canción. Y en programas más avanzados eso sigue siendo un dolor de muelas.
Lo de la sensación humana, Deezer, que son poco sospechosos de querer meter mal material sonoro, ya dijeron que un 97% por ciento en una buena encuesta de oyentes (9.000 personas en 8 países), si la música IA era de calidad no se distinguió de la integramente humana. Y se han gastado un pastón en un algoritmo que puede detectarla (por ahora) y etiquetar las pistas IA (no las retiran).
¿Cosas que puedes hacer con ella? Pues por ejemplo. Esa letra a la que no le metes bien música, generas en Suno e igual una de 30 está bien y da ideas. Luego claro, transcribe para una banda, convence a una banda y haz algo parecido. Hay que sacar tensiones, texturas, etc. Si algo te gusta y lo quieres pasar a un escenario lo único simple va a ser sacar la melodía y a lo sumo la progresión de acordes. La textura ya es otra historia.
¿En qué es buena? Pues en crear cosas que no tienes al alcance de la mano. El otro día con amigos discutimos la importancia del idioma sobre la letra. Estuvimos pasando canciones en varios idiomas sobre blues. Y para comparar solo lo puedes hacer sobre la misma canción. La IA de andar por casa como Suno no te puede hacer tres versiones de la misma canción. Pero búscate tú una vocalista femenina, con grit que cante soul en esos tres idiomas.
Aparte está la letra. Si los LLM son realmente malos (malisimos) en algo es en hacer algo poético. Darte el tono en una letra del rock urbano, lleno de giros con localismos y colores tonales del lugar, pues tampoco.
En la parte de textura instrumental, ahí sí es bueno porque es capaz de distinguir patrones subyacentes. Y la música instrumental es bastante matetemática. Cuanto menos rompa reglas musicales y armónicas, como la electrónica, mejor sale.
Ahora, la parte humana, está siempre. Hay que incluir letras, de la que es muy dependiente. Eso es humano. Hasta en el caso de Suno hay que describirle bien lo que quieres y en eso es relativamente malo. Por lo que se necesita selección y cierto criterio. Si se manejan otras herramientas te puede echar horas y horas de trabajo puramente humano.
Y vuelvo a decir, trasladar lo que hace la IA en soporte al vivo o repetirlo para una grabación precisa muy buenos músicos y muy bien formados.
Aparte está lo demas, las herramientas con redes neuronales especializadas que complementan, facilitan y potencian lo que existía. No todo es LLM. Si usas un NAM usas IA. La nueva Helix incluye IA... etc.
Yo es que no me atrevería a intentar crear un Hit con IA. Para registrarlo en el RPI necesitas la partitura y, además, ¿Quién te dice que Suno no se queda con los derechos de tu canción? Si a suno le sale un hit rompedor y lo publicas e intentas sacar disco y gira, ¿De quien es el Hit? ¿Tuyo? ¿De la propietaria de Suno? Además, hay que saber defender en directo lo que la IA te ha creado.
La IA no tiene personalidad y no es instantánea. Nunca llegara a ser como los humanos, si es una ayuda importante, pero no sera la panacea nunca.
En cuanto a la musica, yo la utilizo para que me arregle las partituras o para buscar componentes, características o acordes, aunque eso ya lo hacia con google, nunca la uso para componer por que no sabe, solo copia.