<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Jhonatan López</title>
	<atom:link href="https://www.jhonatanlopez.com/es/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.jhonatanlopez.com/es/acerca-de-mi/</link>
	<description>Diseño de Sonido &#38; Ingeniería</description>
	<lastBuildDate>Fri, 08 Aug 2025 03:00:56 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://www.jhonatanlopez.com/wp-content/uploads/2019/01/cropped-Logo-Web-Jhonatan2-1-32x32.png</url>
	<title>Jhonatan López</title>
	<link>https://www.jhonatanlopez.com/es/acerca-de-mi/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>NoiseRverb: Acústica patrimonial en un plugin</title>
		<link>https://www.jhonatanlopez.com/es/noiserverb-acustica-patrimonial-en-un-plugin/</link>
					<comments>https://www.jhonatanlopez.com/es/noiserverb-acustica-patrimonial-en-un-plugin/#comments</comments>
		
		<dc:creator><![CDATA[Jhonatan López]]></dc:creator>
		<pubDate>Sat, 31 May 2025 02:00:00 +0000</pubDate>
				<category><![CDATA[DSP]]></category>
		<category><![CDATA[Plugin]]></category>
		<guid isPermaLink="false">https://www.jhonatanlopez.com/?p=4856</guid>

					<description><![CDATA[<p>Hace tiempo quería escribir sobre un concepto que me ha fascinado desde que lo descubrí: la acústica patrimonial. En este blog comparto también una pequeña contribución que hice en esta área con NoiseRverb, un plugin de acústica patrimonial que captura la identidad sonora de iglesias históricas de Quito mediante reverberación por convolución. Solemos asociar el [&#8230;]</p>
<p>The post <a href="https://www.jhonatanlopez.com/es/noiserverb-acustica-patrimonial-en-un-plugin/">NoiseRverb: Acústica patrimonial en un plugin</a> appeared first on <a href="https://www.jhonatanlopez.com/es/acerca-de-mi">Jhonatan López</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-image"><img fetchpriority="high" decoding="async" width="1024" height="471" src="https://www.jhonatanlopez.com/wp-content/uploads/2025/05/image-1024x471.png" alt="NoiseRverb heritage acoustics plugin interface." class="wp-image-4854" srcset="https://www.jhonatanlopez.com/wp-content/uploads/2025/05/image-1024x471.png 1024w, https://www.jhonatanlopez.com/wp-content/uploads/2025/05/image-600x276.png 600w, https://www.jhonatanlopez.com/wp-content/uploads/2025/05/image-300x138.png 300w, https://www.jhonatanlopez.com/wp-content/uploads/2025/05/image-768x353.png 768w, https://www.jhonatanlopez.com/wp-content/uploads/2025/05/image.png 1137w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>Hace tiempo quería escribir sobre un concepto que me ha fascinado desde que lo descubrí: la acústica patrimonial. En este blog comparto también una pequeña contribución que hice en esta área con <strong>NoiseRverb, </strong>un plugin de acústica patrimonial que captura la identidad sonora de iglesias históricas de Quito mediante reverberación por convolución.</p>



<p>Solemos asociar el patrimonio con la belleza visual, especialmente en la arquitectura. Esto se debe, en gran parte, a que muchos monumentos artísticos se han conservado por su valor histórico. Con el tiempo, muchos de estos lugares se han convertido en atracciones turísticas populares.</p>



<p>Pero ¿y si pensamos en otro tipo de patrimonio? Uno que se puede escuchar. ¿Puede el sonido tener valor histórico? ¿Se puede preservar? La respuesta es sí. Aunque no es una idea nueva —ya ha sido estudiada por investigadores—, hoy empieza a ganar espacio también dentro de la industria del audio.</p>



<p>Algunos espacios patrimoniales se conservan a través del arte sonoro; otros viven en grabaciones en vivo o canciones. Por ejemplo, el Festival Internacional de Música Sacra (FIMUSAQ) en Quito ha contribuido a preservar la cultura local mediante la música sacra. No es el único caso en el mundo, pero sí demuestra claramente cómo el sonido puede transmitir valor histórico.</p>



<h2 class="wp-block-heading">¿Qué es la acústica patrimonial?</h2>



<p>La acústica patrimonial es un campo que explora y protege el sonido de los espacios históricos. Combina arquitectura, física e ingeniería de sonido. Desde catedrales hasta teatros, el sonido de estos lugares es tan icónico como su estructura.</p>



<p>El objetivo es estudiar cómo se comporta el sonido en estos espacios. Esto implica observar la reverberación, las reflexiones, la absorción y el movimiento de las ondas sonoras. Existen tres técnicas principales:</p>



<ul class="wp-block-list">
<li><strong>Mediciones in situ</strong>: Se colocan micrófonos y altavoces en el lugar. Se reproducen señales específicas (como barridos de tonos) y se graba la respuesta del espacio. Esto permite capturar datos acústicos reales.</li>



<li><strong>Captura de respuesta al impulso (IR)</strong>: Esta técnica registra cómo reacciona un espacio ante un sonido corto y amplio. El resultado es una huella acústica única del lugar.</li>



<li><strong>Modelado por computadora</strong>: Se crean simulaciones en 3D del espacio a partir de planos arquitectónicos. Así, se puede predecir el comportamiento del sonido sin necesidad de estar físicamente en el sitio.</li>
</ul>



<p>Estas técnicas ayudan a preservar el sonido único de los edificios históricos y permiten que otras personas lo experimenten, incluso a distancia.</p>



<h2 class="wp-block-heading">Aplicaciones en la industria musical</h2>



<p>El estudio de la acústica patrimonial ha dado lugar a herramientas muy interesantes para músicos y productores. Algunas de ellas son:</p>



<ul class="wp-block-list">
<li>Plugins de reverb por convolución que recrean espacios históricos.</li>



<li>Modelado acústico para conciertos virtuales.</li>



<li>Restauración de grabaciones antiguas con su acústica original.</li>



<li>Experiencias inmersivas en museos o entornos de realidad virtual.</li>
</ul>



<p>Todas son fascinantes, pero me enfocaré en la reverb por convolución, ya que es el área en la que más trabajo.</p>



<h2 class="wp-block-heading">Reverb por convolución</h2>



<p>Para entender la reverb por convolución, primero hay que saber qué es una respuesta al impulso (IR). Es una grabación de cómo reacciona un espacio a un sonido corto y de amplio espectro, como una palmada o un estallido. Contiene información clave sobre las reflexiones y la duración del sonido en la sala.</p>



<p>Existen varias formas de capturar una IR: una palmada, el estallido de un globo o un barrido de tonos. Aunque el método varía, los resultados suelen ser comparables.</p>



<p>La reverb por convolución utiliza esa IR y la aplica a cualquier señal de audio. El resultado es una simulación realista de cómo sonaría esa señal en el espacio original. Este proceso se realiza mediante una operación matemática llamada convolución, que combina el sonido original con la respuesta del espacio para recrear la experiencia acústica.</p>



<p>Es una técnica muy valorada por su realismo. Permite a músicos llevar una grabación de estudio a un entorno histórico sin salir de su DAW.</p>



<h2 class="wp-block-heading">Plugin de acústica patrimonial</h2>



<p>Como parte de nuestra exploración, trabajé junto a los ingenieros <strong>Analí Pinto</strong> y <strong>Fausto Espinoza</strong> para crear un plugin VST3 llamado <strong>NoiseRverb</strong>. Está basado en respuestas al impulso grabadas en siete iglesias de Quito: <strong>San Francisco, Basílica, Catedral, Compañía, Guápulo, El Sagrario y Santo Domingo.</strong></p>



<p>Este plugin de acústica patrimonial permite que cualquier músico experimente los espacios sonoros de iglesias centenarias sin salir de su entorno habitual de producción musical.</p>



<p>Grabamos las respuestas al impulso directamente en los sitios y las procesamos digitalmente. Luego, utilizamos convolución en tiempo real para revivir esos espacios dentro del plugin. El resultado es una experiencia auténtica e inmersiva.</p>



<p><strong>NoiseRverb es gratuito y puedes descargarlo <a href="https://www.jhonatanlopez.com/es/diseno-sonoro/">aquí</a>.</strong></p>



<p>Descubre más sobre la acústica patrimonial y su papel en la preservación cultural en este <a class="" href="https://www.sciencedirect.com/topics/engineering/architectural-acoustics">artículo introductorio sobre acústica arquitectónica</a> y en el <a class="" href="https://www.mdpi.com/2075-5309/15/15/2639">estudio sobre variables acústicas y perceptuales en tres iglesias patrimoniales de Quito</a>.</p>
<p>The post <a href="https://www.jhonatanlopez.com/es/noiserverb-acustica-patrimonial-en-un-plugin/">NoiseRverb: Acústica patrimonial en un plugin</a> appeared first on <a href="https://www.jhonatanlopez.com/es/acerca-de-mi">Jhonatan López</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.jhonatanlopez.com/es/noiserverb-acustica-patrimonial-en-un-plugin/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>AllYouNeedIsSound 2: De Formas de Onda a Representaciones Espectrales</title>
		<link>https://www.jhonatanlopez.com/es/analsis-espectral/</link>
		
		<dc:creator><![CDATA[Jhonatan López]]></dc:creator>
		<pubDate>Mon, 17 Mar 2025 16:48:29 +0000</pubDate>
				<category><![CDATA[DSP]]></category>
		<category><![CDATA[Procesamiento de señales]]></category>
		<category><![CDATA[análisis]]></category>
		<category><![CDATA[prosesamiento de señales]]></category>
		<guid isPermaLink="false">https://www.jhonatanlopez.com/?p=4629</guid>

					<description><![CDATA[<p>En mi última publicación, mostré cómo cargar y visualizar formas de onda de audio utilizando Python. Ahora, profundicemos en el análisis espectral con Python, una técnica poderosa para comprender el contenido en frecuencia de las señales de audio. Mediante este enfoque, podemos descubrir patrones y características esenciales para tareas como clasificación de sonidos, reconocimiento de [&#8230;]</p>
<p>The post <a href="https://www.jhonatanlopez.com/es/analsis-espectral/">AllYouNeedIsSound 2: De Formas de Onda a Representaciones Espectrales</a> appeared first on <a href="https://www.jhonatanlopez.com/es/acerca-de-mi">Jhonatan López</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-image size-full"><img decoding="async" width="1024" height="1024" src="https://www.jhonatanlopez.com/wp-content/uploads/2025/03/allyouneedissound2.webp" alt="An abstract digital sound spectrum with smooth, flowing waves in gray and blue tones, featuring a clean and stylized equalizer on a white background." class="wp-image-4617" srcset="https://www.jhonatanlopez.com/wp-content/uploads/2025/03/allyouneedissound2.webp 1024w, https://www.jhonatanlopez.com/wp-content/uploads/2025/03/allyouneedissound2-300x300.webp 300w, https://www.jhonatanlopez.com/wp-content/uploads/2025/03/allyouneedissound2-100x100.webp 100w, https://www.jhonatanlopez.com/wp-content/uploads/2025/03/allyouneedissound2-600x600.webp 600w, https://www.jhonatanlopez.com/wp-content/uploads/2025/03/allyouneedissound2-150x150.webp 150w, https://www.jhonatanlopez.com/wp-content/uploads/2025/03/allyouneedissound2-768x768.webp 768w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Visualización de las frecuencias de sonido digital creada con DALL·E.</figcaption></figure>



<p>En mi última publicación, mostré <a href="https://www.jhonatanlopez.com/audio-digital-analysis-python/">cómo cargar y visualizar formas de onda de audio utilizando Python</a>. Ahora, profundicemos en el análisis espectral con Python, una técnica poderosa para comprender el contenido en frecuencia de las señales de audio. Mediante este enfoque, podemos descubrir patrones y características esenciales para tareas como clasificación de sonidos, reconocimiento de voz y análisis musical.</p>



<h2 class="wp-block-heading">¿Qué es el Análisis Espectral?</h2>



<p>El análisis espectral permite descomponer una señal de audio en sus frecuencias individuales, facilitando la comprensión de sus componentes. Por ejemplo, mientras que una forma de onda muestra la amplitud a lo largo del tiempo, el análisis espectral revela las componentes de frecuencia ocultas en el sonido.</p>



<h3 class="wp-block-heading">¿Por qué es Importante el Análisis Espectral?</h3>



<p>Las frecuencias son los bloques fundamentales del sonido. Analizarlas nos permite distinguir entre diferentes tipos de audio, como una nota de guitarra frente a un golpe de tambor. Además, esta técnica es crucial para tareas como la clasificación de género musical y el reconocimiento de voz.</p>



<h2 class="wp-block-heading">Conceptos Clave</h2>



<h3 class="wp-block-heading">Espectrograma</h3>



<p>Un espectrograma es una representación visual de cómo cambian las frecuencias de una señal de audio con el tiempo. Es similar a un «mapa de calor» del sonido, donde:</p>



<ul class="wp-block-list">
<li>La intensidad del color representa la amplitud (por ejemplo, colores más brillantes indican frecuencias más fuertes).</li>



<li>El eje <strong>x</strong> representa el tiempo.</li>



<li>El eje <strong>y</strong> representa la frecuencia.</li>
</ul>



<h3 class="wp-block-heading">Transformada de Fourier de Tiempo Corto (STFT)</h3>



<p>La Transformada de Fourier de Tiempo Corto (STFT) es una herramienta matemática utilizada para generar espectrogramas. A diferencia de la Transformada de Fourier estándar, que analiza toda la señal a la vez, la STFT divide el audio en segmentos cortos y superpuestos, aplicando la Transformada de Fourier a cada segmento. Esto nos permite ver cómo evolucionan las frecuencias con el tiempo, lo cual es ideal para analizar audio real, que rara vez es estacionario como un tono puro.</p>



<h3 class="wp-block-heading">Un Avance de las Próximas Publicaciones</h3>



<p>Aunque los espectrogramas basados en STFT son poderosos, son solo el comienzo. En futuras publicaciones, exploraremos características avanzadas como los espectrogramas Mel y los MFCCs (Coeficientes Cepstrales en la Frecuencia de Mel), que son ampliamente utilizados en aprendizaje automático para la clasificación de audio.</p>



<h2 class="wp-block-heading">Ejemplo Práctico: Cómputo y Visualización de un Espectrograma con Python</h2>



<p>Pongamos en práctica la teoría. Primero, cargaremos un archivo de audio usando Librosa. Luego, calcularemos la STFT y visualizaremos el espectrograma. Finalmente, interpretaremos los resultados para comprender el contenido en frecuencia del audio. Aquí tienes una guía paso a paso:</p>



<h3 class="wp-block-heading">0 Montar Google Drive</h3>



<p>Puedes omitir este paso si seguiste mi publicación anterior.</p>



<pre class="wp-block-code"><code>from google.colab import drive
drive.mount('/content/drive')</code></pre>



<h3 class="wp-block-heading">1 Cargar el Archivo de Audio</h3>



<pre class="wp-block-code"><code>import librosa
import librosa.display
import numpy as np  # Importar numpy como np
import matplotlib.pyplot as plt

# Cargar un archivo de audio
y, sr = librosa.load('/content/drive/path/to/your/audio.wav')</code></pre>



<h3 class="wp-block-heading">2 Calcular la STFT y Convertir a Decibeles</h3>



<pre class="wp-block-code"><code># Calcular la STFT y convertir a decibeles
S = librosa.feature.melspectrogram(y=y, sr=sr, n_mels=128)
S_db = librosa.power_to_db(S, ref=np.max)  # Espectrograma Log-Mel</code></pre>



<h3 class="wp-block-heading">3 Graficar el Espectrograma</h3>



<p>plt.figure(figsize=(14, 5))<br>librosa.display.specshow(S_db, sr=sr, x_axis=&#8217;time&#8217;, y_axis=&#8217;mel&#8217;)<br>plt.colorbar(format=&#8217;%+2.0f dB&#8217;)<br>plt.title(&#8216;Espectrograma Log-Mel de la Canción&#8217;)<br>plt.show()</p>



<p>Aquí está el resultado después de ejecutar el código con un archivo de audio de muestra:</p>



<figure class="wp-block-image size-large"><img decoding="async" width="1024" height="445" src="https://www.jhonatanlopez.com/wp-content/uploads/2025/02/logMelSpectrogram-1024x445.png" alt="Análisis espectral generado con pyhton Log-Mel Spectrogram." class="wp-image-4552" srcset="https://www.jhonatanlopez.com/wp-content/uploads/2025/02/logMelSpectrogram-1024x445.png 1024w, https://www.jhonatanlopez.com/wp-content/uploads/2025/02/logMelSpectrogram-600x261.png 600w, https://www.jhonatanlopez.com/wp-content/uploads/2025/02/logMelSpectrogram-300x130.png 300w, https://www.jhonatanlopez.com/wp-content/uploads/2025/02/logMelSpectrogram-768x334.png 768w, https://www.jhonatanlopez.com/wp-content/uploads/2025/02/logMelSpectrogram.png 1081w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption"><em><strong>Figura 1: </strong>Ejemplo de un espectrograma Log-Mel generado a partir de un archivo de audio utilizando el código anterior. El eje x representa el tiempo y el eje y muestra la frecuencia, proporcionando una representación visual de la intensidad del sonido a lo largo del tiempo.</em></figcaption></figure>



<h3 class="wp-block-heading">Entenidendo el resultado</h3>



<ul class="wp-block-list">
<li><strong>Tiempo (eje x):</strong> Muestra cómo evoluciona el audio a lo largo del tiempo.</li>



<li><strong>Frecuencia (eje y):</strong> Muestra el rango de frecuencias presentes en el audio.</li>



<li><strong>Intensidad del color:</strong> Representa la amplitud (las frecuencias más fuertes aparecen más brillantes).</li>
</ul>



<p>Por ejemplo:</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="445" src="https://www.jhonatanlopez.com/wp-content/uploads/2025/02/violinLogMelSpectrogram-1024x445.png" alt="Análisis de frecuencia usando Phyton y espectrogramas para un violin." class="wp-image-4555" srcset="https://www.jhonatanlopez.com/wp-content/uploads/2025/02/violinLogMelSpectrogram-1024x445.png 1024w, https://www.jhonatanlopez.com/wp-content/uploads/2025/02/violinLogMelSpectrogram-600x261.png 600w, https://www.jhonatanlopez.com/wp-content/uploads/2025/02/violinLogMelSpectrogram-300x130.png 300w, https://www.jhonatanlopez.com/wp-content/uploads/2025/02/violinLogMelSpectrogram-768x334.png 768w, https://www.jhonatanlopez.com/wp-content/uploads/2025/02/violinLogMelSpectrogram.png 1081w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption"><em><strong>Figura 2:</strong>&nbsp;Ejemplo de un espectrograma Log-Mel generado a partir de un archivo de audio utilizando el código anterior, aplicado a una nota sostenida de violín. Aparece como una línea horizontal en una frecuencia específica.</em></figcaption></figure>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="445" src="https://www.jhonatanlopez.com/wp-content/uploads/2025/02/snareLogMelSpectrogram-1024x445.png" alt="Análisis de frecuencia usando Phyton y espectrogramas para un tambor." class="wp-image-4553" srcset="https://www.jhonatanlopez.com/wp-content/uploads/2025/02/snareLogMelSpectrogram-1024x445.png 1024w, https://www.jhonatanlopez.com/wp-content/uploads/2025/02/snareLogMelSpectrogram-600x261.png 600w, https://www.jhonatanlopez.com/wp-content/uploads/2025/02/snareLogMelSpectrogram-300x130.png 300w, https://www.jhonatanlopez.com/wp-content/uploads/2025/02/snareLogMelSpectrogram-768x334.png 768w, https://www.jhonatanlopez.com/wp-content/uploads/2025/02/snareLogMelSpectrogram.png 1081w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption"><em><strong>Figura 3:&nbsp;</strong>Ejemplo de un espectrograma Log-Mel generado a partir de un archivo de audio utilizando el código anterior, aplicado a un golpe de tambor. Aparece como un pico vertical que abarca múltiples frecuencias.</em></figcaption></figure>



<h3 class="wp-block-heading">¿Qué Nos Dice el Espectrograma?</h3>



<p>Los espectrogramas proporcionan una gran cantidad de información que las formas de onda no pueden mostrar. Por ejemplo:</p>



<ul class="wp-block-list">
<li><strong>Líneas Horizontales</strong>: Indican tonos sostenidos, como una nota de violín o un sonido de zumbido.</li>



<li><strong>Picos Verticales</strong>: Representan sonidos cortos y agudos, como un golpe de tambor o una palmada.</li>



<li><strong>Patrones</strong>: Patrones repetitivos en el espectrograma pueden corresponder a ritmos musicales o fonemas en el habla.</li>
</ul>



<p>Estas características proporcionan información valiosa sobre la estructura y el contenido de las señales de audio, haciendo que los espectrogramas sean una herramienta esencial para tareas como la clasificación de sonidos, el reconocimiento de voz y el análisis musical.</p>



<h2 class="wp-block-heading">Reflexión</h2>



<p>Aprender análisis espectral ha sido una experiencia transformadora para mí. Me ha permitido comprender la complejidad de las señales de audio y apreciar las herramientas matemáticas que hacen posible el procesamiento de audio. Uno de los desafíos que enfrenté fue elegir el tamaño de ventana adecuado para la STFT. Si es demasiado corta, la resolución en frecuencia se ve afectada; si es demasiado larga, la resolución en tiempo se vuelve difusa. A través de la experimentación y la investigación, aprendí a equilibrar estas compensaciones.</p>



<p>Este viaje ha reforzado mi creencia de que el análisis espectral no es solo una habilidad técnica, sino una puerta de entrada a la comprensión del rico y oculto mundo del sonido. A medida que continúo explorando técnicas avanzadas como CQT y HCQT, estoy emocionado por compartir mis descubrimientos y desafíos en futuras publicaciones.</p>



<h2 class="wp-block-heading">Conclusión</h2>



<p>El análisis espectral es una herramienta poderosa para desentrañar el contenido en frecuencia de las señales de audio. Al ir más allá de las formas de onda y explorar los espectrogramas, podemos descubrir patrones y características esenciales para tareas como clasificación de sonidos, reconocimiento de voz y análisis musical.</p>



<h2 class="wp-block-heading">Recursos Adicionales</h2>



<ul class="wp-block-list">
<li><a href="https://librosa.org/doc/latest/index.html">Documentación de Librosa:</a> Una guía completa de la biblioteca Librosa.</li>



<li><a href="https://colab.research.google.com/">Google Colab:</a> Un entorno gratuito basado en la nube para ejecutar código Python.</li>



<li><a href="https://freesound.org/">Freesound.org:</a> Un repositorio de muestras de audio gratuitas para experimentación.</li>



<li><a href="https://geoffroypeeters.github.io/deeplearning-101-audiomir_book">Deep Learning 101 for Audio-based MIR, ISMIR 2024 Tutorial</a> por Geoffroy Peeters et al. (2024).</li>



<li>Kinsler, L. E., Frey, A. R., Coppens, A. B., &amp; Sanders, J. V. (2000). Fundamentos de Acústica (4ª ed.). Wiley.<br>Este libro incluye una explicación detallada de la Transformada de Fourier y su aplicación en el análisis de señales acústicas.</li>
</ul>
<p>The post <a href="https://www.jhonatanlopez.com/es/analsis-espectral/">AllYouNeedIsSound 2: De Formas de Onda a Representaciones Espectrales</a> appeared first on <a href="https://www.jhonatanlopez.com/es/acerca-de-mi">Jhonatan López</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>AllYouNeedIsSound 1: Explorando el Análisis de Audio Digital para Aplicaciones Avanzadas</title>
		<link>https://www.jhonatanlopez.com/es/allyouneedissound-1-explorando-el-analisis-de-audio-digital-para-aplicaciones-avanzadas/</link>
		
		<dc:creator><![CDATA[Jhonatan López]]></dc:creator>
		<pubDate>Mon, 10 Mar 2025 14:42:18 +0000</pubDate>
				<category><![CDATA[Procesamiento de señales]]></category>
		<category><![CDATA[Procesamiento]]></category>
		<category><![CDATA[señales]]></category>
		<guid isPermaLink="false">https://www.jhonatanlopez.com/?p=4622</guid>

					<description><![CDATA[<p>Ha pasado un tiempo desde mi última publicación, he estado bastante inmerso en mi trabajo y en el desarrollo de mi último proyecto, PureWaveShaper. Recientemente, he estado explorando cómo investigadores e innovadores utilizan el análisis de audio digital con Python para comprender datos de audio. Ya seas músico, ingeniero de audio, científico de datos o [&#8230;]</p>
<p>The post <a href="https://www.jhonatanlopez.com/es/allyouneedissound-1-explorando-el-analisis-de-audio-digital-para-aplicaciones-avanzadas/">AllYouNeedIsSound 1: Explorando el Análisis de Audio Digital para Aplicaciones Avanzadas</a> appeared first on <a href="https://www.jhonatanlopez.com/es/acerca-de-mi">Jhonatan López</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-image size-full is-resized"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.jhonatanlopez.com/wp-content/uploads/2025/03/allyouneedissound1.webp" alt="A frequency spectrum represented as smooth waves in grey and light blue tones, with a stylized graphic equalizer on a white background." class="wp-image-4616" style="width:656px;height:auto" srcset="https://www.jhonatanlopez.com/wp-content/uploads/2025/03/allyouneedissound1.webp 1024w, https://www.jhonatanlopez.com/wp-content/uploads/2025/03/allyouneedissound1-300x300.webp 300w, https://www.jhonatanlopez.com/wp-content/uploads/2025/03/allyouneedissound1-100x100.webp 100w, https://www.jhonatanlopez.com/wp-content/uploads/2025/03/allyouneedissound1-600x600.webp 600w, https://www.jhonatanlopez.com/wp-content/uploads/2025/03/allyouneedissound1-150x150.webp 150w, https://www.jhonatanlopez.com/wp-content/uploads/2025/03/allyouneedissound1-768x768.webp 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Una representación minimalista del análisis de frecuencia de audio creada con DALL·E.</figcaption></figure>



<p>Ha pasado un tiempo desde mi última publicación, he estado bastante inmerso en mi trabajo y en el desarrollo de mi último proyecto, <a href="https://www.jhonatanlopez.com/es/diseno-sonoro/">PureWaveShaper</a>. Recientemente, he estado explorando cómo investigadores e innovadores utilizan el análisis de audio digital con Python para comprender datos de audio. Ya seas músico, ingeniero de audio, científico de datos o simplemente alguien curioso por el sonido, este post te introducirá al increible mundo del análisis de datos de audio.</p>



<h2 class="wp-block-heading">¿Qué es el Análisis de Audio Digital?</h2>



<p>El análisis de audio digital estudia las señales de sonido para obtener información útil. En esencia, el sonido es una onda de presión que viaja por el aire. En el dominio analógico (eléctrico), estas variaciones se representan como cambios en voltaje. Al digitalizarse, el sonido se convierte en una secuencia de valores de amplitud a lo largo del tiempo. Analizar propiedades como la frecuencia, la amplitud y su variación nos permite crear nuevas representaciones visuales asi como tambien de datos. Esto es invaluable para tareas como la clasificación de sonidos, la identificación del género de una canción, la detección de tono, el reconocimiento de patrones de habla o la monitorización de sonidos ambientales.</p>



<h2 class="wp-block-heading">¿Por qué Python?</h2>



<p>Personalmente recomiendo <strong>Python </strong>ya que es una de las herramientas más populares para el análisis de audio y esto debido a:</p>



<ul class="wp-block-list">
<li><strong>Facilidad de uso</strong>: Su sintaxis limpia y legible lo hace accesible para principiantes y eficiente para la creación rápida de prototipos.</li>



<li><strong>Ecosistema rico</strong>: Librerías como <code>Librosa</code>, <code>NumPy </code>y <code>Matplotlib </code>facilitan la carga, procesamiento y visualización de datos de audio.</li>



<li><strong>Comunidad activa</strong>: Una gran comunidad de desarrolladores proporciona abundantes recursos y soporte para resolver problemas.</li>



<li><strong>Integración con IA</strong>: Python es el lenguaje líder en machine learning e inteligencia artificial, lo que lo hace ideal para modelos avanzados de análisis de audio.</li>



<li><strong>Costo</strong>: Es gratuito y de código abierto, a diferencia de herramientas propietarias como MATLAB.</li>
</ul>



<h2 class="wp-block-heading">¿Por qué no otros lenguajes?</h2>



<figure class="wp-block-table"><table class="has-fixed-layout"><thead><tr><th>Lenguaje</th><th>Fortalezas</th><th>Debilidades</th></tr></thead><tbody><tr><td>MATLAB</td><td>Investigación académica, prototipado</td><td>Propietario, costoso</td></tr><tr><td>C++</td><td>Procesamiento en tiempo real, alto rendimiento</td><td>Curva de aprendizaje pronunciada</td></tr><tr><td>R</td><td>Análisis estadístico</td><td>Limitado a investigaciones específicas</td></tr><tr><td>JavaScript</td><td>Aplicaciones web</td><td>Limitado a entornos de navegador</td></tr><tr><td>Julia</td><td>Computación de alto rendimiento</td><td>Aún en crecimiento</td></tr><tr><td>Rust</td><td>Aplicaciones en tiempo real y baja latencia</td><td>Moderno, seguro, pero menos extendido</td></tr></tbody></table></figure>



<h2 class="wp-block-heading">Primeros Pasos: Cargando y Visualizando Audio</h2>



<h3 class="wp-block-heading">Configurando el Entorno</h3>



<p>Antes de comenzar con el código, necesitas un entorno donde ejecutar Python. Aquí algunas opciones:</p>



<ul class="wp-block-list">
<li><strong>Google Colab</strong>: Entorno gratuito basado en Jupyter Notebook en la nube. (Mi recomendación)</li>



<li><strong>Instalación local de Python</strong>: Instala Python y usa un IDE como <strong>Jupyter Notebook, VS Code o PyCharm</strong>. (Recomiendo si hay experiencia previa con programación)</li>



<li><strong>Anaconda Distribution</strong>: Incluye Python y muchas librerías científicas, ideal para principiantes.</li>
</ul>



<h3 class="wp-block-heading">Cargando y Visualizando Audio</h3>



<p>Empecemos con lo básico, cargar un archivo de audio y visualizar su forma de onda. Una forma de onda muestra cómo cambia la amplitud del sonido a lo largo del tiempo, dándonos una primera impresión de su estructura.</p>



<pre class="wp-block-code"><code>```python
import librosa
import librosa.display
import matplotlib.pyplot as plt
from google.colab import drive

# Montar Google Drive para acceder a los archivos
drive.mount('/content/drive')

# Cargar el archivo de audio desde Google Drive
y, sr = librosa.load('/content/drive/path/to/your/audio.wav')

# Mostrar la forma de onda
plt.figure(figsize=(14, 5))
librosa.display.waveshow(y, sr=sr)
plt.title('Forma de onda del archivo de audio')
plt.xlabel('Tiempo')
plt.ylabel('Amplitud')
plt.show()
```</code></pre>



<ul class="wp-block-list">
<li><code>drive.mount('/content/drive')</code> conecta tu Google Drive con Colab. Al ejecutar esto, Colab te pedirá autorización.</li>



<li><code>librosa.load()</code> carga el archivo de audio. <code>y</code> es la serie de tiempo del audio y <code>sr</code> es la tasa de muestreo. Debes reemplazar <code>'/content/drive/path/to/your/audio.wav'</code> con la ruta de tu archivo.</li>



<li><code>librosa.display.waveshow()</code> genera una representación visual de la forma de onda.</li>



<li><code>matplotlib.pyplot</code> nos ayuda a mostrar el gráfico.</li>
</ul>



<p>Si aún no tienes un archivo de audio en Google Drive, puedes subir uno manualmente o descargar muestras gratuitas desde <a href="https://freesound.org">Freesound.org</a>. Si trabajas en una instalación local, simplemente cambia la ruta del archivo a la ubicación correspondiente en tu computadora (por ejemplo, <code>C:/Users/TuNombre/audio.wav</code>).</p>



<p>Ejemplo de salida:</p>



<figure class="wp-block-image size-full"><img loading="lazy" decoding="async" width="1167" height="470" src="https://www.jhonatanlopez.com/wp-content/uploads/2025/02/waveform.png" alt="Forma de onda de un análisis digital de audio con Python, mostrando la amplitud a lo largo del tiempo." class="wp-image-4556" srcset="https://www.jhonatanlopez.com/wp-content/uploads/2025/02/waveform.png 1167w, https://www.jhonatanlopez.com/wp-content/uploads/2025/02/waveform-600x242.png 600w, https://www.jhonatanlopez.com/wp-content/uploads/2025/02/waveform-300x121.png 300w, https://www.jhonatanlopez.com/wp-content/uploads/2025/02/waveform-1024x412.png 1024w, https://www.jhonatanlopez.com/wp-content/uploads/2025/02/waveform-768x309.png 768w" sizes="auto, (max-width: 1167px) 100vw, 1167px" /><figcaption class="wp-element-caption"><em><strong>Figura 1</strong>: Forma de onda de un archivo de audio mostrando variaciones de amplitud a lo largo del tiempo.</em></figcaption></figure>



<h2 class="wp-block-heading">Reflexión</h2>



<p>Escribir este post ha sido un buen ejercicio de simplificación de ideas y conceptos complejos, todo para ponerlo en palabras sencillas intentando no perder su esencia. Al principio, subestimé el reto de elegir el punto de partida adecuado: ¿debería empezar directamente con espectrogramas o construir desde la base con formas de onda? Opté por lo segundo, entendiendo que comprender la señal en crudo sería fundamental para cualquier investigación así como tambien para el aprendizaje de nuevas herramientas.</p>



<p>Elegí Librosa después de explorar otras herramientas como scipy.signal. Su enfoque en el análisis de música y audio se alinea con mi objetivo de clasificar características de audio. Este proceso también me recordó los desafíos de accesibilidad en la investigación—por ejemplo, conectar Google Drive con Colab requirió pruebas y ajustes para hacerlo más simple para otros.</p>



<p>A medida que avance, espero ver cómo estas técnicas básicas evolucionan en los modelos de machine learning que estoy desarrollando, que quizas no pueda compartilo inmediatamente pero espero que en un futuro próximo si. Espero tambien que este blog documente algunos de mis avances y desafíos y sobretodo me ayude a organizar mejor mis ideas.</p>



<h2 class="wp-block-heading">Conclusión</h2>



<p>Este es solo el comienzo de un viaje en el análisis de audio digital con Python. Hoy aprendimos qué es el análisis de audio, por qué Python es una gran herramienta para ello y cómo visualizar una forma de onda básica. En futuras publicaciones, profundizaré sobre visualización de características de la forma onda como espectro.</p>



<h2 class="wp-block-heading">Recursos Adicionales</h2>



<ul class="wp-block-list">
<li><a href="https://librosa.org/">Librosa Documentation</a></li>



<li><a href="https://freesound.org/">Freesound.org</a></li>



<li><a>Google Colab</a></li>



<li><a href="https://www.ismir.net/">Deep Learning 101 for Audio-based MIR, ISMIR 2024 Tutorial</a></li>
</ul>
<p>The post <a href="https://www.jhonatanlopez.com/es/allyouneedissound-1-explorando-el-analisis-de-audio-digital-para-aplicaciones-avanzadas/">AllYouNeedIsSound 1: Explorando el Análisis de Audio Digital para Aplicaciones Avanzadas</a> appeared first on <a href="https://www.jhonatanlopez.com/es/acerca-de-mi">Jhonatan López</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
