Clasificación Automática de la Calidad Vocal

Autores/as

  • Mario Alejandro García, Doctorando/a Universidad Tecnológica Nacional - Facultad Regional Córdoba - Argentina
  • Eduardo A. Destéfanis Director

DOI:

https://doi.org/10.33414/ajea.4.408.2019

Palabras clave:

Aprendizaje Profundo, Redes Neuronales Artificiales, Calidad ocal

Resumen

Se presenta un enfoque para la construcción de un clasificador extremo-a-extremo de la calidad vocal en escala GRBAS basado en redes neuronales profundas. En base a este enfoque se muestran tres redes neuronales. Las redes presentadas calculan la transformada de Fourier de término reducido (STFT), el cepstrum y shimmer de una señal de audio. Las redes neuronales que calculan la STFT y shimmer se logran entrenar correctamente, mientras que la que calcula el cepstrum no. Para este último caso, se plantea una solución alternativa al cepstrum, la autocovariance, que sí se puede entrenar. Se concluye que las redes neuronales desarrolladas son compatibles con el enfoque planteado porque permiten que el gradiente del error se propague hacia atrás, condición necesaria para entrenar el modelo completo.

Descargas

Los datos de descargas todavía no están disponibles.

Descargas

Publicado

2019-11-01

Cómo citar

García, M. A., & Destéfanis, E. A. (2019). Clasificación Automática de la Calidad Vocal. AJEA (Actas De Jornadas Y Eventos Académicos De UTN), (4). https://doi.org/10.33414/ajea.4.408.2019