Conversión de Texto a Voz con Azure Cognitive Services
Clase 11 de 27 • Curso de Azure Cognitive Services
Contenido del curso
- 5

Text Analytics: Extracción y Análisis de Texto en Documentos
10:30 - 6

Escenarios de Uso de Servicios Cognitivos en Análisis de Datos
07:04 - 7

Análisis de Sentimiento con APIs de Azure: Uso y Configuración
09:37 - 8

Detección de Idiomas con Servicios Cognitivos Azure
07:26 - 9

Desarrollo de Aplicación de Consola con Text Analytics en C#
15:53
- 10

Servicios de Voz en Cognitive Services: Conversión y Aplicaciones
06:53 - 11

Conversión de Texto a Voz con Azure Cognitive Services
11:38 - 12

Conversión de Voz a Texto con Servicios Cognitivos en Visual Studio
13:33 - 13

Implementación de Traducción de Voz en Visual Studio
10:14 - 14

Implementación de Reconocimiento de Voz con Visual Studio
13:37
- 15

Visión Computacional con Microsoft: Análisis y Aplicaciones Prácticas
06:38 - 16

Creación de un Servicio de Computer Vision en Azure y su Implementación
11:56 - 17

Servicio OCR: Conversión de Imágenes a Texto Usando Azure
08:46 - 18

Reconocimiento Facial: Detección y Análisis de Rasgos Humanos
08:50 - 19

Detección y Análisis de Rostros con Face API
04:44 - 20

Uso de la API Face para Detección y Verificación de Rostros
16:53
- 21

Implementación de Luis para Comprensión del Lenguaje Natural
11:39 - 22

Creación de Modelos e Intenciones en Aplicaciones de Luis
11:52 - 23

Desarrollo de Aplicaciones en LUIS desde Cero
12:09 - 24

Uso de Modelos Prediseñados en Aplicaciones de Luis
07:25 - 25

Entrenamiento y Publicación de Modelos en LUIS
16:34 - 26

Integración del modelo Luis en aplicaciones con SDK de C#
08:28
¿Cómo convertir texto en voz usando Azure Cognitive Services?
El mundo del desarrollo tecnológico está lleno de sorpresas y hoy nos sumergimos en el increíble ámbito de la conversión de texto a voz mediante Azure Cognitive Services. Este proceso te permite generar audios de salida en tus bocinas o crear archivos de audio con una voz sintetizada, ofreciendo la posibilidad de enriquecer aplicaciones con características accesibles y avanzadas.
¿Qué necesitas para empezar?
Para empezar con la implementación, primero necesitas crear un servicio cognitivo de tipo speech en Azure. A continuación, detallamos los pasos iniciales:
-
Crea un servicio de tipo speech:
- Inicia sesión en el portal de Azure.
- Selecciona
Create a Resourcey busca el servicioSpeech. - Llena las opciones requeridas como nombre, ubicación (se recomienda
WestUSpara mejor latencia), tipo de tarifa y grupo de recursos.
-
Configura el proyecto en Visual Studio:
- Crea un nuevo proyecto de aplicación de consola en Visual Studio.
- Instala el paquete NuGet
Microsoft.CognitiveServices.Speechpara poder utilizar el servicio de texto a voz.
¿Cómo configurar y utilizar el servicio en tu proyecto?
El proceso de configuración y uso del servicio requiere de ciertos pasos técnicos en tu proyecto de Visual Studio:
-
Adicional los usings necesarios:
Agrega los siguientes
usingen tu claseProgram.cspara poder utilizar el servicio de speech y trabajar con el sistema de archivos de Windows.using Microsoft.CognitiveServices.Speech; -
Configuración de la llave de suscripción y región:
Copia la llave de suscripción y la región desde el portal de Azure para configurarlos en tu proyecto.
string subscriptionKey = "tu_llave_de_suscripción"; string region = "WestUS"; -
Crear métodos para sintetizar voz:
Los métodos deben ser creados tanto para sintetizar directamente al speaker como para generar un archivo de audio:
private async Task SynthesizeToSpeakerAsync() { var config = SpeechConfig.FromSubscription(subscriptionKey, region); using var synthesizer = new SpeechSynthesizer(config); await synthesizer.SpeakTextAsync("Hello World"); }private async Task SynthesizeToFileAsync() { var config = SpeechConfig.FromSubscription(subscriptionKey, region); using var synthesizer = new SpeechSynthesizer(config, null); var result = await synthesizer.SpeakTextAsync("Your text here"); if (result.Reason == ResultReason.SynthesizingAudioCompleted) { File.WriteAllBytes("outputfile.wav", result.AudioData); } }
¿Cómo funciona el uso de archivos XML para especificar el sintetizador?
Los archivos XML son esenciales para definir las características del sintetizador:
-
Crea un archivo XML (SSML): Define el contenido y la voz en el que debería sintetizarse.
<speak version="1.0" xml:lang="en-US"> <voice name="en-US-JennyNeural">Your text here</voice> </speak> -
Configura el archivo en el proyecto: Asegúrate de que el archivo se copie correctamente al directorio de salida.
<CopyToOutputDirectory>Always</CopyToOutputDirectory>
Recomendaciones para implementar el servicio
Este tipo de tecnologías puede enriquecer cualquier proyecto, ofreciendo funcionalidades para mejorar la accesibilidad y la experiencia del usuario. Considera implementar estos servicios en:
- Aplicaciones móviles.
- Asistentes virtuales.
- Herramientas educativas inclusive para personas con discapacidades visuales.
Te invitamos a investigar y probar diferentes configuraciones. El conocimiento aplicado es la clave para avanzar en el fascinante mundo de la inteligencia artificial. ¡Mucho éxito en tu aprendizaje continuo!