Skip to content

Feat tts provider handling #62

New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Open
wants to merge 7 commits into
base: main
Choose a base branch
from
Open

Conversation

andrepat0
Copy link
Contributor

No description provided.

@andrepat0
Copy link
Contributor Author

Il giro funziona in questo modo:

  1. Chiamo la api /speechKey che mi ritorna il provider scelto dall'utente
  2. Il nuovo hook che ho creato useTTS.ts si occupa di richiamare una nuova api /tts che sulla base del provider scelto mi ritorna l'audio buffer, le chiavi vengono prese dalla getTenant e in fallback sulle variabili d'ambiente

modelli openAI disponibili:
Our other text-to-speech models are 'tts-1' and 'tts-1-hd'. The tts-1 model provides lower latency, but at a lower quality than the tts-1-hd model.
Ci sono 11 voci diverse:

  • alloy
  • ash
  • ballad
  • coral
  • echo
  • fable
  • nova
  • onyx
  • sage
  • shimmer
    Permettiamo all'utente di cambiare voce e/o modello?
    Inseriamo un audio player e visualizzatore all'interno del chat bubble del messaggio che si sta riproducendo?
    Per ora viene presa la voce di Ash e non viene visualizzato alcun audio player.
    Per testare la nuova feature dato che si basa sulle API esposte in piattaforma bisogna dar girare tutto in locale

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

Successfully merging this pull request may close these issues.

1 participant