I governi fuori da tutto e campo libero alle multinazionali ..mi pare giusto no?
In netto contrasto con l'esperimento fallito di Amazon Prime Video, l'agenzia giapponese 81Produce ha annunciato questa settimana una partnership con la società di software IA ElevenLabs che tenta un approccio radicalmente diverso. L'accordo, presentato lunedì 15 dicembre, si basa su tre pilastri fondamentali: consenso, protezione e compenso.
E alla fine che ci ha rimesso Meta da tutta la bufera mediatica? Niente, Zuck si è intortato i governi e continua a fare quello che gli pare con profitti incalcolabili.Chi ancora pensa alle multinazionali che fanno tutto e i governi imbelli non ha capito molto di quello che un governo può fare. Si veda il caso Meta negli Stati Uniti.
Ci sono già ora prodotti doppiati solo content IA di cui nessuno parla prob perché non "fanno rumore" al livello mediatico.
Il peggior scenario per l'intero settore che immagino, è quello di una diminuzione di nuove promesse, chiusi da un sistema che premia l'ottimizzazione dei costi, che sì protegge gli artisti, ma quelli che già sono dentro, affermati e richiesti per le localizzazioni
Ma le cose sono un po' più sfumate. So di diversi doppiatori emergenti che stanno usando questo genere di programmi ,e manco sono affiliati a grandi agenzie. Ho avuto a che fare personalmente con una doppiatrice, che ha debuttato con un programma di sintesi "AI" (AI Voice e a breve anche AI Voice 2) dopo aver fatto per un paio d'anni un personaggio in un voice drama, con audizione tramite internet per una non-profit.
Tra l'altro ci sono anche per materiale R18 (Lusty Kiss production e il software Coeiroink, pubblicano sulla sezione R18 di DLsite, Dlisite Maniax).
Cosa ci dovrebbe entrare un video amatoriale fatto con sintetizzatori vocali in un discorso su multinazionali e retribuzione dei doppiatori? Che narrazione “crollerebbe”?Oppure ci sono quelli amatoriali da anni che però si fa finta che non esistano sennò la narrazione crolla miseramente, esempio a caso (in Giapponese) preso da Youtube: https://www.youtube.com/watch?v=nAUMOVAv7rw
Cosa ci dovrebbe entrare un video amatoriale fatto con sintetizzatori vocali in un discorso su multinazionali e retribuzione dei doppiatori? Che narrazione “crollerebbe”?
Penso che tutti qui siano a conoscenza della loro esistenza, e del fatto che sono una cosa completamente diversa da Amazon che pubblica sulla sua piattaforma a pagamento un doppiaggio AI con una qualità peggiore di quella di quel video.
Ma ho capito male io o in questo passo:
"Secondo quanto dichiarato da ElevenLabs, la loro tecnologia sarebbe in grado di prelevare campioni vocali con il consenso dei doppiatori e produrre doppiaggi IA in ben 29 lingue diverse."
quindi vorrebbe dire che il sistema campionando la voce del doppiatore giapponese sarebbe in grado di fornire un doppiaggio in un'altra lingua mantenendo quindi la stessa sonorità della voce originale ?
L'idea è quella. E sarebbe molto interessante vederne il risultato.
Sì, il mercato ha rigettato i “doppiaggi” inglesi di Banana Fish e NGNL perché sono quelli che hanno fatto più scalpore. Ma come è già stato fatto notare, non erano gli unici prodotti con doppiaggio AI su Prime, eppure gli altri sono rimasti, perché in altre lingue o su prodotti meno conosciuti c’è meno rumore, NON perché fossero di qualità migliore.E il mercato infatti l'ha rigettato perché faceva schifo. Invece di farlo notare si sta invece ancora a fare discorsi basati su teorie di fine '800.
Devi eseguire l'accesso per lasciare un commento.
Non è mica una novità. Il crowdfunding per sistemi di sintesi vocale (non è un doppiaggio con sistemi generativi) è sempre stato fatto, da almeno una decina di anni. Doppiatori che hanno già fatto questa cosa sono, per esempio:
1) Kikuko Inoue (Haruno Sora - Voicepeak);
2) Mai Kadowaki (Tsuina-chan - Voiceroid2);
3) Yoshino "Bocchi" Aoyama (Koharu Rikka, Cevio AI, Voisona, Voicepeak).
A questo si aggiungono anche doppiatori emergenti (sì, proprio gente agli inizi) che hanno partecipato a questo genere di progetti.
Esiste anche un personaggio con una voce totalmente artificiale, creata con fonemi predisposti con il software Audacity e con un distinto tono robotico (Adachi Rei).
Esistono anche versioni in Inglese (proprio il personaggio basato su Kaiji ha anche una versione inglese sulla piattaforma Voisona Song e Voisona Talk).
La quasi totalità dei programmi consente un uso commerciale con licenza apposita.
Giusto per dare un'idea più precisa, Coefont è una compagnia che offre tre tipi di servizi:
1) Sintesi vocale per usi amatoriali o commerciali, fatta con la voce di utenti ovvero con professionisti (la compagnia ha 4 personaggi che usa per promuoverla - Millial, Allial, Avenir, Canel, quest'ultimo doppiato da Toshiyuki Morikawa, per fare un nome più famoso). La compagnia parla di AI per la generazione delle voci ma se devo essere onesto la qualità rispetto ai software "scatolati" è abbastanza bassa per certe cose. Faccio presente che l'uso delle voci, nel caso non sia gratuito, garantisce un compenso all'utente che ha generato la voce;
2) Sintesi vocale "al volo" per streaming ecc.
3) Servizio di registrazione voci e/o messaggi per eventi o per ricordi in caso, tra l'altro, la persona non sia più tra i vivi.
Si sono anche espansi fuori dal giappone con Coefont global (cosa che ANN si è ben guardata da segnalare) ma non ho idea se abbiano avuto successo o meno.
Buona fortuna a pensare che questo possa fermare alcunchè. Mi ricorda la RIAA e la pirateria nei primi anni 2000.
Lasciamo i governi fuori da tutto. Regolare non è mai la soluzione. Sarà il mercato a decidere, e checché se ne dica, il flop di Amazon dimostra che in realtà le previsioni dei catastrofisti sono tutto fuorché scontate.