Qualche giorno fa, durante il “Meta Connect 2024”, Zuckerberg ha annunciato l’aggiunta di una serie di nuove funzionalità per i social meta realizzabili grazie all’intelligenza artificiale.
Tra le più interessanti certamente il doppiaggio automatico per l’audio di Instagram Reels e la traduzione vocale.
Per quanto concerne il doppiaggio automatico, l’idea nasce dalle necessità dei creators del poter comunicare nel maggior numero di lingue e di conseguenza al maggior numero di persone.
“Con il doppiaggio automatico e la sincronizzazione labiale, Meta AI simulerà la voce dell’utente in un’altra lingua e sincronizzerà le labbra”, spiega Zuckerberg. “Stiamo iniziando con piccoli test su Instagram e Facebook, traducendo i video di alcuni creator dell’America Latina e degli Stati Uniti in inglese e spagnolo, e abbiamo in programma di espandere il servizio a un maggior numero di creator e lingue”.
Questa innovazione consente quindi di offrire contenuti accessibili a un’audience internazionale senza più barriere linguistiche.
La traduzione vocale simultanea riguarda invece la capacità degli occhiali intelligenti Ray-Ban Meta, lanciati originariamente nello scorso 2021.
“Presto gli occhiali saranno in grado di tradurre il parlato in tempo reale. Quando parlerete con qualcuno che parla spagnolo, francese o italiano, sentirete quello che dice in inglese attraverso gli altoparlanti degli occhiali”.
Certamente entrambe le innovazioni, se realizzate contribuiranno a migliorare il coinvolgimento e la fidelizzazione dello spettatore, rendendo i contenuti più avvincenti e memorabili.