- ByteDance lancia Seedance 2.0: cosa cambia nella generazione video
- Deepfake di Brad Pitt e Tom Cruise: il caso che ha fatto il giro della rete
- Come funziona il modello e perché è diverso dai precedenti
- Hollywood in allarme: il commento di Rhett Reese
- Copyright e deepfake: il nodo giuridico irrisolto
- Le implicazioni per il mercato del lavoro
- Domande frequenti
ByteDance lancia Seedance 2.0: cosa cambia nella generazione video
Non è più fantascienza, e nemmeno un esperimento confinato ai laboratori di ricerca. ByteDance, il colosso cinese proprietario di TikTok, ha ufficialmente rilasciato Seedance 2.0, un modello di intelligenza artificiale generativa capace di produrre video della durata di 15 secondi a partire da semplici istruzioni testuali. E il risultato, stando a quanto emerge dai primi utilizzi, è inquietante per realismo.
Il lancio del nuovo modello segna un salto qualitativo rispetto alla prima versione. Seedance 2.0 non si limita a generare animazioni approssimative o sequenze stilizzate: produce clip con movimenti fluidi, espressioni facciali credibili, illuminazione coerente. Basta fornire istruzioni sufficientemente dettagliate — un prompt ben costruito — e il sistema restituisce un video che, a un occhio non allenato, potrebbe sembrare girato con una telecamera vera.
La notizia ha rapidamente superato i confini della comunità tech per diventare un caso mediatico internazionale. Il motivo è semplice: tra i primi contenuti a diventare virali ci sono deepfake di celebrità hollywoodiane, realizzati da utenti comuni senza alcuna competenza tecnica avanzata.
Deepfake di Brad Pitt e Tom Cruise: il caso che ha fatto il giro della rete
A poche ore dal rilascio, i social si sono riempiti di video generati con Seedance 2.0 che ritraggono volti noti del cinema mondiale. Brad Pitt e Tom Cruise sono stati tra i soggetti più riprodotti: clip in cui le star appaiono in contesti mai vissuti, pronunciano frasi mai dette, compiono gesti mai fatti. Tutto generato dall'intelligenza artificiale.
La qualità di questi deepfake ha colto di sorpresa anche gli addetti ai lavori. I video mostrano micro-espressioni facciali, variazioni di luce sugli incarnati, persino il naturale movimento dei capelli — dettagli che fino a pochi mesi fa rappresentavano il limite tecnico più evidente dei modelli generativi. Ora quella barriera sembra caduta.
La diffusione incontrollata di questi contenuti rilancia con forza un dibattito che nel nostro Paese si intreccia con la regolamentazione europea dell'AI Act, entrato in vigore progressivamente dal 2024. Il regolamento prevede obblighi di trasparenza per i contenuti generati da IA, inclusa l'etichettatura obbligatoria. Ma la velocità con cui questi video si propagano rende l'applicazione concreta delle norme una sfida tutt'altro che banale.
Come funziona il modello e perché è diverso dai precedenti
Seedance 2.0 si inserisce nella famiglia dei modelli text-to-video, una delle frontiere più avanzate dell'IA generativa. L'utente digita una descrizione testuale — ad esempio "un uomo con l'aspetto di una star hollywoodiana cammina lungo una spiaggia al tramonto" — e il sistema genera un video corrispondente.
Ciò che distingue questo modello è la combinazione di tre fattori:
- Accessibilità: non servono competenze di programmazione, bastano istruzioni in linguaggio naturale
- Velocità di generazione: i video vengono prodotti in tempi estremamente ridotti
- Qualità del risultato: il livello di realismo supera quello dei principali concorrenti, inclusi Sora di OpenAI e i modelli di Runway
Gli utenti possono personalizzare le clip con indicazioni dettagliate su ambientazione, abbigliamento, movimenti, espressioni. Un livello di controllo che trasforma di fatto ogni persona con accesso a internet in un potenziale creatore di contenuti video fotorealistici. Con tutte le implicazioni che questo comporta.
Hollywood in allarme: il commento di Rhett Reese
La reazione dell'industria dell'intrattenimento non si è fatta attendere. Rhett Reese, sceneggiatore di successi come Deadpool e Zombieland, ha pubblicamente commentato il lancio di Seedance 2.0 con toni preoccupati, affermando che l'intelligenza artificiale generativa mette direttamente a rischio il lavoro degli sceneggiatori.
Non è una posizione isolata. Lo sciopero della Writers Guild of America del 2023, durato 148 giorni, aveva già posto al centro della trattativa proprio la questione dell'uso dell'IA nella scrittura cinematografica e televisiva. Ma allora il dibattito riguardava soprattutto i testi. Oggi, con modelli capaci di generare video completi, la minaccia si estende all'intera catena produttiva: dalla sceneggiatura alla pre-visualizzazione, dalla creazione di storyboard fino — potenzialmente — alla produzione di scene finite.
La preoccupazione di Reese tocca un nervo scoperto anche nel contesto italiano, dove il settore audiovisivo e quello dell'istruzione artistica si interrogano su come preparare le nuove generazioni di professionisti a un mercato del lavoro in rapidissima trasformazione.
Copyright e deepfake: il nodo giuridico irrisolto
Il caso Seedance 2.0 rilancia con urgenza la questione del copyright nell'era dell'intelligenza artificiale. Se un utente genera un video con il volto di Brad Pitt, chi detiene i diritti su quel contenuto? L'utente che ha scritto il prompt? ByteDance, che ha sviluppato il modello? O l'attore il cui volto è stato riprodotto senza consenso?
La legislazione attuale — tanto quella italiana quanto il quadro europeo — non offre risposte univoche. L'AI Act europeo classifica i sistemi di generazione di deepfake come soggetti a obblighi di trasparenza, ma non affronta nel dettaglio la titolarità dei diritti sulle opere generate. Il diritto all'immagine, tutelato in Italia dall'articolo 10 del Codice Civile e dagli articoli 96-97 della Legge sul diritto d'autore, vieta in linea di principio l'uso non autorizzato del volto di una persona. Ma far valere questa tutela contro milioni di video generati istantaneamente da utenti sparsi per il globo è un'impresa di proporzioni inedite.
A complicare ulteriormente il quadro c'è la questione dei dati di addestramento. Seedance 2.0, come tutti i modelli generativi, è stato allenato su enormi quantità di materiale video e fotografico. Quanto di quel materiale era protetto da copyright? ByteDance, al momento, non ha fornito dettagli sulla composizione del dataset di training, un'opacità che alimenta le critiche di chi chiede maggiore trasparenza.
Le implicazioni per il mercato del lavoro
Oltre alle questioni legali ed etiche, Seedance 2.0 apre una riflessione più ampia sul rapporto tra intelligenza artificiale e lavoro. La capacità di generare video realistici senza bisogno di attori, troupe, location o post-produzione potrebbe ridisegnare interi segmenti del settore creativo.
Non si tratta di un allarme teorico. Le agenzie pubblicitarie già utilizzano modelli generativi per produrre bozze di campagne video. Le piccole produzioni indipendenti sperimentano con l'IA per abbattere i costi. E i social media, TikTok in testa — non a caso di proprietà della stessa ByteDance — diventano il terreno ideale per la diffusione massiva di contenuti generati artificialmente.
Nel mondo della formazione e della ricerca, il fenomeno solleva interrogativi che riguardano anche le università italiane e i loro corsi di comunicazione, cinema e arti digitali. Formare professionisti capaci di utilizzare questi strumenti senza subirne passivamente le conseguenze è una sfida che richiede un aggiornamento rapido dei programmi didattici e, soprattutto, una riflessione seria sulle competenze che il mercato chiederà nei prossimi anni.
La questione, insomma, resta aperta. E con ogni nuova release — Seedance 3.0 è probabilmente già in fase di sviluppo — i margini per una regolamentazione efficace si fanno sempre più stretti.
Domande frequenti
Cos'è Seedance 2.0 di ByteDance?
Seedance 2.0 è un modello di intelligenza artificiale generativa sviluppato da ByteDance, la società madre di TikTok. Permette di creare video realistici della durata di 15 secondi a partire da istruzioni testuali (prompt). È stato lanciato nel febbraio 2026 e ha immediatamente attirato l'attenzione per la qualità dei risultati e per la facilità d'uso.
Come funzionano i deepfake generati con l'intelligenza artificiale?
I deepfake vengono creati attraverso modelli di IA addestrati su grandi quantità di dati video e fotografici. L'utente fornisce una descrizione testuale dettagliata e il sistema genera un video che riproduce volti, movimenti ed espressioni in modo realistico. Con Seedance 2.0, il processo è diventato accessibile anche a chi non possiede competenze tecniche specifiche.
I deepfake di celebrità sono legali?
La questione è giuridicamente complessa. In Italia, il diritto all'immagine è tutelato dal Codice Civile e dalla Legge sul diritto d'autore, che in linea di principio vietano l'uso non autorizzato del volto di una persona. L'AI Act europeo impone obblighi di trasparenza per i contenuti generati da IA. Tuttavia, l'applicazione concreta di queste norme ai deepfake prodotti su scala globale resta problematica.
Quali rischi comportano i deepfake per il mondo del lavoro?
Modelli come Seedance 2.0 possono potenzialmente sostituire figure professionali nella produzione video, dalla recitazione alla sceneggiatura, dalla regia alla post-produzione. Lo sceneggiatore Rhett Reese ha espresso pubblicamente la preoccupazione che l'IA generativa possa rendere superfluo il lavoro di molti professionisti del settore creativo.
ByteDance ha previsto misure di sicurezza contro l'abuso dei deepfake?
Al momento del lancio, ByteDance non ha fornito dettagli esaustivi sulle misure di prevenzione degli abusi né sulla composizione del dataset utilizzato per addestrare il modello. La mancanza di trasparenza su questi aspetti è tra le principali criticità sollevate da esperti e regolatori.