Sapere Scienza

Sapere Scienza

Uno stuntman virtuale per migliorare le animazioni digitali

13 Aprile 2018

Gli effetti speciali cinematografici e le animazioni digitali dei videogiochi hanno fatto passi da gigante negli ultimi decenni ma, osservandoli con attenzione, c’è sempre un particolare movimento o gesto dissonante, un dettaglio che ci apre gli occhi e ci permette di realizzare che stiamo guardando qualcosa di finto. I ricercatori della University of California - Berkeley hanno trovato il modo di progredire nell’ambito dell’animazione computerizzata, adoperando uno stuntman virtuale a cui hanno insegnato movimenti naturali mediante un metodo innovativo.

 

Sempre più vicini alla realtà

 

Solitamente, nel campo delle animazioni digitali, sono progettati dei controller, algoritmi scritti singolarmente dal programmatore, per ogni abilità del personaggio virtuale: un controller per camminare, uno per correre, uno per girarsi e così via. In alternativa sono usati metodi di rafforzamento profondo dell’apprendimento, ad esempio il GAIL (Generative Adversial Imitation Learning) che fa riferimento a un singolo algoritmo generale per far imparare alla macchina diverse abilità, ottenendo un risultato più scadente rispetto al primo approccio. Gli scienziati di Berkeley hanno pensato di cogliere il meglio delle due tecniche: avere un solo algoritmo che possa imparare numerose abilità e riprodurre movimenti superiori a quelli ottenuti con tanti singoli controller.

 

banner articoli sapere3

 

Imparare dagli umani

 

Per fare questo il team di ricercatori ha raccolto dati di riferimento attraverso video mocap (motion capture) ossia registrazioni dei movimenti del corpo umano, acquisiti con un particolare sistema di telecamere, luci e marcatori, che registrano i movimenti di una persona che così possono, in seguito, essere analizzati e riprodotti digitalmente. In questo caso i clip contenevano 25 diverse tipologie di acrobazie e anche semplici sessioni di corsa, salti e lanci. Dopo aver fornito al computer queste informazioni, gli scienziati hanno permesso al sistema di allenarsi per ogni abilità per circa un mese di simulazioni.

 

 

Practice makes perfect

 

Il sistema si è esercitato sette giorni su sette, ventiquattro ore su ventiquattro, provando milioni di volte per imparare come simulare realisticamente i differenti movimenti. Inizialmente, come noi esseri umani, ha appreso provando e sbagliando: lo stuntman virtuale confrontava la sua performance con quella fornita dai mocap, modificando man mano il proprio comportamento per avvicinarsi sempre più a quello umano. Ma ecco che, a questo punto, il processo di apprendimento della macchina si distacca dal nostro: mentre per noi è possibile imparare ripetendo l’intero movimento, il modello virtuale può agire su una specifica fase dell’azione, concentrandosi unicamente su quella. Ad esempio, in una capriola all’indietro, può esercitarsi e perfezionarsi nella parte svolta a mezz’aria senza ripetere necessariamente salto e atterraggio. In questo modo lo stuntman può ottimizzare ogni singolo step, per poi unirli e compiere l’intera acrobazia. Non è finita qui: una volta allenatosi, il personaggio simulato riesce ad affrontare condizioni nuove come camminare su terreni irregolari.
DeepMimic, questo è il nome del sistema digitale, non apporterà benefici solo nell’ambito dei videogiochi e della produzione cinematografica: potrebbe anche essere d’ispirazione per lo sviluppo di capacità motorie più dinamiche nei robot.

 


Credits: Jason Peng, UC Berkeley

copertina   luglio-agosto 2018

  COMPRA IL NUMERO

 
  ABBONATI

 
  SOMMARIO

 
  EDITORIALE

bannerCnrXSapere 0

iscriviti copia

tirelli

Questo sito utilizza cookie, anche di terze parti, per migliorare la tua esperienza di navigazione. Se vuoi saperne di più consulta l'informativa estesa. Cliccando su ok acconsenti all'uso dei cookie.