rete neurale

Tecnica per realizzare animazioni 3d realistiche

Tempo di lettura: 3 minuti

Una parte fondamentale per dare vita ai personaggi animati 3D è la capacità di rappresentare i loro movimenti fisici in modo naturale in qualsiasi scena o ambiente.

Animare i personaggi per interagire naturalmente con gli oggetti e l’ambiente richiede la sintesi di diversi tipi di movimenti in modo complesso, e tali movimenti possono differire notevolmente non solo nella loro postura, ma anche nella loro durata, nei modelli di contatto e nelle possibili transizioni. Fino ad oggi, la maggior parte dei metodi basati sull’apprendimento automatico per il controllo del movimento del personaggio sono stati limitati ad azioni più semplici o singoli movimenti, come comandare un personaggio animato per spostarsi da un punto all’altro.

Gli informatici dell’Università di Edimburgo e Adobe Research, il team di ricercatori e ingegneri della società che hanno trasformato le idee nella fase iniziale in tecnologie innovative, hanno sviluppato una nuova tecnica basata sui dati che utilizza reti neurali profonde per guidare con precisione i personaggi animati inferendo un varietà di movimenti , sedersi sulle sedie, raccogliere oggetti, correre, fare un passo laterale, arrampicarsi attraverso gli ostacoli e attraverso le porte e raggiungere questo obiettivo in modo intuitivo con semplici comandi di controllo.

I ricercatori dimostreranno il loro lavoro, Neural State Machine for Character-Scene Interactions, presso ACM SIGGRAPH Asia,  dal 17 al 20 novembre a Brisbane, in Australia. SIGGRAPH Asia, giunta alla sua dodicesima edizione, attira le persone tecniche e creative più rispettate da tutto il mondo in computer grafica, animazione, interattività, giochi e tecnologie emergenti.

Per animare le interazioni personaggio-scena con oggetti e ambiente, ci sono due aspetti principali, pianificazione e adattamento, da considerare, dicono i ricercatori. Innanzitutto, al fine di completare un determinato compito, come sedersi su sedie o raccogliere oggetti, il personaggio deve pianificare e passare attraverso una serie di movimenti diversi. Ad esempio, questo può includere iniziare a camminare, rallentare, girarsi e posizionare con precisione i piedi e interagire con l’ oggetto, prima di continuare infine con un’altra azione. In secondo luogo, il personaggio deve adattare naturalmente il movimento alle variazioni di forma e dimensione degli oggetti ed evitare ostacoli lungo il suo percorso.

Video Youtube ↓

[SIGGRAPH Asia 2019] Neural State Machine for Character-Scene Interactions

“Raggiungere questo obiettivo in qualità pronta per la produzione non è semplice e richiede molto tempo. La nostra Neural State Machine apprende invece il movimento e richiede le transizioni di stato direttamente dalla geometria della scena e una determinata azione obiettivo”, afferma Sebastian Starke, autore senior della ricerca e un dottorato studente presso l’Università di Edimburgo nel laboratorio di Taku Komura. “Insieme a questo, il nostro metodo è in grado di produrre diversi tipi di movimenti e azioni in alta qualità da un’unica rete”.

Usando i dati di motion capture, il framework dei ricercatori impara come trasferire il personaggio in modo più naturale da un movimento al successivo, ad esempio essere in grado di superare un ostacolo che blocca una porta, e quindi passare attraverso la porta, o raccogliere una scatola e poi portando quella scatola da sistemare su un tavolo o una scrivania lì vicini.

La tecnica influenza la posa successiva del personaggio nella scena in base alla posa precedente e alla geometria della scena. Un altro componente chiave del framework dei ricercatori è che consente agli utenti di controllare e navigare interattivamente il personaggio da semplici comandi di controllo. Inoltre, non è necessario conservare tutti i dati originali acquisiti, che invece vengono pesantemente compressi dalla rete mantenendo il contenuto importante delle animazioni.

“La tecnica essenzialmente imita il modo in cui un essere umano si muove intuitivamente attraverso una scena o un ambiente e come interagisce con gli oggetti, in modo realistico e preciso”, afferma Komura, coautore e presidente della computer grafica presso l’Università di Edimburgo.

Lungo la strada, i ricercatori intendono lavorare su altri problemi correlati nell’animazione dei personaggi basata sui dati, inclusi i movimenti in cui possono verificarsi più azioni contemporaneamente o l’animazione di interazioni ravvicinate tra due umani o persino folle.