Questa è una breve introduzione di come sono stati realizzati gli aspetti più importanti di ciascun film nominato nella categoria dei migliori effetti visivi per gli 85 ° Academy Awards. Questo articolo descriverà la realizzazione di film: Prometheus, The Avengers, Life of Pi, Biancaneve e The Huntsman e The Hobbit.
LV-223 è il pianeta in cui arriva l'astronave di Prometeo. Gli artisti hanno creato molte immagini concettuali per previsualizzare come sarebbe apparso il pianeta LV-223. Per creare l'atmosfera del pianeta, il team ha realizzato alcuni scatti aerei in Islanda, che sono stati poi combinati con gli sfondi del cloud realizzati dal team VFX. Dopo aver dato uno sguardo profondo alle immagini concettuali, il team ha trovato un paesaggio appropriato, che si adattava alla loro visione, chiamato Wadi Rum, situato in Giordania.
Il team ha analizzato l'area utilizzando immagini satellitari di Google Earth e, insieme ai file di elevazione digitali, ha ricostruito il paesaggio in Maya e per le trame, il team ha fotografato Hi-Res 360 HDRI delle Valli del Wadi Rum, creando in questo modo l'ambiente digitale . Anche per i colpi a livello del suolo del pianeta, la squadra è andata sul terreno vulcanico di Hekla, situato in Islanda.
Fonte: http://www.moving-picture.com/
L'ingegnere viene presentato come una creatura simile a un umano idealizzato, che è venuto sulla terra per seminare con la vita. Portare un umanoide digitale fotorealistico molto vicino alla fotocamera è stata una grande sfida. Il primo compito consisteva nel migliorare i loro algoritmi di SSS (sub-surface scattering) per produrre un credibile lavoro di tipo close-up, quindi si sono spostati su un modello QD (translized quantized-diffusion), che consente loro di assomigliare a complesse combinazioni di skin sparse e proprietà superficiali con precisione. D'altra parte la squadra ha lavorato sodo per abbinare esattamente i movimenti di un attore fisico sulla piastra con un abito protesico in silicio con quelli del personaggio digitale, aggiungendo il fatto che l'intero film è stato girato in stereo. La squadra aveva bisogno di attenuare e aumentare il modo in cui normalmente avrebbero fatto i muscoli, ma anche di aggiungere un po 'più di vita rispetto a quanto la protesi normalmente otterrebbe.
Fonte: immagine acquisita dalla copia originale del Blu-ray
The Orrery è una mappa 3D interattiva dell'universo conosciuto. Questa rappresentazione 3D dell'universo ha tra 80 e 100 milioni di poligoni. La scena in cui appare Orrery è stata girata nel palco di James Bond ???? 007, con l'attore che interagiva solo con una sfera, che poi è stata rimossa digitalmente per simulare uno dei pianeti. Questi scatti hanno richiesto diverse settimane per eseguire solo un rendering completo, quindi ha incorporato i profondi strumenti di compositing di Nuke, che invece di renderizzare i frame piatti, questo set di strumenti ha permesso di rendere i dati 3D, che poi sono combinati nello spazio 3D, riducendo in questo modo il tempo di rendering. Il team ha trascorso circa 7 mesi a produrre ambienti, effetti e personaggi, per integrarli nel filmato stereoscopico 3D in diretta.
Fonte: http://www.fuelvfx.com/
Questo video ti mostrerà le fantastiche scene VFX, come sono state realizzate e alcune scene di compositing.
Per molte delle scene di questo film sono state richieste estensioni del set CG e Luma Pictures, Fuel VFX e Trixter ne erano responsabili. Per la sequenza di battaglia di New York, la squadra ha costruito un set nel New Mexico, che conteneva 40 ???? schermi verdi su ogni lato, alcune auto danneggiate, polvere e detriti.
Il team ha costruito la città attorno al set fotografando quasi 2000 tessere di piastrelle, creando una sorta di Google Street view ad alta risoluzione, inoltre hanno aggiunto polvere CG, detriti, fumo, braci e ogni finestra è stata sostituita con una versione CG con riflessi migliorati per evitare che l'ambiente apparisse troppo statico.
Il team ha costruito una libreria di risorse digitali, che ha usato per popolare le strade di New York, mentre la squadra ha dipinto tutte le persone, le auto e gli oggetti per ottenere una trama chiara.
Fonte: http://www.youtube.com/watch?v=MnQLjZSX7xM
Per creare questo personaggio, il team ha iniziato con la creazione del doppio digitale di Mark Ruffalo, iniziando con una scansione live dell'attore, che è stata successivamente modificata in ZBrush per diventare The Hulk, pur mantenendo l'aspetto dell'attore originale. Questo è stato ottenuto studiando Ruffalo fino al livello dei pori, hanno fatto un cast dei suoi denti, gli hanno sparato gli angoli degli occhi, ha preso le immagini delle sue gengive, lo spazio tra le dita, persino ogni capello, talpa o cicatrice, la sua vera pelle è stata scansionata e lanciare The Hulk.
Una delle grandi difficoltà che hanno avuto è stata quella di gestire il colore della pelle, dopo aver eseguito l'aspetto iniziale della pelle in diversi ambienti, interni, celesti, ecc., Il suo colore è cambiato così tanto in ogni scatto che il team ha dovuto lavorare duramente per mantenere la coerenza. Sia il movimento del viso e del corpo sono stati una perfetta integrazione di motion capture e animazione di fotogrammi chiave. C'era una grande quantità di lavoro necessaria per ottenere la performance dell'attore da leggere correttamente e il peso del movimento del personaggio giusto.
Fonte: http://marvel.com/avengers_movie
Il S.H.I.E.L.D Helicarrier è sicuramente il più grande patrimonio visivo del film. Il trucco per creare un veicolo così credibile era l'incorporazione di aspetti e caratteristiche che sono presenti nella realtà, motivo per cui il suo design era basato su una portaerei, dando una base che il pubblico avrebbe conosciuto. L'aggiunta di strisce di lancio, porte anti-esplosione e cavi di arresto, veicoli in movimento e equipaggio digitale sul set vende le dimensioni del veicolo. Tutti i modelli sono stati creati in combinazione con Maya e 3ds Max.
Usando Flowline, il team ha completato diversi tipi di simulazioni dell'acqua, dall'oceano piatto, al gorgoglio e all'acqua che gocciola quando l'imbarcazione solleva dal mare, con un composito effetto arcobaleno con Nuke. Per gli schermi interni della nave sono stati girati diversi pannelli di vetro vuoti, per la successiva aggiunta di elementi 2D e 3D generati in After Effects e Cinema 4d di Cantina.
Fonte: http://marvel.com/avengers_movie
Questo video ti mostrerà le fantastiche scene VFX, come sono state realizzate e alcune scene di compositing.
Richard Parker è la tigre del Bengala, che accompagna il personaggio in tutto il suo naufragio. Rhythm & Hues erano incaricati di creare questa tigre CG realistica. Il team ha iniziato a studiare centinaia di ore di filmati di riferimento di tigri reali, e per ognuno degli scatti ci sarebbe qualche riferimento su cui basare, evitando in questo modo la possibilità di far reagire la tigre come un essere umano, il che sarebbe contro dell'intero punto del film.
Quasi il 90% di Richard Parker è CG. Le vere tigri erano usate solo per pochi colpi, incluso uno quando la tigre sta nuotando nell'oceano per mangiare un pesce.
Il team ha iniziato con lo scheletro, per controllare i movimenti di base e poi ha aggiunto un sistema muscolare. Il volto era uno degli aspetti più importanti di Richard Parker; il suo sartiame facciale era una combinazione di un sottostrato più muscoloso con più forme di fusione sulla parte superiore, che sono state parzialmente ricreate in modo procedurale. Un altro aspetto chiave è la pelle e il pelo, la squadra ha usato la dispersione subsuperficiale che ha ammorbidito la pelliccia un po ', quindi la luce penetrava più in profondità nella tigre e nella sua pelliccia. Per lo più era raytracing e la squadra ha usato il maggior numero possibile di HDRI per far sì che Richard Parker riflettesse appieno il suo ambiente. Tutti questi aspetti fanno di Richard Parker uno dei migliori animali CG fotorealistici mai creati.
Fonte: http://www.flickr.com/photos/lifeofpimovie/8020528490/in/photostream/
Le scene nell'oceano sono state girate in un serbatoio che genera onde di 230 piedi per 100 piedi, situato a Taiwan e contenente 1,7 milioni di litri d'acqua ...
Per più di 50 minuti del film, il personaggio è solo nell'oceano con una tigre del Bengala, di nome Richard Parker, e come ha detto Westenhofer, la sfida per il team è stata quella di rappresentare l'oceano il più possibile. Le scene nell'oceano sono state girate in un acquario di 230 metri per 100 piedi situato a Taiwan e contenevano 1,7 milioni di litri d'acqua, il set era interamente circondato da schermi blu e una griglia dipinta per aiutare il tracking.
Il team ha lavorato con Scanline sull'implementazione di un nuovo metodo di simulazione della superficie chiamato "Refined Sheet" per Flowline, che utilizzava la geometria animata come strato di base per la simulazione creata all'interno di Maya usando i deformatori d'onda di Tessendorf e Gestner, seguendo l'emissione di un sottile foglio di voxel su di esso per risolvere il flusso d'acqua e le interazioni. Ciò ha permesso loro di aumentare la quantità di dettagli sulla superficie dell'acqua, finendo con la simulazione di quelli che chiamano "gli elementi", lo spray sulla cresta delle onde, che diventerebbe nebbia se catturati dal vento, bolle che diventerebbero schiuma quando sale in superficie. Ottenere questi elementi in equilibrio si è rivelato molto importante per ottenere l'aspetto e ottenere i dettagli richiesti da quelle lunghe inquadrature, simulando centinaia di milioni di particelle in ogni colpo.
Fonte: http://www.flickr.com/photos/lifeofpimovie/8020537924/in/photostream/
Ci sono un sacco di momenti in questo film che ti toglieranno il respiro con le abilità 3D, mettendo tutti i tipi di animali e oggetti di fronte a te, ma ti fa anche esplorare la profondità dell'oceano e altri incredibili ambienti. Una delle sfide per il team è stata quella di girare in stereo stereo sull'acqua, perché l'acqua è molto riflettente, a seconda del punto di vista, si otterranno riflessi diversi, per risolvere questo problema, gli strumenti automatici elaborati disparità e uno stereo di controllo di qualità manualmente controllato tutte le scene e sistemato.
Un altro aspetto che ti fa sentire di essere davvero lì è il cielo, R & H ha usato il suo strumento personalizzato, Rampage, che è un software di mappatura di proiezione 3D che ha permesso al team di sostituire facilmente i cieli con i propri dipinti opachi in ogni scatto, il team generato oltre 110 cieli HDRI completi in 3D stereo. Con Rampage, il team è stato in grado di proiettare i propri dipinti opachi personalizzati sulla geometria 3D di base e rivederli in tempo reale, generando in questo modo immagini di riferimento fulminee alle altre squadre.
Fonte: http://www.eonline.com/news/364868/life-of-life-of-pi-5-reasons-the-movie-was-deemed-unfilmable
Questo video ti mostrerà le fantastiche scene VFX, come sono state realizzate e alcune scene di compositing.
Uno degli effetti più notevoli del film è la scena in cui la Regina pone la sua famosa domanda: "Chi è il più bello di tutti loro?" a un Mirror Man liquido e metallico che emerge dal suo muro.
L'idea per l'uomo arrivò quando il regista vide una scultura di Kevin Francis Gray chiamata Face-Off, e gli chiese di ridisegnarla per il film.
Il team ha organizzato uno studio fotografico per un giorno per registrare molti liquidi al rallentatore per esplorare come reagirebbero i diversi tipi di materiali nel mondo reale. Il mulino ha utilizzato Maya nCloth per la simulazione della forma liquida di Mirror Man e molte forze personalizzate per controllare la forma del tessuto fino a quando non si solleva nella figura solida. Sul set, Charlize Theron era di fronte a un puntello riflettente con una Red Epic Camera all'interno per catturare la performance dell'attrice. Questo è stato poi utilizzato per le riflessioni sullo Mirror Man usando le normali UV e la posizione del punto nello spazio del mondo per controllare l'aspetto, ma il vero riflesso fisico l'avrebbe resa quasi invisibile, così l'hanno ingannato e sviluppato uno shader che aveva un sacco di differenti sfocatura riflessi, ossidazioni e piccoli graffi.
Fonte: http://www.snowwhiteandthehuntsman.com/
Pixomondo è stato il responsabile della realizzazione delle straordinarie battaglie viste nel film tra Dark Army e Knights. Usare 3DS Max, Vray e Thinking Particles per ottenere l'aspetto dell'Esercito Oscuro, che si spezzerebbe in frammenti neri quando furono colpiti da un cavaliere. Thinking Particles ha permesso alla squadra di impostare un sistema di interruzione del volume che combaci con il movimento della spada, l'angolo e la velocità quando ha effetto sulla superficie. I soldati si spezzerebbero dinamicamente mentre il cavaliere continuava ad animare, e con la frammentazione che attraversava tutto il corpo, ottenendo in questo modo un effetto più fluido, oltre 130.000 frammenti contribuiscono alla simulazione dinamica di una sola scena.
Il team ha usato Massive insieme a un'animazione mirata a mano per l'esercito complessivo composto da oltre 1.500 soldati, per i cavalieri circostanti il team ha utilizzato una sceneggiatura che selezionava casualmente le clip dell'animazione da una fonte di circa 1.000 fotogrammi e li posizionava in il campo a una scala e una rotazione casuali per ottenere un effetto unico.
Fonte: http://www.dexigner.com/news/25213
Rhythm & Hues sono stati incaricati di creare molte creature e piante per il film, in particolare quelle che popolano i boschi, un cervo mistico, una volpe, un tasso, conigli, ricci, uccelli, serpenti, funghi, scarabei fluorescenti, fate e altri tra cui la sequenza di firme film del troll, utilizzando motion capture per il suo movimento del corpo e animazione della mano per il suo volto. Il resto del suo corpo è costituito da rocce e radici come i muscoli e una consistenza ruvida della pelle.
Sul set, la produzione è stata filmata con bastoncini oculari e cannoni ad aria con spruzzi d'acqua per dare all'attrice un indizio su come avrebbe dovuto reagire. D'altra parte Double Negative ha creato le creature della foresta oscura, alberi contorti e rami, muscoli stillanti, una creatura da pipistrello e le fate oscure evocate dalla regina, formate da circa 30.000 frammenti di ossidiana. Usando Houdini e un set di strumenti FX per l'animazione che ha permesso agli artisti di coreografare il movimento e permettere ai frammenti di muoversi e staccarsi in certi modi.
Fonte: http://www.snowwhiteandthehuntsman.com/
Questo video ti mostrerà le fantastiche scene VFX, come lo creano e alcune scene di compositing.
Uno degli aspetti più importanti di questo film è che Peter Jackson ha deciso di girare il film usando il formato High Frame Rate (HFR). Produzioni HFR di 48 fps registrano e riproducono immagini al doppio della frequenza attuale, che è di 24 fps. Il film è stato girato con 48 fotocamere Epic Red a 48 fps in risoluzione 5K. Per acquisire immagini 3D, il team ha assunto la 3ality per costruire un impianto di perforazione in cui una fotocamera scatta direttamente e l'altra è puntata verso uno specchio, questo era necessario perché le telecamere 3D devono essere montate alla stessa distanza tra gli occhi, che non è possibile data la dimensione delle fotocamere Epic Red. Oltre a questo, il team ha dovuto sovra-colorare tutto perché le fotocamere epiche tendono a desaturare le immagini.
Fonte: http://youtu.be/gHF536TJ0iE
Quando Bilbo e i Nani entrano nella Foresta di Trollshaw, inciampano con tre troll affamati. Questa scena è nata per vivere da Weta Digital. Prima di iniziare qualsiasi ripresa, la squadra lo ha pre-visualizzato per risolvere alcuni battiti e aiutare le riprese. Le creature sono state modellate e scuoiate con un sistema Tissue che permetteva la simulazione di muscoli, grasso e pelle, mentre gli animatori ottenevano la performance dagli attori su tute in motion capture che sarebbero state successivamente ri-bersagliate per la rappresentazione dei troll da quattro metri..
All'HFR, hanno dovuto prestare molta più attenzione ai dettagli come la sincronizzazione labiale e gli intermittenti. D'altra parte, Martin Freeman e gli attori di Duarf hanno filmato la loro parte su un set foresta, con l'aiuto di sfere su pali per i lineamenti dei Troll, che sono stati aggiunti digitalmente più tardi alla scena. Infine i compositori combinano i troll CG, gli attori live action, il set foresta, fuoco digitale, illuminazione interattiva tra gli altri effetti per completare la sequenza.
Fonte: http://www.youtube.com/watch?v=kYeQNH6gJhE
E 'stata una sfida per lui eseguire un Gollum leggermente più giovane perché praticamente ha dovuto disimparare tutto ciò che era accaduto su LOTR.
In questo film, abbiamo la possibilità di vedere Gollum di nuovo dieci anni dopo il Signore degli Anelli. Andy Serkis ha avuto la possibilità di ripetere il suo ruolo di creatura torturata. È stata una sfida per lui interpretare un Gollum leggermente più giovane perché praticamente ha dovuto disimparare tutto ciò che era accaduto su LOTR.
A causa dell'HFR e della natura stereo del film, erano necessari molti più dettagli, ecco perché il personaggio è stato completamente rimodellato contando ora con circa dieci volte più poligoni e tre volte più forme del viso rispetto a prima. L'artista ha avuto il compito di garantire che l'attrazione e il feeling originali del personaggio fossero gli stessi che vediamo 10 anni fa, mentre hanno migliorato il suo aspetto e il modo in cui si muoveva, hanno prestato molta attenzione ai suoi comandi del burattino facciale seguendo il Facial Action Coding System ( FACS). Un cambiamento significativo è stata la capacità di eseguire sul posto in una tuta di acquisizione del movimento, che includeva anche una fotocamera per la cattura del viso.
Fonte: http://www.thehobbit.com/#content=gallery
Questo video ti mostrerà le fantastiche scene VFX, come lo creano e alcune scene di compositing.
Le fonti video per tutti i video possono essere scaricate qui.