Dette er en kort introduksjon av hvordan de mest fremragende aspektene av hver nominert film i kategorien Best Visual Effects for 85th Academy Awards ble oppnådd. Denne artikkelen beskriver produksjonen av filmer: Prometheus, The Avengers, Life of Pi, Snow White og Huntsman og The Hobbit.
LV-223 er planeten der Prometheus-romskipet kommer. Kunstnerne opprettet mange konseptbilder for å previsualisere hvordan LV-223-planeten ville se ut. For å skape planetens atmosfære, innså laget laget noen luftfotografier på Island, som da ble kombinert med skybakgrunner gjort av VFX-teamet. Etter å ha tatt en dyp titt på konseptbildene, fant teamet et passende landskap som monterte deres syn, kalt Wadi Rum som ligger i Jordan.
Teamet analyserte området ved hjelp av satellittbilder fra Google Earth og sammen med digitale elevasjonsfiler, rekonstruerte de landskapet i Maya og for teksturen fotograferte teamet Hi-Res 360 HDRIs av Wadi Rums daler, og derved skapte det digitale miljøet . Også for jordnære skudd på planeten, gikk laget til vulkan terrenget Hekla, som ligger på Island.
Kilde: http://www.moving-picture.com/
Ingeniøren presenteres som et skapning som ligner et idealisert menneske, som har kommet til jorden for å frø det med livet. Å gi en fotoreal digital humanoid nær kameraet var en stor utfordring. Den første oppgaven var å forbedre sine algoritmer for underlagsspredning (SSS) for å produsere et troverdig nærbildekarakterarbeid, slik at de flyttet til en transluksens kvantisert diffusjon (QD) -modell, som gjør at de kan ligne en hudkompleks kombinasjon av spredte og overflateegenskaper nøyaktig. På den annen side hadde laget et hardt arbeid for å presis passe bevegelsene til en fysisk skuespiller på platen med en silikonprotese med den digitale karakteren, noe som tilsier at hele filmen ble skutt i stereo. Laget trengte å tone ned og øke hvordan de normalt ville gjøre musklene, men også legge til litt mer liv enn protesen ville normalt få.
Kilde: Bilde tatt fra den originale Blu-ray-kopien
Orrery er et interaktivt 3D-kart over det kjente universet. Denne 3D-representasjonen av universet har mellom 80 og 100 millioner polygoner. Scenen da Orrery vises, ble filmet i James Bond-007-scenen, med skuespilleren bare samvirke med en sfære, som da ble digitalt fjernet for å simulere en av planetene. Disse bildene tok flere uker for bare å gjøre et komplett skudd, så det innlemmede Nuke 's dype kompositorverktøy, som i stedet for å gjøre flatrammer, tillater dette verktøyet å gjengi 3D-data, som deretter kombineres i 3D-plass, reduserer på denne måten gjengivelsestiden. Teamet brukte ca 7 måneder til å produsere miljøer, effekter og tegn for å integrere disse i live 3D stereoskopisk opptak da.
Kilde: http://www.fuelvfx.com/
Denne videoen vil vise deg de fantastiske VFX-scenene, hvordan de gjorde det og noen scener av compositing.
For mange av scenene i denne filmen var påkrevd CG sett utvidelser og Luma Pictures, Fuel VFX og Trixter var ansvarlig for dette. For New York-kampsekvensen bygget teamet et sett i New Mexico, som inneholdt 40 ???? grønne skjermer på hver side, noen skadede biler, støv og rusk.
Teamet bygde byen rundt settet ved å fotografere nesten 2000 fliser sfærer, skape en slags Google Street-visning i høy oppløsning, også de la CG støv, rusk, røyker, embers og hvert vindu ble erstattet med en CG-versjon med forbedrede refleksjoner for å hindre at miljøet virket for statisk.
Teamet bygde et bibliotek med digitale eiendeler, som de pleide å fylle i NY-gatene, da laget malt ut alle menneskene, bilene og objektet for å få en klar tekstur.
Kilde: http://www.youtube.com/watch?v=MnQLjZSX7xM
For å skape denne karakteren begynte laget med å skape digitale dobler av Mark Ruffalo, som begynte med en levende skanning av skuespilleren, som senere ble endret i ZBrush for å bli The Hulk, samtidig som han beholdt aspektet av den opprinnelige skuespilleren. Dette ble oppnådd ved å studere Ruffalo ned til pore nivået, de gjorde et kast av tennene, skutt øynene sine, tok bilder av tannkjøttet, mellomrum mellom fingre, til og med hvert hår, muld eller arr, hans faktiske hud ble skannet og kast på The Hulk.
En av de store vanskelighetene de hadde, var å styre hudfargen, etter at de hadde gjort det første hudutseendet i forskjellige miljøer, interiør, himmelsblå osv., Endret fargen sin så mye i hvert skudd som laget måtte jobbe hardt for opprettholde konsistens. Både ansikt og kroppsbevegelse var en sømløs integrering av bevegelsesopptak og keyframe-animasjon. Det var mye arbeid som trengs for å få skuespilleren til å lese riktig og vekten av tegningens bevegelse rett.
Kilde: http://marvel.com/avengers_movie
S.H.I.E.L.D Helicarrier er absolutt den største visuelle effekten av filmen. Trikset for å opprette et slikt troverdig kjøretøy var innlemmelsen av aspekter og funksjoner som er tilstede i virkeligheten, og derfor var designet basert på en flygebyr, noe som ga grunnlag for at publikum ville være kjent. Tilsetningen av lanseringsstrimler, blastdører og arrestorkabler, flyttbare kjøretøy og digitalt mannskap på settet, selger størrelsen på kjøretøyet. Alle modellene ble laget i kombinasjon av Maya og 3ds Max.
Ved hjelp av Flowline gjennomførte teamet flere typer vann-simuleringer, fra flatt hav, til tungt boblende og dribbelende vann når båten løfter seg fra havet, med en regnbueffekt kompositt med Nuke. For skipsens innvendige skjermer ble flere tomme glasspaneler skutt, for senere tillegg av både 2D- og 3D-elementer generert i After Effects og Cinema 4d by Cantina.
Kilde: http://marvel.com/avengers_movie
Denne videoen vil vise deg de fantastiske VFX-scenene, hvordan de gjorde det og noen scener av compositing.
Richard Parker er den bengalske tigeren, som følger karakteren gjennom hele skipet sitt. Rhythm & Hues var ansvarlig for å skape denne realistiske CG tigeren. Laget begynte å studere hundrevis av timer med referanseopptak av ekte tigre, og for hvert av bildene ville det være noen referanse til å basere den på, slik at man unngår muligheten for å gjøre tigeren reagere som et menneske, som ville være imot av hele poenget i filmen.
Nesten 90% av Richard Parker er CG. Ekte tigre ble brukt bare for noen få skudd, inkludert en når tigeren svømmer i havet for å spise en fisk.
Laget startet med skjelettet, for å kontrollere grunnleggende bevegelser, og deretter lagt til et muskelsystem. Ansiktet var en av de viktigste aspektene ved Richard Parker; ansiktsriggingen var en kombinasjon av et mer muskel-drevet underlag med flere blandingsformer på toppen, som delvis ble opprettet igjen på en prosessorisk måte. Et annet viktig aspekt er hud og pels, laget brukte undergrunnsspredning som softened ut pelsen bare litt, slik at lyset penetrert dypere inn i tiger og pels. Det var for det meste raytraced og laget brukte så mye HDRI som mulig for å få Richard Parker til å reflektere sitt miljø. Alle disse aspektene gjør Richard Parker til et av de beste fotorealistiske CG-dyrene som er opprettet.
Kilde: http://www.flickr.com/photos/lifeofpimovie/8020528490/in/photostream/
Scenene i havet ble filmet i en bølgenererende tank på 230 av 100 fot i Taiwan og inneholdt 1,7 millioner liter vann ...
I mer enn 50 minutter av filmen er tegnet alene i havet med bare en bengal tiger, kalt Richard Parker, og som Westenhofer sa, var utfordringen for laget å skildre havet så mye karakter som mulig. Scenene i havet ble filmet i en bølgenererende tank på 230 x 100 fot som ligger i Taiwan og inneholdt 1,7 millioner liter vann, settet var helt omgitt av bluescreens og et malt grid for å hjelpe sporing.
Teamet jobbet med Scanline om implementeringen av en ny overflatesimuleringsmetode kalt "Refined Sheet" for Flowline, som benyttet animert geometri som et grunnlag for simuleringen som ble opprettet inne i Maya ved bruk av Tessendorf og Gestner wave deformers, som følger med utslipp av et tynt ark med voxels over det for å løse for vannstrømning og interaksjoner. Dette gjorde det mulig for dem å øke mengden detaljer på vannoverflaten, etterfulgt av simuleringen av det de kaller "elementene", sprøyten på bølgens våpen, det ville bli tåke hvis det ble tatt av vinden, bobler som ville bli skum når du reiser opp til overflaten. Å få disse elementene i balanse viste seg å være svært viktig for å oppnå utseendet og få detaljene som kreves av de lange bildene, og simulerer hundrevis av millioner av partikler i hvert skudd.
Kilde: http://www.flickr.com/photos/lifeofpimovie/8020537924/in/photostream/
Det er tonnevis av øyeblikk i denne filmen som tar pusten fra deg med 3D-ferdighetene, og setter alle slags dyr og gjenstander foran deg, men også det gjør at du kan utforske dybden av havet og andre utrolige omgivelser. En av utfordringene for teamet var å skape i stereo på vann, fordi vann er svært reflekterende, avhengig av synspunktet, vil du få forskjellige refleksjoner, for å løse dette problemet, håndteres automatiske verktøy behandlet disparity kart og en stereo kvalitetskontroll studio manuelt sjekket hver scene og fikset dem.
Et annet aspekt som får deg til å føle at du virkelig er der er skiene, R & H brukte sitt eget verktøy, Rampage, som er en 3D-projeksjonskartprogramvare som gjorde det mulig for laget enkelt å erstatte himmelen med sine egne matte malerier i hvert skudd, teamet generert over 110 full HDRI-skyer i stereo 3D. Med Rampage kunne teamet projisere sine tilpassede matte malerier på grunnleggende 3D-geometri, og gjennomgå dem i sanntid, og dermed generere lysrefleksbilder til de andre lagene.
Kilde: http://www.eonline.com/news/364868/life-of-life-of-pi-5-reasons-the-movie-was-deemed-unfilmable
Denne videoen vil vise deg de fantastiske VFX-scenene, hvordan de gjorde det og noen scener av compositing.
En av de mest bemerkelsesverdige effektene av filmen er scenen hvor dronningen spør sitt kjente spørsmål: "Hvem er den skikkeste av dem alle?" til en flytende og metallisk speilmann som oppstår fra veggen hennes.
Ideen til mannen kom da regissøren så en skulptur av Kevin Francis Grey som heter Face-Off, og ba ham om å omorganisere den for filmen.
Laget organisert et studio-skudd for en dag for å registrere mange væsker i slowmotion for å utforske hvordan ulike typer materialer ville reagere i den virkelige verden. Møllen brukte Maya nCloth til simulering av væskeformen til Mirror Man og mange tilpassede krefter for å kontrollere klutformen til den stiger opp i den faste figuren. På settet var Charlize Theron foran en reflekterende stikkontakt med et rødt episk kamera inne for å fange skuespillerenes ytelse. Dette ble brukt da for refleksjonene på Speilmannen ved å bruke UV-normaler og punktposisjon i verdensrom for å kontrollere utseendet, men den virkelige fysiske refleksjonen ville ha gjort henne nesten usynlig, slik at de utro det og utviklet en skygge som hadde mye annerledes uskarpe refleksjoner, oksidasjoner og små riper.
Kilde: http://www.snowwhiteandthehuntsman.com/
Pixomondo var ansvarlig for å bringe til liv de fantastiske slagene som ble sett på filmen mellom Dark Army og Knights. Bruke 3DS Max, Vray og Thinking Particles for å oppnå utseendet på den mørke hæren, som ville knuse i svarte skjær da de ble slått av en ridder. Tenkende partikler tillot laget å sette opp et volumbruddssystem som matcher svingets bevegelighet, vinkelen og hastigheten når den påvirker overflaten. Soldatene ville bare bryte seg dynamisk mens ridderen fortsatte å animere, og etter å ha fragmenteringen gått gjennom hele kroppen, og dermed få en mer flytende effekt, over 130.000 fragmenter bidrar til den dynamiske simuleringen av bare en scene.
Teamet brukte Massive sammen med håndmålrettet animasjon for den overordnede hæren bestående av over 1500 soldater, for de omkringliggende ridderne laget laget et skript som ville tilfeldigvis velge animasjonsklipp fra en kilde på ca. 1000 rammer, og ville de plassere dem feltet i tilfeldig skala og rotasjon for å få en unik effekt.
Kilde: http://www.dexigner.com/news/25213
Rhythm & Hues var ansvarlig for å skape mange skapninger og planteliv for filmen, spesielt de som fyller skogen, en mystisk hjort, en rev, en badger, kaniner, pinnsvin, fugler, slanger, sopp, fluorescerende scarabs, feer og andre, inkludert filmen signaturer sekvensen av trollet, ved hjelp av bevegelsesopptak for kroppsbevegelse og håndanimasjon for ansiktet. Resten av kroppen består av steiner og røtter som muskler og grov hudtekstur.
På sett sett blir produksjonen filmet med eyelinpoler og luftkanoner med vannet sprut for å gi skuespilleren en anelse om hvordan hun skulle reagere. På den annen side skapte Double Negative skapningene fra den mørke skogen, vridd trær og grener, oser muskler, en flaggermus og de mørke feene som ble dronet av dronningen, bestående av ca 30.000 obsidian like-shards. Ved hjelp av Houdini og en FX-verktøysett for animasjonen som tillot artister å koreografere bevegelsen og tillate shards å bevege seg og løsne på bestemte måter.
Kilde: http://www.snowwhiteandthehuntsman.com/
Denne videoen vil vise deg de fantastiske VFX-scenene, hvordan de lager det og noen scener av compositing.
En av de mest fremragende aspektene av denne filmen er at Peter Jackson bestemte seg for å skyte filmen ved hjelp av High Frame Rate (HFR) -formatet. HFR-produksjoner av 48 fps-opptak og avspillingsbilder på to ganger dagens hastighet, som er 24 fps. Filmen har blitt filmet med 48 Epic Røde Kameraer med 48 fps i 5K oppløsning. For å fange opp 3D-bilder, leide teamet seg til å bygge en rigg hvor ett kamera skyter direkte og det andre kameraet peker på et speil, dette var nødvendig fordi 3D-kameraene må monteres i samme avstand mellom dine øyne, hvilket er ikke mulig gitt størrelsen på de episke røde kameraene. I tillegg til dette måtte lagene over-farge alt fordi episke kameraer har en tendens til å desaturere bildene.
Kilde: http://youtu.be/gHF536TJ0iE
Når Bilbo og dvergene går inn i Trollshaw Forest, snubler de med tre sultne troll. Denne scenen kom til å leve ved hånden av Weta Digital. Før du begynte en skyting, visste laget pre det for å trene litt beats og hjelpe filmen. Skapene ble modellert og skinnet med et vævssystem som tillot simuleringen av muskler, fett og hud, mens animatørene får forestillingen fra skuespillerne på bevegelsesklærpakker som senere vil bli målrettet for representasjon av de fire meter trollene.
På HFR måtte de betale mye mer oppmerksomhet på detaljer som lip-sync og blinker. På den annen side filmet Martin Freeman og Duarf-skuespillerne sin rolle på et skogsett, ved hjelp av sfærer på poler for trollens øyenliner, som ble digitalt lagt til scenen senere. Til slutt kombinerer kompositorene CG Trolls, live action-aktørene, skuesettet, digital brann, interaktiv belysning blant andre effekter for å fullføre sekvensen.
Kilde: http://www.youtube.com/watch?v=kYeQNH6gJhE
Det var utfordring for ham å utføre en litt yngre Gollum fordi han nesten måtte unlearn alt som hadde skjedd på LOTR.
I denne filmen har vi sjansen til å se Gollum igjen ti år etter Ringenes Herre. Andy Serkis hadde sjansen til å spille sin rolle som den torturerte skapningen. Det var en utfordring for ham å utføre en litt yngre Gollum fordi han nesten måtte unlearn alt som hadde skjedd på LOTR.
På grunn av HFR og stereo karakter av filmen var det behov for mye mer detaljer, derfor var tegnet helt ombygd med å telle nå med rundt ti ganger flere polygoner og tre ganger flere ansiktsformer enn tidligere. Kunstneren hadde oppgaven å sørge for at karakterens opprinnelige appell og følelse var det samme som vi ser for 10 år siden, mens de oppgraderte sitt utseende og måten han flyttet, ga de nøye oppmerksomheten til hans ansiktspuppeteknikker etter ansiktsaksjonskodingssystemet (Facial Action Coding System FACS). Et vesentlig skifte var evnen til å utføre på plass i en bevegelsesfangstdrakt, som også innlemmet et ansiktsfangstkamera.
Kilde: http://www.thehobbit.com/#content=gallery
Denne videoen vil vise deg de fantastiske VFX-scenene, hvordan de lager det og noen scener av compositing.
Videokilder for alle videoene kan lastes ned her.