Anonim

Redaktørens note 4/49/08 12:36 : OK, jeg skal innrømme det. Jeg fikk HAD av denne artikkelen. Den var basert på en April-Fools-vits og gjorde det til PCMech i god tid etter April Fools. Jeg lar det ligge her, siden folk allerede har kommentert det. Jeg er ikke sikker på om Nathan (forfatteren) visste at det var en fars, men en ting er sikkert: Jeg må være mye bedre oppmerksom når jeg publiserer gjesteposter for PCMech. Sheesh …

–START AV OPPRINNELIG ARTIKKEL–

Det er blitt kunngjort at DirectX 11 vil omfatte en helt ny type grafikkavbildning kalt ray-tracing. Vent litt. Det er ikke nytt. Det har faktisk eksistert siden 80-tallet. Hvordan har det tatt så lang tid å bli implementert til offentlig bruk? Hvordan virker det? Hvilke fordeler har det i forhold til nåværende grafikk? Disse spørsmålene er i ferd med å bli besvart.

Ray-Tracing

Ray-Tracing ble først introdusert i 1986, og er i utgangspunktet definert som å spore lysets baner når de interagerer med objekter. Dette er egentlig hva øynene våre gjør, så det skaper et ganske levende og realistisk bilde. Dessverre var det ikke praktisk å bruke i hverdagens grafikk fordi det tok så mye rå kraft å beregne. Det ble brukt knapt på 90-tallet, men bare for demonstrasjoner, og nå i det 21. århundre med multikjerneteknologi er det endelig mulig å gjøre Ray-Tracing praktisk.

Så hva skjedde? Vel, filmbransjen utnyttet den rett utenfor balltre. Mange spesialeffekter ble strålesporet for å gi et mer realistisk utseende. Filmen Beowulf var fullstendig strålesporet. Det var ikke perfekt, men det var jævlig nært, og et pokker for mye bedre enn hva folk har nå. For å gi deg et eksempel på hvor mye krefter det trengs for å spore stråler, laget en person en video av sanntids strålesporing av en cabriolet på YouTube, og det krever den kombinerte innsatsen fra TRE PS3-konsoller. Du kan sjekke det her, det er ganske kult. Husk at hver PS3 har 8 prosessorer (6 aktive), så vi ser på over 20 prosessorer for ett objekt som ikke er i bevegelse.

Hmm. Dette begynner å forklare noen ting. Som hvorfor Nvidia ikke støttet DX10.1 på kortene i 9-serien, og ikke har noen ny teknologi på andre kort enn mindre brikke-størrelser. De skjønte at de gamle måtene til grafikk dør på. Hva er poenget med Directx 10.1 likevel? Rasterisering, det Nvidia og ATI bruker, har nådd sitt høydepunkt. De har begge perfeksjonert kunsten med i sannhet falsk grafikk. Nå er det tid for de virkelige tingene. Det er et åpent felt, og tilsynelatende planlegger Intel å bli med i konkurransen. De har nylig eksperimentert med å kombinere en prosessor med grafikkortet med vellykkede resultater. Dette kan stave dårlige nyheter for både ATI og Nvidia, men å vite hvordan Intel priser ting jeg er sikker på at det fortsatt vil være nær konkurranse.

En interessant ting ved strålesporing er at den er ganske skalerbar. Med rasterisering merker du mindre og mindre med hver forbedring. For eksempel tjener det nye 8-kjerne skull-trail-beistet fra Intel knapt spillere noen få FPS på rasterisering. For strålesporing vil den imidlertid være nøyaktig 8 ganger bedre enn en enkeltkjerne. Så hva vil dette gjøre? Vel, det vil sannsynligvis komme en ny flerkjerneprosessor hvert par måneder, og muligens nå over 100 før 2010. Hvis hver har implementert grafikk med stråle-sporingsteknologi, kan du se fordelen ved å få et eget grafikkort.

Fordelene med Ray Tracing

Nå vil du sannsynligvis se hva strålesporing kan gjøre sammenlignet med rasterisering. Ta en titt på dette bildet til høyre. Som du tydelig kan se, har strålesporingsbildet mer realistiske refleksjoner og skygger. Nvidia har jobbet sine rumper med sine 3D-shader-prosessorer, men de kunne aldri få noe i nærheten av dette. Det er veldig oppmuntrende å se forskjellen, men husk at vi er noen måter å få interaktive gjenstander på på datamaskinene våre. Directx 11 kommer bare til å støtte noen få begrensede ting, slik at overgangen til strålesporing er gradvis, og ikke på en gang. Jeg vil ikke bli overrasket om Ray-Tracing Processing Units (RPU's) blir implementert på Nvidia 10-seriekortene. Til å begynne med er det kanskje bare karakterer som blir strålet. Så når ny maskinvare blir introdusert, blir teksturer og gjenstander innenfor en viss trekkavstand strålesporet, til slutt alt som øyet kan se blir strålesporet og rasterisering blir en saga blott.

Og dette er fordi …

Er dette bra? Kan være. Alt ville være mye mer forutsigbart, og du kan med sikkerhet fortelle hvilket merke grafikkort som er bedre bare ved å se på databladet, i motsetning til i dag, hvor den eneste virkelige måten å fortelle hvilke av to kort som er bedre er ved å teste nøye dem i 3D-programmer, måling av temperaturer, beregning av effekt, osv. Så det vil være to konsekvenser. Enten vil vi endelig avslutte tallspillet ved å kunne fortelle hva som er hva uten noen bakgrunnsinfo, eller, mer sannsynlig, at det ganske enkelt vil gå inn i neste trinn med å forvirre det vanlige publikum i retur for profitt.

Directx 11 for å avsløre en ny epoke med grafikk