Intel Larrabee förvandlas till utvecklingsplattform

Permalänk
Melding Plague

Intel Larrabee förvandlas till utvecklingsplattform

Intels första separata grafikkrets på mer än tio år kommer inte att dyka upp i grafikkort, åtminstone inte till en början.

Läs nyheten

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk

Oj snacka om att jobba på övertid xD 00:57

OnT : Tråkigt men det kommer nog senare!

Visa signatur

Stationär Dator : FD define r3|Corsair RM 750W|i7 4770K +NH-U9B SE2|Z87-DS3H|ASUS R9 290 4GB DirectCuII|A-data 1600 DDR3 8GB|2TB + 1TB + 1 TB + 120Gb SSD
Bärbar dator : Acer Aspire TimelineX 5820TG

BeErNwHiSkY:Beer and Whisky!

Permalänk

Right..Gillar inte intels grafiska del utav marknaden, men deras drivers är nice dock.

Visa signatur

Apple Mac Mini

Permalänk
Medlem

Jag har inte riktigt fattat det där med Raytracing och det i realtid. Är det nån bedrift som ATi/Nvidia ligger långt ifrån att klara av eller?

Permalänk
Hedersmedlem

Det var ju inte direkt oväntat.

Permalänk
Inaktiv

Inte ett dugg oväntat, trist att dessa försenas dock då konkurrensen hade varit fin.

Permalänk
Medlem

den kommer nog samtidigt som duke nukem forever XD

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av slusk
Jag har inte riktigt fattat det där med Raytracing och det i realtid. Är det nån bedrift som ATi/Nvidia ligger långt ifrån att klara av eller?

Ray-tracing är helt annorlunda från vanlig rastrering och om ATi/NVIDIA ligger långt ifrån att klara eller ej blir lite av en irrelevant fråga. Dagens grafikkortskrestar är byggda för rastrering och (nästan) inget annat.

Bedriften att konvertera dagens ATi/NVIDIA kort till sådana som är specialiserade för Ray-tracing är nog minst lika stort som för Intel att bygga om sina x86-or till detta ändamål (läs: för Intel att konstruera Larrabee).

Citat:

Ursprungligen inskrivet av Futuju
den kommer nog samtidigt som duke nukem forever XD

Med skillnaden att Intel är ett ofantligt mycket större bolag och att deras framtid kan stå på spel här.

Parallellisering är ett hett ämne och det kan, inom en snar framtid på sisådär ett par år, vara nödvändigt att få ut konkurrenskraftiga CPU/GPU-kombo-kretsar.

Ta Windows som exempel. I och med Windows Aero så har "riktiga" GPU-krestar varit nödvändiga. Det är inte otänkbart att med tanke på hur mycket "HD"-material som börjar användas, att man till slut blir tvingad till att ha mer datorkraft än vad CPU-er klarar av att ge, bara för att avkoda video/audio.

Visa signatur

"Nothing is impossible because impossible itself says I M Possible..."

Permalänk

skulle vara kul o se någon nyhet där det står att något _INTE_ är försenat

Visa signatur

Ryzen m-atx:
|| Windows 10 || MSI B350M || Ryzen 1700X OC@ 3.8GHz || Nvidia 1060 6GB || 32GB RAM || EVGA P2 750W ||
HTPC:
|| Windows 10 || Asrock Z77m-itx || I7 3770k || 8GB RAM || Corsair 620W ||
________________________________________________________________________________________________

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Weeblie
Ray-tracing är helt annorlunda från vanlig rastrering och om ATi/NVIDIA ligger långt ifrån att klara eller ej blir lite av en irrelevant fråga. Dagens grafikkortskrestar är byggda för rastrering och (nästan) inget annat.

Bedriften att konvertera dagens ATi/NVIDIA kort till sådana som är specialiserade för Ray-tracing är nog minst lika stort som för Intel att bygga om sina x86-or till detta ändamål (läs: för Intel att konstruera Larrabee).

Kan väl inte påstå att jag är allt för imponerad av deras film som intel visade upp på deras konvent där dom skulle visa att dom klarade av det. Sen vet jag inte om jag skulle tycka att Ray-tracing är nått för spelen, tycker faktiskt det ser för plastigt och polerat ut för att det ska se verkligare ute än vad dagens DX10-DX11 gör. Det ser helt enkelt för perfekt utan minsta skavanker eller diffusa skuggor

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av slusk
Kan väl inte påstå att jag är allt för imponerad av deras film som intel visade upp på deras konvent där dom skulle visa att dom klarade av det. Sen vet jag inte om jag skulle tycka att Ray-tracing är nått för spelen, tycker faktiskt det ser för plastigt och polerat ut för att det ska se verkligare ute än vad dagens DX10-DX11 gör. Det ser helt enkelt för perfekt utan minsta skavanker eller diffusa skuggor

Jag håller med om att de demon vi har på realtidsraytracing ännu inte är så värst imponerande.

Fördelen är istället långsiktlig. Borsett från att öka antalet "hörn" (eller motsvarande) i varje polygon, vilket skulle bidra positivt i båda fallen, så kräver rastrering att man använder sig av mer och mer komplicerade modeller för att få fram fotorealistiska effekter.

Skuggor, reflektioner och refraktioner får man, per design, med raytracing medan för rastrering så räknas de som "svåra"/"omöjliga" att implementera (speciellt när de kombineras).

Av samma orsak att programmeringsspråk på högre nivåer tar mark från dem på lägre nivåer så tror jag att man till slut kommer fram till en situation där det helt enkelt blir för dyrt att skapa nya grafikmotorer baserat på restrering. Redan nu så har det blivit lite av en trend att köpa in komponenter från tredjepart (någonsin undrat varför de ultrarealistiska träden i många nya spel ser lika ut? SpeedTree!). Så vad hjälper raytracing här? Jo...

Rastrering = Komplicerad modell + Mindre datorkraft
Raytracing = Enkel modell + Mycket datorkraft

Ta Moores lag och låt den snurra ett par varv; plocka sedan en valfri renderingsmotor baserat på raytracing (kanske någon gammal 3ds max variant?) och vips så har du vispat fram realtidsrendering med fotorealistiska effekter... med minimalt nytänkande!

Med lite skjutande från höften så skulle jag dock vilja påstå att det kanske tar 10+ år innan raytracing tar över helt. I mellanskedet så får vi nog snarare hybridmotorer. D.v.s. sådana som både går på bensin och på etanol.

ps. För enkelhetensskull så räknar jag även in närbesläktade metoder som fotonmappning som raytracing.

Visa signatur

"Nothing is impossible because impossible itself says I M Possible..."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Weeblie
Jag håller med om att de demon vi har på realtidsraytracing ännu inte är så värst imponerande.

Fördelen är istället långsiktlig. Borsett från att öka antalet "hörn" (eller motsvarande) i varje polygon, vilket skulle bidra positivt i båda fallen, så kräver rastrering att man använder sig av mer och mer komplicerade modeller för att få fram fotorealistiska effekter.

Skuggor, reflektioner och refraktioner får man, per design, med raytracing medan för rastrering så räknas de som "svåra"/"omöjliga" att implementera (speciellt när de kombineras).

Av samma orsak att programmeringsspråk på högre nivåer tar mark från dem på lägre nivåer så tror jag att man till slut kommer fram till en situation där det helt enkelt blir för dyrt att skapa nya grafikmotorer baserat på restrering. Redan nu så har det blivit lite av en trend att köpa in komponenter från tredjepart (någonsin undrat varför de ultrarealistiska träden i många nya spel ser lika ut? SpeedTree!). Så vad hjälper raytracing här? Jo...

Rastrering = Komplicerad modell + Mindre datorkraft
Raytracing = Enkel modell + Mycket datorkraft

Ta Moores lag och låt den snurra ett par varv; plocka sedan en valfri renderingsmotor baserat på raytracing (kanske någon gammal 3ds max variant?) och vips så har du vispat fram realtidsrendering med fotorealistiska effekter... med minimalt nytänkande!

Med lite skjutande från höften så skulle jag dock vilja påstå att det kanske tar 10+ år innan raytracing tar över helt. I mellanskedet så får vi nog snarare hybridmotorer. D.v.s. sådana som både går på bensin och på etanol.

ps. För enkelhetensskull så räknar jag även in närbesläktade metoder som fotonmappning som raytracing.

Jo jag har greppat konceptet men jag är fortfarande inte helt övertygad såvida man inte börjar att göra bilderna lite mera skitiga än vad dom är idag. Alla bilder är säkert exakt uträknade med exakt vinkel vart ljuset ska träffa och vilken vinkel det ska infalla på nästa objekt osv men vafan lite skit i hörnet kan väl inte skada?

Jo man har ju börjat förstå vilka ofantliga summor som ligger bakom dom nya stora grafikmotorerna och även fast dagens spel använder rastrering så kan man ju se klart och tydligt utvecklingen på dagens spel på dom 10år som har gått. Så skulle verkligen inte förvåna mig om du har rätt att spelen om 10år kommer vara mycket mera realistiska.
Läste om nått förut som hette typ Radiosity som skulle just få bort den övernaturligt polerade ytan på raytracebilder är det fortfarande nått som dom håller på med eller vart det inget av det?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av slusk
Jo jag har greppat konceptet men jag är fortfarande inte helt övertygad såvida man inte börjar att göra bilderna lite mera skitiga än vad dom är idag. Alla bilder är säkert exakt uträknade med exakt vinkel vart ljuset ska träffa och vilken vinkel det ska infalla på nästa objekt osv men vafan lite skit i hörnet kan väl inte skada?

http://hof.povray.org/

Bara att plocka och vräka.

Visa signatur

"Nothing is impossible because impossible itself says I M Possible..."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av slusk
Jo jag har greppat konceptet men jag är fortfarande inte helt övertygad såvida man inte börjar att göra bilderna lite mera skitiga än vad dom är idag. Alla bilder är säkert exakt uträknade med exakt vinkel vart ljuset ska träffa och vilken vinkel det ska infalla på nästa objekt osv men vafan lite skit i hörnet kan väl inte skada?

Jo man har ju börjat förstå vilka ofantliga summor som ligger bakom dom nya stora grafikmotorerna och även fast dagens spel använder rastrering så kan man ju se klart och tydligt utvecklingen på dagens spel på dom 10år som har gått. Så skulle verkligen inte förvåna mig om du har rätt att spelen om 10år kommer vara mycket mera realistiska.
Läste om nått förut som hette typ Radiosity som skulle just få bort den övernaturligt polerade ytan på raytracebilder är det fortfarande nått som dom håller på med eller vart det inget av det?

Att göra det "skitigare" är nog ganska enkelt.
Det är väl troligt att de lägger ner energi på att visa hur perfekt det kan bli istället för hur realistiskt det kan bli. Eftersom en perfekt bild av ett landskap är tuffare än ett realistiskt. Eftersom vi ännu inte har kommit upp i fotorealism, så vi ser skillnad på animerat och fotat..

Visa signatur

En potatis

Permalänk
Medlem

Konstigt de skriver >150 W och inget < värde...eller var intelanställda dåliga på matte i skolan?

Citat:

Ursprungligen inskrivet av Futuju
den kommer nog samtidigt som duke nukem forever XD

Bundlat med Duke nukem forever

Visa signatur

HTPC Lian Li PC-A05FNB | Intel Core i5-13400 | 32GB DDR5-6000 | 4,5TB SSD | RTX 4070 12GB
Laptop Razer Blade 15 Base 2021 | Intel Core i7-10750H | 16GB DDR4-2933 | 1,5TB SSD | RTX 3070 8GB
Laptop Lenovo ThinkPad E585 | AMD Ryzen 5 2500U | 24GB DDR4-2400 | 756GB SSD | Radeon Vega 8

Klocka GTX 460 med NiBiTor 5.8

Permalänk
Medlem

Inte oväntat men ändå härliga nyheter eftersom jag älskar AMD och ATI.

Visa signatur

Memento mori...

Permalänk

knappast oväntat

Permalänk
Avstängd

Bye bye Larrabee

hahahaha

Visa signatur

AMD X4 945ee @ 3,8 Ghz | Asus M3N-HT Deluxe | 8GB Corsair PC8500 | SLI: Asus + Gigabyte GTX 275 @ 696Mhz | 1TB+1TB Seagate 7200.12, Samsung F3 | X-Fi XtremeGamer | FD Define R2 | Corsair 750W | Dell 2209WA @ 75Hz | Windows 7 RC | www.minhembio.com/Camper | Datorn som Produktlista

Permalänk
Medlem

Är ganska övertygad om att både Cypress och Fermi kan köra raytracing i realtid via mjukvara (dvs Stream, CUDA, OpenCL, etc). No big loss.

Visa signatur

// Jay-C
CPU: i7 2600K @ 4.5GHz 1.35V (load) w/ H80i v2 | GPU: GTX 1660 GAMING
SSD: MX500 500GB | MB: P8Z68-V Pro | RAM: 2x8GB G.Skill 2133 MHz CL11
APU: X-Fi Titanium Pro | PSU: AX850
Samla alla dina betalkort, gratis valutaväxling, Google Pay m.m. med Curve. £5 bonus med länken: https://www.curve.app/join#EAVGZ56E

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av slusk
Läste om nått förut som hette typ Radiosity som skulle just få bort den övernaturligt polerade ytan på raytracebilder är det fortfarande nått som dom håller på med eller vart det inget av det?

Radiosity är inget som "tar bort den övernaturligt polerade ytan". Radiosity används för att räkna ut indirekt ljus. Ett annat sätt att räkna ut indirekt ljus kallas GI (Global Illumination) och innehåller olika tekniker för att få fram detta ljus.

Fördelen med GI över Radiosity är att det inte är geometriberoende. Radiosity räknar ut baserat på antalet vertices (punkter som knyter samman polygoner), medan GI struntar i sånt och räknar på ett annat sätt, t ex. genom att kolla varje renderad pixel (brute force) eller en adaptiv lösning, där x antal samples tas och som sedan interpoleras för att få fram en godtycklig ljussättning.

====================

Samma sak händer här som med HDR-rendering... Folk får se ett användningsområde och tror att det är det enda man kan använda tekniken till.

När HDR-rendering kom så användes det mycket tillsammans med en bloom-effekt, vilket gjorde att folk bara trodde att det var allt HDR var till för, vilket självklart inte stämmer.

Samma sak med raytracing, folk tror att allt man kan göra med det är knivskarpa skuggor och reflekterande bollar.

Problemet är såklart datorkapaciteten. Inom "förrenderingsvärlden" där jag själv jobbar så har man kommit avsevärt mycket längre, men där behöver vi inte få ut 25 frames på en sekund (oh the joy om det vore så!), utan det kan ta allt från 1 sekund till 200 timmar för en bild. När vi använder skuggor så har vi inte knivskarpa skuggor, utan istället så kallade area lights, vilka fungerar som riktiga ljuskällor. Ett faktiskt område kastar ljus, vilket gör att både ljusdistributionen och skuggorna blir mjukare.

Samma sak med reflektionerna, vi använder nästan aldrig 100% skarpa reflektioner (eller refractions), utan suddar till det för att öka realismen.

Allt detta tar såklart tid. Ju fler roliga tekniker som används, desto längre tid tar det. Raytracing i spel skulle jag säga ligger någonstans mellan 80- och 90-talet än så länge.

Tror absolut att raytracing är "the way to go" eftersom man enkelt kan rendera fysiskt korrekt och inte behöver syssla med "fusktekniker" som används under rastrering. Dock tror jag inte att framtidens spelmotorer kommer vara 100% raytracing, utan snarare en kombination av rastrering och raytracing, ungefär så som renderaren mental ray fungerar. Mental images, som har skapat mental ray, köptes för övrigt upp av Nvidia häromåret.

I nästa version av mental ray kommer man kunna använda grafikkortet för både previewrendering och finalrendering, så gränserna mellan spel och förrendering håller mer och mer på att suddas ut.

Permalänk
Medlem

Med andra ord kommer Intel knappast att ha något svar på AMD Fusion "all in one" processor (CPU + GPU).

Framtiden ser helt plötsligt mycket ljusare ut för det gröna laget.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A1200
Med andra ord kommer Intel knappast att ha något svar på AMD Fusion "all in one" processor (CPU + GPU).

Framtiden ser helt plötsligt mycket ljusare ut för det gröna laget.

Uhmm... Du vet att de haft grafikstyrkretsar ett bra tag va?

Permalänk

Dagens grafikkort använder så kallad lokal rendrering. Den tekniken innebär att renderaren tar hand om en polygon i taget och struntar i omgivande polygoners effekt i motsats till en raytracer renderare. En stor fördel för lokal rendering är att scenens storlek (dimensioner, modeller och komplexitet) påverkar inte prestanda nämnvärt.
Man kan ändå få en hyffsat realistisk bild genom att uttnyttja olika tekniker så som multi-pass, programmable shaders, lightmaps, shadowmaps, m.m.
Nackdelen är att alla dessa tekniker är tidskrävande "hacks" som endast tar bort begränsningarna med lokal-rendrering.

En vanlig raytracer rendrerare tar inte hänsyn till indirekta ljus. Men en raytracer som använder en Global Illumination modell (GI) inberäknar det indirekta ljuset och resultatet blir en mer realistisk bild med automatisk indirekt ljus, reflektioner, refraktioner och skuggor. Intel använde inte GI i sin larabee demo. Ett problem är att en scens storlek (antal modeller, modellernas komplexitet) påverkar prestanda och bildkvalité i mycket större grad än med lokal renderering.

Dessutom påstår Intel att A.I och fysik kan göras bättre och enklare med hjälp av samma hårdvara som fixar raytracing för grafiken.

Allt som allt, raytracing med GI är överlägsen om någon gång hårdvaran finns tillgänglig så är det en stor fördel både för gamers och spelstudios.

Permalänk
Medlem

Ray tracing är inte bara användbart för spel, inom design av t.ex. bilar så är det värt väldigt mycket om man kan göra så realistiska modeller som möjligt i datorn utan att behöva lägga ner pengar och framför allt TID på att bygga fler fysiska modeller än nödvändigt.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mrSvamp
Uhmm... Du vet att de haft grafikstyrkretsar ett bra tag va?

Och de duger ju inte ens till att skala upp HD med. Med tillräckligt snabb grafikdel i CPU:n behövs inte länger externa grafikkort, och Intels nuvarande grafik kretsar är inte ens nära ATI/Nvidias.

Vid närmare eftertanke. Vad tror ni Intel gör om Fermi går dåligt, Nvidia tappar värde, och Larrabee inte visar sig vara en hållbar produkt? Då kanske vi får se Intell ta fram plånboken och köpa sig en grafikkortstillverkare?

Visa signatur

"Jag har inte gått 5 år på Chalmers, men till och med jag vet att det är en dum idé att blanda vatten och elektronik"
Min Fru

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av lideri
Och de duger ju inte ens till att skala upp HD med. Med tillräckligt snabb grafikdel i CPU:n behövs inte länger externa grafikkort, och Intels nuvarande grafik kretsar är inte ens nära ATI/Nvidias.

Vid närmare eftertanke. Vad tror ni Intel gör om Fermi går dåligt, Nvidia tappar värde, och Larrabee inte visar sig vara en hållbar produkt? Då kanske vi får se Intell ta fram plånboken och köpa sig en grafikkortstillverkare?

Inte en helt omöjlig framtid i mina ögon. Däremot en ganska trist och dyster sådan. Själv hoppas jag mer på det motsatta; att Intel, AMD och Nvidia konkurrerar på alla plan med CPU, chipset och GPU.

Visa signatur

"We're paratroopers, lieutenant. We're supposed to be surrounded!" - Lt. Winters, Bastogne 1944

Permalänk
Avstängd

Tråkigt att höra.

Real-tid raytracing vore verkligen fett!

Men när Larrabee äntligen kommer, så har AMD och Nvidia hunnit i kapp, och kanske kommit med något liknande eller bättre.

Permalänk
Citat:

Ursprungligen inskrivet av lideri
Och de duger ju inte ens till att skala upp HD med. Med tillräckligt snabb grafikdel i CPU:n behövs inte länger externa grafikkort, och Intels nuvarande grafik kretsar är inte ens nära ATI/Nvidias.

Vid närmare eftertanke. Vad tror ni Intel gör om Fermi går dåligt, Nvidia tappar värde, och Larrabee inte visar sig vara en hållbar produkt? Då kanske vi får se Intell ta fram plånboken och köpa sig en grafikkortstillverkare?

Jag tror aldrig Amerikanska konkurrensverket eller EU hade släppt igenom en sådan affär.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Lurcazzus
Jag tror aldrig Amerikanska konkurrensverket eller EU hade släppt igenom en sådan affär.

Förhoppningsvis inte. Å andra sidan ägs ju ATI av AMD. Så helt otroligt är det inte. Men visst är Nvidia ett mycket större företag?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av coopdeo
Förhoppningsvis inte. Å andra sidan ägs ju ATI av AMD. Så helt otroligt är det inte. Men visst är Nvidia ett mycket större företag?

MYCKET större, de har ju etablerat sig på fler marknader än ATi också.

Visa signatur

Main Rig FD Define R4 |Intel C2Q Q9650@3.6GHz|Asus P5Q-E|OCZ Reaper 4GB@800MHz|WD6400AAKS|HD6850|Corsair HX650
HTPC HDPLEX H1.S |Intel Core i3 4330|ASRock Z87E-ITX|8GB|128GB mSATA
Work Dell Vostro 3360 |Intel Core i5-3317U|8GB|Samsung 840 Pro 256GB