Nvidia: Intel Larrabee är fyra år efter

Permalänk
Medlem

Kan inte Nvidia sluta snacka skit om andra grafikkorts tillverkare.. Gör bara att jag ogillar dom mer än vad jag redan gör.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kilroy
Jag undrar hur många i den här tråden FAKTISKT vet vad fan dom pratar om.

(Jag gör det definitivt inte)

Många expeter här på swec...

Det är väldigt få, swec forumet har varit katastrof ett antal år nu. Hit kommer man bara för att få sig lite rolig läsning på forumen. Ta t.ex belga här t.ex som leker att han faktiskt förstår något, men det enda han gör är att smutskasta nvidia har jag märkt vid första bästa tillfälle. Inte nog med det de flesta kommentarena är direkt korkade. Det som kallas fanboysjukan. De kommer alltid finnas, om det så gäller mjukvara eller hårdvara.

Många här verkar inte förstå att det faktiskt handlar om företag som vill tjäna pengar. Det är inte välgörenhet. Tror ni bara "smutskastning" förkommer i grafikkorts branschen? Ojojoj... de är två konkurerande företag som båda vill tjäna mer pengar än det andra. Om man sen väljer att man vill hoppa i säng med sitt grafikkort vare sig det är ATIs eller Nvidias så kan man väl hålla det för sig själv. Men icke, det är samma sak hela tiden, vissa tar detta så personligt att det är perverst.

Visa signatur

Intel 7700K @ 5,1ghz (Binned) | Custom H2O Loop | Asus Maximus IX Hero | 32GB Corsair @ 3200mhz | GTX 3080 | Samsung 960 EVO 500GB | Samsung 870 EVO 500GB | Samsung 860 EVO 2TB | Soundblaster Z-Xr | Asus ROG Swift PG279Q | Corsair 850W-HX | Thermaltake The Tower 900

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mrfisse

Många här verkar inte förstå att det faktiskt handlar om företag som vill tjäna pengar.

Det där är ju pudelnskärna.
Men vad framför allt Nvidias nuvarande ledning INTE själva förstått, är att när de går för långt med den skiten istället för att fokusera på att göra bättre kort, så finner folk som oss (Hela jordklotet och inte bara SweC) att de är en aning...dryga och klantiga och att sådana som oss då ger Nvidia antireklam vilkat garanterat känns och märks av i deras försäljningssiffror/plånbok, då sådana som oss talar om för de som inget kan vilka kort de skall köpa.

Det blir ju en aning patetiskt när serie efter serie uppdagas ha konstruktionsfel och att de inte är i närheten av att kunna konkurera pris/prestanda, men ändå sitter och gapar och kastar skit överallt och på alla andra.

Lägg därtill att när AMD/ATI får fram nya vassa saker som kostar betydligt mindre, ja då kan Nvidia helt plötsligt sänka sina ockerpriser högst markant.

Visa signatur

Don´t do this, don´t do that. Do this and think that.
Serious, do you really think I give a shit?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mrfisse
Det är väldigt få, swec forumet har varit katastrof ett antal år nu. Hit kommer man bara för att få sig lite rolig läsning på forumen. Ta t.ex belga här t.ex som leker att han faktiskt förstår något, men det enda han gör är att smutskasta nvidia har jag märkt vid första bästa tillfälle. Inte nog med det de flesta kommentarena är direkt korkade. Det som kallas fanboysjukan. De kommer alltid finnas, om det så gäller mjukvara eller hårdvara.

Många här verkar inte förstå att det faktiskt handlar om företag som vill tjäna pengar. Det är inte välgörenhet. Tror ni bara "smutskastning" förkommer i grafikkorts branschen? Ojojoj... de är två konkurerande företag som båda vill tjäna mer pengar än det andra. Om man sen väljer att man vill hoppa i säng med sitt grafikkort vare sig det är ATIs eller Nvidias så kan man väl hålla det för sig själv. Men icke, det är samma sak hela tiden, vissa tar detta så personligt att det är perverst.

Nejmen... Det här var intressant.
Måste vara en väldigt bra lek jag är inblandad i när någon som inte har en aning om någonting gällande mig vet mer om mig än jag själv. Har du lust att förklara reglerna för denna lek då du verkar vara lika insatt och deltagande i den som du säger att jag är?

Du kan ta det via meddelande, så kan du även passa på att häva ur dig lite mer sörja utan att resten av folket här blir lidande.

Visa signatur

Xbox Live - Firaphex
Jag har inte alltid rätt, men jag utgår från det tills jag ser bevis på annat. Citera för svar
2008-06-18, Dagen då integriteten ställdes tå mot tå med maktmissbruket och förlorade.

Permalänk
Citat:

Ursprungligen inskrivet av belga
Tas rätt mycket ut av deras helt otroligt stora ego och arrogans när det gäller att snacka skit om motståndet. Hade de haft ens ett uns av klass så hade de bara vart tysta, eller nöjt sig med att konstatera att de (stor överraskning) inte tror på intels produkt.

Du måste vara naiv om du tror att detta sort av kommentarer är en icke vanligt förekommst inom affärs / företagsvärlden. Flesta fått för sig att det är någon sort jantelag som gäller. Att man ska inte tro att man är bättre än den änna. Så är givetvis inte fallet, företag vill tjäna pengar, inte vara mjukbralla mysiga.

Jag personligen uppskattar om ett företag utrycket sin kritik om konkurenter, vare det vara positivt eller negativ. Man behöver inte ta det allt nära hjärta, som de flesta verkar göra när nVidia säger något, utan ta kommentaren i otanke.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Citat:

Ursprungligen inskrivet av mrfisse
Många här verkar inte förstå att det faktiskt handlar om företag som vill tjäna pengar. Det är inte välgörenhet. Tror ni bara "smutskastning" förkommer i grafikkorts branschen? Ojojoj... de är två konkurerande företag som båda vill tjäna mer pengar än det andra. Om man sen väljer att man vill hoppa i säng med sitt grafikkort vare sig det är ATIs eller Nvidias så kan man väl hålla det för sig själv. Men icke, det är samma sak hela tiden, vissa tar detta så personligt att det är perverst.

Kan inte annat än hålla med!

Visa signatur

i3 6100 | B150M-A REV. 3.1 | Corsair DDR4 8 GB | Crucial MX200 250GB + 2TB WD Green | Corsair CX430-M | Silverstone Milo ML04 | Windows 10 Pro

Ät mer lök.

Permalänk

som andra har nämnt så handlar larrabee framgång på att mjukvarunissarnas stöd till dess program. personligen är jag nog anigens avogt ionstäld till det hela. om det blir en hit så har intel ännu en marknad att krossa, vilket jag inte gillar...jag igllar mångfald men intels inträde i grafik masrknaden är inte mångfald!

den som lever få se, den som dör får inte se ett piss!

mvh:
fluffmajster

ps:
undrar om jag tillhör idioterna här på swec?
ds

Visa signatur

I am the Leech King!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
Hector Ruinz

Visa signatur
Permalänk
Medlem

jag är ingen expert, har inte ens nån koll på prestandan på de nyare korten från nvidia/amd, men jag finner det intressant att nvidia kommer med nya kort inom kort som ska matcha amd:s variant bättre.
Det betyder att det alltid finns utrymme till förbättring, vilket då kan få en att undra varför den inte kommer i första hand utan först när de märker att det finns en konkurent att prata om på marknaden igen.
Nvidia vill ju inte hamna i efterkälken så de måste alltid fortsätta förbättra, men är det här nån typ av försiktig utveckling för att hela tiden kunna släppa nya kort som är snäppet bättre än konkurenten?

Visa signatur

thank you, come again

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Tangentbord
*förfalskat citat*

Det där var knappt roligt första gången, skriv något eget i dina inlägg och låt bli att modifiera citerad text.

Citat:

Ursprungligen inskrivet av huxflux
vilket då kan få en att undra varför den inte kommer i första hand utan först när de märker att det finns en konkurent att prata om på marknaden igen.

Är det verkligen någon som undrar vad det beror på?

Permalänk

Undrar vad nvidias nästa gpu arkitektur kommer heta. Undrar och om dom ens har börjat jobba på något helt nytt. Dom har ju lallat med sin g80 ett bra jävla tag nu...

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av wildcover
Undrar vad nvidias nästa gpu arkitektur kommer heta. Undrar och om dom ens har börjat jobba på något helt nytt. Dom har ju lallat med sin g80 ett bra jävla tag nu...

GT200/D10U-30 ?

Permalänk

Jag tycker då det är både moget och tappert från Nvidia att gratulera ATi. Det är inte speciellt ofta det händer.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
Du måste vara naiv om du tror att detta sort av kommentarer är en icke vanligt förekommst inom affärs / företagsvärlden. Flesta fått för sig att det är någon sort jantelag som gäller. Att man ska inte tro att man är bättre än den änna. Så är givetvis inte fallet, företag vill tjäna pengar, inte vara mjukbralla mysiga.

Jag personligen uppskattar om ett företag utrycket sin kritik om konkurenter, vare det vara positivt eller negativ. Man behöver inte ta det allt nära hjärta, som de flesta verkar göra när nVidia säger något, utan ta kommentaren i otanke.

Givetvis är det väldigt vanligt, men att det händer ofta gör det ju inte bättre. Givetvis skall man också tro att man är bättre än andra, det är i sig själv en positiv sak med självförtroende. Pengar är ju också givetvis en faktor, men i detta läge en liten sådan då de inte lägger fram någonting själva utan enbart är ute och försöker sparka på intel. Hade de lagt fram någonting själva och sagt att "vårat är bättre" istället för bara "ni är puckon, eran produkt suger" utan belägg så hade jag inte sagt någonting.

Det är som jag sade, det är skillnad på "vi är bättre" och "ni är sämre". Båda säger samma sak men på olika sätt, ett bättre och ett sämre. Och att frivilligt välja det sämre tycker jag säger mer än själva uttalandet. Uttalandet till AMD var ju dock en positiv motvikt.

Visa signatur

Xbox Live - Firaphex
Jag har inte alltid rätt, men jag utgår från det tills jag ser bevis på annat. Citera för svar
2008-06-18, Dagen då integriteten ställdes tå mot tå med maktmissbruket och förlorade.

Permalänk
Citat:

Ursprungligen inskrivet av belga
Hade de lagt fram någonting själva och sagt att "vårat är bättre" istället för bara "ni är puckon, eran produkt suger" utan belägg så hade jag inte sagt någonting.

Du förenklar allt för väl. nVidia säger inte "ni är puckon, eran produkt suger". De säger bara sin kommentar om Larrabee. Så enkelt är det. Sen tolka alla olika, vissa tar det som att nVidia är egotripade, andra ink jag tar det inte något märkvärdigt. Han hade en åsikt och han sade det.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Citat:

Ursprungligen inskrivet av DataNusse
Du förenklar allt för väl. nVidia säger inte "ni är puckon, eran produkt suger". De säger bara sin kommentar om Larrabee. Så enkelt är det. Sen tolka alla olika, vissa tar det som att nVidia är egotripade, andra ink jag tar det inte något märkvärdigt. Han hade en åsikt och han sade det.

Får hålla med dig här.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av multimiffo
Vad är det som är så feltänkt med larrabee?

Till att börja med är x86 ett gammal härk from 70-talet. Intel och AMD har visserligen lyckats hålla prestandan uppe ändå, men det är långt ifrån gratis, vare sig i form av chip-yta eller utvecklingskostnader. Vare ny core Intel lägger till sitt chip kommer därför att ha onödigt overhead i form av en x86-decoder.
Läs igenom x86 dokumentationen så ser man varför det instruktions-settet inte är ett särskilt bra val. Finns alla möjliga skumma instruktioner, dolda beroenden och sidoeffekter av instruktionerna.

För det andra så även om det är x86 så kan man inte direkt koda som vanligt på dom. Ska du få ut någon prestanda alls måste du använda deras nya SIMD extensions, som alltså inte är samma som SSE, utan helt nya.

För det tredje så kommer Intel att bli tvungen att vara binär-kompatibel med Larrabee när de kommer med Larrabee 2. Och trean måste ha stöd för allt som ettan och tvåan hade. osv. Man målar alltså in sig i ett hörn redan nu, ungefär som med x86 på CPU sidan. Grafikkort å andra sidan har inte det problemet, och ett Radeon HD2900 är på inget sätt kompatibelt med t.ex. Radeon X1900.

För det fjärde är specialiserad hårdvara alltid är mycket effektivare än generell. Det gäller såväl rå prestanda, som prestanda per watt, prestanda per chip-yta, och då förstås i slutändan prestanda per krona. Många av variablerna är ganska låsta, så Intel kan inte bara "feta på mera" för att konkurrera. Chipet ska ju helst inte brinna upp eller bränna din nätdel.

För det femte, allt du får "gratis" på grafikkort måste Larrabee hantera i mjukvara. Intel verkar utgå från att pixelshadern är allt som räknas.

Citat:

Ursprungligen inskrivet av piXtor
Med gamla processtekniker, så visst.. en fixed-function-pipeline kanske är bättre användning av kisel.. men när man rör sig mot 32 nm så har man råd att slänga in massa generella kärnor som gör arbetet istället och då får man bättre utnyttjande av kisel genom att man alltid kan distribuera arbete till någon kärna som ligger o idlar. Det kan man inte på en fixed-function-pipeline del som står still om just det den är gjord för inte finns att göra.

Öh, det här är annars traditionella grafikkorts styrka. När en shader core t.ex. samplar en textur så sitter den ju inte och idlar och väntar på resultatet. Tvärtom, den börjar istället på nästa pixel, och när den också samplar så hoppar den till en tredje, så länge det finns plats i dess register file. Sen när man kommit varvet runt så ligger de samplade texturvärdena färdiga att räkna på.

På Larrabee å andra sidan kommer mjukvaran att behöva hantera det här manuellt.

Citat:

Ursprungligen inskrivet av piXtor
Sedan om prestandan hos larrabee blir lidande.. ja då är det bara att slänga in ett till chip o koppla ihop dem.. kan tänka mig att larrabee är minst lika skalbar som CF och SLi, definitivt mer.

Glöm alla "det är bara att slänga in ett till chip". Det funkar inte så. Ett till chip betyder dubbelt så dyr, dubbel strömförbrukning och dubbla värmeutvecklingen. Om man inte redan ligger rimligt lågt på de variablerna så går det inte att bara feta på mera. T.ex. så är det osannlikt att vi kommer att få se någon X2-variant av GTX 280, just för att chippet redan är väldigt stort och tar för mycket ström.

Citat:

Ursprungligen inskrivet av multimiffo
Därför tror jag inte att det är helt feltänkt att satsa på mer generella kärnor som Intel gjort, särskilt eftersom det är dit trenden pekar precis som piXtor säger.

Mer generella kommer vi säkert att få, men man måste alltid väga in prestanda och kostnad i ekvationen. Ett plocka över x86 till grafikkorten är helt fel approach. Bättre att ta beprövade koncept på GPU-sidan och göra allt mer programmerbara.

Citat:

Ursprungligen inskrivet av multimiffo
De har förmodligen också större resurser och vana att optimera kretsar än tex Nvidia som vad jag förstått består av långt fler mjukvaruingenjörer än hårdvaruingenjörer. De syntar nog stora delar av sina kretsar rakt av utan större optimeringar.

Fast det är väl inte till Intels fördel heller. Halva ekvationen är ju mjukvaran. Intel har inte direkt imponerat med drivrutiner och som deras chip är nu är det ju mångadubbelt mer svårkodat än ATI och Nvidias. Har svårt att se hur dom ska lyckas. Sen även om Intel har bättre hårdvaruteknik generellt så räcker det ju bara en gång. Ett halvår senare har ATI och Nvidia släppt nya kort, och sen om ett halvår igen, och igen. Intel måste ju hänga med i takten som råder på GPU sidan också om det ska ha någon chans. Om de då sitter och småpillar med custom logic och manuellt routing så kommer de att hamna efter rätt fort.

Permalänk
Medlem

Hummus, jobbade inte du för ATI? Eller minns jag fel? Jag menar, inte så konstigt om du nästan instinktivt dissar Larrabee isåfall. Beyond fanboy sas.

Jag tror inte heller att Larrabee kommer att vara speciellt lyckad i början, men det är en intressant väg att prova på och hur det nu är så måste vi prova oss fram för att hitta nya vägar att utnyttja parallellisering för att komma vidare. Larrabee är inte bara ett grafikchip, det är också en prototyp på en generell many, many-core som Intel kan plocka erfarenheter ifrån när de utvecklar helt nya arkitekturer/cpuer framöver.

Målet är förmodligen komplett-superdator-på-ett-chip, och när de hunnit så långt måste ATI/Nvidia antingen vara ikapp när det gäller generell beräkningsförmåga eller också har de gått under.

ATI har en stor fördel av att ägas av AMD som tillverkar just generella cpuer, men för Nvidia ser det rätt tvärmörkt ut i det långa loppet.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

Jag har inte kunskapen att bedömma om det Intel satsar på är fel eller rätt. Däremot har jag en ganska stor respekt åt ett företag som är störst på marknaden för både grafikkort och processorer i dagsläget.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av the squonk
Hummus, jobbade inte du för ATI? Eller minns jag fel? Jag menar, inte så konstigt om du nästan instinktivt dissar Larrabee isåfall. Beyond fanboy sas.

Du minns rätt, men är kanske inte uppdaterad. Det var ganska precis ett år sedan jag sade upp mig och flyttade hem till Sverige. Jobbar numera som spelutvecklare här i Stockholm. Så jag har väl ett annat perspektiv på saker nu. Visserligen sitter det fortfarande ett ATI kort i datorn min (3870x2 som en gammal polare på ATI fixade gratis åt mig ), men å andra sidan har jag en Intel CPU (Q9450), så det är väl inte direkt så att jag dissar allt Intel gör. Däremot är jag ganska skeptisk mot att Larrabee kommer att funka särskilt bra som grafikkort. Intel har ju en del att bevisa på den fronten.

Citat:

Ursprungligen inskrivet av the squonk
Larrabee är inte bara ett grafikchip, det är också en prototyp på en generell many, many-core som Intel kan plocka erfarenheter ifrån när de utvecklar helt nya arkitekturer/cpuer framöver.

Jo, jag tror Larrabee snarare kommer att fungera som ett mellanting mellan CPU och GPU och främst ta marknadsandelar på GPGPU marknaden. När någon portat Apache till Larrabee så lär det nog bli ett alternativ för billiga servrar.

Permalänk
Citat:

Ursprungligen inskrivet av Hummus
Till att börja med är x86 ett gammal härk from 70-talet. Intel och AMD har visserligen lyckats hålla prestandan uppe ändå, men det är långt ifrån gratis, vare sig i form av chip-yta eller utvecklingskostnader. Vare ny core Intel lägger till sitt chip kommer därför att ha onödigt overhead i form av en x86-decoder.
Läs igenom x86 dokumentationen så ser man varför det instruktions-settet inte är ett särskilt bra val. Finns alla möjliga skumma instruktioner, dolda beroenden och sidoeffekter av instruktionerna.

Jo att x86 för med sig en hel del bagage håller jag med om. Det är ju knappats den enklaste och renaste instruktionsuppsättning man kan tänka sig. Men jag tror ändå att det kan komma att löna sig för Intel att de gjort det valet med tanke på vad jag uppfattar som deras långsiktiga mål. Att bygga en generell accelerator arkitektur. Vinsten blir ju att de kan få en enda instruktionsuppsättning för alla processorer (om vi bortser från vektorinstruktioner men jag misstänker att de kan konvergera i framtiden). Att bara ha ett ISA ger fördelen att samma utvecklingsverktyg och metoder som används för att skriva prestandakod på deras traditionella CPU:er kan användas till Larrabee och det blir lättare för utvecklarna. Speciellt trevligt är det ju att Larrabee har samma minnesordningsmodell och "coherency"-modell som en vanlig x86 CPU.

Men jag heller fullständigt med om att det inte är gratis, de kommer ju få betala ett pris. Frågan är hur högt det blir. Det borde ju vara ok att implementera det stökigaste med microkod eller andra trick för att göra det lite lättare. Om det visar sig att kostnaden är för hög kanske de helt enkelt låter ett antal kärnor dela på en x86 dekoder och använder nått enklare för de applikationer som är kompilerade rätt.

Jag tror dock inte att sånna ninja fasoner kommer bli nödvändiga för de har övat länge på att bygga x86 decoders nu och de kan nog göra dem rätt billiga. Det ska bli väldigt spännande att se hur det går när de väl släpper den.

Citat:

Ursprungligen inskrivet av Hummus
För det andra så även om det är x86 så kan man inte direkt koda som vanligt på dom. Ska du få ut någon prestanda alls måste du använda deras nya SIMD extensions, som alltså inte är samma som SSE, utan helt nya.

Ja det kommer ju krävas att man vektoriserar koden och det är inte heller SSE kompatibelt. Men vektorisering är ju en väldigt beprövad och välkänd teknik för de utvecklare som de riktar chipet mot. Och att det inte är exakt SSE eller AVX tror jag inte gör så mycket då det förmodligen sköts av intrinsics eller liknande. Bara man vet hur man strukturerar sitt problem så det går att vektorisera borde själva instruktionsuppsättningen spela mindre roll. Intel har ju länge stöttat HPC utvecklare med kompilatorer och andra verktyg för att skriva bra vektoriserad kod.

Citat:

Ursprungligen inskrivet av Hummus
För det tredje så kommer Intel att bli tvungen att vara binär-kompatibel med Larrabee när de kommer med Larrabee 2. Och trean måste ha stöd för allt som ettan och tvåan hade. osv. Man målar alltså in sig i ett hörn redan nu, ungefär som med x86 på CPU sidan. Grafikkort å andra sidan har inte det problemet, och ett Radeon HD2900 är på inget sätt kompatibelt med t.ex. Radeon X1900.

För grafikkortstillämpningar är det ju förmodligen ett minus men för allt annat är det ett gigantiskt plus. Man kan vara säker på att programmet man skriver kommer fungera på framtida versioner, om än kanske inte optimalt. Även Nvidia har ju målat in sig lite när de garanterar att CUDA kommer bete sig exakt lika mellan generationer även om de fortfarande har viss frikoppling då mycket sker i kompileringen.

Citat:

Ursprungligen inskrivet av Hummus
För det fjärde är specialiserad hårdvara alltid är mycket effektivare än generell. Det gäller såväl rå prestanda, som prestanda per watt, prestanda per chip-yta, och då förstås i slutändan prestanda per krona. Många av variablerna är ganska låsta, så Intel kan inte bara "feta på mera" för att konkurrera. Chipet ska ju helst inte brinna upp eller bränna din nätdel.

För det femte, allt du får "gratis" på grafikkort måste Larrabee hantera i mjukvara. Intel verkar utgå från att pixelshadern är allt som räknas.

Ja helt klart kan man gör en ASIC mer effektiv än en CPU men som jag skrev i ett tidigare inlägg hur stor del av en modern GPU är egentligen ren fixfunktionshårdvara? Jag vet inte svaret på det men jag tror inte att det är majoriteten med tanke på vad som krävs av dx10. Hur kommer det se ut då dx12 kommer? Speciellt med tanke på att det kommer ett exempel på en fullständigt programmerbar "GPU" i form av Larrabee? Larrabee har ju också viss grafikspecifik hårdvara för att dra nytta av de största vinsterna med dedikerad hårdvara.

Citat:

Ursprungligen inskrivet av Hummus
Öh, det här är annars traditionella grafikkorts styrka. När en shader core t.ex. samplar en textur så sitter den ju inte och idlar och väntar på resultatet. Tvärtom, den börjar istället på nästa pixel, och när den också samplar så hoppar den till en tredje, så länge det finns plats i dess register file. Sen när man kommit varvet runt så ligger de samplade texturvärdena färdiga att räkna på.

På Larrabee å andra sidan kommer mjukvaran att behöva hantera det här manuellt.

Ja Ati/Nvida är nog väldigt duktiga på att utnyttja sin hårdvara maximalt men det kommer alltid att finnas situationer då ökad flexibilitet kan ge vinster. Ta tex exemplet med hur det förut var skillnad på geometri- och pixelshaders. Vissa applikationer maxade den ena resursen medans den andra gick på halvfart. När man ökade flexibiliteten och slog samman dem så kunde man alltid använda hela resursen oavsett var tyngdpunkten i applikationen fanns. Det lär finnas fler liknande möjligheter kvar för intel att leka med, frågan är hur mycket vinster det finns att hämta hem.

Citat:

Ursprungligen inskrivet av Hummus
Glöm alla "det är bara att slänga in ett till chip". Det funkar inte så. Ett till chip betyder dubbelt så dyr, dubbel strömförbrukning och dubbla värmeutvecklingen. Om man inte redan ligger rimligt lågt på de variablerna så går det inte att bara feta på mera. T.ex. så är det osannlikt att vi kommer att få se någon X2-variant av GTX 280, just för att chippet redan är väldigt stort och tar för mycket ström.

Nä helt klart är ju att intel måste träffa hyffsat rätt för att kunna var med och slåss utan att det ska bli en ny p4 historia. Men p4:an visade också att man kan vara konkurrenskraftig med en rätt dålig lösning om man verkligen vill och har resurser.

Citat:

Ursprungligen inskrivet av Hummus
Mer generella kommer vi säkert att få, men man måste alltid väga in prestanda och kostnad i ekvationen. Ett plocka över x86 till grafikkorten är helt fel approach. Bättre att ta beprövade koncept på GPU-sidan och göra allt mer programmerbara.

Om det bara hade handlat om att göra grafikkort hade jag hållit med till 100% men som du märker är jag betydligt mer intresserad av att se vad kretsen kan göra utanför grafikområdet. Och därför tycker jag inte att de är helt fel ute. Dock är det ju klart att det är lite av en chansning och vi får se hur bra de lyckas men jag tycker att trenderna talar lite för att det borde gå.

Citat:

Ursprungligen inskrivet av Hummus
Fast det är väl inte till Intels fördel heller. Halva ekvationen är ju mjukvaran. Intel har inte direkt imponerat med drivrutiner och som deras chip är nu är det ju mångadubbelt mer svårkodat än ATI och Nvidias. Har svårt att se hur dom ska lyckas. Sen även om Intel har bättre hårdvaruteknik generellt så räcker det ju bara en gång. Ett halvår senare har ATI och Nvidia släppt nya kort, och sen om ett halvår igen, och igen. Intel måste ju hänga med i takten som råder på GPU sidan också om det ska ha någon chans. Om de då sitter och småpillar med custom logic och manuellt routing så kommer de att hamna efter rätt fort.

Ja när vi pratar drivrutiner till grafikkretsar springer nog de flesta på Intel och skäms i ett hörn. Helt klart har de mest att bevisa här och det är kanske inte så mycket som talar för att de ska lyckas jättebra första gången även om de bevisat att de kan bygga bra mjukvara i andra sammanhang.

Ev tror jag du kanske underskattar Intels process övertag (jag spekulerar ju bara så jag kan ju vara helt fel ute). I min mening har de ju gång på gång bevisat att ingen rår på dem när det gäller prestanda och yields.

Avslutningsvis så tror jag att du har rätt när du säger att den väg Intel valt inte är det mest optimala om man vill bygga ett grafikkort men det tror jag inte var tanken heller. Jag tror de siktar på att bygga en "GPU" som är tillräckligt bra för att kunna sälja i hyfsade volymer inledningsvis och därefter slå sig in på många fler marknader. Och när de väl lärt sig av sitt första försök så kan de nog rätta till de största problemen även på "GPU" sidan.

Det tråkiga är nog att Intel iskallt räknar med att hur fel de än satsat så har de pengar och resurser nog att ta sig in på vilken marknad som helst. Hur tekniskt intressant jag än tycker att Larrabee är sitter jag ju och småhoppas på att den inte blir för bra på just grafik. Vi behöver ju inte ett monopol till...

edit:
Glömde tacka för att du skrev ett väldigt sansat och bra svar, det är tyvärr lite sällsynt här på forumet. Och så ska jag nog be om ursäkt för den här jätteposten...

Visa signatur

/Hej hopp!

Permalänk
Medlem

Nu blir jag sur på nVidia!

"Vanliga program" är något helt annat än 3D applikationer. Vanliga program brukar för det mesta inte använda sig av stora mängder data som ska behandlas på samma sätt. Sen har varken OS:et eller CPU:n en susning om vad datan är för något, kan ju vara vad som helst och hur mycket eller lite som helst. Det är därför det inte går att automatiskt dela upp program över flera cores, det är helt enkelt för svårt, och vill man använda flera cores samtidigt så är man som utvecklare tvungen att göra det själv.

Däremot 3D program som t.ex spel använder ofta enorma mängder data, och allt måste ju behandlas, ofta på precis samma sätt.
Och det är just det SSE är till för, att behandla stora mänger data. Den förbättrade SSE versionen som Larrabee har kommer vara ännu bättre på det (4 ggr snabbare än vanlig SSE om det används rätt).
Och har man stora mängder data, så brukar det vara rätt så enkelt att dela upp datan i mindre portioner också. T.ex man har en scen med 160000 polygoner, hur svårt kan det vara att dela upp den datan över 16 cores så att varje core får tugga på 10000 st?

En annan fördel är att 3d instruktionerna brukar skickas i större mängder, dvs man ber inte d3d att rita 1 polygon utan man ritar 10000 st samtidigt med ett enda uppdrag.
Och eftersom det finns färdiga gränssnitt som D3D och OpenGL så vet drivrutinerna precis vad datan som kommer in är för något, det gör det hela ännu lättare att dela upp.

Det är ingenting som utvecklare behöver tänka på som med vanlig mjukvaru, utan om Intel kommer med bra drivrutiner så ska all det här fungera utan att nån behöver ändra en enda kodrad.

Nej, det ska inte alls vara några problem att dela upp 3d data över flera cores så jag går inte med på det dom säger.

Visa signatur

Surf/jobbdator: i7 3770K | GA-Z77-D3H | 16 GB | Intel 510 + 750 GB | HD6870 2GB | 30'' | P180B
Server: Phenom X4 9500 | GA-MA78G-DS3H | 8 GB | 5.4 TB | YY-0221
Speldator: IBM PC XT | 8088 4.77 MHz | 640k | 10 MB HDD | EGA | 360k/720k diskett

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
Du förenklar allt för väl. nVidia säger inte "ni är puckon, eran produkt suger". De säger bara sin kommentar om Larrabee. Så enkelt är det. Sen tolka alla olika, vissa tar det som att nVidia är egotripade, andra ink jag tar det inte något märkvärdigt. Han hade en åsikt och han sade det.

var det inte nån chef på nvida som sa någe i "laughbree" för ett tag sen?

Visa signatur

"I wrap my raskal two times, because i like it to be joyless and without sensation. Its a way to punishing supermodels."