Nvidia: Intel Larrabee är fyra år efter

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av jioop
tycker de borde vara lite försiktiga med vad de vräker ur sig. nvidia är ett skandaldrabbat företag, har de råd att kasta ur sig vad som helst om andra företags produkter och sen visar det sig att konkurrenterna lanserar bättre och mer prisvärda produkter...
ännu vet ingen om larrabee kommer bli någon hit, men nvidia är duktiga på att smutskasta andra företag, nu har de smutskastat på amd och sen visade det sig att de hade helt fel.

för mig slocknar nog allt hopp för nvidia om de fortsätter med smutskastning. vill inte sponsra ett företag som verkligen går ut för att dumförklara sina konkurrenter.

snygg sponsring med ett HD3870 kort som är ati

Visa signatur

[b] OS: Vista ultimate 32 (X86) | Motherboard: Gigabyte - Socket 775 - ATX iP35 (GA-P35-DS4 Rev:2.0) |
CPU: Intel Core 2 Duo E6850 3.0GHz /1333MHz /4MB | Memmory: Corsair XMS2 2048MB DDR2 XMS2-6400 800MHz (4-4-4-12) (2x1024MB) |
Grafic Card: Asus Geforce 8800 GT 512MB 45@idle - 60@full load ,Stock cooler| [/b]

Permalänk
Hedersmedlem

folks intel anställde alla från 3DFX (om jag inte mins fel) så de har nog allt kunskapen ett nytt voodoo kanske

Visa signatur

Gammal är gubbe

Permalänk
Medlem

Snyggt. De inleder uttalandet med att prata illa om en konkurrents framtida innovation och avslutar det med att erkänna att de underskattade en annan konkurrents produkt. Att lära sig sin läxa verkar de ju inte vara så heta på...

Sist men inte minst: vem bryr sig?

Permalänk
Medlem

Är nu inte helt hundra inläst på alla teknikaliteter i Larrabee, men skulle inte den vara _extremt_ väl lämpad att plugga i en socket på moderkortet. Som en 'matteprocessor', för de (få?) av er som kommer ihåg sådant.

AMD lade ju fram det konceptet för ett par år sedan när de bl.a. marknadsförde fördelarna med att integrera minneskontrollern i processorn och prata ett 'generellt' protokoll (HyperTransport) på bussen. Det kan ju vara så att Intel insett att det är en bra idé, och nu kan komma ikapp, för att AMD saknat resurser att utveckla en coprocessor själva.

Det ligger ju litet i tiden att Intel kommer med sin Quick Path Interconnect, och processorer med inbyggd minneskontroller, bara ett kort tag innan Larrabee släpps.

Visa signatur

Gammal och gnällig

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av dahl
folks intel anställde alla från 3DFX (om jag inte mins fel) så de har nog allt kunskapen ett nytt voodoo kanske

Stack dom inte till nVidia, eller nVidia kanske köpte upp 3DFX men folket stack till Intel?

Visa signatur

Hmm

Permalänk
Avstängd

Ser man på nvidias uttalande utan att blanda i de tekniska bitarna så har de liksom alla andra företag skulle ha gjort, bara försökt vinna fördel.

De erkänner att ATI lyckades bättre än dem med den senaste grafikkortsserien men det vet ju alla redan så där vinner de sympati och förtroende utan något att egentligen förlora.

Angående deras uttalande om Larrabee så är det med stor sannolikhet skitsnack. Jag baserar inte detta på tekniskt dravel eftersom ingen-troligen inte ens företagen själva har särskilt bra koll på Larrabees slutliga prestanda gentemot konkurrenterna.

Det är det faktum att inget företag skulle fortsätta utveckla en produkt som redan under utvecklingsfasen är efter dagens lanserade konkurrenter som övertygar mig.

Dock så är det hela lite mer komplicerat eftersom det i Larrabees fall inte handlar om föråldrad teknik utan snarare att lösa tekniska problem som ingen annan lyckats med tidigare. Det är klart att ATI och Nvidia blir rädda att resultatet ska konkurrera ut deras produkter totalt. Varför? Jo, troligen så har de som de säger utforskat Larrabees sätt att lösa problemet men misslyckats / valt bort att lägga resurser inom denna utveckling. Därför vet de om problemen med lösningen men vet samtidigt att Intel har resurser som får deras egna att blekna samtidigt som Intels expertis inom flerkärniga lösningar överstiger deras egna med råge.

Permalänk
Citat:

Ursprungligen inskrivet av Sando
Att Larrabee skulle vara på samma nivå som Geforce 8-serien har jag mycket svårt att tro. Det skulle ju helt enkelt inte vara värt Intel's tid och pengar att utveckla något som är dödsdömt, och de skulle nog veta det själva redan nu i så fall.

nja vet inte intel har ju floppat förut med itanium intel satsade ju en jäkla massa pengar på den serverprollen men den blev ju kass.

Visa signatur

assrock!! hehe

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Elgot
Ja, någon emulering är det nog inte tal om då det skulle bli alldeles för långsamt. Det är fortfarande en hårdvarulösning, om än annorlunda än nvidias och amds.

Vad jag menade är att istället för att chansa på rätt förhållande mellan antalet olika processorer i grafikkortet så gör Larrabee allt i mjukvara och kan då "flytta" prestanda mellan olika delar. Konkurrenternas kort kan flaskhalsa på ett område men ändå ha prestanda över på annat håll. Larrabee flaskhalsar först när hela kortet arbetar för fullt.

Permalänk
Avstängd

Nvidia köpte 3dfx och lade ned det vill jag minnas.

Varför räknar folk med att så fort Larrabee är släppt så kommer det antingen vara snabbare än allt annat eller vara så långsamt att ingen vill ta i det? Intel släpper en ny teknik som med lite tur kan förfinas under ytterliggare några år och sedan 2012-2014 så har vi kanske en ny konkurrent i prestandatoppen. Poängen är att bara för att Larrabee släpps ett visst datum så behöver den inte prestera på topp då.

Permalänk
Medlem

Tycker nVidia är väldigt duktiga på att snacka skit om konkurrenter, dom känner väl sig lite hotade när dom är ensamma kvar med endast grafikkort när AMD/Intel har både och snart.

Tror för övrigt att Larrabee kommer vara ett prisvärt och effektivt kort som kommer göra susen i många bärbara där man idag sitter med halvsunkiga integrerade lösningar (x3100 t.ex.).

Visa signatur

iMac 27" | Mid 2010 | Core i7 2.93Ghz | 20 GB | HD5850 M | Samsung 840 500 GB | 4 TB WD
MacBook Air 11" | Mid 2012 | Core i7 2.0 Ghz | 8 GB | 256 GB SSD
Citera gärna om du svarar på mina inlägg, så hittar jag tillbaka igen! :)

Permalänk
Medlem

Om man ska dra ner det hela på jorden igen...

*Varför väljer Intel denna metod?
Iom att man har ett extremt stor kunskap inom x86 "delen" så är det helt klart lättare att gå denna väg ur utvecklingsynpunkt. Det är väldigt svårt för Intel att skapa en kraftig "traditionell" GPU vars första generation skulle slå både AMD och Nvidias alster som haft massor med år på sig att testa och optimera. Intels integrerade grafikkretsar är ju inte ens nära tex AMDs så de ligger helt klart efter på den biten.

*Larrabees prestanda?
Larrabees styrka ligger i dess massiva parallella beräkningskapacitet. detta betyder att man inte behöver använda sig av vissa APIer utan den stora vinsten ligger i att skräddarsy motorerna för den typen av processor. Här kommer även den störa nackdelen. Iom att mer eller mindre inga spel kommer att använda sig av detta när Larrabee lanseras blir man tvungen att baka in ett mjukvaru DirectX och OpenGL stöd. Denna typ av stöd har en stor nackdel då man i praktiken kör Dx och Ogl i mjukvaruläge. Detta är ytterst ineffektivt med tanke på "cpuns" utformning men man är tvungen.

Så det egentliga problemet är om Larrabee, vid lansering, är så pass snabb att folk köper den och således öppnar intresset för tillverkarna att skapa optimerad mjukvara.

Om ingen eller en väldigt liten del köper "mpgpun" kommer få tillverkare våga satsa och därav gör man det riktigt svårt för intel. Beräkningskapaciteten hos Larrabee kommer vara riktigt stor men i början handlar det om hur bra kretsen presterar i specifika APIer som både AMD och nvidia skapat och skräddarsytt sina kretsar för.

Att köra tex DirectX i mjukvaruläge genom en krets med massor av kraft skapar ett annat problem. Mycket kraft betyder oftast mycket ström... Detta har det talats en hel del om och det är inga små siffror.

Summan av det hela är att Larrabee besitter stor potential men om denna inte kan nyttjas så är produkten mindre intressant. Därför hänger allt på hur bra man kan slå sig in på marknaden och skapa ett intresse. Lyckas man så kommer vi säkerligen få se hur Intel optimerar sina kärnor och går lite mera åt de traditionella GPU designen även om de kommer fokusera mer på ren parallell prestanda än API specifik hårdvara.

Permalänk
Medlem

Man ska inte glömma bort att anledningen till att Larrabee finns överhuvudtaget inte i första hand är tekniskt, utan ett rent affärmässigt strategiskt drag. Med GPGPU så äter grafikkorten sig allt mer in på den mest lönsamma delen av Intels business. Vem vill köpa en serverfarm för mångmiljon belopp när man kan skriva om sin kod lite och få samma prestanda på några grafikkort för en hundradel av priset.

Rent tekniskt är Larrabee hopplöst feltänkt, men vad ska dom göra om dom snabbt måste ange moteld mot AMD och Nvidia? x86 är besvärligt nog på hemmaplan, men att dra med den tekniken in i en helt annan domän är ganska dömt att misslyckas. Tror iofs att en och annan forskare kommer att gilla den för att prototypa features som inte finns i hårdvara, men risken är ganska liten att det här kommer att bli någon prestandakung, varken vid lanseringen eller några generationer längre fram, trots Intels försprång i processteknik.

Permalänk
Medlem

Wannabee -

Permalänk
Avstängd

Hoppas det inte är själva kärnan som är så stor som bilden antyder. Det blir ju närmare 2500mm².

Men Larrabee verkar onekligen skum. Känns inte som att ens 48 klumpiga CPUer kan komma upp i den totala prestandan som 800 skräddarsydda shaders har.

Permalänk
Avstängd

Har jag förstått denna processor rätt så satsar Intel allt på ett kort och det är att ray tracing skall bli hejdlöst poppulärt i spel. Förmodligen kommer det bli väldigt poppis men man kanske underskattat nVidia och ATI framsteg detta år, det har nog de flesta gjort för vem kunde ana att grafikkorten skulle bli så mycket bättre och billigare på så kort tid

Visa signatur

Programmerare med C++ som huvudspråk.

Permalänk
Avstängd

Oj oj, nu blir det mer pinsamt för nVIDIA om Larrabee råkar vara bättre.. vilket det nu blir med tanke på spådomen dom hade om ATI/AMD

Visa signatur

ATI TALIBAN.
Är inte någon expert, men jag har inte akne heller.
NEVER UNDERESTIMATE THE POWER OF STUPID PEOPLE IN LARGE GROUPS.. "Betala i förskott på blocket?" tråden.

Permalänk
Medlem

Larrabee kommer säkert inte att ligga i topp rent prestandamässigt när den kommer, men dess svaghet är också dess styrka dvs att allt måste men också går att köra i mjukvara. Det betyder att man kan provköra vilka konstiga nya 3D-funktioner man vill på en Larrabee, det är bara att skriva mjukvara för det. När det gäller Nvidia/ATI måste 3D-API och hårdvara vara i samklang och stöda vissa funktioner för att de skall gå att använda, de påminner mer om en DSP i sin funktion. Larrabee är en riktig processor.

Larrabee kommer troligen till att börja med inte främst att attrahera gamers, utan snarare 3D-artister, programmerare och vetenskapsmän. Man kan som sagt använda Larrabee för att tex prova ut nya DirectX-funktioner i realtid, som inte går att köra på Nvidia/ATI förrän hårdvaran stöder dem.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Avstängd

Är inte Larrabee rätt lik cell processorn som sitter i PS3?

Visa signatur

Programmerare med C++ som huvudspråk.

Permalänk
Medlem

På sätt och vis, men ändå inte, Larrabee är ju 48 riktiga processorer. Cell är en riktig processor och 7 st DSP ala Nvidia/ATI, dock är Cells DSPer mer programmerbara än grafikkort men de är å andra sidan inte lika många och snabba som shaders i ett grafikkort.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk

Tycker folk överreagerar en aning. Jag uppfattade det inte som att Nvidia på ett elakt sätt klankade ner på Larrabee, utan mer ställde sig frågande till hur Intel ska lösa de "problem" som kan uppstå med en sådan arkitektur. Om man skulle fördjupa sig i det tekniska är det väl ungefär samma sak som media och entusiaster funderar över.

Att Nvidia tidigare uppfört sig mindre bra håller jag dock med om. Att de nu erkänner 4800-serien är iaf kul att läsa.

Permalänk
Citat:

Ursprungligen inskrivet av jioop
nvidia är ett skandaldrabbat företag

nVidia är allt annat än skandaldrabbat företag. Om man ska nämna skandaldrabbade företag så är AMD/ATI nära. Företaget under Hector Ruiz var på väg att ha ett ekonomiskt krasch. Han nästan gjorde det med Motorola och han var inte långt bort med AMD.

Att ett företag erkänner att konkurenten har bättre produkt, och att de var överaskade av den vissar på styrka att man kan erkänna något sådant. Få företag skulle göra något sådant.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
Att ett företag erkänner att konkurenten har bättre produkt, och att de var överaskade av den vissar på styrka att man kan erkänna något sådant. Få företag skulle göra något sådant.

Tas rätt mycket ut av deras helt otroligt stora ego och arrogans när det gäller att snacka skit om motståndet. Hade de haft ens ett uns av klass så hade de bara vart tysta, eller nöjt sig med att konstatera att de (stor överraskning) inte tror på intels produkt.

Visa signatur

Xbox Live - Firaphex
Jag har inte alltid rätt, men jag utgår från det tills jag ser bevis på annat. Citera för svar
2008-06-18, Dagen då integriteten ställdes tå mot tå med maktmissbruket och förlorade.

Permalänk
Citat:

Ursprungligen inskrivet av Hummus
Man ska inte glömma bort att anledningen till att Larrabee finns överhuvudtaget inte i första hand är tekniskt, utan ett rent affärmässigt strategiskt drag. Med GPGPU så äter grafikkorten sig allt mer in på den mest lönsamma delen av Intels business. Vem vill köpa en serverfarm för mångmiljon belopp när man kan skriva om sin kod lite och få samma prestanda på några grafikkort för en hundradel av priset.

Rent tekniskt är Larrabee hopplöst feltänkt, men vad ska dom göra om dom snabbt måste ange moteld mot AMD och Nvidia? x86 är besvärligt nog på hemmaplan, men att dra med den tekniken in i en helt annan domän är ganska dömt att misslyckas. Tror iofs att en och annan forskare kommer att gilla den för att prototypa features som inte finns i hårdvara, men risken är ganska liten att det här kommer att bli någon prestandakung, varken vid lanseringen eller några generationer längre fram, trots Intels försprång i processteknik.

Vad är det som är så feltänkt med larrabee? Den har säkert sina udda fel och brister som de flesta första generationens produkter men just nu kan jag inte komma på nått som är så där jättekonstigt med den? Det är ju långt kvar tills den är här och mycket är fortfarande hemligt kring den men grundtanken känns inte fel. Intel vill skapa en generell hjälpprocessor/accelerator för att ev. senare integrera med de traditionella processorerna. Utifrån det, vilket jag tycker låter som en bra idé, verkar larrabee vara ett rätt bra första försök. Att de sen valde att marknadsföra den som en grafikkrets i första skedet är väl för att det är den absolut största marknaden för acceleratorer i dagsläget och de behöver volym för att kunna få ett vettigt pris. Kanske når de inte upp till konkurrenternas prestanda men jag tror inte det i så fall beror på något grundläggande fel i deras arkitektur. I så fall handlar det nog mer om att Intel inte riktigt är vana att lansera i det tempo som grafikmarknaden har. Är det nån särskild detalj du tänker på när du säger att den är feltänkt?

Visa signatur

/Hej hopp!

Permalänk
Medlem

Orka med den här jävla ATI vs NVIDIA-pajkastningen. Det är ju alltid NÅN som måste vara snabbast, det är bara bra att det skiftar till ATi's fördel nu så det blir lite eld i röven på nvidia så att priserna pressas ännu mer osv.

Permalänk
Medlem

Jag undrar hur många i den här tråden FAKTISKT vet vad fan dom pratar om.

(Jag gör det definitivt inte)

Många expeter här på swec...

Permalänk
Medlem

Larrabee är ju resultatet av var GPU-utveckling har varit på väg ända sedan de började kallas GPU-er... från första programmerbara shader-pipelinen till larrabee har det hela tiden gått mot att göra GPUn så programmerbar som möjligt. Med gamla processtekniker, så visst.. en fixed-function-pipeline kanske är bättre användning av kisel.. men när man rör sig mot 32 nm så har man råd att slänga in massa generella kärnor som gör arbetet istället och då får man bättre utnyttjande av kisel genom att man alltid kan distribuera arbete till någon kärna som ligger o idlar. Det kan man inte på en fixed-function-pipeline del som står still om just det den är gjord för inte finns att göra. Sedan om prestandan hos larrabee blir lidande.. ja då är det bara att slänga in ett till chip o koppla ihop dem.. kan tänka mig att larrabee är minst lika skalbar som CF och SLi, definitivt mer.

Permalänk
Medlem

Känns ju likt nVidia i alla fall att på sedvanligt vis smutskasta sina konkurrenter, var det inte dom som nyss släppte två grafikkortsserier av defekta kort? Det var dom väl förstås tystare om.. Någon borde ta och lära dom ordspråket "Kasta inte sten i glashus". Hade dom något nyttigt att säga utöver det? Att deras besvikelser 260/280 nu finns i +, -, Ultra, Mega, /, &, # och :-edition med en skilldnad på 10mhz i klockfrekvens beroende på version? More shitty rebadged almost-unaltered cards to the people! They way it's meant to fool you.

Visa signatur

Spel/Multimediaburk: Antec P182b | Gigabyte EX58-UD5 | Core i7 920 | 3x1GB Kingston HyperX 1600mhz | Asus 9600GT Silent | 3x500gb Spinpoint | Corsair VX450 | XP Pro x86 | iPhone 3GS 16gb

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av dahl
folks intel anställde alla från 3DFX (om jag inte mins fel) så de har nog allt kunskapen ett nytt voodoo kanske

Citat:

Ursprungligen inskrivet av baggeman
Stack dom inte till nVidia, eller nVidia kanske köpte upp 3DFX men folket stack till Intel?

nVIDIA köpte upp 3DFX. Därefter anlände GeForce FX (5) och senare, tekniken SLI med GeForce 6. Hette först Scan-Line Interleave, men efter uppköpet döpte nVIDIA om de till Scalable Link Interface.
SÅ!

Visa signatur

Skärm: Acer Predator X34A • Moderkort: ASUS Maximus V Gene • CPU: Core i5 2500K @ 4GHz • RAM: Corsair Vengeance DDR3 1600MHz 16GB • GPU: ASUS GeForce GTX 1080 • APU: ASUS ROG Xonar Phoebus • SSD: Intel X-25 M 80GB • HDD: WD Caviar Black 1TB, Hitachi Deskstar 1TB

Permalänk
Citat:

Ursprungligen inskrivet av -Boris-
Hoppas det inte är själva kärnan som är så stor som bilden antyder. Det blir ju närmare 2500mm².

Men Larrabee verkar onekligen skum. Känns inte som att ens 48 klumpiga CPUer kan komma upp i den totala prestandan som 800 skräddarsydda shaders har.

Att dedikerad hårdvara slår en generell processor är ju sant i de flesta fall. Dock är det ju inte så många delar av en modern GPU som är en ren ASIC. I min värld är de mer en ASIP med nån form av MIMD/SIMD instruktionsuppsättning plus en del specialsås för grafik. Så programmerbarheten finns ju där också om än inte på riktigt samma nivå som i Larrabee. Vad jag vill säga är att visst, grafikort är skräddarsydda för sin uppgift men i dagsläget innebär det att de ska hantera två komplexa API:er där stor frihet och programmerbarhet finns och ingen applikation har exakt samma exekveringsprofil. Därför tror jag inte att det är helt feltänkt att satsa på mer generella kärnor som Intel gjort, särskilt eftersom det är dit trenden pekar precis som piXtor säger.

En annan faktor i detta är ju att Intel sitter på en unik position där de har förmodligen världens bästa tillverkningsprocess för prestandakretsar och kan utveckla process, arkitektur och krets parallellt och med hänsyn till varandra. De har förmodligen också större resurser och vana att optimera kretsar än tex Nvidia som vad jag förstått består av långt fler mjukvaruingenjörer än hårdvaruingenjörer. De syntar nog stora delar av sina kretsar rakt av utan större optimeringar.

Nu vill jag inte påstå att Larrabee kommer bli det bästa sen kalleskaviar men man ska nog vänta på lite tester innan man kastar paj. Om Intel lyckas knåpa ihop bra mjukvara till sin mackapär kan den nog bli intressant.

(Kilroy jag vet inte heller vad jag pratar om men jag tycker det är roligt att spekulera och diskutera )

Visa signatur

/Hej hopp!

Permalänk

Jag e ett snille! Skalbarheten med Larrabee tror jag kommer vara bra då det är helt uppbyggt runt de principerna. Om AMD och nVidia skulle bygga GPUer runt de principerna skulle vi nog få se mkt bättre prestanda vid flera kärnor.