Intel och Nvidia i ordkrig om framtidens grafik

Permalänk
Medlem

Larrabee är säkert inte dålig men jag tror det Magnus72 menar är att om Intel inte möter gamers efterfrågan på spelprestanda så kommer Larrabee inte sälja särskilt bra, bortse inte från en så viktig målgrupp. Tycker personligen Intel förtjänar en känga för att de är så stöddiga liksom AMD var med sin "true quad" som visade sig vara en sämre produkt.

Visa signatur

Core i5 2500K@4Ghz, 8 Gb Kingston Hyper X 1600 DDR3, MSI Z68-GD55, OCZ Vertex 4, Asus GTX670 DC2, Corsair VX 450.
Kyld av Hyper 212 Plus Evo: Corsair SP120 Quiet PWM, 3 Nexus Real Silent 120 mm @ 7V.

Permalänk
Citat:

Ursprungligen inskrivet av Typhonos
Larrabee är säkert inte dålig men jag tror det Magnus72 menar är att om Intel inte möter gamers efterfrågan på spelprestanda så kommer Larrabee inte sälja särskilt bra, bortse inte från en så viktig målgrupp. Tycker personligen Intel förtjänar en känga för att de är så stöddiga liksom AMD var med sin "true quad" som visade sig vara en sämre produkt.

Jag tror Intel är illa ute om dom inte möter "gamers" efterfrågan med ett kommande högprestandakort. Vem vill ha ett sånt om inte just "gamers".

Intel kan få vara stöddiga om dom har en riktigt "kickass" produkt i utveckling, men tills jag vet att dom har det tycker jag deras trams är bara plumpt. Inte lika illa som nVidias men ändå illa.

Permalänk
Citat:

Ursprungligen inskrivet av Typhonos
Man kan definitivt klocka en 6550 till motsvarande E8400s prestanda vilket jag menade. Hade du läst mitt inlägg noga så hade du sett att jag nämnde den ursprungliga datorn.

Men du kan klocka en e8400 hästlängder längre en en e6550

Visa signatur

Vill du ha ett seriöst game i cnc 3. PMa mig isåf :)

| MSI K9A2 CF-F | Sapphire HD3870 | AMD 6000+ @ 3.3GHz | 2GB PC6400| Xfi- Xtreme Gamer | Antec Earthwatts 500w | Antec 900 |

Permalänk
Medlem

Hehe retorik på hög nivå här Nej men faktiskt så är det inte helt galet. Jag vet inte hur många gånger man avråder personer från att fläska på med grafikkort när de inte ska spela. T o m för film är det tveksamt då det innebär rätt mycket krångel med grafikkortsavkodning. Om man lägger säg en tusenlapp på kraftfullare processor istället så får man mer flexibilitet. Ta h.264 t.ex. där du med kraftfull processor kan spela upp det i vilket program du vill, medan med grafikkorten är du låst till ett visst program i princip och specifika inställningar.

Sedan är det många som tror att photoshop går snabbare med ett Geforce 9xxx

Permalänk

Grimmy, det kan väl vara en viss logik i att visa att inte ens ett mycket dyrt grafikkort snabbar upp Windows och vanliga arbetsuppgifter och att man därför valt ett 88GTX till exemplet. Dock gör man flera sjävmål genom att dels inte ta upp Photoshop eftersom det som du säger är något som en del tror snabbas upp och istället peka på att konvertering av musik går snabbare (inte många som tror det går snabbare att packa MP3:or med ett 98GX2...).

Vidare pajar de ju sin logik genom att gnälla på att det blev så himla dyrt med ett 88GTX när ett enklare kort hade räckt. (Att de sedan ljuger om priserna är också pinsamt, men en annan fråga.)

Håller du inte med om att de hade kunnat framföra budskapet att om du inte skall spela så behöver du inte ett värstinggrafikkort på ett bätttre sätt? Nu blev det ju bara blaj av alltihop.

Visa signatur
Permalänk
Hjälpsam

Både ATI och Nvida skryter med hur snabba deras kort är på att beräkna allt möjligt, men när det kommer till kritan är det inte mycket dom klarar av, dom kanske skulle sluta skryta och börja implementera.
Visst går ATI:s videokonverting snabbt men till vilken nytta, när den inte klarar av de flesta formaten.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Riktigt ful layout var det på tipsen om att byta CPU istället för GFX i alla fall. Ser riktigt 90-tal ut.

Permalänk
Medlem

det här är ju barnsligt som dom håller på?! hahaha

Visa signatur

MacBook Pro 15" i5 520M 8GB GT330M 750GB

Permalänk
Medlem

"Enligt presentationen ger en snabbare processor bättre prestanda i fotoredigering, musikkonvertering, 3D-rendering och videokodning."

- Och hur många datoranvändare håller på med sånt här? En bråkdel jämfört med hur många som är gamers.

"Vidare demonstrerar Intel att det är bättre att uppgradera från en Core 2 Duo E6550 till en Core 2 Duo E8400, än att det är uppgradera från ett integrerat G33-grafikkort till ett Geforce 8800 GTX."

- Ja, som sagt för det fåtal som pysslar med att rippa CD-skivor till MP3s.

Idiot-Intel.

För en gamer är GPU >>>>>>>>>>>>>>>>>> än CPU.

Visa signatur

Memento mori...

Permalänk
Medlem

Ska nog fråga om inte mina barn kan få vara med o leka i sandlådan med Intel och Nvidia.....

Visa signatur

Main : AMD Ryzen 5900X @ 4.55 | NZXT Kraken X73 | 32 GB DDR4 Gskill 3600mhz @ 3800 CL16 | Asus ROG STRIX B550-A GAMING | Sapphire Radeon 7900 XT nitro+ | Samsung 970 evo 1TB | Windows 10 | Lian Li PC-O11 Dynamic EVO | Corsair RM 750 | AOC cu34g2x + Dell u3415w / 1st 24"
Htpc / server : Intel G3258 | Nvidia GTX 670 | 12 GB | 6TB lagring | Fractal design Node 804 | Win 10+Kodi

Permalänk
Hjälpsam

Hur kommer Larrabee prestera gentemot Cuda då?
Där tror jag att Larrabee kommer att visa sin styrka, om nu Grafikkort är bäst på grafik, bör också en parallell beräkningsprocesser vara bäst på tex fysikberäkningar, videokonverteringar osv.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Det är skoj att AMD är så jävla långt efter att dom inte ens bryr sig om att fightas mot dom. nVidia har istället valt att hitta nån ny att mobba och Intel mobbar tillbaka. AMD är inte ens med i leken.

Permalänk

Ja, det är ju jätteroligt! Fattar du inte att du som konsument tjänar på konkurrens? Är det roligare att sitta som dum nVidia-fanboy när AMD/ATi försvinner och skrika "Mitt märke är bäst – Heja mig!" samtidigt som nVidia inte behöver komma med något nytt och inte heller behöver sänka priserna med tiden?

Visa signatur
Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Magnus72
Javisst fasiken, men tror du på fullaste allvar att Intel helt plötsligt kör över Nvidia och ATI med en super krets? Med tanke på hur deras grafiska lösningar presterar nu tar jag detta med en nypa salt.

Du hade alltså inga fakta bakom ditt påstående om att "Larabee är ett skämt"? Det var din egna personliga gissning/önsketänkande?

Permalänk
Moderator
Testpilot

Tycker det är väldigt underhållande hela denna cirkusen. Kommer lägga sig så småningom. Men är det någon som har noterat att man jämför äpplen med päron? CPU:n och GPU:n är ju fundamentalt olika just pga. av de olika användningsområdena. Sen att GPU:n är en mästare på flyttalsdata och är som en motorväg med mängder av körbanor så innebär inte det att den är bättre än CPU:n som är mer av en extrem sportbil med fantastiska köregenskaper.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Fluffster
Nja, sanning med modifikation. Intel var inte så kaxiga när AMD:s Athlon 64:a var herre på täppan. Intels Core2 arkitektur var otroligt lyckad, sant, men inte fanken har de alltid "krossat motståndet".

Sant, Intel var Inte så kaxiga när Athlon64 kom ut. Man ska dock inte glömma att Intel tillverkar mer än bara processorer.

Citat:

Ursprungligen inskrivet av Magnus72
Javisst fasiken, men tror du på fullaste allvar att Intel helt plötsligt kör över Nvidia och ATI med en super krets? Med tanke på hur deras grafiska lösningar presterar nu tar jag detta med en nypa salt.

Ptja, med tanke på att Intel aldrig tidigare försökt bygga high-end någon GPU så är det svårt att säga hur det kommer slå. Däremot tycker jag deras inbyggda grafikkretsar gör ett utmärkt jobb för det dom är ämnade.

Citat:

Ursprungligen inskrivet av Magnus72
"Enligt presentationen ger en snabbare processor bättre prestanda i fotoredigering, musikkonvertering, 3D-rendering och videokodning."

- Och hur många datoranvändare håller på med sånt här? En bråkdel jämfört med hur många som är gamers.

Faktum är att gamers är en minoritet bland datoranvändare idag.

Permalänk
Citat:

Ursprungligen inskrivet av albertalbertsson

Ursäkta om jag misstar mig nu men är det inte detta som kallas konkurrens ?

Precis, en konkurrens. Fast på dagisnivå instället.

Visa signatur

Intel Core 2 Q6600 G0 2.4Ghz@3,6Ghz | Tuniq Tower 120 |Gigabyte GA-P35-DQ6 | 4x1gb Corsair XMS2-6400 CL4
| XFX GTX260+ 896MB | Antec Three Hundred | Corsair HX520 | Intel 510 120GB | Samsung Spinpoint F1 750GB | Samsung Spinpoint F3 1TB | Windows 7 Pro x64

Permalänk
Citat:

Ursprungligen inskrivet av Pellias
"Enligt presentationen ger en snabbare processor bättre prestanda i fotoredigering, musikkonvertering, 3D-rendering och videokodning."

- Och hur många datoranvändare håller på med sånt här? En bråkdel jämfört med hur många som är gamers.

Känns som de flesta idag har en digitalkamera varav en ganska stor andel sitter och redigerar i vart endel av bilderna.

Permalänk

Äh, tycker det här påminner om amerikanska rappare under 90-talet.
Med sina fejder och utmaningar som endast var gjorda för att höja varandra genom att få uppmärksamhet.
Tror Intel och Nvidia antingen inser detta eller så är det förbestämt.

Får bara hoppas att dator-fanboysen inte blir lika fanatiska som rap-fansen blev under 90-talet. (med flera kända rapartisters död som följd.)

Visa signatur

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Permalänk
Medlem

Jag tror inte Larrabee är menat gentemot gamers i första hand, utan vanliga medel svenssons. Det lär knappast vara något Ultra presterande integrerat grafikkort som de släpper. Det borde dom ha kunnat släppt för länge sedan. Jag gillar Intel, men deras integrerade GMA modeller ligger långt efter Nvidia´s och ATI´s integrerare lösningar. Så vad skulle göra att de helt plötsligt skulle kunna tävla med Nvidia och ATI´s dedikerade grafikkort helt plötsligt.

Gamers är nog bland de viktigaste de kan satsa på. Vanliga svenssons kör fortfarande med integrerat, så för mig så låter det som att Intel vill nå gamer gruppen också. Men då fasen måste dom släppa något bra och bara gå in och försöka konkurrera med Nvidia/ATI tror jag blir tufft för dom. En dedikerad lösning har alltid varit bättre än en integrerad lösning när det gäller grafikkort.

Visa signatur

Desktop: Core I7 2600K @ 4Ghz, 8GB Corsair XMS3 DDR3 @ 1600 MHz, GTX 680.
TV-dator: Core I7 965 @ 3.6 Ghz, 6GB Corsair XMS3 DDR3 @ 1333 MHz, EVGA GTX 680.

Dell XPS M1730, X9000 @3.4 GHz, 4GB, 9800m GTX SLI, 320GB Raid 0 SATA, AGEIA PHYSX, 1920x1200 WUXGA Screen.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Kyroz
Ptja, med tanke på att Intel aldrig tidigare försökt bygga high-end någon GPU så är det svårt att säga hur det kommer slå. Däremot tycker jag deras inbyggda grafikkretsar gör ett utmärkt jobb för det dom är ämnade.

Ahja.. i740 minns vi väl?

http://en.wikipedia.org/wiki/Intel740

Dock så tröttnade intel ganska snabbt på det hela.

Citat:

Ursprungligen inskrivet av Magnus72
Jag tror inte Larrabee är menat gentemot gamers i första hand...

Gamers är nog bland de viktigaste de kan satsa på...

Hur går det med länkarna? Eller var det bara meningslöst sludder från din sida om att Larabee är ett skämt?

Vet inte vad intel förväntar sig att uppnå med Larabee, men tveksam till att gamers är varken viktigt eller attraktivt för dem.
Skulle visserligen gissa på att det är delvis ett experiment för att se om det kan leda till något nytt. Kanske smälta ihop Ggputanken med själva processorn i en enhet. Om det är funderingarna intel har så lär inte målet med den första versionen vara att slå något rekord i någon gren utom möjligen att få ner chipsetkostnaden nu när även intel flyttar in minneskontrollern i processorn. Vem vet? Kanske tanken är att helt skippa nordbrygga i förlängningen?

Permalänk
Hjälpsam

Nu håller dom på att gå från andra hållet ockå att använda GPU:n till annat än grafik.
Det är inget jag känner mig upprymd över, tror mer på Larrabee där.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Tror att detta bidrar till att en får köpa hela system av en aktör.
Att moderkort, grafikkort o cpu är från samma tillverkare för det är bara då det är kompatibelt.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Citat:

Ursprungligen inskrivet av AlbinNdoja
Om nu det är bättre att uppgradera från en Core 2 Duo E6550 till en Core 2 Duo E8400, än att det är uppgradera från ett integrerat G33-grafikkort till ett Geforce 8800 GTX så måste jag fråga hur de tänkte när de utvecklar Larrabee? Jo, givetvis genom att konkurrera i prestandasegmentet. Men varför i helsike utesluter Intel spel i presentationen då? *Därför att det inte hör hit*. Skitsnack. Nvidia utvecklar grafikkort i fokus medans Intel inte gör det utan processorn är i fokus. Om nu Intel skall in och möta Nvidia i en battle ord-vs-ord måste de självklart dra in spel också då Nvidia utvecklar mest för spel även om de har lågsegment and so on. Men det är bara för tjäna pengar. "The way its ment to be played".

För övrigt tycker jag det är kul när de stora, seriösa företagen käftar med varandra så att till och med vi tycker det är kul. Men det roligaste iår måste nog vara larrabee @ laughabee. Det är lite som min tolkning av Intel Prescott Inside @ Intel Deep Fry Inside! Haha, japp japp, stort ego!

Citat:

Ursprungligen inskrivet av Kjell Brel
Jo, fast Intel gör ju bort sig när de räknar upp saker på det där sättet. Faktum är att väldigt många av dagens processorer räcker väldigt långt. Att du kan organisera dina semsterbilder ( ) snabbare är en "seger" för CPU-sidan, medans att spel plötsligt blir spelbara överhuvudtaget är oavgjort. Gissningsvis har en "E6550/Intel G33" mer att tjäna på att bli "E6550/8800GTX" än att bli "E8400/G33" när det kommer till spelprestanda – med en faktor två miljoner eller så...

Sedan vinner CPU:n en seger till för att det går snabbare att rendera 3D-bilder. Mm, precis. Hur många gånger fler användare tror du sitter och spelar jämfört med renderar 3D? Två miljoner igen kanske? Och då har Intel dessutom "glömt" att ta med att det fortfarande går att rendera 3D, organisera semesterbilder och koda video med den sämre processorn, men att det är helt jämra omöjligt att spela någonting *alls* med en G33.

Som lök på laxen är deras prisuppgifter nästan kriminellt långt åt helvete. Ett 8800GTX (om vi nu inte kan nöja oss med ett prisvärdare kort) går att hitta för $345 (och säkert ännu billigare om man letar i mer än tio sekunder som jag gjorde) istället för de $539 Intel skriver ut. Prisuppgiften $60(!) för att uppgradera till en E8400 måste vara att få en sådan istället vid ursprungsköpet – inte att köpa en ny vilket väl är vad de antyder med att man "funderar på att uppgradera"?. På samma ställe (NewEgg) som prisuppgiften på grafikkortet ovan så kostar en E8400 $200.

Grafikkortet var alltså 36% billigare och processorn var egentligen 231% dyrare (om jag fick ihop procenträkningen rätt) – starkt jobbat, killar!

Om vi istället tar ett 8800GTS-512 så får vi fortfarande en vansinnig förbättring jämfört med G33, men prisskillnaden mellan uppgraderingarna blev $20 istället för de $479 Intel framställde det som...

FUD i referensklass skulle jag säga.

Att priserna är fel är väldigt pinsamt men Intel är ju otroligt mycket mer professionella för tillfället när det gäller detta "dagiskrig". De visar ju faktiskt lite fakta i stället för att komma på smidiga smeknamn för en okänd kommande produkt, när man själv inte gjort något speciellt bra på 1.5 år.

Jag tycker att Intel gör fel i att utesluta spel, men detta är enkel marknadsföring. Å andra sidan gjorde Nvidia mycket mer fel i att ta för givet att alla i hela världen använder sin dator till 90% för spel. Det enda som grafikkort medför i dagsläget är bättre spelprestanda, och så används kanske 10-15% av alla datorer i världen till just spel. När de gick ut och sade att processorn är död så glömde de av att alla processer som inte tjänar på ett grafikkort, utförs av processorn (dvs. allt förutom spel), vilket är precis vad Intel har demonstrerat här. Exemplet de gav var ju inte så jättebra, men kollar man på lite äldre datorer så kommer jag tjäna mycket mer på att uppgradera min Intel P4 2.4 ghz till Intel E8400 än mitt Radeon 9600XT till ett 8800gtx. I dagligt användande dvs. Skillnaden e den att med E8400 kommer hela datorn kännas betydligt snabbare vilket är vad Intel vill komma fram till medan jag redan spelat igenom Crysis på mitt 9600xt (det var inte vackert och inte särskilt bra framerate men har varvat spelet med detta grafikkort; konstigt nog började det hacka när jag uppgraderade till ett Geforce 6600LE). Crysis skulle vara roligare med 8800gtx men det skulle funka betydligt bättre med en E8400 också och i princip allt annat skulle funka bättre med E8400 också.

Som sagt är denna smutskastning fullständigt...tja...dagisaktg, men Nvidia började och jag tycker ändå att Intel svarar på ett effektivare och professionellare sätt.

Citat:

Ursprungligen inskrivet av Magnus72
Javisst fasiken, men tror du på fullaste allvar att Intel helt plötsligt kör över Nvidia och ATI med en super krets? Med tanke på hur deras grafiska lösningar presterar nu tar jag detta med en nypa salt.

Ja ja så med tanke på hur deras billigaste-budget-integrerade-lösningar presterar i Crysis, så kommer deras high-end produkt som de har investerat miljoner dollar på att utveckla knappt kunna köra spelet. Bra logik där! Det är som att säga att i och med att Nvidia 8400 GS suger, så kommer GT200 vara helt värdelös.

Det du glömmer är att Intel är en av de absolut störsa bolagen i världen och har tro det eller ej flera gånger högre omsättning som de kan investera i utforskning än Nvidia har. Kan Nvidia släppa ett så revolutionerande kort som 8800gtx finns det absolut inget som stoppar Intel från att göra detsamma. De har ju som sagt inte samma erfarenhet av high-end grafikkort men de jobbar ju på att försöka integrera CPU och GPU i ett och samma kort, vilket är något helt nytt.

Var snäll och lämna all subjektiva och onödiga "faktum" ur diskussionen då de inte har någonting med saken att göra. Du kan inte förutspå hur Larrabee kommer att prestera, lika lite som Nvidia kan förutspå hur det kommer prestera, så sluta sänka thread-nivån till samma status som Nvidias och Intel smutskastningskrig!

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Medlem

Yep men i ett och samma chip? Det är det jag vill se, ett integrerat som slår ett 8800GTX. När jag först ser det då tror jag på det. För var det inte så dom påstod? Att deras lösning är snabbare än ett dedikerat 8800GTX?

Dock så av det man läser om Larrabee så liknar den mer och mer en Cell processor. Men jag har svårt att tro att den helt skulle kunna ersätta ett 8800GTX som exempel när det kommer till tunga 3D spel.

Visa signatur

Desktop: Core I7 2600K @ 4Ghz, 8GB Corsair XMS3 DDR3 @ 1600 MHz, GTX 680.
TV-dator: Core I7 965 @ 3.6 Ghz, 6GB Corsair XMS3 DDR3 @ 1333 MHz, EVGA GTX 680.

Dell XPS M1730, X9000 @3.4 GHz, 4GB, 9800m GTX SLI, 320GB Raid 0 SATA, AGEIA PHYSX, 1920x1200 WUXGA Screen.

Permalänk
Medlem

Man kan väl säga att processorn är mindre viktig nu än tidigare. Kan få ut en hel del spelprestanda med en budgetprocessor och ett ganska bra grafikkort (se min spec).

Permalänk
Citat:

Ursprungligen inskrivet av Mazda
Detta handlade om nVidias påstående om att "processorn är död", så jag tycker att det är rimligt att Intel inte drar upp spel då detta inte är ett område som har med saken att göra. Tycker Intel gjorde det ganska klart genom att ha med spel på den första bilden och erkänna att både GPU och CPU spelade in där. Det här draget handlar helt enkelt om att visa att det finns områden där processorn och inte grafikkortet spelar roll finns och frodas, och därmed slå hål på nVidias attack på processorn.

Tyvärr så hamnar den här typen av argumentationer på dagisnivå, det skulle inte behöva göra det =/

Jag tycker Kjell Brel skrev det klockrent nedan:

Citat:

Jo, fast Intel gör ju bort sig när de räknar upp saker på det där sättet. Faktum är att väldigt många av dagens processorer räcker väldigt långt. Att du kan organisera dina semsterbilder ( ) snabbare är en "seger" för CPU-sidan, medans att spel plötsligt blir spelbara överhuvudtaget är oavgjort. Gissningsvis har en "E6550/Intel G33" mer att tjäna på att bli "E6550/8800GTX" än att bli "E8400/G33" när det kommer till spelprestanda – med en faktor två miljoner eller så...

Sedan vinner CPU:n en seger till för att det går snabbare att rendera 3D-bilder. Mm, precis. Hur många gånger fler användare tror du sitter och spelar jämfört med renderar 3D? Två miljoner igen kanske? Och då har Intel dessutom "glömt" att ta med att det fortfarande går att rendera 3D, organisera semesterbilder och koda video med den sämre processorn, men att det är helt jämra omöjligt att spela någonting *alls* med en G33.

Som lök på laxen är deras prisuppgifter nästan kriminellt långt åt helvete. Ett 8800GTX (om vi nu inte kan nöja oss med ett prisvärdare kort) går att hitta för $345 (och säkert ännu billigare om man letar i mer än tio sekunder som jag gjorde) istället för de $539 Intel skriver ut. Prisuppgiften $60(!) för att uppgradera till en E8400 måste vara att få en sådan istället vid ursprungsköpet – inte att köpa en ny vilket väl är vad de antyder med att man "funderar på att uppgradera"?. På samma ställe (NewEgg) som prisuppgiften på grafikkortet ovan så kostar en E8400 $200.

Grafikkortet var alltså 36% billigare och processorn var egentligen 231% dyrare (om jag fick ihop procenträkningen rätt) – starkt jobbat, killar!

Om vi istället tar ett 8800GTS-512 så får vi fortfarande en vansinnig förbättring jämfört med G33, men prisskillnaden mellan uppgraderingarna blev $20 istället för de $479 Intel framställde det som...

FUD i referensklass skulle jag säga.[/B]

Vet du vad det roliga är Kjell? Att du idag kan få ett 8800GTX för 1800 svenska kronor. Det är väldigt billigt för den typen av prestanda och jämfört med vad den kostade för 1.5 år sedan.

Citat:

Ursprungligen inskrivet av Kenta_ponta
Vad är sämst?

Att ha rutten FPS i spel
Eller att de tar 10 % längre tid att RAR. ;a upp en fil?

Hmmmm... Hmmm..

- I might go for extra FPS!

Exakt.

Citat:

Ursprungligen inskrivet av oscarstegland
Att priserna är fel är väldigt pinsamt men Intel är ju otroligt mycket mer professionella för tillfället när det gäller detta "dagiskrig". De visar ju faktiskt lite fakta i stället för att komma på smidiga smeknamn för en okänd kommande produkt, när man själv inte gjort något speciellt bra på 1.5 år.

Hehe. Tycker inte du att "Laughabee" var skoj? Kanske bara jag som har så tråkig humor här inne då.

För övrigt har Nvidia gjort vettiga saker under tiden Oscar bara det att Nvidia inte haft någon anledning att lansera någonting vettigt just på grund av att AMD (Ati) inte haft så mycket att komma med. Kanske har Nvidia blivit för slappa? Det vet jag inte.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Citat:

Ursprungligen inskrivet av oscarstegland
Att priserna är fel är väldigt pinsamt men Intel är ju otroligt mycket mer professionella för tillfället när det gäller detta "dagiskrig". De visar ju faktiskt lite fakta i stället för att komma på smidiga smeknamn för en okänd kommande produkt, när man själv inte gjort något speciellt bra på 1.5 år.

Intressant att du också tycker det är pinsamt. Att nVidia har "mer" fel förstår jag inte. Du beter dig som att de påstått att processorn inte behövs öht när de i själva verket bara sagt att även en sämre processor räcker långt nuförtiden när vi har så pass kraftfulla processorer.

Intels "professionella" fakta havererar väl lite när de inte kan kolla på Prisjakt innan de går ut med reklam? Smeknamnet som du är så upprörd över var något som en kille sade i en intervju. Du tycker det är långt värre än att man sjösätter en ruskigt vinklad kampanj med direkta felaktigheter (t.ex. prisuppgifter) – tillåt mig att inte hålla med.

Citat:

Ursprungligen inskrivet av oscarstegland
Jag tycker att Intel gör fel i att utesluta spel, men detta är enkel marknadsföring. Å andra sidan gjorde Nvidia mycket mer fel i att ta för givet att alla i hela världen använder sin dator till 90% för spel. Det enda som grafikkort medför i dagsläget är bättre spelprestanda, och så används kanske 10-15% av alla datorer i världen till just spel.

Vi fortsätter i alla fall att vara överens om att Intel gjort fel – det känns bra. Beträffande nVidias antaganden så säger de fortfarande inte att alla spelar (oavsett din antagna procentsats) – De menar att för den mesta datoranvändningen idag så räcker en E6550 (CPU:n Intel ville uppgradera ifrån) rätt jävla långt - Håller du inte med?

Har du någon källa till dina procentsatser eller höftade du bara lite för att det såg seriösare med lite siffror?

Citat:

Ursprungligen inskrivet av oscarstegland
När de gick ut och sade att processorn är död så glömde de av att alla processer som inte tjänar på ett grafikkort, utförs av processorn (dvs. allt förutom spel), vilket är precis vad Intel har demonstrerat här.

Snicksnack. Intel har demonstrerat att de känner sig hotade (oavsett företagets storlek) och därmed nödgade att vinkla fakta väldigt hårt. Produkterna i exemplen är valda för att få CPU:n att verka så bra som möjligt, och grafikkortets fördelar klippte man bort (samtidigt som man valde ett dyrt grafikkort). Dock räckte det inte så prisuppgifterna satte man alldeles åt h-e. Att utelämna spel ur den ena grafen var väl ändå pinsammast – kunde de inte ens stå för att spelprestandan förbättras med ett nytt grafikkort?

Citat:

Ursprungligen inskrivet av oscarstegland
Exemplet de gav var ju inte så jättebra, men kollar man på lite äldre datorer så kommer jag tjäna mycket mer på att uppgradera min Intel P4 2.4 ghz till Intel E8400 än mitt Radeon 9600XT till ett 8800gtx. I dagligt användande dvs. Skillnaden e den att med E8400 kommer hela datorn kännas betydligt snabbare vilket är vad Intel vill komma fram till medan jag redan spelat igenom Crysis på mitt 9600xt (det var inte vackert och inte särskilt bra framerate men har varvat spelet med detta grafikkort; konstigt nog började det hacka när jag uppgraderade till ett Geforce 6600LE). Crysis skulle vara roligare med 8800gtx men det skulle funka betydligt bättre med en E8400 också och i princip allt annat skulle funka bättre med E8400 också.

Inte så jättebra nä. Men de valde ändock exemplet med en uppgradering från en E6550 till en E8400. Ditt Crysis-spelande skulle nog inte skilja sig så mycket om du uppgraderade till en E6550 eller en E8400 – grafikkortet är fortfarande flaskhalsen där (och då är väl ändå ett 9600XT bättre än en G33 fast du och Intel vill fortfarande inte köpa ett nytt grafikkort ). Dessutom skulle väl du behöva ett nytt moderkort, nya minnen och kanske ännu mer vid en sådan uppgradering och då äts väl samtidigt rätt mycket av den (fejkade) prisskillnaden upp?

Citat:

Ursprungligen inskrivet av oscarstegland Som sagt är denna smutskastning fullständigt...tja...dagisaktig, men nVidia började och jag tycker ändå att Intel svarar på ett effektivare och professionellare sätt.

Vi har redan varit över att du missförstått vad nVidia påstod (samt att Larrabee-uttalandet var en kommentar i en intervju och ingen uttänkt kampanj)

Albin,
Tack.

Visa signatur