Nvidia dödförklarar processorn

Permalänk
Citat:

Ursprungligen inskrivet av Antonsson
Det är HÖGST ointressant vad idioterna på nvidia "tycker". Allt mer framgår det vad det är för skitföretag. Dom har visserligen haft tur de senaste åren men detta kommer inte hålla i sig. Dom har några vettiga utvecklare som gjort ett bra jobb men ledningen är dumma som spån. Klart som fan att inte cpun är död, det är snarare gpun som kommer försvinna. Död åt nvidia!

Dom syftar nog på att många inte har speciellt mycket andvänning av dom grymmaste procesorerna på marknaden. men det bästa grafikkortet däremot är snart stenåldern

Död åt Nvidia??

Vad är det som gör intel bättre??

Visa signatur

Datorer är LIVET

Permalänk
Citat:

Ursprungligen inskrivet av Pellias
Ja! Visst är det befriande med lite känslouttryck! Och drama.

Rent av barnsliga, men asköna uttalanden av Nvidia:

Roy Taylor (till skvallerblaskan numer ett i PC-världen: the Inq):
"Basically the CPU is dead"

Och självaste VD:n säger:
"Laughabee"

Det som också är kul att det ligger mycket sanning bakom deras till synes larviga argument.
Tex, varför lade jag ner 5000kr på grafikkortet men det räckte med 1200 kr på CPUn (i april -06)? Och inför uppgraderingen i sommar blir det 4-5000kr för ett X2 4870 medan det antagligen räcker med 1500kr för att få en duglig Quad core (t.om från Intel om man nu vill det).

Synd bara att Intels marknadsföring alltid varit så stark, som gör att allmänheten fortfarande hakar upp sig på hur många Mhz processorn har, och att även insatt folk på Sweclockers slänger onödiga pengar på hyperstarka CPUs men snålar med grafiken, trots att det är den som gäller för en gamer.
(okej, ni som älskar att överklocka, fippla med minnesparametrar, köpa rätt chipset osv, ni gör det av en annan anledning än att få maxad FPS , jag vet. Det är en hobby. )

Men +1 till Nvidia (även fast jag är en ATI-boy).

Så intel är dumma för att de gör processorer som är för bra för dagens grafikkort? Jo, det är ju ett slagkraftigt argument från Nvidias sida.
-"HAHA! Man behöver ingen bra cpu när man har nvidiakort!"

Visa signatur

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Permalänk
Medlem

Tycker nvidia börjar bli lite väl kaxiga. De har i min bok ingen som helst grund för att uttrycka sådant här. Hybris är nog inte ett ord jag tycker ligger för långt borta.

Visa signatur

Xbox Live - Firaphex
Jag har inte alltid rätt, men jag utgår från det tills jag ser bevis på annat. Citera för svar
2008-06-18, Dagen då integriteten ställdes tå mot tå med maktmissbruket och förlorade.

Permalänk
Medlem

alltid kört Intel/Nvidia kombination såsom miljoner andra, det är väl bra för både Nvidia och Intel... Jävla trams

Visa signatur

i7 2600k + Corsair H60 | Asus P8Z68-V Pro Gen-3 | Corsair Vengeance 16GB | Sapphire Radeon 7970 | Intel X25-M G2 80GB | Corsair HX520 | Corsair Obsidian 650D

Permalänk
Medlem

Försök till moral-booster i de egna leden som bara blir patetiskt

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
Eftersom det blir tillgänligt för större grupp konsumenter om teknologin körs ut av ett mer etablerat företag som har resurser. Många av dessa var små och hade ingen större kapcitet, både ekonomisk eller resursmässigt och byggdes på bara en eller fåtal utveklingsprodukter/patent.

Och om du hatar nVidia så mycket så kan du väl göra oss en tjänst och gå till ditt hörn och hata där istället.

Mycket lustigt, hur många gånger har du sett mig i ATI vs Nvidia-trådar jämnfört med dig själv som hugger emot alla som går emot Nvidia?

Är inte det som att säga att det är bra att ett jätteföretag äger alla patent inom området? Företaget når ju ut till alla kunder som berör området, har enorma resurser just för att alla kunder måste köpa genom dom. Är det bra konkurrens? DET tycker jag låter som monopol.

Så förklara för mig, igen, hur är Nvidias köp av alla bolag de kommer över, bättre för konkurrensen?

Visa signatur

I like my women how i like my coffee... In a plastic cup.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av McVit
*off topic*

GhOsT#07

sen när hade AMD bra prestanda på sina CPU´s ?
visst dom är ganska billiga men man får vad man betalar förr också

*on topic*

vad hade Nvidia tänkt att göra med Via? köpa upp dom och börja göra egna moderkort med speciella sockets för Via prossesorer?
var vänlig förklara den som är mer insatt

Sedan Athlon har AMD haft bra prestanda i alla aspekter.
Idag finns det mer än bara potential inom t.ex. 6400BE, 9850BE, etc. för det prestandasegment du talar om. Snackar vi standardprestanda utan överklockningssyfte har AMD Athlon X2-serien samtliga Intel-modeller under sig under 1700-klassen inom 65nm-utförandet.

Citat:

Ahlm: -"alltid kört Intel/Nvidia kombination såsom miljoner andra, det är väl bra för både Nvidia och Intel... Jävla trams "

... Va? Vad är din poäng?

Permalänk

Jag vill ha räjträjsat tetris!

Visa signatur

[-Antec sonata III-] - [-Corsair 750 W-] - [-AMD Phenom II X4 940 @ 3700 MHZ-] - [-8 GB DDR2 800 MHZ-] - [-GIGABYTE GA-MA790X-DS4-] - [-Seagate Barracuda 7200.11 500 GB-] - [-Gigabyte Radeon 4850 (AC Accelero S1)-CROSSIFRE-Powercolor Radeon 4870-] - [-Acer 24" 2 ms 1920x1200-]

Permalänk
Citat:

Ursprungligen inskrivet av GhOsT#07
vad menar du med det? :S AMD är ju både billiga och bra prestanda :S

Du missförstår, i kriget mellan AMD och Intel så har Intel snabbare processorer än AMD och även mer marknadsandelar. Så uttalandet "Du behöver ingen snabb CPU längre" är dumt av den anledningen att folk klart väljer Intel framför AMD just pga CPU prestandan.

Det är ju många andra grejer som gör Intel bättre enligt mig, men det är så att man får ta kronan ibland och sen ges den vidare. I början av Athlon så tyckte jag starkt om denna processor, men med Core 2 så har Intel gjort väldigt mycket rätt! Håller dock med dig om att AMD är bra om man ser till prestanda/krona.

Visa signatur

Bianconeri siamo noi, ma chi cazzo siete voi?

Permalänk
Medlem

Om detta nu skulle vara sant, att GPUn ska vara det enda vi har i våra datorer i framtiden, så har programmerare ett väääldigt svårt jobb framför sig... Är auto-paralellisering i kompilatorn något som är möjligt i framtiden?

Visa signatur

MBP: 13" - M1
Stationär: Win11 - Ryzen 5900X - 128GB - GTX 4080
Server: Ubuntu - i5 4670k - 32GB - 4x5TB Raid-Z
Server: Rpi4 8GB, 1TB USB SSD

Permalänk
Medlem

Nvidia tar alltså sitt misslyckande att förse användare med tillräcklig prestanda, och använder detta misslyckande för att smutskasta CPU-tillverkarna, vilka lyckats?

CPU-marknaden: Köp en propp för 1-2k och du har en tyst, strömsnål komponent som klarar allt du vill att den ska klara.
GPU-marknaden: Köp ett kort för 5k och du har en bullrig, stor, strömslukande komponent som klarar spel med flera år på nacken (och som går sönder eller är DOA betydligt oftare än CPU:er). År 2015 kanske det går att spela Crysis o.d. the way it's meant to be played.
Att de har mage, Nvidia!

Visa signatur

MSI B650 Tomahawk Wifi, 7800X3D, Noctua D15, 64GB Kingston Fury Beast, Sapphire Pulse 7900XT, Corsair RM750X V2, Samsung 990 Pro 4TB + MP510 960GB + PNY CS3030 2TB, Define R6, Win 11.
Sig uppdaterad 2023-12-28. Inlägg där bilar jämförs med datorer beaktas inte.

Permalänk
Hedersmedlem

Är det första april igen eller? Vilka galna uttalanden! Det bartil skriver stämmer, fast egentligen behöver inte ens proppen kosta 1k, om man klockar den lite!

Jag tycker Nvidia börjar bli alldeles för kaxiga, speciellt det där med att deras "chip" snart sköter allt i datorn!

Permalänk
Medlem

Jag vet inte hur man ska tolka uttalandet heller. En CPU kan göra allt ett grafikkort kan och mycket mer (bla starta datorn). Men ett grafikkort kan göra, säg hälften av vad en CPU kan. Klart CPUn är inte lika snabbt som ett grafikkort i grafikapplikationer. Men om CPUn ligger efter grafikkortet inom några få områden hur kan den då vara överflödig?

Visa signatur

I like my women how i like my coffee... In a plastic cup.

Permalänk
Avstängd

de kanske är nvidia som e körda när man börjar integrera grafikeni processorn? För det kan ju både intel och amd göra, men Nvidia? Nops! Dem kan vara körda då, om man vänder på kakan asså!

Sen kanske intel kan köpa upp Nvidia, kanske är det så att Nvidia tigger om att bli uppköpta... ja inte vet jag, teorier teorier, time will tell som nån smart nisse sa!

Visa signatur

•Alienware: Q9450 @ CoolIT-FreeZone, HD2900XT, Blitz Formula, Crucial Ballistix 8500(old rev), Raptor 36GB 16mb+560GB, Hipro5 PSU
•Lian-Li + VappoLS: E6300, P5B, 2GB KHX 800mhz CL4, X1600XT, Hiper 580w Modular
•Lanbox Lite All @ H2O: P4 CedarMill @3,2Ghz, GA-G33M-DS2R, 2GB-667mhz, 7300GS Passiv, 320GB, Hiper530w

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av zm
de kanske är nvidia som e körda när man börjar integrera grafikeni processorn? För det kan ju både intel och amd göra, men Nvidia? Nops! Dem kan vara körda då, om man vänder på kakan asså!

Sen kanske intel kan köpa upp Nvidia, kanske är det så att Nvidia tigger om att bli uppköpta... ja inte vet jag, teorier teorier, time will tell som nån smart nisse sa!

Jag hoppas inte Intel köper dem. Däremot hoppas jag att Via och nVidia kan börja samarbeta. Iofs har ju faktiskt nVidia redan lagt ett bud på Via, men Via var inte nöjd med budet då.

Då får vi faktiskt 3 stora parter som alla kan göra GPU:er, CPU:er, och chipsets. Men vi får se vad som händer.

Visa signatur

AMD Ryzen 5 3600 | 4x8GiB 18-20-16-36-52-2T DDR4-3400 | MSI B450-A Pro Max AGESA 1.2.0.7 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | PNY CS900 2TB | Samsung 850 EVO 500GB | Samsung PM961 512GB | Scythe Kamariki 4 450W

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av zm
de kanske är nvidia som e körda när man börjar integrera grafikeni processorn? För det kan ju både intel och amd göra, men Nvidia? Nops! Dem kan vara körda då, om man vänder på kakan asså!

Sen kanske intel kan köpa upp Nvidia, kanske är det så att Nvidia tigger om att bli uppköpta... ja inte vet jag, teorier teorier, time will tell som nån smart nisse sa!

Nvidia vill inte bli uppköpta. De har inga ekonomiska brister som talar för att de skulle vilja stabilisera sin egen verksamhet genom att bli en del av en annan.

Nvidia är snarare dumkaxiga just för att de har Via på sina sida nu och hoppas kunna få ihop något närmaste tiden (/åren) där de använder både GPU och CPU på samma platta eller i en komplett platform som AMD har pågång med Fusion och har påbörjat med Spider (det senarenämnda gäller platformen, inte Fusion). Men jag tror inte de borde kaxa sig - speciellt inte då de har någon konkret produkt att visa.

Permalänk
Medlem

Dom kan väl åtminstone fixa stöd för mer än L4.1 i h264 innan dom säger att deras grafikkort gör jobbet i filmuppspelning...

Permalänk
Medlem

Nvidia har haft sina sötebrödsdagar. Dags att sälja aktier om ni har några.

Permalänk
Medlem

Jag tycker snarare det är nvidia som verkar vara skiträdda. Om larrabee blir så bra i D3D och OpenGL som intel säger, så kommer det bli mkt farligt då larrabee kommer vara bra till så mycket mer än bara det. Jag tror mer på larrabee än GPUs. Parallell processorkraft är framtiden.

Permalänk
Hjälpsam

Äsch! det är bara lite snack för att reta Intel.
Varför vet jag inte, men även företagsledningar är ofta ganska irationella.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

nVIDIA har faktist rätt där, kaxigt uttalande men rätt. De har ja funderat på väldigt länge: Behövs det kraftigare PCU:er i dagsläget? Nej, inte för spel. Lirar man ett tungt spel som Crysis t.ex. me en medelCPU som E6600 så e de grafikkortet som går på knäna ifall de hackar. De har ja själv märkt, de spelar ingen roll hur mycke ja klockar min CPU, fps:en e typ densamma hela tiden från 2.4GHz - 3.6GHz, ingen stor skillnad iaf. Däremot, klockar ja upp GPU:n lite, då blire en märkabar skillnad.

Visa signatur

Skärm: Acer Predator X34A • Moderkort: ASUS Maximus V Gene • CPU: Core i5 2500K @ 4GHz • RAM: Corsair Vengeance DDR3 1600MHz 16GB • GPU: ASUS GeForce GTX 1080 • APU: ASUS ROG Xonar Phoebus • SSD: Intel X-25 M 80GB • HDD: WD Caviar Black 1TB, Hitachi Deskstar 1TB

Permalänk
Citat:

Ursprungligen inskrivet av Porraz
nVIDIA har faktist rätt där, kaxigt uttalande men rätt. De har ja funderat på väldigt länge: Behövs det kraftigare PCU:er i dagsläget? Nej, inte för spel. Lirar man ett tungt spel som Crysis t.ex. me en medelCPU som E6600 så e de grafikkortet som går på knäna ifall de hackar. De har ja själv märkt, de spelar ingen roll hur mycke ja klockar min CPU, fps:en e typ densamma hela tiden från 2.4GHz - 3.6GHz, ingen stor skillnad iaf. Däremot, klockar ja upp GPU:n lite, då blire en märkabar skillnad.

Så du håller med om att Nvidia borde hålla käften och utveckla sin gpuer mer istället för att hacka på intels processorer?

Visa signatur

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Permalänk
Citat:

Ursprungligen inskrivet av m3tr0
Precis. Men det ska också tydligen gå att använda den som CPU (mest i servrar då) i vissa moderkort har läste jag nånstans. Den består ju av en massa förenklade x86-kärnor så...

Men till saken. nVidia är kaxiga som vanligt, men det kan mycket väl gå till så att GPU:n förvinner till förmån för nån super-CPU där CPU:n består av massvis med enklare x86-kärnor med enorm beräkningskraft som kan användas till allt möjligt (grafik, ljud, fysik, ai, ... allt). Det ger iaf mer flexibiltet och kompatibilitet eftersom allt kan göras i mjukvara då. Och förmodligen bättre prestanda/watt. Detta är något jag skulle vilja se iaf. Inget grafikkort som instickskort behövs då. Intel har ju sin Larrabee och AMD sin Fusion. nVidia har ingenting... än, men de kanske skulle kunna samarbeta med Via eftersom de har kunskaper om x86. Jag hoppas de inte förvinner iaf.

Just ja, det var rätt skönt för AMD att de köpte ATI. AMD kände på sig lite vad som kommer hända och det var helt nödvändigt skulle jag tro. Så för AMD har sitt på det torra. Men nVidia då? De måste börja samarbeta med Via alt köpa upp dem för annars är de körda tror jag. Kanske därför nVidia gör ett sånt uttalande. De ser vad som kan komma att hända.

Citat:

Ursprungligen inskrivet av m3tr0
Jag hoppas inte Intel köper dem. Däremot hoppas jag att Via och nVidia kan börja samarbeta. Iofs har ju faktiskt nVidia redan lagt ett bud på Via, men Via var inte nöjd med budet då.

Då får vi faktiskt 3 stora parter som alla kan göra GPU:er, CPU:er, och chipsets. Men vi får se vad som händer.

De har redan lagt ett bud på Via som sagt, men Via var inte nöjda. Det som är roligt är att i och med produktionen av alla Eee PC konkurrenter har det ju börjat gå riktigt bra för VIA så Nvidia lär behöva lägga ett ännu köttigare bud.

De skulle ju inte vara bra om Intel köpte upp Nvidia direkt. Då skulle vi ha samma situation som på hårddiskmarknaden där vi i princip har 4 tillverkare som för tillfället försöker stämma så många andra tillverkare som möjligt för att de helt plötsligt kom på att de hade patent på vissa saker, nu när det snart blir rätt stor konkurrens med SSD.

Citat:

Ursprungligen inskrivet av Nyarlathotep
Jupp Photoshop skulle flyta betydligt bättre på en 10 Ghz cpu, filter tar en jäkla massa tid.

Gör grafikkortet särskilt mycket för filmuppspelningen förutom avlastar den? Cpu räcker ju till för detta. Man måste väl köpa nvidias filmprogram för att få förbättringseffekterna eller?

Nvidia borde snarare få tummen ur röven och fixa riktigt bra kort till bärbara datorer. Där har vi framtiden men Gpu ligger ännu mer efter där.

Kvaliteten i bild beror på grafikkortet rätt mycket och vad just kortet kan avkoda osv. ATI ryktas ju ha aningen bättre bild än Nvidia så de här uttalandet är lite roligt. Själva såsen som behövs för att driva filmuppspelningen sköts av CPU:n.

Citat:

Ursprungligen inskrivet av bennyfax
Varför hånas Intel?

Borde vara tvärtom då Nvidia inte kan tillverka tillräckligt snabba grafikkort som hänger med intels cpu:er fast det e ju lite småroligt med trash talk.

Helt rätt, anlednignen till varför vi har så pass dålig prestanda i Crysis till exempel beror ju verkligen inte på Intel, utan snarare Nvidia som fokuserar på att släppa 20 produkter varje kvartal i stället för en produkt varje år som faktiskt lever upp till "The Way It's Meant to be Played". Sedan, kollar man på allt annat förutom spel, så är ju GPU:n i princip noll värd jämfört med CPU:n.

Citat:

Ursprungligen inskrivet av )ExecutoR(
Jag måste endå hålla med om att nvidia har en poäng. Att processorn är död är helt klart en överdrift, men det är ganska svårt att egentligen motivera varför man idag ska köpa en processor för 3000+kr när man endå får så mycket som man gör för 650kr.

Just för tillfället så tycker jag nvidias resonemang håller ganska bra, men snart kommer, som alltid, fler nya användningsområden den vanliga svennson kommer använda datorn till, och då är det inte omöjligt att mer prestanda behövs.

Självklart har det varit såhär i alla tider, alltså att den vanliga användaren klarar sig bra med en budgetdator, men jag tycker det är mindre skillnader mellan budget och prestanda idag om man inte tittar på prestandan i siffror på produkternas kartonger utan vad man märker när man använder datorerna till vardags, det känns om att nu så inte bara klarar budgetdatorn att precis utföra de vanliga användarnas uppgifter, utan det finns även hos budgetmodellerna prestanda till övers.

Citat:

Ursprungligen inskrivet av Porraz
nVIDIA har faktist rätt där, kaxigt uttalande men rätt. De har ja funderat på väldigt länge: Behövs det kraftigare PCU:er i dagsläget? Nej, inte för spel. Lirar man ett tungt spel som Crysis t.ex. me en medelCPU som E6600 så e de grafikkortet som går på knäna ifall de hackar. De har ja själv märkt, de spelar ingen roll hur mycke ja klockar min CPU, fps:en e typ densamma hela tiden från 2.4GHz - 3.6GHz, ingen stor skillnad iaf. Däremot, klockar ja upp GPU:n lite, då blire en märkabar skillnad.

Det ändå som håller i argumentet är ju att Nvidia i princip säger att "Intel leverar på sitt område medan vi måste göra bättre produkter". Nu är ju spel i princip det ända som kräver en bra GPU. Medelsvensson behöver som sagt inte någon CPU för 2000 sek för att surfa porr eller vad han nu vill. Å andra sidan behöver han inte heller ett grafikkort för ens 1000 sek för att göra det. Anledningen till varför det inte gör särskilt stor skillnad om du klockar upp från 2.4 ghz till 3.6 ghz är att spel är inte tillräckligt CPU intensiva att de ens använder 100% av originalklocken. Utan där är det Nvidias (ATI's också för den delen, vill ju inte att det skall bli ytterligare en sån debatt) kort som flaskhalsar.

Kollar du å andra sidan på lite mer CPU intensiva applikationer som komprimering, decoding, photoshop, rippning, simpel multitasking, osv. så kommer du garanterat märka skillnad. Du kan ju alltid testa att skippa processorn i en riktig företagsserver och köra den på ett 9800gtx i stället och se hur det går. Nej, jag tror Nvidia går i helt rätt riktning: "Köp fyra grafikkort för 13 papp, som tillsammans gör ungefär hälften av vad en quad-core för 2000 kan i dagligt användande :D"

On topic: Jag tror Nvidia är vettskrämda faktiskt. Om de ville reta Intel så hade de ju knappast gjort det så fruktansvärt oproffesionellt. Även om de hade samarbetat med VIA redan nu, så är ju VIA knappast tillräckligt stora och har knappast resurserna för att kunna konkurrera med Intel. AMD har redan paxat IBM så det ser tufft ut för Nvidia om grafikmarknaden tar den riktning som den ser ut att ta (dvs. CPU/GPU i ett). Men, all cred till deras nuvarande GPU:s, det gör ju trots allt aningen bättre kort än ATI

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Medlem

Det enda grafikchipet i min laptop gör är att rita upp skrivbordet med program, allt annat gör cpu'n. I servern är det inte ens grafiskt, utan bara text. Först när nVidia har öppnat sina drivrutiner till linux lika bra som Intel har gjort kan dom glappa käft om att tillverka fungerande drivrutiner, och då menar jag full tillgång till att använda deras värstinggrafikkort till nåt användbart och inte bara 3D-spel. Nåt annat har jag ingen användning för.

Permalänk
Medlem

...

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av oscarstegland
Det ändå som håller i argumentet är ju att Nvidia i princip säger att "Intel leverar på sitt område medan vi måste göra bättre produkter". Nu är ju spel i princip det ända som kräver en bra GPU. Medelsvensson behöver som sagt inte någon CPU för 2000 sek för att surfa porr eller vad han nu vill. Å andra sidan behöver han inte heller ett grafikkort för ens 1000 sek för att göra det. Anledningen till varför det inte gör särskilt stor skillnad om du klockar upp från 2.4 ghz till 3.6 ghz är att spel är inte tillräckligt CPU intensiva att de ens använder 100% av originalklocken. Utan där är det Nvidias (ATI's också för den delen, vill ju inte att det skall bli ytterligare en sån debatt) kort som flaskhalsar.

Kollar du å andra sidan på lite mer CPU intensiva applikationer som komprimering, decoding, photoshop, rippning, simpel multitasking, osv. så kommer du garanterat märka skillnad. Du kan ju alltid testa att skippa processorn i en riktig företagsserver och köra den på ett 9800gtx i stället och se hur det går. Nej, jag tror Nvidia går i helt rätt riktning: "Köp fyra grafikkort för 13 papp, som tillsammans gör ungefär hälften av vad en quad-core för 2000 kan i dagligt användande :D"

On topic: Jag tror Nvidia är vettskrämda faktiskt. Om de ville reta Intel så hade de ju knappast gjort det så fruktansvärt oproffesionellt. Även om de hade samarbetat med VIA redan nu, så är ju VIA knappast tillräckligt stora och har knappast resurserna för att kunna konkurrera med Intel. AMD har redan paxat IBM så det ser tufft ut för Nvidia om grafikmarknaden tar den riktning som den ser ut att ta (dvs. CPU/GPU i ett). Men, all cred till deras nuvarande GPU:s, det gör ju trots allt aningen bättre kort än ATI

Men de e just spel ja snackar om iof. För andra CPU krävande applikationer så visst självklart vill man ha fläskigare CPU:er.

Citat:

Ursprungligen inskrivet av mortifer666
Så du håller med om att Nvidia borde hålla käften och utveckla sin gpuer mer istället för att hacka på intels processorer?

HAHA, va e de du snackar om????? Du e nog lite på fel spår, haru läst nyheten eller?

Visa signatur

Skärm: Acer Predator X34A • Moderkort: ASUS Maximus V Gene • CPU: Core i5 2500K @ 4GHz • RAM: Corsair Vengeance DDR3 1600MHz 16GB • GPU: ASUS GeForce GTX 1080 • APU: ASUS ROG Xonar Phoebus • SSD: Intel X-25 M 80GB • HDD: WD Caviar Black 1TB, Hitachi Deskstar 1TB

Permalänk

Ju mer jag tänker på Nvidias uttalande ju mer tycker jag att trots att de är kaxiga att de faktiskt har rätt. Missförstå mig rätt nu, jag talar om mig och många andra som är som mig (speciellt i min umgängeskrets).
Äger en Macbook 2,4 GHz Core 2 Duo, 2 GB RAM, GMA X3100 grafikkort och det jag gör på den är att surfa, chatta, ordbehandla, hålla ordning med iCal, skriva in träningsdagbok, facebooka osv... jag skulle lätt kunnat klara mig på en Macbook Air med 1,6 GHz Core 2 Duo. Just nu är det nästan överflödigt med prestanda i min CPU däremot när jag vill spela så är det GPU som hindrar mig, den är helt enkelt inte kraftfullt nog.s

Och det är jättemånga som mig som bara kör lite enklare grejer på datorn och sedan spelar spel, men spelen kräver väldigt mycket av GPU och kortens tillväxt har mycket kvar att ge. Visst kodar jag lite video någon gång, men då kanske min Macbook gör jobbet 30 minuter snabbare på en film som är 2-3 timmar lång? Och omkodningen ändå tar 2-3 timmar så gör väl inte 30 minuter så stor skillnad, jag lämnar ju ändå datorn åt att göra jobbet medans jag tränar eller liknande.

Som någon sa, så kan man lägga ner 1200 kr på en tyst processor som funkar bra och är snabb och klockar bra. Men lägg ner 5000 kr på ett grafikkort så slukar den massor med energi, låter och blir varm. Det visar bara hur mycket det finns kvar att utveckla på grafik fronten och det är ju inte bara Nvidia som har såna 5000kr pjäser som är såna ATIs kort är (nästan) likadana.

Det här är bara mina tankar kring ämnet, och mina personliga åsikter.

Visa signatur

Bianconeri siamo noi, ma chi cazzo siete voi?

Permalänk
Medlem

Ge mig en allt-i-ett som kan spela cod4 i 1680*1050 med allt lull lull på max!! Processor och grafikkort under samma hydda med mycket kraft! Det hoppas jag på!

Via+nvidia> en enhet
AMD+ATi> en enhet
intel+intelpåhitt> en enhet

= TRE att välja på!

Tänk er ett kraftigt moderkort, mycket minne som vår nya super-cpugpu kan ha att leka med! Jag tror att grafik i processor och vise versa är framtiden! Men detta är bara vad jag tror/hoppas på. ^_^

Sen kan de sitta där under varsin hydda och kasta lera på varandra!

Permalänk
Medlem

Kul att köpa ny 'superprocessor' för 15k om man vill ha bättre prestanda. Jag skulle hellre vilja se att grafikkorten delades upp i mindre moduler.

Visa signatur

I like my women how i like my coffee... In a plastic cup.

Permalänk
Citat:

Ursprungligen inskrivet av Eson
Kul att köpa ny 'superprocessor' för 15k om man vill ha bättre prestanda. Jag skulle hellre vilja se att grafikkorten delades upp i mindre moduler.

Och göra det ännu mer förvirrande för folk som inte är insatta och folk som är delvis insatta som mig? No thank you!!

Visa signatur

Bianconeri siamo noi, ma chi cazzo siete voi?