2 8800 GTS bättre än 8800 Ultra?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av unisol
Kommer denna Phenom vara helt sjukt bra? Kommer väl kosta en peng iochmed att amd har lite snålt med cash just nu, eller hur ligger det till?

Nä, inte sjukt bra. Men det lär bli som det var förr, att AMD:n är ca 10% snabbare än Intel clock-för-clock men 10% billigare.

Aldrig att AMD tar överpris för Phenom, då går företaget under. AMD har alltid varit billigare än Intel och det finns inget som tyder på att det ska ändras denna gång, speciellt då de är desperata efter ett år av förseningar och är tvungna att ta tillbaka marknadsandelar.

Visa signatur

Memento mori...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Pellias
Nä, inte sjukt bra. Men det lär bli som det var förr, att AMD:n är ca 10% snabbare än Intel clock-för-clock men 10% billigare.

Aldrig att AMD tar överpris för Phenom, då går företaget under. AMD har alltid varit billigare än Intel och det finns inget som tyder på att det ska ändras denna gång, speciellt då de är desperata efter ett år av förseningar och är tvungna att ta tillbaka marknadsandelar.

Vänta nu, så AMD ska göra tvärtom mot hur det är nu och göra sina processorer snabbare än Intels vid samma frekvens?
För som det är nu så är AMDs tvåkärniga processorer en bra bit långsammare vid samma frekvens än Intels.

Visa signatur

E6750 - XFX 9800GTX+ OC - Gigabyte GA-P35-DS3 - 2*1GB Corsair VS PC2-5300 - Samsung Spinpoint 400GB

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Lcars
Vänta nu, så AMD ska göra tvärtom mot hur det är nu och göra sina processorer snabbare än Intels vid samma frekvens?
För som det är nu så är AMDs tvåkärniga processorer en bra bit långsammare vid samma frekvens än Intels.

Ja, precis. Då blir det "som vanligt", som det var i flera år med Athlon XP och 64 jämfört med Intels P3 och P4, då AMDs CPUs var snabbare vid samma frekvens.

AMDs nuvarande tvåkärniga är ju föråldrade och ska egentligen jämföras med P4:s tvåkärniga, för då stämde ju ovanstående princip.

Man ska se det som att AMD är kraftigt försenad med sin motsvarighet till Core 2, och återupprättandet av principen att vara snabbare clock-för-clock. Det är ju vad de flesta tippar, och vad AMD lovat, att Phenom blir 10-20% snabbare än Core 2 vid samma frekvens.

Visa signatur

Memento mori...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Longbow
De har ju exakt samma system när de testar de olika grafikkorten. Så, ja, det har bara med grafikortet att göra och 8800ultra drar mer.

Du har inte tänkt på att ett bättre grafikkort kanske tuggar igenom mer data på mindre tid och sätter därigenom press på resten av datorn att leverera ny data att bearbeta ??

Att ultrat tex bearbetar så pass mycket information att processorn/minnena får jobba mer med att hinna få fram nya grejor som kortet ska arbeta med.

Att säga att energiförbrukningen *bara* skulle bero direkt på grafikkortet i den jämförelsen är ju som att ge dynamit till en terrorist som har lovat dig att han har blivit hederlig, tänk ett steg längre helt enkelt.

Visa signatur

"Man köper inte vilken dator som helst, man tar först reda på vad grannpojken kan för datorer, då vet man att supporten alltid finns i närheten!" - KDM
TeamSpeak 3-server: esab86.no-ip.org
Jobbar heltid med att laga folks bilar så hinner inte köra minecraft-server längre :/

Permalänk
Citat:

Ursprungligen inskrivet av Pellias
Nä, inte sjukt bra. Men det lär bli som det var förr, att AMD:n är ca 10% snabbare än Intel clock-för-clock men 10% billigare.

Förr? Hehe, Amd med sina Athlon serier var betydligt bättre än 10% snabbare de 3 åren dom regerade desktop marknaden. Med 10% snabbare processorer överlever man inte i 3 år på tronen.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A.N'doja
Förr? Hehe, Amd med sina Athlon serier var betydligt bättre än 10% snabbare de 3 åren dom regerade desktop marknaden. Med 10% snabbare processorer överlever man inte i 3 år på tronen.

Jo, du har ju helt rätt, det var mycket mer än 10%, varför AMD ju av pedagogiska skäl tvingades döpa sina processorer med siffror som inte alls stämde med Mhz-en för att matcha Intel.

Men efter besvikelsen med R600 törs man ju inte tro så starkt på AMD som man brukar ha kunnat göra, därav siffran 10%... fast Phenom måste faktiskt behöva vara 20% snabbare än Core 2/Conroe, annars riskerar den bli omkörd av Penryn direkt.

Visa signatur

Memento mori...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av [TBOC]Razor
Du har inte tänkt på att ett bättre grafikkort kanske tuggar igenom mer data på mindre tid och sätter därigenom press på resten av datorn att leverera ny data att bearbeta ??

Att ultrat tex bearbetar så pass mycket information att processorn/minnena får jobba mer med att hinna få fram nya grejor som kortet ska arbeta med.

Att säga att energiförbrukningen *bara* skulle bero direkt på grafikkortet i den jämförelsen är ju som att ge dynamit till en terrorist som har lovat dig att han har blivit hederlig, tänk ett steg längre helt enkelt.

Tror du att det diffar 36W pga det eller? Tycker snarare det är du som behöver tänka till lite extra.

Måste förövrigt säga att din jämförelse med en terrorist var extremt idiotisk.

Permalänk
Citat:

Ursprungligen inskrivet av [TBOC]Razor
Du har inte tänkt på att ett bättre grafikkort kanske tuggar igenom mer data på mindre tid och sätter därigenom press på resten av datorn att leverera ny data att bearbeta ??

Att ultrat tex bearbetar så pass mycket information att processorn/minnena får jobba mer med att hinna få fram nya grejor som kortet ska arbeta med.

Att säga att energiförbrukningen *bara* skulle bero direkt på grafikkortet i den jämförelsen är ju som att ge dynamit till en terrorist som har lovat dig att han har blivit hederlig, tänk ett steg längre helt enkelt.

Resten av datorn jobbar inte mer bara för att du stoppar i ett annat bättre grafikkort. Kör du t.ex 3dmark06 så går t.ex processorn på 100% oavsett grafikkort. Så processorn/minnerna jobbar inte mer bara för att 8800ultra bearbetar mer information än tex 8800GTX. Processorn och resten av datorn kan ju inte jobba mer än 100%, det är därför som en processor kan bli en flaskhals om du har ett för bra grafikkort.

Visa signatur

Bästa färdigbyggda stationära gamingdatorn under 10000 kr? http://www.agumagamingdator.se/

Permalänk
Medlem

Aja, skitsamma, orkar inte bry mig tillräckligt för att bråka om det

Visa signatur

"Man köper inte vilken dator som helst, man tar först reda på vad grannpojken kan för datorer, då vet man att supporten alltid finns i närheten!" - KDM
TeamSpeak 3-server: esab86.no-ip.org
Jobbar heltid med att laga folks bilar så hinner inte köra minecraft-server längre :/

Permalänk

Bra, hehe

Visa signatur

Bästa färdigbyggda stationära gamingdatorn under 10000 kr? http://www.agumagamingdator.se/

Permalänk
Citat:

Ursprungligen inskrivet av Pellias
Jo, du har ju helt rätt, det var mycket mer än 10%, varför AMD ju av pedagogiska skäl tvingades döpa sina processorer med siffror som inte alls stämde med Mhz-en för att matcha Intel.

Men efter besvikelsen med R600 törs man ju inte tro så starkt på AMD som man brukar ha kunnat göra, därav siffran 10%... fast Phenom måste faktiskt behöva vara 20% snabbare än Core 2/Conroe, annars riskerar den bli omkörd av Penryn direkt.

Jo men du får inte skriva sådana felsiffror. Folk kan gå på det.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Longbow
Resten av datorn jobbar inte mer bara för att du stoppar i ett annat bättre grafikkort. Kör du t.ex 3dmark06 så går t.ex processorn på 100% oavsett grafikkort. Så processorn/minnerna jobbar inte mer bara för att 8800ultra bearbetar mer information än tex 8800GTX. Processorn och resten av datorn kan ju inte jobba mer än 100%, det är därför som en processor kan bli en flaskhals om du har ett för bra grafikkort.

Men 3dMark har ingenting att göra med hur datorn presterar i något riktigt program eller spel, det är designat för att pressa alla komponenter i hela datorn till 100% vilket inget spel i världen gör på samma sätt.

Visa signatur

E6750 - XFX 9800GTX+ OC - Gigabyte GA-P35-DS3 - 2*1GB Corsair VS PC2-5300 - Samsung Spinpoint 400GB

Permalänk
Citat:

Ursprungligen inskrivet av Lcars
Men 3dMark har ingenting att göra med hur datorn presterar i något riktigt program eller spel, det är designat för att pressa alla komponenter i hela datorn till 100% vilket inget spel i världen gör på samma sätt.

Då vill jag att du förklarar för mig hur spel inte pressar datorn till 100% på samma sätt? Antingen så pressar man sina komponenter till 100% eller så gör man det inte. Du är rolig Lars.

Anledning till att man inte kan jämföra 3dmark med ett spel är för att 3dmark med flera är syntetiska tester medans spel inte är det. 3dmark är 3dmark och Oblivion är Oblivion.

Däremot har du rätt att 3dmark inte pekar speciellt mycket på hur ett system presterar i spel. Dock har det en liten fingervisning men inte speciellt mycket mellan två olika kort.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A.N'doja
Då vill jag att du förklarar för mig hur spel inte pressar datorn till 100% på samma sätt? Antingen så pressar man sina komponenter till 100% eller så gör man det inte. Du är rolig Lars.

Anledning till att man inte kan jämföra 3dmark med ett spel är för att 3dmark med flera är syntetiska tester medans spel inte är det. 3dmark är 3dmark och Oblivion är Oblivion.

Däremot har du rätt att 3dmark inte pekar speciellt mycket på hur ett system presterar i spel. Dock har det en liten fingervisning men inte speciellt mycket mellan två olika kort/processorer.

Därför att ett spel inte lägger lika mycket vikt vid alla komponenter. Om man jämför ett spel som Oblivion med ett strategispel som Supreme Commander så lägger de olika vikt vid olika komponenter. Supreme Commander kräver mer av processorn och Oblivion kräver mer av GPUn.

De har då ingenting med 3dMark att göra eftersom det ska testa hur mycket datorn totalt klarar, vilket inte något spel gör, de kräver mer eller mindre av vissa komponenter än andra.

Visa signatur

E6750 - XFX 9800GTX+ OC - Gigabyte GA-P35-DS3 - 2*1GB Corsair VS PC2-5300 - Samsung Spinpoint 400GB

Permalänk
Citat:

Ursprungligen inskrivet av Lcars
Därför att ett spel inte lägger lika mycket vikt vid alla komponenter. Om man jämför ett spel som Oblivion med ett strategispel som Supreme Commander så lägger de olika vikt vid olika komponenter. Supreme Commander kräver mer av processorn och Oblivion kräver mer av GPUn.

De har då ingenting med 3dMark att göra eftersom det ska testa hur mycket datorn totalt klarar, vilket inte något spel gör, de kräver mer eller mindre av vissa komponenter än andra.

Även om t.ex Supreme Commander kräver mer av processorn så kommer grafikkortet fortfarande pressas till 100%.

Visa signatur

Bästa färdigbyggda stationära gamingdatorn under 10000 kr? http://www.agumagamingdator.se/

Permalänk
Citat:

Ursprungligen inskrivet av Lcars
Därför att ett spel inte lägger lika mycket vikt vid alla komponenter. Om man jämför ett spel som Oblivion med ett strategispel som Supreme Commander så lägger de olika vikt vid olika komponenter. Supreme Commander kräver mer av processorn och Oblivion kräver mer av GPUn.

De har då ingenting med 3dMark att göra eftersom det ska testa hur mycket datorn totalt klarar, vilket inte något spel gör, de kräver mer eller mindre av vissa komponenter än andra.

Nu snackar du i nattmössan. Både Supreme Commander och Oblivion till exempel får alla dina komponenter så som Moderkort, processor, minne, grafikkort att jobba 100%. Det finns inget som säger att 3dmark använder totala systemet medans Oblivion bara använder 100% moderkort, minne, grafikkort men 70% CPU i 1280*1024 till exempel.

Sedan om Oblivion inte behöver använda hela CPUn är en annan sak.

Du har uppenbarligen missförstått när någon har skrivit att ett spel inte är lika CPU/GPU krävande som ett annat spel. Det innebär inte att CPU/GPU inte jobbar till 100%.

Spelar du Call of Juarez eller Colin Mcrae - DiRt i 1600*1200 så kommer både Moderkortet, CPU, minne, grafikkort och din hårddisk att jobba så mycket som dom komponenterna behöver jobba. Behöver ett spel 100% av dina komponenter så kommer den att pressa 100% av dina komponenter. Sedan finns det inget som heter att 3Dmark pressar 100% av din CPU/GPU på ett annat sätt än vad ett spel som pressar CPU/GPU till 100% gör. 3Dmark ska pressa 100% av dina komponenter. Men det finns många spel som inte gör det. Spela Cs så pressar den ena kärnan av mina två eller halva kärnorna på båda. Spelar jag oblivion så kommer oblivion pressa båda mina kärnor till 100%.

Vart får du allt ifrån? :D:D:D

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Det här kommer vara så pass mycke off topic att det är straffbart, men efter att ga läst allt off-topic som ni bedriver i denna tråd så undrar jag en sak:

Kommer AMDs nya processorer, som troligtvis kommer klå intels quad core duo, vara i en ny socket eller fortsätter dom på AM2?

Ska köpa ett nytt system nu vid löning.
Är det idé att kanske fortsätta köra på AMD och bara byta processor om ett halvår när de nya kommit eller kommer de bli en helt ny socket? för i så fall kan ja lika gärna gå på Intel - eftersom jag ändå behöver köpa nytt mamma-kort och processor då.

Vad gäller topicen, va intresserad att se svaren. Ska själv som sagt köpa nttt system och det lutar mot ett AXLe GeForce 8800 GTS 640mb. Sen vid jul ska jag inkassera ett till och köra SLI med dom. Lär hålla några år. Är lixom nu ett bra tag sen jag köpta denna burk ja har i dag, AMD Sempron 2800+ 1.6GHz - 1024 mb pc-4200 minne - MSI GeForce 6200. Hehe, vad som helst på marknaden klår mitt nuvarande system med hästlängder så det börjar bli dags.

Visa signatur

Sometimes autocorrect makes me say things I don't Nintendo.

Permalänk
Citat:

Ursprungligen inskrivet av jioop
Det här kommer vara så pass mycke off topic att det är straffbart, men efter att ga läst allt off-topic som ni bedriver i denna tråd så undrar jag en sak:

Kommer AMDs nya processorer, som troligtvis kommer klå intels quad core duo, vara i en ny socket eller fortsätter dom på AM2?

Ska köpa ett nytt system nu vid löning.
Är det idé att kanske fortsätta köra på AMD och bara byta processor om ett halvår när de nya kommit eller kommer de bli en helt ny socket? för i så fall kan ja lika gärna gå på Intel - eftersom jag ändå behöver köpa nytt mamma-kort och processor då.

Phenom ska lanseras Q3 är tanken. Värt och vänta? Tja jag tycker det. Phenom kommer att fungera bra på AM2.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A.N'doja
Nu snackar du i nattmössan. Både Supreme Commander och Oblivion till exempel får alla dina komponenter så som Moderkort, processor, minne, grafikkort att jobba 100%. Det finns inget som säger att 3dmark använder totala systemet medans Oblivion bara använder 100% moderkort, minne, grafikkort men 70% CPU i 1280*1024 till exempel.

Sedan om Oblivion inte behöver använda hela CPUn är en annan sak.

Du har uppenbarligen missförstått när någon har skrivit att ett spel inte är lika CPU/GPU krävande som ett annat spel. Det innebär inte att CPU/GPU inte jobbar till 100%.

Spelar du Call of Juarez eller Colin Mcrae - DiRt i 1600*1200 så kommer både Moderkortet, CPU, minne, grafikkort och din hårddisk att jobba så mycket som dom komponenterna behöver jobba. Behöver ett spel 100% av dina komponenter så kommer den att pressa 100% av dina komponenter. Sedan finns det inget som heter att 3Dmark pressar 100% av din CPU/GPU på ett annat sätt än vad ett spel som pressar CPU/GPU till 100% gör. 3Dmark ska pressa 100% av dina komponenter. Men det finns många spel som inte gör det. Spela Cs så pressar den ena kärnan av mina två eller halva kärnorna på båda. Spelar jag oblivion så kommer oblivion pressa båda mina kärnor till 100%.

Vart får du allt ifrån? :D:D:D

Vad är det då aktivitetshanteraren menar med "CPU-användning"?

Visa signatur

E6750 - XFX 9800GTX+ OC - Gigabyte GA-P35-DS3 - 2*1GB Corsair VS PC2-5300 - Samsung Spinpoint 400GB

Permalänk
Citat:

Ursprungligen inskrivet av Lcars
Vad är det då aktivitetshanteraren menar med "CPU-användning"?

CPU-användning menas hur mycket av CPUn som utnyttjas. Precis som det står. Där kan du kolla hur mycket av din cpu som används. Tabbar du ut från ett spel så ska du se att grafen är/har vart på det högsta på din eller dina kärnor. Om du tabbar ut ur ett spel och tittar på CPU användning så står det förmodligen inte 100%. Det är ungefär som om du tabbar ut ur ett spel så sjunker graderna på din GPU markant, för att gpun inte jobbar lika mycket längre.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk

QuadCore kommer sänkas till 1770kr.. kommer nog hamna på runt 2500kr i affären.

Permalänk
Medlem

om du siktar in dig på ett GTX så kolla in kompletts veckans erbjudande ett Ultra för 5495:-

http://www.komplett.se/k/ki.aspx?sku=335338

Visa signatur

Asus P5B DLX - E6400@3.6Ghz - Noctua NH-U12F - Dominator pc6400 - Albatron 8800gt(@720/1782/1065)13408p 3Dmark06|| H/K 3480 - Dali Concept 8 - Dali Concept 12

Permalänk
Inaktiv

ultra är bättre eftersom det drar mindre ström och du slipper allt SLI-krångel.

Permalänk
Citat:

Ursprungligen inskrivet av Nuukeer
ultra är bättre eftersom det drar mindre ström och du slipper allt SLI-krångel.

Alltså jag förstår inte en sak. I teorin så ska Ultrat dra mindre ström än GTX men på nästan alla prestandasajter så drar Ultra kortet tillsammans med det övriga, identiska systemet jämfört med samma tester med GTX, mer ström. Why is that so?

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Håller med ovan, det blir mindre trubbel med SLI stuff så kör på Ultra.

Citat:

Ursprungligen inskrivet av FredPeace
QuadCore kommer sänkas till 1770kr.. kommer nog hamna på runt 2500kr i affären.

Ehm, vilken QC, QX6800, 6850? Den sista ligger väll TDPn på 135w tyckte jag jag läste någonstans, det är ganska tokmycket.

Ang strömförbrukningen på Ultra så skulle jag också vilja veta det

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A.N'doja
Alltså jag förstår inte en sak. I teorin så ska Ultrat dra mindre ström än GTX men på nästan alla prestandasajter så drar Ultra kortet tillsammans med det övriga, identiska systemet jämfört med samma tester med GTX, mer ström. Why is that so?

Ultran kanske har lägre förbrukning vid samma frekvens på GPUn. Men nu råkar den ha högre frekvenser på både GPU och minne.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A.N'doja
Alltså jag förstår inte en sak. I teorin så ska Ultrat dra mindre ström än GTX men på nästan alla prestandasajter så drar Ultra kortet tillsammans med det övriga, identiska systemet jämfört med samma tester med GTX, mer ström. Why is that so?

Kom att tänka på en ( ganska självklar ) sak nu, även om ett Ultra *skulle* dra mer ström än ett GTX skulle inte två st GTS i SLi dra en jefla massa mer ??

Visa signatur

"Man köper inte vilken dator som helst, man tar först reda på vad grannpojken kan för datorer, då vet man att supporten alltid finns i närheten!" - KDM
TeamSpeak 3-server: esab86.no-ip.org
Jobbar heltid med att laga folks bilar så hinner inte köra minecraft-server längre :/

Permalänk
Citat:

Ursprungligen inskrivet av Dalton Sleeper
Håller med ovan, det blir mindre trubbel med SLI stuff så kör på Ultra.

Ehm, vilken QC, QX6800, 6850? Den sista ligger väll TDPn på 135w tyckte jag jag läste någonstans, det är ganska tokmycket.

Ang strömförbrukningen på Ultra så skulle jag också vilja veta det

Q6600 ska i alla fall halveras enligt rykten.

Citat:

Ursprungligen inskrivet av Password
Ultran kanske har lägre förbrukning vid samma frekvens på GPUn. Men nu råkar den ha högre frekvenser på både GPU och minne.

Kan säkerligen vara så. Fast vid samma frekvens är ju mindre intressant.

Citat:

Ursprungligen inskrivet av [TBOC]Razor
Kom att tänka på en ( ganska självklar ) sak nu, även om ett Ultra *skulle* dra mer ström än ett GTX skulle inte två st GTS i SLi dra en jefla massa mer ??

Det är sant. Inte så mycket mer. Två GTS 640 drar cirkus 170-200watt. Det är som ett HD2900XT som har en peak upp till 215w.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Lcars
Därför att ett spel inte lägger lika mycket vikt vid alla komponenter. Om man jämför ett spel som Oblivion med ett strategispel som Supreme Commander så lägger de olika vikt vid olika komponenter. Supreme Commander kräver mer av processorn och Oblivion kräver mer av GPUn.

De har då ingenting med 3dMark att göra eftersom det ska testa hur mycket datorn totalt klarar, vilket inte något spel gör, de kräver mer eller mindre av vissa komponenter än andra.

Helt rätt.

Bara ett förtydligande: inte ens 3dMark är så optimalt att det lyckas pressa både CPU och GPU till max samtidigt, utan den gör det i tur och ordning i 2 separata tester.

Citat:

Ursprungligen inskrivet av A.N'doja
Nu snackar du i nattmössan. Både Supreme Commander och Oblivion till exempel får alla dina komponenter så som Moderkort, processor, minne, grafikkort att jobba 100%. Det finns inget som säger att 3dmark använder totala systemet medans Oblivion bara använder 100% moderkort, minne, grafikkort men 70% CPU i 1280*1024 till exempel.

Sedan om Oblivion inte behöver använda hela CPUn är en annan sak.

Du har uppenbarligen missförstått när någon har skrivit att ett spel inte är lika CPU/GPU krävande som ett annat spel. Det innebär inte att CPU/GPU inte jobbar till 100%.

Huh? Var det sent på kvällen så att du inte märkte att du motsäger dig själv? Först säger du att Oblivion får CPUn att jobba till 100%, och strax senare säger du att Oblivion inte behöver använda hela CPUn (men det "är en annan sak"?)

Lcars har rätt. Annars skulle ju inte begrepp som "CPU intensive" och "flaskhals" ha någon betydelse.

En CPU och en GPU gör olika saker i Oblivion. Om jag kör med ett relativt svagt grafikkort så kan inte en Intel Core 2 X6800 "ta över" shaderberäkningar helt plötsligt och avlasta grafikkortet.

Om GPUn är flaskhals i ett spel - dvs jobbar 100% - så kan per definition inte CPUn också gå på 100%.

Visa signatur

Memento mori...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Pellias
Helt rätt.

Bara ett förtydligande: inte ens 3dMark är så optimalt att det lyckas pressa både CPU och GPU till max samtidigt, utan den gör det i tur och ordning i 2 separata tester.

Huh? Var det sent på kvällen så att du inte märkte att du motsäger dig själv? Först säger du att Oblivion får CPUn att jobba till 100%, och strax senare säger du att Oblivion inte behöver använda hela CPUn (men det "är en annan sak"?)

Lcars har rätt. Annars skulle ju inte begrepp som "CPU intensive" och "flaskhals" ha någon betydelse.

En CPU och en GPU gör olika saker i Oblivion. Om jag kör med ett relativt svagt grafikkort så kan inte en Intel Core 2 X6800 "ta över" shaderberäkningar helt plötsligt och avlasta grafikkortet.

Om GPUn är flaskhals i ett spel - dvs jobbar 100% - så kan per definition inte CPUn också gå på 100%.

Det var så jag antog att det fungerade, sen blir jag tillsagd att jag har helt fel, nu vet jag inte vad jag ska tro

Visa signatur

E6750 - XFX 9800GTX+ OC - Gigabyte GA-P35-DS3 - 2*1GB Corsair VS PC2-5300 - Samsung Spinpoint 400GB