Missa inte Amazon Prime Deal Days!

Radeon X1900, detaljer

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ArtMan
Hehe japp ignorera resten också hahahhaha.

Hört talats om PS3 och dess GPU? Det visar vad framtiden har att erbjuda trotts att det inte är en bra lösning för PC-grafikkort men man kan se ungefär åt vilket hål GPU-arkitekturen kommer att utväcklas. GPU:s kommer minska i storleken för att få plats med fler transistorer men det är en återvändsgränd när man kommer ner i riktigt små transistorter. Därför måste man ha alternativa lösningar precis som det håller på att bli med CPU:s för tillfället. När mjukvaran stödjer mulicorelösningar så kan man få väldigt bra prestanda med två elelr fler kärnor. Pipelines är precis som MHz hos processorerna inte längre det viktigaste. MHz talet på GPU:s är dock fortfarande viktig om inte viktigare än tiddigare. Ju fler transistorer i GPU:n detså större kärna dermed högre värmeutväckling. Trotts att tillverkningsprocessen minskar så ökar kärnstorleken. Jag tror att vi i framtiden kommer ha multicore på GPU:s också...kanske redan 2010 om utväcklingen fortsätter i den snabba takten.

Vad är det enligt dig jag måste veta för att folk INTE ska ignorera vad jag skriver?

Det du inte förstår är hur arkitekturen skiljer sig på en CPU och en GPU. En multi-core-GPU finns _ingen_ som helst mening med att göra, iaf inte så länge man har en vettig definition av multi-core. Skriver en kort förklaring åt dig:

CPUer i traditionell mening behandlar _ett_ instruktionsflöde (eller med HyperThreading två, men det ändrar ingenting väsentligt). Om vi håller oss till x86 så har man sedan 386ans dagar parallelliserat instruktionsflödet genom att använda en pipeline som behandlar olika "delar" av instruktionen separat (avkodning, exekvering i 386:ans fall). Fr.o.m Pentium så började man även behandla flera (max 2) instruktioner i samma "delar" av olika instruktioner samtidigt (dvs en superskalär design), genom att duplicera delar av processorn. Dagens processorer lägger förutom detta till ett antal knep för att bli snabbare, bl a vektorinstruktioner (ffa SSE, men även 3D-Now och MMX), out-of-order execution (exekvering av instruktioner i annan ordningsföljd än instruktionsflödet säger), register-omdöpning osv osv osv. Anledningen till att man börjat med dual cores just nu är för att ideerna tagit slut på hur man kan snabba upp exekveringen av ett instruktionsflöde mha fler transistorer. Alltså duplicerar man hela processorn och kör istället två separata instruktionsflöden parallellt, till stor nackdel för programvaruutvecklarna eftersom det är oerhört mycket mer komplicerat att skriva kåd som effektivt utnyttjar detta.

GPUer åas har behandlar _inte_ _ett_ instruktionsflöde. De är mycket specialbyggda för att hantera trianglar och inget annat. På senare tid har man ju lagt till möjligtheten att köra instruktioner iom Vertex och Pixel shaders (i framtiden också geometri-shaders) men dessa är _konstruerade_ just för att på ett enkelt sätt tillåta _många_ instruktionsflöden och detta passar alldeles utmärkt för grafiken. Nya R580 t ex ska kunna arbeta på 16 pixel-shader-program parallellt vilket alltså skulle kunna jämföras med en 16-cores CPU. Dessutom kan den behandla 8 vertex-shader-program _samtidigt_, vilket då skulle kunna jämföras med en 24-cores CPU. Att göra en multi-core-GPU finns ingen mening med eftersom man lika gärna kan stoppa in fler pixel och vertex-shader pipelines. Detta är tom bättre eftersom det inte finns någon mening med att dubbla vissa andra delar av GPUn och det ger även synkroniseringsproblem (=prestandaförluster) när det gäller minne osv osv.

Sen ditt prat om transistorer vet jag inte hur jag ska tolka, det låter inte som du har koll själv på kopplingen mellan transistor och integrerad krets. En dual-core CPU är givetvis cirka dubbelt så stor som en vanlig CPU. En GPU med dubbelt så många pipelines är också motsvarande större än en klenare GPU, dock antagligen mindre än dubbelt så stor eftersom allt inte behöver dupliceras. Vad man ska göra när man inte kan minska transistorstorleken längre vet man inte riktigt. Rädslan har funnits i över 10 år men man är relativt säker på att man kan fortsätta minskningen i 10 år till. Vad som däremot ändrats är att man inte kan höja frekvensen längre på samma sätt som man kunnat tidigare.

Permalänk
Avstängd

Precis mycket snack liten verkstad plus inga kort som syns...

Permalänk

Det är ju vansinniga priser, vill de överhuvudtaget få några kort sålda?

Visa signatur

««« »»»

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av maglar
Det du inte förstår är hur arkitekturen skiljer sig på en CPU och en GPU. En multi-core-GPU finns _ingen_ som helst mening med att göra, iaf inte så länge man har en vettig definition av multi-core. Skriver en kort förklaring åt dig:

CPUer i traditionell mening behandlar _ett_ instruktionsflöde (eller med HyperThreading två, men det ändrar ingenting väsentligt). Om vi håller oss till x86 så har man sedan 386ans dagar parallelliserat instruktionsflödet genom att använda en pipeline som behandlar olika "delar" av instruktionen separat (avkodning, exekvering i 386:ans fall). Fr.o.m Pentium så började man även behandla flera (max 2) instruktioner i samma "delar" av olika instruktioner samtidigt (dvs en superskalär design), genom att duplicera delar av processorn. Dagens processorer lägger förutom detta till ett antal knep för att bli snabbare, bl a vektorinstruktioner (ffa SSE, men även 3D-Now och MMX), out-of-order execution (exekvering av instruktioner i annan ordningsföljd än instruktionsflödet säger), register-omdöpning osv osv osv. Anledningen till att man börjat med dual cores just nu är för att ideerna tagit slut på hur man kan snabba upp exekveringen av ett instruktionsflöde mha fler transistorer. Alltså duplicerar man hela processorn och kör istället två separata instruktionsflöden parallellt, till stor nackdel för programvaruutvecklarna eftersom det är oerhört mycket mer komplicerat att skriva kåd som effektivt utnyttjar detta.

GPUer åas har behandlar _inte_ _ett_ instruktionsflöde. De är mycket specialbyggda för att hantera trianglar och inget annat. På senare tid har man ju lagt till möjligtheten att köra instruktioner iom Vertex och Pixel shaders (i framtiden också geometri-shaders) men dessa är _konstruerade_ just för att på ett enkelt sätt tillåta _många_ instruktionsflöden och detta passar alldeles utmärkt för grafiken. Nya R580 t ex ska kunna arbeta på 16 pixel-shader-program parallellt vilket alltså skulle kunna jämföras med en 16-cores CPU. Dessutom kan den behandla 8 vertex-shader-program _samtidigt_, vilket då skulle kunna jämföras med en 24-cores CPU. Att göra en multi-core-GPU finns ingen mening med eftersom man lika gärna kan stoppa in fler pixel och vertex-shader pipelines. Detta är tom bättre eftersom det inte finns någon mening med att dubbla vissa andra delar av GPUn och det ger även synkroniseringsproblem (=prestandaförluster) när det gäller minne osv osv.

Sen ditt prat om transistorer vet jag inte hur jag ska tolka, det låter inte som du har koll själv på kopplingen mellan transistor och integrerad krets. En dual-core CPU är givetvis cirka dubbelt så stor som en vanlig CPU. En GPU med dubbelt så många pipelines är också motsvarande större än en klenare GPU, dock antagligen mindre än dubbelt så stor eftersom allt inte behöver dupliceras. Vad man ska göra när man inte kan minska transistorstorleken längre vet man inte riktigt. Rädslan har funnits i över 10 år men man är relativt säker på att man kan fortsätta minskningen i 10 år till. Vad som däremot ändrats är att man inte kan höja frekvensen längre på samma sätt som man kunnat tidigare.

Tack för förklaringen!

Du har dock fel. Utan att man fördjupar sig i hur cpu:er arbetar kan man konstatera att man har alltid försökt få ner transistorstorleken för att få plats med fler transistorer och få ner strömförbrukningen. Man har också använd olika tekniker där Intel tex sattsade på längre pipelines iom P4 och AMD valde kortare istället där man har mindre men snabbare instruktioner per klockcyckel. Man har också hela tiden försökt förbättra prestandan genom att optimera instruktionsflödet. Så det har inte att göra med att man har slut på ideer utan det är x86 tekniken som begränsar utväcklingen tillsammans med svårigheten att få fram mindre och mindre transistorer utan att förlora för mycket i effektläckage. Att det är svårare att skriva program för dubbla kärnor är väll naturligt. Utvecklare har alltid klagat när nya instruktioner eller tekniker dykt upp. Var exakt samma sak med 3DNOW tex. Det här och dock helt annorlunda då dualcore är ett måste och ett bra steg frammåt om du frågar mig. Prestandaökningen är mycket högre än vad alla tiddigare extra instruktioner gett och då är det klart att milticorelösningar är vad framtiden har att komma med.

Det du skriver om GPU:s stämmer men se på det hela så här. 1+1=2. En 6800GT chip + en till = 2st 6800GT chip = bra mycket bättre prestanda än en singelcore grafikkort. Om man nu skulle sätta ihop dessa i en enda chip och använda 512-bits bandbredd för 512MB ram så skulle man få minst lika bra grafikkort som 6800GT i SLI eller Asus kortet som har två 6800GT chip på samma PCB. Fördelar då? Samma pcb, man slipper två stycken shipset och därmed kretsbanor för varje chipset. Att fördubbla antalet pipelines/transistorer i en enda kärna är inte möjligt på grund av teknikbägrensningar. Värmen är dock ett problem men om man skulle optimera arkitekturen och dela upp arbetet mellan kärnorna så hade man kunnat få ner storleken och därmed värmeutväcklingen. Så två bantade chipset under samma silikon bör vara bättre än en singelchip.

Vad menar du med att jag inte har koll på vad en transistor är och vad en integrerat krets är? Kan du specifiera dig?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Fulagubben
Precis mycket snack liten verkstad plus inga kort som syns...

1 rätt av 3.

1) ATI har inte gett ut någon officiell info om R580.
2) ATI lär jobba dag och natt för att få ut korten som planerat till månadsskiftet.
3) Sant, inga kort syns än.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ArtMan
Tack för förklaringen!

Du har dock fel. Utan att man fördjupar sig i hur cpu:er arbetar kan man konstatera att man har alltid försökt få ner transistorstorleken för att få plats med fler transistorer och få ner strömförbrukningen. Man har också använd olika tekniker där Intel tex sattsade på längre pipelines iom P4 och AMD valde kortare istället där man har mindre men snabbare instruktioner per klockcyckel. Man har också hela tiden försökt förbättra prestandan genom att optimera instruktionsflödet. Så det har inte att göra med att man har slut på ideer utan det är x86 tekniken som begränsar utväcklingen tillsammans med svårigheten att få fram mindre och mindre transistorer utan att förlora för mycket i effektläckage. Att det är svårare att skriva program för dubbla kärnor är väll naturligt. Utvecklare har alltid klagat när nya instruktioner eller tekniker dykt upp. Var exakt samma sak med 3DNOW tex. Det här och dock helt annorlunda då dualcore är ett måste och ett bra steg frammåt om du frågar mig. Prestandaökningen är mycket högre än vad alla tiddigare extra instruktioner gett och då är det klart att milticorelösningar är vad framtiden har att komma med.

Det du skriver om GPU:s stämmer men se på det hela så här. 1+1=2. En 6800GT chip + en till = 2st 6800GT chip = bra mycket bättre prestanda än en singelcore grafikkort. Om man nu skulle sätta ihop dessa i en enda chip och använda 512-bits bandbredd för 512MB ram så skulle man få minst lika bra grafikkort som 6800GT i SLI eller Asus kortet som har två 6800GT chip på samma PCB. Fördelar då? Samma pcb, man slipper två stycken shipset och därmed kretsbanor för varje chipset. Att fördubbla antalet pipelines/transistorer i en enda kärna är inte möjligt på grund av teknikbägrensningar. Värmen är dock ett problem men om man skulle optimera arkitekturen och dela upp arbetet mellan kärnorna så hade man kunnat få ner storleken och därmed värmeutväcklingen. Så två bantade chipset under samma silikon bör vara bättre än en singelchip.

Vad menar du med att jag inte har koll på vad en transistor är och vad en integrerat krets är? Kan du specifiera dig?

Fruktansvärt mycket konstigheter i din text, t ex
"... AMD valde kortare istället (pipelines) där man har mindre men snabbare instruktioner per klockcykel" - what? Man får igenom fler instruktioner per klockcykel (IPC - Instructions Per Cycle) och det är fortfarande samma instruktioner givetvis.

Men jo, dual core har att göra med att man fått slut på idéer. Innan har tagit till alla möjliga knep för att kunna snabba upp instruktionsflödet (såsom de exemplena jag skrev i förra inlägget). Nu kan man inte det längre, att slänga på extra exekveringsenheter, fetare dekoders, större cache osv hjälper inte längre. Med dubbla transistorbudgeten får man kanske 10-20% bättre prestanda om man fortsätter i samma gamla fotspår. DÄRFÖR gick man över till dual core. Hade man kunnat fortsätta på det gamla sättet hade man gjort det, precis som man gjort fram tills nu. Det har heller inget med x86-plattformen att göra utan snarare tvärt om, RISC-arkitekturer har nått samma gräns sedan tidigare och var därför före in i dual-core-träsket även om serverprogramvara som ofta är det primära användningsområdet också spelade in.

Minskandet av transistorstorleken har inverkan på det sättet att det ökar transistorbudgeten för samma pris. Tidigare har man även kunnat dra upp klockfrekvensen i samma veva men det går inte längre, bl a pga värmeutvecklingen.

(angående dual core GPUer): "Att fördubbla antalet pipelines/transistorer i en enda kärna är inte möjligt pga teknikbegränsningar. Värmen är dock ett problem men om man skulle optimera arkitekturen och dela upp arbetet mellan kärnorna så hade man kunnat få ner storleken och därmed värmeutvecklingen. Så två bantade chipset under samma silikon bör vara bättre än ett singelchip."

Detta är rena rappakaljan, det betyder ingenting. Jag vet inte ens var jag ska börja kommentera det, men jag gör ett försök iaf.

Vilka teknikbegränsningar? Det går alldeles utmärkt att öka antalet pipelines. Som jag skrivit innan så är det fördelaktigt jämfört med att trycka in två av dagens GPUer på samma chip. Jag har då aldrig hört om dessa teknikbegränsningar och då läser jag ändå allt jag kommer över om CPUers och GPUers uppbyggnad och funktion eftersom jag finner det mycket intressant. Här får du ange en mycket trovärdig källa, annars ser jag det som ren bullshit.

Att optimera arkitekturen för att minska värmen och storleken görs självklart redan idag. Att häva ur sig nått sånt som du gör är helt galet.

"bantade chipset under samma silikon"? Var det skojjigaste jag hört på länge. Vet du vad ett chipset är och vet du vad silikon är? Man gör chip av kisel och vad betyder "under"? Du argumenterar öht inte för det du påstår, det enda du skrev var "teknikbegränsningar".

Som jag sagt innan, du kan faktiskt tänka dig dagens GPUer som "multi core"-GPUer eftersom de har flera separata pipelines som var och en hanterar separata instruktionsflöden. Precis som en multi core CPU alltså.

Vad jag tycker du inte verkar förstå är vad ett chip riktigt är och hur transistorerna används i det. Du klämmer ur dig saker som att dual core skulle vara bättre än tidigare extra instruktioner och att multi core är en lösning på problemet med att transistorer inte kan bli hur små som helst.

Permalänk

Hitta det här.
http://www.pcpop.com/doc/0/125/125255_1.shtml
3Dmark05 kan ifrågasättas då det finns inga bevis på att de är gjorda av X1900XT. Men om de poängen stämmer så är jag inte imponerad, förvändade mig mer från R580 med tanke på antal shaderpipes som GPU har.

Och man får med lite spec. på 7900GTX (G71). Galen klock på minnen, 950mhz! Och tanken att G71 är 90nm kärna, 32 pipes och går i 750Mhz!!! är helt crazy. Det kan ju inte stämma.

E: ni kan översätta sidan med hjälp av babelfish.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Citat:

Ursprungligen inskrivet av DataNusse
Hitta det här.
http://www.pcpop.com/doc/0/125/125255_1.shtml
3Dmark05 kan ifrågasättas då det finns inga bevis på att de är gjorda av X1900XT. Men om de poängen stämmer så är jag inte imponerad, förvändade mig mer från R580 med tanke på antal shaderpipes som GPU har.

Och man får med lite spec. på 7900GTX (G71). Galen klock på minnen, 950mhz! Och tanken att G71 är 90nm kärna, 32 pipes och går i 750Mhz!!! är helt crazy. Det kan ju inte stämma.

E: ni kan översätta sidan med hjälp av babelfish.

Är du nVidias motsvarighet på MrTT eller?

Visa signatur

Lian Li PC75B_ASUS P4GPL-X_Intel P4c Northwood 3.2Ghz_Kingston KHX4000LLK2/2G_PowerColor X1800XT 512MB_ASUS DVD-E616P2 + Plextor Plexwriter Premium_WD Raptor 74GBx2 + Raptor 36GB + Seagate 7200.7 200GB sata + 7200.8 400GB sata_LG N2200P 22" CRT_Speed-Link Ultra Flat Metal Keyb_Razer Diamondback Magma| "Assumption is the mother of all fuckups."

Permalänk
Citat:

Ursprungligen inskrivet av Tengil_84
Är du nVidias motsvarighet på MrTT eller?

Förklara...
btw jag vet vem Mr TT är men du får förklara vad du menar.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk

Om du har hängt med i Intel vs. AMD-diskussionerna borde du veta vad jag menar, annars glöm det.

Visa signatur

Lian Li PC75B_ASUS P4GPL-X_Intel P4c Northwood 3.2Ghz_Kingston KHX4000LLK2/2G_PowerColor X1800XT 512MB_ASUS DVD-E616P2 + Plextor Plexwriter Premium_WD Raptor 74GBx2 + Raptor 36GB + Seagate 7200.7 200GB sata + 7200.8 400GB sata_LG N2200P 22" CRT_Speed-Link Ultra Flat Metal Keyb_Razer Diamondback Magma| "Assumption is the mother of all fuckups."

Permalänk

Glöm det. Tittat genom MrTT inlägg.
Ok nej, jag är inte nVidias motsvarigheta av MrTT.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem

Det här liknar ju ingeting tidigare skådat...
Med antalet 'X' ökar priset... Ta bort 'X'en ur tillverkningsledet så får vi humana priser...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Jonte[YoT]
Det är ju vansinniga priser, vill de överhuvudtaget få några kort sålda?

Det är frågran det, bara riktiga fantster som vill ha ut precis allt köper dem(plus at dom har ett jobb!)

Visa signatur

Gaming/workstation | i5-4690K | Corsair VX 550W | ASUS STRIX GTX1060 6GB | ASUS Z97 | Corsair Vengence DDR3 1600MHz 2x8GB | NXZT H630W
Xbox One - Xanser

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
Hitta det här.
http://www.pcpop.com/doc/0/125/125255_1.shtml
3Dmark05 kan ifrågasättas då det finns inga bevis på att de är gjorda av X1900XT. Men om de poängen stämmer så är jag inte imponerad, förvändade mig mer från R580 med tanke på antal shaderpipes som GPU har.

~11700 var väl inte vad man hoppats på men efter sander sassens "review" på X1800 har man lärt sig att inte dra förhastade slutsatser.

Hehe, MrTT... Det tar priset för bästa förolämpning på swec

På tal om nvidias motsvarighet till MrTT så hittas han på anandtech, klicka här: http://forums.anandtech.com/search.aspx och sök på Author=Rollo så ska ni å se på MrTT-betende

Visa signatur

WS: DFI LP UT X38T2R (Gigabyte X38-DQ6 = Trasigt)| Intel C2D E6750 | 4*1 GiB Twinmos PC2-6400 | ATI Radeon HD4870 1GB | WD Caviar XL "AAKS" SATA 500GB | Antec Neopower 480W | Antec SLK3700-BQE
Server: DFI LP NF4 Ultra | AMD 3000+ "winchester" | 2*512MiB PC3200 | ATI Radeon HD2400pro | 1000GB WD GP, 3*320GB Seagate 7200.10, 250GB WD2500 PATA, 200GB Maxtor DM10 SATA = 2410GB

Permalänk
Avstängd

Vad får en 7800 512 på ett motsvarande system?
Sen bromsar kanske processorn lite.
Men jag tycker det ser bra ut.

Permalänk
Discokungen

Inte alls illa. Det är vad jag får i 03 (okej, jag får kanske lite mer)

Visa signatur

AMD 9800X3D - Corsair 32GB 6000 CL30- Gigabyte B650 Aorus Elite - Inno3D 4090 - Intel 900p - CaseLabs SMA8 - LG 42C2 - Asus Loki 1000W SFX-L - Aquaero 6 - Vattenkyld - Steam Deck LCD 1TB

Permalänk
Citat:

Ursprungligen inskrivet av Curly
Hehe, MrTT... Det tar priset för bästa förolämpning på swec

Jag tar det faktiskt som en komplemang att han tycker att jag är nVidias motsvarighet av MrTT. Jag gjorde bara en postering av en inte helt trovärdigt länk, men man ska väl inte fan börja bitcha om det...:rolleyes:

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
Hitta det här.
http://www.pcpop.com/doc/0/125/125255_1.shtml
3Dmark05 kan ifrågasättas då det finns inga bevis på att de är gjorda av X1900XT. Men om de poängen stämmer så är jag inte imponerad, förvändade mig mer från R580 med tanke på antal shaderpipes som GPU har.

Och man får med lite spec. på 7900GTX (G71). Galen klock på minnen, 950mhz! Och tanken att G71 är 90nm kärna, 32 pipes och går i 750Mhz!!! är helt crazy. Det kan ju inte stämma.

E: ni kan översätta sidan med hjälp av babelfish.

Får problem med översättning i babelfish... vad skrev de för poäng? TheInquirer rapporterade 25%+ beroende på applikation i jämförelse med 7800GTX 512... är det samma här eller?
Förresten så var det nog x1900XTX som theinquirer pratade om.

Jag är riktigt nyfiken på vad den extrema ökningen av shaderkraft innebär om det är optimerat för det... men om det inte är det så vetifan vad man skall förvänta sig för någon prestanda ökning, antagligen ingen alls i vissa spel.

Permalänk
Medlem

Jaja! Om folk vill punga ut 9k för ett graffekort, så gör det. Kommer ändå inte ha kraft nog för spel som Killzone 2, MGS4 etc. på er patetiska PC. Nu känns plötsligt tanken på att betala allt mellan 5000 och 10000 för en PS3:a fullt överkompligt, och så får man en BD spelare på köpet.

Visa signatur

hej

Permalänk
Citat:

Ursprungligen inskrivet av lou^
Jaja! Om folk vill punga ut 9k för ett graffekort, så gör det. Kommer ändå inte ha kraft nog för spel som Killzone 2, MGS4 etc. på er patetiska PC. Nu känns plötsligt tanken på att betala allt mellan 5000 och 10000 för en PS3:a fullt överkompligt, och så får man en BD spelare på köpet.

eller oblivion, fifan alltså. riktigt krävande spel.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av lou^
Jaja! Om folk vill punga ut 9k för ett graffekort, så gör det. Kommer ändå inte ha kraft nog för spel som Killzone 2, MGS4 etc. på er patetiska PC. Nu känns plötsligt tanken på att betala allt mellan 5000 och 10000 för en PS3:a fullt överkompligt, och så får man en BD spelare på köpet.

Huh ja... På TVn har du ju 1600*1200 i upplösning eller hur var det nu...

Visa signatur

Du som inte behärskar när du skall använda de och dem så finns en mycket enkel lösning. Skriv dom så blir det inte fel.
Första egna datorn -> ZX Spectrum 48k '82.
Linux Mint, Asus B550-F, Ryzen 5700X3D, LPX 64GB 3600, RTX4060

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av lou^
Jaja! Om folk vill punga ut 9k för ett graffekort, så gör det. Kommer ändå inte ha kraft nog för spel som Killzone 2, MGS4 etc. på er patetiska PC. Nu känns plötsligt tanken på att betala allt mellan 5000 och 10000 för en PS3:a fullt överkompligt, och så får man en BD spelare på köpet.

Eller så kan du komma ur den där hallunicationen du lever i... Spel på PC mycket bättre t och kommer alltid att göra... Skillnaden mellan din PC och sketna konsoll är fortfarande för femtioelfte gången att du kan uppgradera den till att köra ännu fettare spel med mer avancerade funktioner senare.... Du kan sätta dig o leka med din skitgrafik, så kan vi leka med PPU istället lite senare i år..

Permalänk
Medlem

haha! kom in i matchen! vilket spel är det du snackar om som är så mycket "fettare" på pc att det får ex. killzone 2 att verka skit? vi pratar om PS3 här grabben. Sen har ni kanske hört om nåt som kallas HDTV eller?? Försök du hitta en 42" skärm där du kan spela på dina monsterupplösningar, nä sitt du vid din lilla 19 tummare och glo, jag nöjer mej med HDMI och HDTV upplösning på 40+ LCD, det är spelupplevelse det. Du Det kommer inte på år finnas spel på PC i klass med PS3. Lär er leva med det.

Visa signatur

hej

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av lou^
haha! kom in i matchen! vilket spel är det du snackar om som är så mycket "fettare" på pc att det får killzone att verka skit? vi pratar om PS3 här grabben. Sen har ni kanske hört om nåt som kallas HDTV eller?? Det kommer inte på flera år finnas spel på PC i klass med PS3. Lär er leva med det.

Finns det nån film ute från killzone som inte är förrenderad nu? Du får gärna länka till den för jag har bara sett den förrenderade, jag tycker nog att både xbox360 och ps3 är prisvärda när det kommer ut bra spel till dem. Men hårdvarumässigt har tyvärr inte någon av dem så hemsk mycket att komma med.. xboxen har ju visserligen sitt unifiedshaders grafikkort och ps3 har sin cpu som teoretiskt skulle kunna blir bra, men som det ser ut nu så blir tex ps3 omsprungen redan nu skulle jag tro när det gäller grafikprestanda. som det är nu så ökar grafikkortsprestandan på datorer sådär 25-100% per halvår, så att ps3 skulle hänga med pc håller inte. Men det betyder inte att det inte skulle komma bra spel. Det är ju rätt fint att veta exakt vad alla användare har för hårdvara när man utvecklar spel det förenklar ju en hel del.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Sin0
Jag är riktigt nyfiken på vad den extrema ökningen av shaderkraft innebär om det är optimerat för det... men om det inte är det så vetifan vad man skall förvänta sig för någon prestanda ökning, antagligen ingen alls i vissa spel.

Nä, förmodligen inte mycket. Om man läser beyond3d så får man intrycket att kortet kommer vara begränsat av andra faktorer nu och prestadaökningen lär därför inte blir så stor. Som jag skrev i en annan tråd känns det som R580 är före sin tid, de shaderkrävande spelen med dynamic branching (DB) som kortet verka ha gjorts för lär inte dyka upp än på länge (speciellt inte med tanke på att de flesta spel är TWIMTBP och dessa lär definitivt inte använda DB) vilket gör att dess kraft känns lite bortkastad. När de väl dyker upp finns nya kort på marknaden och nVidia har säkerligen fixat till sin DB prestanda vi det laget.

Det här påminner lite om X8x0 vs 6800 tycker jag. 6800 hade mer features (SM3.0/FP blending för HDR) men den kom aldrig riktigt till använding medan X8x0 saknade dessa men var vassare i majoriteten av spel.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av lou^
haha! kom in i matchen! vilket spel är det du snackar om som är så mycket "fettare" på pc att det får ex. killzone 2 att verka skit? vi pratar om PS3 här grabben. Sen har ni kanske hört om nåt som kallas HDTV eller?? Försök du hitta en 42" skärm där du kan spela på dina monsterupplösningar, nä sitt du vid din lilla 19 tummare och glo, jag nöjer mej med HDMI och HDTV upplösning på 40+ LCD, det är spelupplevelse det. Du Det kommer inte på år finnas spel på PC i klass med PS3. Lär er leva med det.

Vad lider du av då? Kommer här och kastar ur dig en massa saker helt oprovocerat. Det är klart att du kan köpa en lcdtv till de nya konsollerna men det kan du göra till en pc oxå så att argumentera för stor bild på konsoll kan du sluta med. Och ja de nya konsollerna som finns och som kommer att komma är snabba och kan visa upp en otrolig grafik men det är lika med en pc. Vad som är bäst kan inte du eller någon annan "bestämma". Det är upp till var och en av oss. Jag gillar äventyr- och sportspel på konsoll. RPG av alla dess slag skall spelas på pc med tangentbord och mus enligt mig. Även FPS spel. Kommer det _BRA_ stöd för tangentbord och mus kan jag tänka mig att spela dessa spel på ett konsoll annars aldrig i livet.

Tex. är det helt omöjligt att spela BF2 på ett konsoll om man vill ha roligt samtidigt.

Att dömma av din nivå på ordval och liknande så kan jag tänka mig att det enda sättet du kan sitta och spela dina fläskiga fetingspel på ditt nya konsoll och din feta TV är om du har en rik förälder eller annan släkting som har betalat allt detta åt dig. Du lär ju aldirg ha råd med detta själv eftersom jag antar att du är runt 15 år gammal, MAX!

Läs igenom vad du har skrivit i dina inlägg så kanske du förstår vad jag menar.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av lou^
haha! kom in i matchen! vilket spel är det du snackar om som är så mycket "fettare" på pc att det får ex. killzone 2 att verka skit? vi pratar om PS3 här grabben. Sen har ni kanske hört om nåt som kallas HDTV eller?? Försök du hitta en 42" skärm där du kan spela på dina monsterupplösningar, nä sitt du vid din lilla 19 tummare och glo, jag nöjer mej med HDMI och HDTV upplösning på 40+ LCD, det är spelupplevelse det. Du Det kommer inte på år finnas spel på PC i klass med PS3. Lär er leva med det.

Vilka spel är bättre? Vad sägs som alla FPS som någonsin är släppta Vi kan ju lira mot varandra vet ja.. du lirar CoD2 med din handkontroll och jag med mus och tgb och ser vem som dödar vem först... nej just det.. då måste jag slöa ner allt för att du ska kunna lira det

BTW: Vet du tack vare förrenderade vidoes hur grafiksk perfekt ett spel blir? Fan du måste vara en jedi

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MOrKiz
Vilka spel är bättre? Vad sägs som alla FPS som någonsin är släppta Vi kan ju lira mot varandra vet ja.. du lirar CoD2 med din handkontroll och jag med mus och tgb och ser vem som dödar vem först... nej just det.. då måste jag slöa ner allt för att du ska kunna lira det

BTW: Vet du tack vare förrenderade vidoes hur grafiksk perfekt ett spel blir? Fan du måste vara en jedi

vänta bara till rev kommer!

men man kan ju inte säga att fps spelen 'r dom bästa spelen heller. men datorn kommer att vara värst. men dyrast

Visa signatur

"I wrap my raskal two times, because i like it to be joyless and without sensation. Its a way to punishing supermodels."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av maglar
Fruktansvärt mycket konstigheter i din text, t ex
"... AMD valde kortare istället (pipelines) där man har mindre men snabbare instruktioner per klockcykel" - what? Man får igenom fler instruktioner per klockcykel (IPC - Instructions Per Cycle) och det är fortfarande samma instruktioner givetvis.

Men jo, dual core har att göra med att man fått slut på idéer. Innan har tagit till alla möjliga knep för att kunna snabba upp instruktionsflödet (såsom de exemplena jag skrev i förra inlägget). Nu kan man inte det längre, att slänga på extra exekveringsenheter, fetare dekoders, större cache osv hjälper inte längre. Med dubbla transistorbudgeten får man kanske 10-20% bättre prestanda om man fortsätter i samma gamla fotspår. DÄRFÖR gick man över till dual core. Hade man kunnat fortsätta på det gamla sättet hade man gjort det, precis som man gjort fram tills nu. Det har heller inget med x86-plattformen att göra utan snarare tvärt om, RISC-arkitekturer har nått samma gräns sedan tidigare och var därför före in i dual-core-träsket även om serverprogramvara som ofta är det primära användningsområdet också spelade in.

Minskandet av transistorstorleken har inverkan på det sättet att det ökar transistorbudgeten för samma pris. Tidigare har man även kunnat dra upp klockfrekvensen i samma veva men det går inte längre, bl a pga värmeutvecklingen.

Vi har verkligen gått offtopic med det här och först tänkte jag inte ens svara på ditt "svar" men du försöker få mig att se ut som en idiot av nån anledning så är tvungen att kommentera.

Man har INTE fått slut på ideer utan man gick över till dualcore för att det gav bra mycket bättre prestandaboost än extra funktioner. Klart det har med tekniken att göra. Hade man kunnat få tillräckligt bra prestandaökningar genom diverse optimeringar och instruktioner så hade man inte behövt gå över till multicoresystem än. Eller du är kanske är smartare än både AMD och INTEL ingenjörer? Du verkar också vara negativ till dualcore...varför när det ger så bra prestandaökning när mjukvaran drar nytta av det. Över 100%-ig ökning i vissa fall.

Citat:

(angående dual core GPUer): "Att fördubbla antalet pipelines/transistorer i en enda kärna är inte möjligt pga teknikbegränsningar. Värmen är dock ett problem men om man skulle optimera arkitekturen och dela upp arbetet mellan kärnorna så hade man kunnat få ner storleken och därmed värmeutvecklingen. Så två bantade chipset under samma silikon bör vara bättre än ett singelchip."

Detta är rena rappakaljan, det betyder ingenting. Jag vet inte ens var jag ska börja kommentera det, men jag gör ett försök iaf.

Vilka teknikbegränsningar? Det går alldeles utmärkt att öka antalet pipelines. Som jag skrivit innan så är det fördelaktigt jämfört med att trycka in två av dagens GPUer på samma chip. Jag har då aldrig hört om dessa teknikbegränsningar och då läser jag ändå allt jag kommer över om CPUers och GPUers uppbyggnad och funktion eftersom jag finner det mycket intressant. Här får du ange en mycket trovärdig källa, annars ser jag det som ren bullshit.

Att optimera arkitekturen för att minska värmen och storleken görs självklart redan idag. Att häva ur sig nått sånt som du gör är helt galet.

Värmeutvecklingen är en stor begränsning. Om det nu enligt dig är möjligt varför har vi då inte kärnor med dubbel prestanda utan får nöja oss med SLI och CrossFire istället? Jag tycker du snackar bullskit och får gärna komma med en länk till test av chipset där man lyckats trycka ihop två kärnor.

Citat:

"bantade chipset under samma silikon"? Var det skojjigaste jag hört på länge. Vet du vad ett chipset är och vet du vad silikon är? Man gör chip av kisel och vad betyder "under"? Du argumenterar öht inte för det du påstår, det enda du skrev var "teknikbegränsningar".

Med silicon menade jag självklart kisel bara jag använde det engelska ordet. Chipset är en krets som som finns i massa olika utföranden. Behöver inte alls bestå av kisel. Däremot brukar man göra chipset och cpu-kärnor av kisel eller snarare etsa dessa i kiselplattor. Med under menade jag självklart i samma "kärna". Om du nu läser det mesta som kommer ut om GPU:s då bör du ju veta att värmen är ett stort problem direkt relaterat till energiförbrukningen.

Citat:

Som jag sagt innan, du kan faktiskt tänka dig dagens GPUer som "multi core"-GPUer eftersom de har flera separata pipelines som var och en hanterar separata instruktionsflöden. Precis som en multi core CPU alltså.

Vad jag tycker du inte verkar förstå är vad ett chip riktigt är och hur transistorerna används i det. Du klämmer ur dig saker som att dual core skulle vara bättre än tidigare extra instruktioner och att multi core är en lösning på problemet med att transistorer inte kan bli hur små som helst.

Multicore betyder fler än en kärna. Antalet pipelines är inte relevant isf. Jag förstår exakt vad det är. Du verkar dock inte förstå vad jag pratar om. Och nej transistorer kan inte bli hur små som helst. Ju mindre transistorer destå högre läckage i form av värme. Därför utväcklar man diverse tekniker tillverkningstekniker som speciell inkappsling av tranistorerna för att kunna klocka kärnor högre utan att läkaget blir för stor. Eftersom du är så påläst så är du välkommen att ge exempel på ATI chipset ur de senaste generationer som använder tekniken och som inte gör det. Kan du inte svaret så upplysser jag folk mer än gärna.

Du borde också veta att Intel/AMD/IBM/ har redan tat fram extremt små transistorer och jobbar på dessa för att kunna använda dem i framtida produkter. Det är dock flera år fram i tiden innan vi kommer kunna hoppa ner till tex 30nm tillverkningsteknik och mindre än det lär vara ganska problematiskt. Därför bör man istället utväckla alternativa vägar då den nuvarande tekniken håller på att nå sina gränser.

Höga klockfrekvenser är dock bara en del. Iom nyare generationer av GPU:s har man också utväcklat tekniker som AA/AF för att förbättra bildkvaliten och inte bara koncentrera sig på att få fler bilder per sekund. HDR är den senaste tekniken och fler lär det komma. Överföringshastigheten mellan minnet och chipset har också ökat till 512-bit medan minnet stannat på 256-bit. Det är alltså många aspekter som spelar in för hur snabb och hur bra ett grafikkort är.

Det är bara att inse att senaste high-end grafikkort både drar mer ström och genererar mer värme än tiddigare (med undantag för några modeller) därför är det nödvändigt att gå över till helt annan kärndesign och alternativa råvaror (ej kisel/koppar/aluminium) om kanske 8-12 år när den nuvarande tekniken når gränsen. Nanoteknologi och holografisk teknik är nåt man ser fram emot dock dessa ligger ett tag fram i tiden.

Har nu sagt mitt i ämnet och komemr därför inte skriva mer i tråden så om du maglar försöker dumförklara mig igen så go ahead jag bryr mig inte. Du är en smartass som av nån anledning stör sig på mig. Du kan en del men nästa gång försök vara lite trevligare istället och tillför mer till diskussionen istället för att hacka sig på andra. Ha det gött!

Permalänk
Medlem

http://www.webhallen.com/prod.php?id=53071

Smakar det så kostar det. 7295 bananer för XTX-modellen. Jahopp, Februari får bli en gröt-månad.