Återförsäljare visar Radeon RX 480 i Crossfire

Permalänk
Medlem
Skrivet av ArKAN:

Var det jag fiskade med min fråga, vad är premium?, Betalar man mer för märket?, kvaliten?, Själv har jag haft minst 100 grafikkort från olika tillverkare och ser AMD och Nvidia relativt likvärdiga, Båda har haft sina bra och dåliga serier/drivrutiner. Och har inga problem att betala premium från båda tillverkarna så länge jag får valuta för pengarna.

Vad är premium? Den som kan sätta en vettig definition skulle bli poppis bland ekonomer. Om jag ska sammanfatta vad olika skolor, lärare och författare säger om "premium" inom "vetenskapen" så blir det väl nogit i stil med följande:

Att en produkt uppfattas som premium har lite eller ingen relation med produkten eller tjänstens faktiska förmåga att utföra sin uppgift. Premium handlar i stort och brett om psykologiska faktorer. Det är våran sinnesbild (eller framför allt marknadens bild) på en produkt som avgör om den kan kallas premium. En produkt som klassas som premium många av följande associationer kopplade till sig: Exklusivitet, dyrt, känt märke, pålitligt märke, anses ha bra resultat, historiskt vällyckat, bra marknadsföring, autentisk, "kvalite*".

Frågor man kan ställa sig själv om man undrar om det är "premium" eller inte är:
Något du kan "skryta", eller i alla fall nämna i en positiv sammanhang? Vardagligt exempel: Dyrt vin/dyr sprit, ekologiska produkter
Något du gärna visar fram? t.ex sportbilen, värsting-datorn eller den fetaste TVn du hittade.
Är det dyrt? Är det sällsynt? Är det ovanligt?
Skulle min näromgivning acceptera detta? Denna är speciellt viktig, eftersom det är i våran natur att söka godkännande, erkännande och acceptans från vår omgivning. Det är självklart individuellt hur mycket dessa påverkar oss, men de finns där, och det är anledningen till att marknadsföringsbranschen är en av de största tjänsteindustrierna i världen.

Det är en myriad av associationer kopplade till dessa produkter, och det är en mix av dessa som gör att vi anser om en produkt är premium eller inte.

För att ge ett exempel som var relevant i en av våra böcker:
När Ica Basic började med sina produkter, som ofta efterliknar existerande produkter, så hade inte Ica en egen produktion. Utan de använde sin marknadsmakt och sin inköpsmakt och fick producenter att markera sina produkter med Icas märke. Abba är väl det som anses som "bäst" när det kommer till makril på burk. Ica's Makril på burk var från början densamma som Abba hade i sina, med endast en ny förpackning och logga.
Vid tester, gissa vilken produkt som smakade godast, och gissa vilken som i bland var oätbar.

Ett annat bra exempel är Henrik Fexeus smaktest, ett kanske inte korrekt utfört vetenskapligt expriment, men som visar vikten av associationer i hur vi uppfattar saker. Detta är ytterst även på grafikkort, eftersom vi har vissa associationer, känslor och saker som triggar oss. Det påverkar, medvetet eller undermedvetet, vilka val vi gör och vad vi tycker om saker.

*Kvalite är också väldigt diffust. Det finns väldigt många variabler som påverkar, men framför allt är det väl förväntat prestanda mot uppmät prestanda. En produkt som levererar mer än den lovar har klarat en av dom viktigaste kraven för att vara en "kvaliteprodukt".

Referenser:
Allsopp, J. (2005). Additional practice papers: Premium pricing: Understanding the value of premium. Journal of Revenue and Pricing Management, 4(2), 185-194.
Palmeira, M. M., & Thomas, D. (2011). Two-tier store brands: The benefic impact of a value brand on perceptions of a premium brand. Journal of Retailing, 87(4), 540-548.
Quelch, J. A. (1987). Marketing the premium product. Business Horizons, 30(3), 38-45.

Visa signatur

White Heart i5-6600k@4.8ghz 1.325v ~ EVGA 780TI SC+ @ 1304mhz ~ 2x8 gb Corsair 2166mhz ~ Samsung 840 240gb ~ Crossover 2795 QHD 1440p 120hz

3D-Mania i7-6700k@5.0ghz 1.396 ~ EVGA 1080 FTW @ 2189/11500 ~ 4x4 Corsair Dominator Platinum 3800 mhz ~ Samsung 850 Pro 512gb ~ Acer Predator x34a, 3440x1440 100hz

Permalänk
Medlem
Skrivet av LPG:

Jag är rätt säker på att 4x Fury X presterar bättre än 4x Titan X, ska hitta källor på det brb

Edit: Jo http://www.techpowerup.com/forums/threads/an-epic-fury-x-revi...

Tittar man på det testet och jämför med 1080SLI så kommer man fram till att 3*Fury X motsvarar 2*1080 till ett bättre pris och med möjlighet att lägga på ett fjärde för ytterligare lite prestanda. Nu säger iofs Tvelander att 4*Titan X ändå är bättre för spel, så utan mer underlag så kan vi inte dra några slutsatser än detta: om man BARA bryr sig om PRESTANDA och flerkortslösningar är på tapeten, varför har man då inte quad TitanX/980ti/FuryX?

Skrivet av Lessismore:

Tjatigt att höra det här missförståndet tråd efter tråd. De flesta som föredrar låg energiförbrukning syftar INTE på elräkningen.

Saker man ofta stöter på med ett energikrävande grafikkort:

  • Tar större plats, vilket kan leda till ett större chassi

  • Låter mer

  • Kräver större och dyrare nätaggregat

  • Dyrare pga större kylanordning mm

  • Varmare, vilket inverkar negativt på övriga komponenter

  • Kortare livslängd

  • Sämre klocknings-potential

  • Utebliven imponeringsfaktor

Det är alltså många anledningar att hålla energiförbrukningen i schack.

Jag ser inga fel med ditt inlägg, om du är så snäll och lägger till ett "ceteris paribus", dvs. allt annat lika. För i ärlighetens namn, val av kyllösningar, val av layout på pcb, val av strömförsörjning, val av minnestyp, mängd minne, specifik grafikkrets, drivrutiner etc. etc. har långt större påverkan på alla de faktorer du lyfter än just enbart effekten. Och jag måste erkänna att just livslängden fick mig att fnissa lite givet den underförstådda kontext som finns med här.

Permalänk
Datavetare
Skrivet av kelthar:

Fast det kan ju bero på att det inte funnits något som varit tillräckligt bra <$300. Svårt att säga eftersom man inte vet hur pass insatta de personerna var som gjorde köpen. Antingen så visste de att 970 var bra, eller så hade de $300 att lägga på ett kort.

Visst kan det vara så, är alltid svårt att sia om framtiden.

Men hur sannolikt tror du själv den förklaringen är då det varit en trend sedan 7-8 år tillbaka att genomsnittspriset för AIB (Add In Board, d.v.s. PCIe kort i dagens läge) ökar? D.v.s. det är en trend som går långt förbi dagens aktuella GPUer.

Skrivet av Gainsgoblin:

@Yoshman: Skulle AMD säljas tror jag nog att avtalen kommer hållas då olika länders konkurensverk inte kommer tillåta att dessa avtal förfaller och det blir monopol.

Du menar monopolet att det säljs nio ARM CPUer för varje x86 idag? Eller att man ännu inte sett något problem med att AMD har mindre än en procent av servermarknaden, den enda fortfarande växande x86 marknaden?

Och säg inte att Intel får monopol på x86, ARM har total ensamrätt på sin ISA så kan inte var ett problem i sig att ett enda företag kontroller en viss instruktionsuppsättning. Imagination Technologies har även monopol på MIPS, men tror inte så många bryr sig om MIPS lägre.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

ser många som skriver att CF/SLI fortfarande funkar väldigt dåligt, är det verkligen så dåligt som vissa vill få det till?

Visa signatur

Dator1: MOBO: asrock x570 taichi razer edition - CPU: Ryzen 5950x - GPU: Asrock 6900 XT Phantom Gaming - RAM: Corsair Vengeance LPX Black 64GB 3600 CL18 - PSU: Corsair RM1000x V3 1000W - Kylning: nzxt kraken x73 360mm AIO - Chassi: lian li pc-o11 XL.

Dator2: Asus bärbar med ryzen 4800h+rtx2060

Permalänk
Medlem
Skrivet av Yoshman:

Visst kan det vara så, är alltid svårt att sia om framtiden.

Men hur sannolikt tror du själv den förklaringen är då det varit en trend sedan 7-8 år tillbaka att genomsnittspriset för AIB (Add In Board, d.v.s. PCIe kort i dagens läge) ökar? D.v.s. det är en trend som går långt förbi dagens aktuella GPUer.

Jag skulle tro att det beror på alla dumma mac-ägare som tror att de kan uppgradera sin Macbook AIR och köper dyra PCI-kort för att de är vana att betala överpriser?

Skämt åt sido så har jag ingen aning.

Jag vetifan om jag köpt så många AIB på senaste. Det enda jag köpt är ett nätverkskort när det på mitt moderkort somnade för att aldrig vakna igen. Något ljudkort har jag själv inte. Vad finns det mer som gemene man skulle köpa? Kontrollerkort för fler diskar? Det som jag räknat upp faller inte riktigt inom samma kategori som grafikkort, enligt mig. Jag uppgraderar inte mitt nätverkskort varannan år, men det kanske är olika.

Att priserna går upp för AIB rent allmänt har väl med många faktorer att göra. Valutor kopplade till produktionsländer, löner, brist på mineraler, etc. Att saker kostar mer gör att man måste betala mer, inte nödvändigtvis att man är villig att betala mer.

Om du har en förklaring så lyssnar jag gärna på den i stället för mina egna antaganden som är helt frånkopplade från hård data.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem

Jag brukar hålla mig undan trådar där debatten AMD vs Nvidia brakar lös, men gör ett litet undantag denna gång just med tanke på Crossfire/SLI-inläggen som varit.

Är överraskad att så många har upplevelsen att dubbla (eller fler) grafikkort funkar bättre och bättre med tiden. Jag är av motsatt uppfattning.

Jag har kört SLI sedan 2012 (om man bortser från 3Dfx Voodoo2 på nittiotalet), först 2st GTX 670, sedan 2st GTX 780 och sedan förra året 3st GTX 980.

SLI har funkat bra på nästan alla äldre spel jag skaffar men jag upplever att problemen eller egentligen det saknade stödet på nya releaser blir värre och värre. Rent tekniskt med drivrutiner och så har allt blivit bättre men speltillverkarna verkar ofta strunta i de som vill köra med mer en ett grafikkort. De kanske inte rakt av struntar i att lägga till stöd för SLI/CF men det är för krångligt och dyrt att få till det bra på nyare spelmotorer. Dessutom är antalet spelare som faktiskt kör SLI/CF uppenbarligen mycket litet jämfört med de som kör med ett kort.

Rent subjektivt känns det som att för tre, fyra år sedan funkade nästan allt nytt bra i SLI/CF numera not so much. Ett exempel är nya Doom som fortfarande inte har officiellt SLI-stöd. Andra hyfsat nya exmpel på spel som saknar eller där SLI-stödet funkat dåligt för mig är Wolfenstein: The New Order och The Old Blood (inget stöd), Far Cry 4 (buggigt stöd), GTA 5 (halvbra stöd), Witcher 3 (halvbra stöd). Sedan ska man inte glömma de spel som låser framraten till 60 fps och då försvinner ju en del av anledningen till att man skaffar mer än ett grafikkort.

Och nu kommer Direct X12 där traditionell SLI/CF som bygger mycket på drivrutinerna knappast kommer att användas alls utan det blir upp till spelmakarna att implementera multi-gpu stöd själva. Tjena säger jag, låter cyniskt men har inga stora förhoppningar att det blir så vanligt.

Jag får fina resultat i 3D Mark Firestrike med mina 3st GTX 980 (se bild nedan) men det känns allt mer sällan jag kan få någon nytta av den kraften i spel så nu hoppar jag av SLI-tåget för denna gång och imorgon hämtar jag mitt Palit GTX 1080 Super Jetstream på Coop och åker hem och bygger om datorn, tre kort ut ett kort in.

Kraft som funkar utmärkt i 3D Mark men som numera mer och mer sällan kan utnyttjas i spel:

Visa signatur

Core i7 5820K @ 4.5GHz | Asus Strix X99 Gaming | Palit Super Jetstream GTX 1080 | 16GB Corsair Vengeance LPX DDR4 2666MHz | Intel® 750 SSD 400GB PCIe, Samsung 840/850 Evo 750GB & 1TB | Asus 12x Blu-Ray Combo | Phanteks Enthoo Luxe | 3x Nanoxia Deep Silence 140mm + 5x 120mm | Corsair H105 | Corsair AX1200i 1200W | Windows 10 Pro | Asus ROG Swift PG348Q | Audio Pro Addon T12 | Sennheiser HD650 | Corsair Vengeance K70 | Mad Catz R.A.T. 7 MMO

Permalänk
Medlem
Skrivet av Yoshman:

Visst kan det vara så, är alltid svårt att sia om framtiden.

Men hur sannolikt tror du själv den förklaringen är då det varit en trend sedan 7-8 år tillbaka att genomsnittspriset för AIB (Add In Board, d.v.s. PCIe kort i dagens läge) ökar? D.v.s. det är en trend som går långt förbi dagens aktuella GPUer.

Du menar monopolet att det säljs nio ARM CPUer för varje x86 idag? Eller att man ännu inte sett något problem med att AMD har mindre än en procent av servermarknaden, den enda fortfarande växande x86 marknaden?

Och säg inte att Intel får monopol på x86, ARM har total ensamrätt på sin ISA så kan inte var ett problem i sig att ett enda företag kontroller en viss instruktionsuppsättning. Imagination Technologies har även monopol på MIPS, men tror inte så många bryr sig om MIPS lägre.

En förklaring kan i sig vara att i takt med att iGPUer blir starkare försvinner behovet av att ha dedikerade low end grafikkort i vanliga datorer vilket kan delvis förklara att genomsnittspriset på AIB stiger.

De som fortfarande behöver starkare grafik än iGPUn har att erbjuda köper dyrare grafikkort vilket är PC-spelare och med tanke på att PC försäljningen växer inom gamingsegmentet kan förklara ökningen av genomsnittspriset för AIB.

Men att PC försäljningen inom gamingsegmentet har växt sedan 7-8 år tillbaka är jag inte lika säker på, dock så har ju Intel haft iGPUer med Intel HD graphics sedan 2010 vilket kan förklara iallafall minskningen av dedikerade low end grafikkort 6 år tillbaka.

http://www.sweclockers.com/nyhet/21247-hogupplosta-skarmar-dr...
http://www.sweclockers.com/nyhet/21327-amd-atertar-marknadsan...
http://www.sweclockers.com/nyhet/20144-pc-spelsmarknaden-fort...

Några länkar med för PC försäljningen inom gamingsegmentet
Visa signatur

Siter som tar upp Frame Times/99th percentile/1% low fps i sina grafikkortstester: http://www.gamersnexus.net/, http://www.guru3d.com/, http://www.custompcreview.com/, http://arstechnica.co.uk/ http://www.pcper.com/, http://techreport.com/, http://www.tomshardware.com/,
Site som tar upp om spelen som är testade i deras grafikkortsrecensioner är sponsrade eller utvecklade i samarbetade med Nvidia/AMD: http://techgage.com/category/graphics-and-displays/

Permalänk
Medlem
Skrivet av Tonasty4u:

ser många som skriver att CF/SLI fortfarande funkar väldigt dåligt, är det verkligen så dåligt som vissa vill få det till?

Ja, ofta är det så att det antingen fungerar eller inte alls. Så det är lite lotto beroende på om just "dina" spel fungerar, skulle jag vilja påstå.
I VR fungerar det knappt alls. Inte med spelen jag kört på vive iaf.

Många verkar anta att dx12 kommer vara helt fantastiskt för flerkortslösningar. Det gjorde jag också först men sen hörde man att det är spelutvecklarna som ska se till att multi-gpu fungerar så jag är tveksam. Skulle inte satsa på cf/sli/mg idag.

Jag har kanske missat nån nyhet ang dx12 och multi-gpu iof..hoppas.

Visa signatur

| Fractal Design Define Mini C | MSI Z490M MPG GAMING EDGE | Corsair RM750X 750W v2 | Intel Core i5 10600K |
|GIGABYTE RTX 3070 AORUS Master |Corsair 32GB DDR4 3200MHz CL16 |
| Asus Strix Raid DLX | Acer 27" Predator XB271HK G-Sync 4K IPS | Tobii 4C |
| LG OLED55B6V | nVidia Shield V2 |

Permalänk
Medlem
Skrivet av Storage Jar:

Ja, ofta är det så att det antingen fungerar eller inte alls. Så det är lite lotto beroende på om just "dina" spel fungerar, skulle jag vilja påstå.
I VR fungerar det knappt alls. Inte med spelen jag kört på vive iaf.

Många verkar anta att dx12 kommer vara helt fantastiskt för flerkortslösningar. Det gjorde jag också först men sen hörde man att det är spelutvecklarna som ska se till att multi-gpu fungerar så jag är tveksam. Skulle inte satsa på cf/sli/mg idag.

Jag har kanske missat nån nyhet ang dx12 och multi-gpu iof..hoppas.

Ni har fel! Multi-gpu är en passiv feature i dx12. Det är dock upptill utvecklarna att koda i dx12 så funkar det automatiskt.

Permalänk
Hjälpsam

En orsak till att priserna skulle ha stigit för AiB kan helt enkelt vara att prestanda per krona inte har ökat speciellt under senare år.
Enda sättet att få ökad prestanda har varit att betala mer.
Med denna generation av grafikkort ser detta ut att kunna ändras.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare
Skrivet av kelthar:

Jag skulle tro att det beror på alla dumma mac-ägare som tror att de kan uppgradera sin Macbook AIR och köper dyra PCI-kort för att de är vana att betala överpriser?

Skämt åt sido så har jag ingen aning.

Jag vetifan om jag köpt så många AIB på senaste. Det enda jag köpt är ett nätverkskort när det på mitt moderkort somnade för att aldrig vakna igen. Något ljudkort har jag själv inte. Vad finns det mer som gemene man skulle köpa? Kontrollerkort för fler diskar? Det som jag räknat upp faller inte riktigt inom samma kategori som grafikkort, enligt mig. Jag uppgraderar inte mitt nätverkskort varannan år, men det kanske är olika.

Att priserna går upp för AIB rent allmänt har väl med många faktorer att göra. Valutor kopplade till produktionsländer, löner, brist på mineraler, etc. Att saker kostar mer gör att man måste betala mer, inte nödvändigtvis att man är villig att betala mer.

Om du har en förklaring så lyssnar jag gärna på den i stället för mina egna antaganden som är helt frånkopplade från hård data.

AIB är alltså kort likt RX480. Fördelen att titta på just AIB är att man då får bort alla kretsar för mobila enheter och iGPUer. Ser man till totala antalet grafikkretsar som säljs för PC så är ju Intel dominanten med runt 70 % marknadsandel.

Skrivet av FishTank:

En förklaring kan i sig vara att i takt med att iGPUer blir starkare försvinner behovet av att ha dedikerade low end grafikkort i vanliga datorer vilket kan delvis förklara att genomsnittspriset på AIB stiger.

De som fortfarande behöver starkare grafik än iGPUn har att erbjuda köper dyrare grafikkort vilket är PC-spelare och med tanke på att PC försäljningen växer inom gamingsegmentet kan förklara ökningen av genomsnittspriset för AIB.

Men att PC försäljningen inom gamingsegmentet har växt sedan 7-8 år tillbaka är jag inte lika säker på, dock så har ju Intel haft iGPUer med Intel HD graphics sedan 2010 vilket kan förklara iallafall minskningen av dedikerade low end grafikkort 6 år tillbaka.

Helt säker att en del av förklaringen ligger i det du skriver här. Intel har i.o.f.s haft grafikkretsar långt innan 2010, även sådana med någon form av 3D-stöd som användes i strömsnåla laptops. De låg dock i chipset innan HD graphics.

Är det ändå intressant att 50 % av AIB som såldes förra generationen låg över $300, att en så pass dyr produkt som 980 Ti kunde ta ca 7 % [*] av försäljningen är något helt nytt om man ser till tidigare generationer. Och verkar ju som suget efter 1070/1080 överträffar alla tidigare lanseringar i toppsegmentet (och innan någon nämner GP100/GP102, GP104 är det snabbaste man kan köpa idag så det är den absoluta toppen).

[*] vilket är andelen av alla Maxwells om man går efter Steams HW Survey

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av Bascule666:

Rent subjektivt känns det som att för tre, fyra år sedan funkade nästan allt nytt bra i SLI/CF numera not so much. Ett exempel är nya Doom som fortfarande inte har officiellt SLI-stöd. Andra hyfsat nya exmpel på spel som saknar eller där SLI-stödet funkat dåligt för mig är Wolfenstein: The New Order och The Old Blood (inget stöd), Far Cry 4 (buggigt stöd), GTA 5 (halvbra stöd), Witcher 3 (halvbra stöd). Sedan ska man inte glömma de spel som låser framraten till 60 fps och då försvinner ju en del av anledningen till att man skaffar mer än ett grafikkort.

Att spel får allt sämre CF/SLI stöd beror mycket på att flera nya renderingstekniker som används fungerar dåligt med "alternate frame rendering" (AFR) vilket är den teknik som både AMD och Nvidia använder idag.

Finns andra sätt att utnyttja flera grafikkort och under de tidiga åren för CF/SLI experimenterades med en rad olika varianter. Alla idag kända tekniker för multikort har nackdelar, att man i praktiken helt kör med AFR idag beror på att det är den metod som i praktiken ändå fungerade bäst. Men eventuellt kanske det är på väg att ändras.

DX12 möjliggör i alla fall flera varianter än AFR, dock är det just AFR som det enda "riktiga" DX12 kör med (Ashes of the Singularity). Hitman, Rise of the Tom Raider och Gears of War har så vitt jag vet överhuvudtaget inget multikort stöd i DX12 idag.

För VR kan man ändå tänka sig att dual-kort kommer fungera riktigt bra. Mycket hänger där på hur bra/dåligt Pascals Simultaneous Multi-projection teknik fungerar för VR samt om Polaris 10 innehåller något liknande. Kolla 5:40 i denna video

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Lessismore:

Tjatigt att höra det här missförståndet tråd efter tråd. De flesta som föredrar låg energiförbrukning syftar INTE på elräkningen.

Saker man ofta stöter på med ett energikrävande grafikkort:

  • Tar större plats, vilket kan leda till ett större chassi

  • Låter mer

  • Kräver större och dyrare nätaggregat

  • Dyrare pga större kylanordning mm

  • Varmare, vilket inverkar negativt på övriga komponenter

  • Kortare livslängd

  • Sämre klocknings-potential

  • Utebliven imponeringsfaktor

Det är alltså många anledningar att hålla energiförbrukningen i schack.

Jag håller inte helt med din tanke, för allt du säger må vara sant som ett argument mot vartannat, men inte som en lista tillsammans.
Låt mig förklara.

Mer effekt ger självklart krav på bättre nätaggregat, ingen tvekan om det.
Men ett kort som är varmt, är inte samma sak som att säga hur mycket det låter, eller storlek eller livslängd. Faktum är att de är motsatta till vartannat.

Dvs, om du tar ett kort med X effekt, så får du en viss storlek på kylare, med en viss kylförmåga vid en viss ljudnivå, och vid en viss temperatur. Om du ökar kylarens storlek (eller/och kapacitet/effektivitet) så får du antingen lägre temperatur eller tystare kylning. Så ett högeffekt kort med en bra kylare, kan mycket väl vara både svalare och tystare än en lägre effekt kort med sämre kylare, men du får då offra storlek. Eller så får du ett litet kort och får offra något annat, tex ljudnivå, men det går att anpassa som sagt.

Livslängd är motsats till temperatur och klocknings-potential, för om du OCar ett kort, förkortar du också livslängden med med mer effekt än kretsen egentligen tål, samt du får mer värme att ta hand om. Att törstigt kort är sämre/bättre på att klocka är egentligen lite fel tänkt. Det är mer att ett kort som är lågt klockat från fabrik, troligen har mer att ge, än ett som är högt klockat från fabrik. Värme är naturligsvis en faktor som sätter gränsen, men som sagt, kylaren kan anpassas. Lite som att en 4790k kan köra 4,5Ghz+, men inte på stock kylaren, utan man måste kompensera för det. Det gör dock inte CPU eller GPUn sämre på att klocka, utan bara ändrar hur mycket effekt (i värme) du måste ta hand om.

Spänning har också mycket med livslängd att göra. För kraftigt OCat kort, men tokhög spänning kan lätt bränna ett chip som är både svalt i design, och kallt i temperatur.

Sen är olika chip designade att tåla olika temperaturer också. Ta tex Haswell och R9 290... dessa tål 95 grader, enligt design. Naturligtvis så är svalare bättre, ingen tvekan, men tar du ett chip som tex 970/980 (och 1070/1080) som inte är designade för det (de klockar ner under 80 grader). Samma med AMDs FX CPUer som inte vill ha mer än 70 grader innan de är utanför spec. Om du skulle tvinga alla dessa att köra i 90 grader så skulle haswell cpun och 290 chippet inte bry sig, medan 970/980 och FX CPUn skulle brinna upp... fort. Så hållbarhet har mycket med design att göra också.

Dyrare är lite av ett bullshit argument, då 1070 och 480 har samma minne, samma storlek, samma typ, samma frekvens, lik tusan kostar Nvidias alt en hel del mer. 290 hade mer minnesbandbredd (dyrare minneslösning) samt krävde dyrare kyllösning än tex 970/780, ändå är korten billigare. Lägg till att Sapphire brukar ha lägst pris av alla AMD kort, trots bästa kylaren.
Så nej, det har verkligen inget med det att göra, utan är något folk "tror" påverkar. Självklart påverkar det tillverkningskostnaden, men det har sällan något att göra med slutpriset, utan bara vinsten för tillverkaren. AMD har ändå gång på gång visat att det går att göra dyrare minneslösningar, utan att göra dyrare kort för konsument. Det enda du gör är att ge Nvidia och deras partners mer pengar, inget annat.

Jag säger detta som ägare till 3 st 290X och 2 st 290. Alla fungerar. 2 vänners Nvidia kort har dock pajat, ett 980, ett 970, ena OCat, andra med usel kylare. Liten sample, jag vet, men om din teori stämde helt, så skulle ändå jag haft minst ett kort av mina som gått sönder. Lägg till att mina kort har 2+ år på nacken så säger det en hel del om "hållbarhet". Sapphire 290X har inga problem att hålla kortet <80 trots OC, vilket är en hel del värme. Med sämre/billigare 970 (och 290) kort är detta inte så enkelt dock, för kylaren är inte designad att klara den lasten. Så min poäng? Bra kylare... betydligt viktigare än "svalt chip" för hållbarhet.

Men... jag delvis håller med dig på din första rad, med lite reservation:
"De flesta som föredrar låg energiförbrukning syftar INTE på elräkningen."
Jag föredrar det också, men jag offrar inte en stor hög pengar, andrahandsvärde eller, bra kylare eller tveksamma minneslösningar för att få det.

Kort sagt är faktiskt... de flesta föredrar bra pris.

Titta bara på varje vara vi köper idag, pris är allt. Och det lustiga är, om 480 kan ligga runt 980 i prestanda, så har de ett kort som du kan spela typ alla spel i 1080 på v-high till ultra på för väldigt bra pris. Enda anledningen till att köpa dyrare är om du har 1440 eller 100+Hz skärm, vilket långt från alla har. Så varför köpa ett kort för 4500kr+ när ett lägre effekt kort för <2500kr kan göra allt lika bra när du är fast på 1080 60Hz som majoriteten faktiskt är? (Varför tror du 290/970 sålde så bra som de gjorde? Jo, de var mest prisvärda)

Permalänk
Medlem
Skrivet av Yoshman:

Att spel får allt sämre CF/SLI stöd beror mycket på att flera nya renderingstekniker som används fungerar dåligt med "alternate frame rendering" (AFR) vilket är den teknik som både AMD och Nvidia använder idag.

Finns andra sätt att utnyttja flera grafikkort och under de tidiga åren för CF/SLI experimenterades med en rad olika varianter. Alla idag kända tekniker för multikort har nackdelar, att man i praktiken helt kör med AFR idag beror på att det är den metod som i praktiken ändå fungerade bäst. Men eventuellt kanske det är på väg att ändras.

DX12 möjliggör i alla fall flera varianter än AFR, dock är det just AFR som det enda "riktiga" DX12 kör med (Ashes of the Singularity). Hitman, Rise of the Tom Raider och Gears of War har så vitt jag vet överhuvudtaget inget multikort stöd i DX12 idag.

För VR kan man ändå tänka sig att dual-kort kommer fungera riktigt bra. Mycket hänger där på hur bra/dåligt Pascals Simultaneous Multi-projection teknik fungerar för VR samt om Polaris 10 innehåller något liknande. Kolla 5:40 i denna video
https://www.youtube.com/watch?v=mOtJzOTC5OA

Jo, jag känner till problematiken med AFR och att det är en av anledningarna till det sjunkande stödet för SLI/CF idag. De DX12-spelen du nämner som saknar multi-gpu stöd är en del av min aningen pessimistiska inställning till mer än ett grafikkort framöver. Därför blir det ett byte till ett GTX 1080 istället för tre GTX 980.

Med tanke på allt detta känns det lite konstigt att AMD visade Crossfireresultat på sin presskonferens.

Visa signatur

Core i7 5820K @ 4.5GHz | Asus Strix X99 Gaming | Palit Super Jetstream GTX 1080 | 16GB Corsair Vengeance LPX DDR4 2666MHz | Intel® 750 SSD 400GB PCIe, Samsung 840/850 Evo 750GB & 1TB | Asus 12x Blu-Ray Combo | Phanteks Enthoo Luxe | 3x Nanoxia Deep Silence 140mm + 5x 120mm | Corsair H105 | Corsair AX1200i 1200W | Windows 10 Pro | Asus ROG Swift PG348Q | Audio Pro Addon T12 | Sennheiser HD650 | Corsair Vengeance K70 | Mad Catz R.A.T. 7 MMO

Permalänk
Datavetare
Skrivet av dahippo:

Ni har fel! Multi-gpu är en passiv feature i dx12. Det är dock upptill utvecklarna att koda i dx12 så funkar det automatiskt.

Det är en överförenkling, finns de modeller för multi-GPU i DX12 och givet att vi har ett enda spel som är designat för DX12 från start så ska man nog inte dra allt för stora växlar på det.

Det man pratat mest om så här långt kallas MDA, Mult-Display-Adapter. I detta läge ser spelet varje grafikkort som tre eller flera köer (minst en grafik, en beräkning och en kör för minnesoperationer per krets) och är helt upp till spelet att göra något vettigt med alla kort. Detta läge har absolut potential, men frågan är hur mycket det kommer användas i praktiken då det medför rätt mycket merjobb. Gissar att den populäraste användningen av MDA kommer bli för att utnyttja den iGPU som de flesta trots allt har till saker som fysikberäkningar eller post-processning.

I DX12 finns också två Linked Display Adapter, LDA, lägen. Båda LDA lägen kräver att alla GPU-kretsar är av samma typ och båda lägena gör det möjligt för alla GPU-kretsar att läsa/skriva varandras VRAM så finns potential här att två kort med X GB VRAM faktiskt uppför sig mer som ett kort med >X GB VRAM.

Det jag tror kommer bli det mest använda läget i DX12 är implicit LDA. Anledningen är att spelet inte behöver göra något alls för att använda flera GPUer, allt är upp till drivarna. Till skillnad från DX11 så har DX12 alla fall i teorin ett API som är lite mindre "elakt" mot multi-kort.

Sista läget är explicit LDA. Här ser spelet flera grafikkort, precis som för MDA, men till skillnad från MDA kan korten som sagt direkt läsa/skriva varandras VRAM som teoretiskt sätt borde förbättra fallen där man använder AFR och renderingstekniker där föregående scen behövs som indata.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

AIB är alltså kort likt RX480. Fördelen att titta på just AIB är att man då får bort alla kretsar för mobila enheter och iGPUer. Ser man till totala antalet grafikkretsar som säljs för PC så är ju Intel dominanten med runt 70 % marknadsandel.

Helt säker att en del av förklaringen ligger i det du skriver här. Intel har i.o.f.s haft grafikkretsar långt innan 2010, även sådana med någon form av 3D-stöd som användes i strömsnåla laptops. De låg dock i chipset innan HD graphics.

Är det ändå intressant att 50 % av AIB som såldes förra generationen låg över $300, att en så pass dyr produkt som 980 Ti kunde ta ca 7 % [*] av försäljningen är något helt nytt om man ser till tidigare generationer. Och verkar ju som suget efter 1070/1080 överträffar alla tidigare lanseringar i toppsegmentet (och innan någon nämner GP100/GP102, GP104 är det snabbaste man kan köpa idag så det är den absoluta toppen).

[*] vilket är andelen av alla Maxwells om man går efter Steams HW Survey

Just att 50% av AIB som såldes förra generationen (antar att det är GTX 900 samt R9/R7 300-serien som menas här) låg på över $300 kan ju att ha göra med att $300+ korten presterade bättre än $200 korten. Som ett exempel presterar GTX 970 över 50% bättre än 960 vid 1080p vilket gör det till en attraktiv produkt för runt en tusing mer. Just denna stora prestandagap mellan 970 och 960 kan ha lett till att fler har valt det dyrare alternativet då det saknas en brygga mellan dem.

Om man ser till Nvidias förra serier så ser man att ett sånt stort hopp mellan 2000+ kr och 3000+ kr korten har inte funnits hos varken 700-serien eller 600-serien. Just denna stora skillnad i prestanda mellan 970 och 960 har fått mig till viss del tro att detta var en medveten strategi från Nvidia, genom att göra 960 till ett strömsnålt, men icke-presterande kort kunde man flytta prestanda/pris korten från 2000+ kr klassen till 3000+ kr klassen där marginalerna är högre.

Att detta fungerade hade också att göra med att AMD inte heller hade ett kort som fyllde prestandagapet mellan 970 och 960. Just 380 som i sig var en rebrandad 285 inte fyllde gapet och 380x som var lite snabbare än 380 inte heller fyllde det kan ha lett till att Nvidia designade 960 till ett strömsnålt kort (med tanke på 285s prestanda) och inte släppte det ryktade 960 Ti som skulle fylla gapet mellan 960 och 970.

Att sedan titta på prestandaskillnaderna mellan 970 och 770 samt 960 och 760 verifierar ytterligare mina misstankar då 970 presterar markant bättre än 770, detsamma kan sägas för 980 vs 780 medans 960 presterar bara marginellt bättre än 760. En titt på strömförbrukningen förstärker det ytterligare då 970 drar lite mindre än 770 medans 960 drar väldigt mindre än 760.

Om man lägger misstankarna åt sidan kan man iallafall se att i förra generationens grafikkort fanns det ett stort prestandagap mellan mellanklasskorten och undre high-end korten som inte fanns vid förra generationer vilket ledde till att undre high-end korten, som 970, var mer prisvärt pga. väsentligt högre prestanda än kortet en prisklass under den.

Visa signatur

Siter som tar upp Frame Times/99th percentile/1% low fps i sina grafikkortstester: http://www.gamersnexus.net/, http://www.guru3d.com/, http://www.custompcreview.com/, http://arstechnica.co.uk/ http://www.pcper.com/, http://techreport.com/, http://www.tomshardware.com/,
Site som tar upp om spelen som är testade i deras grafikkortsrecensioner är sponsrade eller utvecklade i samarbetade med Nvidia/AMD: http://techgage.com/category/graphics-and-displays/

Permalänk
Hedersmedlem

*** tråd modererad ***

Jag har tyvärr blivit tvungen att radera och redigera en mängd inlägg då flera inlägg var mer trollning än sakliga. Se forumregel § 1.5:

Citat:

Att uttala sig provocerande endast för att reta upp andra (så kallat trollande) är inte tillåtet.

Tänk också på att inte besvara klara flame baits, utan anmäl dem istället.

/KimTjik

Permalänk
Medlem
Skrivet av Bascule666:

Jo, jag känner till problematiken med AFR och att det är en av anledningarna till det sjunkande stödet för SLI/CF idag. De DX12-spelen du nämner som saknar multi-gpu stöd är en del av min aningen pessimistiska inställning till mer än ett grafikkort framöver. Därför blir det ett byte till ett GTX 1080 istället för tre GTX 980.

Med tanke på allt detta känns det lite konstigt att AMD visade Crossfireresultat på sin presskonferens.

Finns bara ett spel som är skriven i dx 12 som finns ute. Det är AoTS. De andra spelen är utvecklade med dx11 i grunden. Alltså CF/SLI som stöds inte det nya officiella uttrycket multi-gpu. Vilket i sin tur innebär att spelet måste skrivas med CF/SLI för att funka naturligt med mer än 1 kort även om spelet anpassas till dx12 annars måste mer eller mindre hela koden skrivas om för att ha naturligt multi-gpu.
När väl spel skrivs i dx12 så är det din ekonomi och moderkortstillverkarna som kommer begränsa antalet GPU. Teoretiskt om RTG t.ex kommer med en dualGPU(som finns) så kan 8 GPU funka samtidigt till vissa moderkort utan att spelutvecklaren behöver tänka på det. De nya API handlar om GRID eller skalning.Hur detta tillämpas är en drivrutin fråga.
Om vi tar bil liknelse Om du ska från a till b så spelar det ingen roll om det är en fiat med 4 cylindrar eller veyron på 16 cylindrar. Omgivningen skapar spelutvecklaren och han behöver inte tänka på vilket fordon du kör.
Den senaste Futuremark är dx11/dx12 med dx12 feature_set därför CF/SLI. Den nya med dx12 är inte släppt än med multi-gpu.

Permalänk
Medlem
Skrivet av krigelkorren:

Tycker nog att CF blivit mer och mer tilltalande på sistone, det presterar riktigt najs i de lägen då man öppnat upp för multi-GPU.
Att att det inte skulle finnas några fördelar att köra 2 billigare kort, som tillsammans presterar snäppet bättre än ett GTX 1080 i vissa scenarion, och att detta skulle enl. charten dra c:a 20W mer säger nog mer om hur överdrivet färgad din uppfattning är...
Håller dock med om att ljudnivån kan stiga beroende på om referenskylaren är av kassare art (som är troligt i referenssammanhang).

Men ditt påstående att Intel och nVidia skulle undvika att krossa AMD på marknaden enbart för konkurrensens skull är ju bara helt befängt, Intel och nVidia skulle stortrivas som ensamma aktörer för att dela på kakan (-läs våra pengar), det ligger snarare i konsumenternas intresse att behålla konkurrensen dessa företag emellan.

Själv tycker jag att det har blivit sämre, det är inte många indie spel som stödjer sli/crossfire och det är inte lika bra stöd för sli/crossfire i AAA spel som förr.

Permalänk
Medlem

Hmm, det skulle lanseras idag? Ändå ser jag inte att det finns någonstans. Är det separat datum för Sverige eller något?
Jag sitter på 660ti fortfarande och tycker 480 låter som en utmärkt uppgradering för en burk som ska köra 60fps.
Är väldigt intresserad av info om lanseringen.

Visa signatur

Specs: Ryzen 3600XT, 16gb Corsair Vengeance DDR4 3200MHz, GTX 1080 Founders Edition

Permalänk

Släpps 15.00 idag om jag fått rätt info

Permalänk
Medlem

@pappapurjo: ah okej! blir att kolla efter jobbet då. tackar!

Visa signatur

Specs: Ryzen 3600XT, 16gb Corsair Vengeance DDR4 3200MHz, GTX 1080 Founders Edition

Permalänk
Medlem
Skrivet av Sheytan:

Själv tycker jag att det har blivit sämre, det är inte många indie spel som stödjer sli/crossfire och det är inte lika bra stöd för sli/crossfire i AAA spel som förr.

Du berör en viktig poäng där, dock är det sällan indiespel drar någon nytta av sli/crossfire då grafiken där inte brukar vara såpass krävande, undantag finns givetvis, men de är vad jag märkt väldigt få.
För AAA titlar är det ju mer synd om den trenden fortsätter då många dyrare moderkort är utrustade med en hel drös PCI-E slots, vore kul med nya tester efter dagens släpp för att se hur mycket microstuttering man kan tala om idag, förr skapade det stora rubriker även om jag själv sällan stött på det.

Kan bero på att mitt användningsområde varit en aning... okonventionellt, vid de tillfällen man kört med nVidia-kort har jag i första hand fokuserat mest på:

1. Kunna ha fler än 2 skärmar inkopplade samtidigt.
2. Experiment, virtuella maskiner med varsitt dedikerat grafikkort mm.
3. Prestanda, spel, övrigt.

När jag använt mig av AMD-kort har jag i princip haft samma prioriteringar, utom på den 1:a punkten då fler än 2 skärmar inte varit något problem med ett kort ur den högre klassen.

Visa signatur

Tower: ace Battle IV | CPU AMD Phenom II X2 BE unlocked 4cores@3,2GHz | RAM 8GB DDR2@800MHz | MB ASUS M4A785-M | GFK AMD Radeon HD 6850 1GB | HDD Kingston SSD Now 60GB (/) Seagate 2TB(/home) | OS Ubuntu 20.04 LTS
-Numera titulerad: "dator-hipster" då jag har en AMD GPU och dessutom kör Linux.

Permalänk
Medlem
Skrivet av dahippo:

Finns bara ett spel som är skriven i dx 12 som finns ute. Det är AoTS. De andra spelen är utvecklade med dx11 i grunden. Alltså CF/SLI som stöds inte det nya officiella uttrycket multi-gpu. Vilket i sin tur innebär att spelet måste skrivas med CF/SLI för att funka naturligt med mer än 1 kort även om spelet anpassas till dx12 annars måste mer eller mindre hela koden skrivas om för att ha naturligt multi-gpu.
När väl spel skrivs i dx12 så är det din ekonomi och moderkortstillverkarna som kommer begränsa antalet GPU. Teoretiskt om RTG t.ex kommer med en dualGPU(som finns) så kan 8 GPU funka samtidigt till vissa moderkort utan att spelutvecklaren behöver tänka på det. De nya API handlar om GRID eller skalning.Hur detta tillämpas är en drivrutin fråga.
Om vi tar bil liknelse Om du ska från a till b så spelar det ingen roll om det är en fiat med 4 cylindrar eller veyron på 16 cylindrar. Omgivningen skapar spelutvecklaren och han behöver inte tänka på vilket fordon du kör.
Den senaste Futuremark är dx11/dx12 med dx12 feature_set därför CF/SLI. Den nya med dx12 är inte släppt än med multi-gpu.

Ingen blir gladare än jag om det verkligen blir så att alla DX12-spel rakt av kommer att stödja multi-gpu. I så fall blir det eventuellt att skaffa ett kort till. Teoretiskt låter det alldeles utmärkt men frågan är hur det blir i praktiken, den som lever får se.

Visa signatur

Core i7 5820K @ 4.5GHz | Asus Strix X99 Gaming | Palit Super Jetstream GTX 1080 | 16GB Corsair Vengeance LPX DDR4 2666MHz | Intel® 750 SSD 400GB PCIe, Samsung 840/850 Evo 750GB & 1TB | Asus 12x Blu-Ray Combo | Phanteks Enthoo Luxe | 3x Nanoxia Deep Silence 140mm + 5x 120mm | Corsair H105 | Corsair AX1200i 1200W | Windows 10 Pro | Asus ROG Swift PG348Q | Audio Pro Addon T12 | Sennheiser HD650 | Corsair Vengeance K70 | Mad Catz R.A.T. 7 MMO

Permalänk

Benchmarks på RX480, första jag sett

https://www.youtube.com/watch?v=5CJBaZ9V2Eo[/url]

Visa signatur

MacBook Pro 13" 2018

Permalänk
Skrivet av JohnSmith13:

Lite märkligt, ingen annan som kommenterat klippet du länkar till.
Ja, jag ska väl inte förstöra allt och avslöja vad som framkommer, folk får se själva.

Visa signatur

««« »»»

Permalänk
Avstängd
Skrivet av Ratatosk:

Nej RX480 drar inte 147 Watt.

Enligt ett test så är det det, men troligen drar det betydligt mer så GTX 1080 blir ännu mer förmånligt än dubbla RX 480 kort

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||

Permalänk
Hjälpsam
Skrivet av PowerNet:

Enligt ett test så är det det, men troligen drar det betydligt mer så GTX 1080 blir ännu mer förmånligt än dubbla RX 480 kort

Stämmer det verkar kunna ta runt 150W, det jag sett var att det tog runt 110W.
Singerkort är oftast mer förmånligt.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |