AMD upphör med drivrutinsstöd för äldre grafikkort

Permalänk
Medlem

@Paddanx:

självklart är det så, vad jag ville belysa var att korten fortfarande räcker långt rent prestandamässigt och jag kan förstå att ägare av HD 6950/6970 beroende på vad de spelar ännu inte känner något behov av att uppgradera.

Visa signatur

▪ R5-5600x - Aurous x570 elite - 32 GB DDR4 - MSI RTX 3060ti OC
▪ Nintendo Switch - iPhone XR

Permalänk
Medlem

Känns som det var rätt nyligen som AMD slutade stödja gamla X1800 och andra stenålderskort. 6000-serien känns inte så jätte gammal. Men förstår att de vill fokusera på GCN korten.

Inte många som sitter med grafikkort i mer än 5 år. Insert skämt om att AMD-korten i stor grad är 7000 serien med nya namn så snart 5 år gamla fast de fortfarande säljs.

Skickades från m.sweclockers.com

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk
Medlem

Kollade och HD2000 serien från 2006 hade stöd till 2013. Alltså 7 år. 9800pro från 2003 hade stöd till 2010 alltså 7 år. Så i jämförelse är de ganska tidiga med att släppa hd6000 serien.

Skickades från m.sweclockers.com

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk
Medlem

tråkigt.. amd e antingen lata eller för mycket jobb o koda drivrutiner rätt åt spelen nuförtiden.

Visa signatur

My rig 144hz 1440p 27" samsung g5, xfx 6950xt, 11900K, TM Peerless assassin,Gigabyte z590 UD, 32GB 3200MHz Vengeance, 1tb nv2, 2TB SSD 4TB HDD, corsair750 vengeance, Lancool 215.
GFs rig 144Hz samsung 1080p, Palit 3060Ti, 10400F,corsair H60 , B560 Auros, 16GB 3000MHz, 500GB NV1, 480GB A400, 2TB+750GB HDD, Seasonic 650 gold, Kolink Void Laptop Lenovo Legion 5, 2060, 4800H, 16GB, 1,5TB NVME HTPC 3060, 10400F, 16GB, 500GB NVME, 960GB A400 3rd PC 3060Ti, 3700X, Hyper 212, 16GB, 250GB SSD, 2TB HDD, 650w gold, P300A

Permalänk
Entusiast
Skrivet av Ratatosk:

Tror att de helt enkelt drog gränsen vid GCN, de släpper supporten för de om inte är GCN.

Ja det var så enkelt. VLIW och GCN är rätt olika arkitekturer så det blev nog mycket jobb att sitta och optimera för så olika grundförutsättningar. På samma sätt dumpade Nvidia stödet för Tesla förra året och där drog de en gräns vid Fermi som enligt Nvidia själva var en ny arkitektur. De sa att Tesla som hängt med i 8000, 9000, 100, 200 och 300 var mindre uppdateringar av samma grund medan de ansåg att Fermi var såpass nytt att den fick kallas ny arkitektur. Sedan dess har de inte gjort några större ingrepp i grunden även om de möblerat om en del. Men verkar som att de anser att Kepler och Maxwell är vidareutvecklingar av Fermi.

Det är ju ett rätt naturligt ställe att dra en gräns för fortsatt optimering. AMD har ju tidigare sagt att de räknar med att använda GCN ett bra tag framöver så antagligen kommer det dröja ett tag innan de skickar av gamla kort igen. Men vi får se.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Zotamedu:

Det är ju ett rätt naturligt ställe att dra en gräns för fortsatt optimering. AMD har ju tidigare sagt att de räknar med att använda GCN ett bra tag framöver så antagligen kommer det dröja ett tag innan de skickar av gamla kort igen. Men vi får se.

HD2000-6000-serien (exklusive HD 6900) hade dock också samma arkitektur, VLIW 5, men ändå förpassades HD2000-4000 till Legacy medan 5000-6000 fick fortsatt stöd. Det var fyra år efter att HD 4000 släpptes och det såldes fortfarande bärbara datorer med dessa kretsar.
AMDs Richland är bara två år gammal och har nu inget stöd längre.

AMDs DX9-kort ska tydligen också ha använt en VLIW-arkitektur, men X1900-serien flyttades till Legacy redan tre år efter att det släpptes.

Permalänk
Medlem
Skrivet av Commander:

Dålig timing helt klart, kunde väntat ett halvår till :/

Skrivet av Regert:

Delvis bra, delvis tråkigt för dem som sitter med gamla kort och inte planerar att uppgradera. Sen har de korten i för sig hållit rätt länge nu.

Skrivet av bl0m1:

oj, känns inte som 6000 serien är så gammal.
Får hoppas på att dom korten som får nya drivrutiner får bra sådana då dom inte har lika många kort.
Sedan är det ju en massa rebrands så bör inte vara så mycket jobb för dom framöver

Skrivet av foxzox7:

faaaaaaan...
Jag gillar ju mitt 6970

Skrivet av htbtoma:

@Wastaah:

Varför inte? 6950/6970 är fortfarande potenta kort och duger bra till mycket

6950 är ungefär i linje med GTX 750ti och duger således alldeles utmärkt till många av dagens spel om än med nedskruvade inställningar.

Skrivet av Superlight:

Innebär det Radeon 5000 och 6000 serien inte får DX12 stöd i framtiden? GTX 400 serien ska tydligen stöda DX12.

Det är naivt att tro att man ska spela DX12 titlar med dessa gamla kort. (eller andra nya spel som kräver mer beräkningskraft och minne)

Har man ett 58x0 eller 69x0 kort kommer de nuvarande DX9, DX11 titlarna gå att spela lika bra som förut, och ev. nya DX9 och DX11 kommer funka bra så länge det inte krävs optimeringar.

Men sanningen är att dessa är inte bra DX11 kort med 69x0 serien försökte man rätta till de tessileringsproblem som 58x0 serien drogs med (de släpptes innan det fanns några spel som stödde DX11), men sedan insåg man att det behövdes något helt nytt och skapade GCN. GCN stödjer async computing vilket inte VLIW gör. VLIW stödjer inte DX12 och är inte speciellt bra på DX11 heller.

AMD har sedan några månader tillbaka haft stöd för DX12 till GCN GPUerna.

nVidia har också sedan några månader DX12 stöd på kepler kort och nyare. Fermi sägs komma i år men lyser med sin frånvaro.

Sanningen är att AMDs kort har bättre stöd för Async computing än nVidia och jag tror nästa generationer kort kommer ha ett betydligt bättre DX12 stöd. Endast nVidias GM2xx serie har fullt DX12 stöd idag.

http://www.extremetech.com/extreme/207598-demystifying-direct...

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Entusiast
Skrivet av dunis90:

HD2000-6000-serien (exklusive HD 6900) hade dock också samma arkitektur, VLIW 5, men ändå förpassades HD2000-4000 till Legacy medan 5000-6000 fick fortsatt stöd. Det var fyra år efter att HD 4000 släpptes och det såldes fortfarande bärbara datorer med dessa kretsar.
AMDs Richland är bara två år gammal och har nu inget stöd längre.

AMDs DX9-kort ska tydligen också ha använt en VLIW-arkitektur, men X1900-serien flyttades till Legacy redan tre år efter att det släpptes.

HD2000-HD4000 körde TeraScale, HD5000 körde TeraScale 2 (VLIW5) och HD6000 körde en blandning av TeraScale 3 (VLIW4). TeraScale 2 införde bland annat stöd för DX11. Därför drog de en gräns där mellajn 4000 och 5000. Det var inte exakt samma hela vägen.

Anledningen till att en två år gammal APU nu tappar stöd är för att den bygger på VLIW. Om de skulle hålla på att fortsätta optimera för APUer baserat på TeraScale 3 kunde de ju lika gärna fortsätta stödja även dGPU med TeraScale. Det är inte rakt av ålder som avgör var brytpunkterna hamnar. Det är hur arkitekturerna ser ut.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av anon5930:

Bra att Nvidia ger något slags DX12-stöd till dessa gamla serier såklart men frågan som uppstår är just varför. De är för daterade även dessa.

Nvidia vet mycket väl vad Fermi är kapabel till och vilket åtagande det är att ge DX12-stöd åt arkitekturen. Om det inte fanns någon nytta hade Nvidia helt enkelt inte lovat DX12-stöd.
Antingen tror Nvidia att Fermi klarar minimikraven för kommande DX12-spel eller att det är bra för företagets image, eller båda.

Permalänk
Avstängd
Skrivet av Ratatosk:

Nej de kommer inte att få DX12.
Helt otroligt vad länge HD 6950 har hängt med, jag köpte mitt November 2010 och det duger fortfarande att spela på, vem kunde trott detta för fem år sedan.
De som sitter med HD6950 eller HD6970, kan lugnt invänta Arctic Island eller Pascal som släpps nästa år, om de vill.

Tänkte samma jag med och rekommenderade ett HD6970 2gb versionen till min bror runt 2010/11 och han körde battlefield 4 och nu fallout 4 som funkar helt ok ändå med skapliga settings och är nog ett av dom prisvärdaste korten ever

Visa signatur

i3 6100 - MSI b150m pro-vd - 8gb 2133 ddr4 - GTX 950 GAMING 2G - z400s 120gb ssd - 1tb WD blue - Corsair 500w

Permalänk
Medlem

Köpte en gång top of line kortet för många tusenlappar, ett 6970 som min lille son nu spelar med. LEGO superheroes och annnat. Och min dotter har ett 6870 för att spela SIMS4 och andra spel. Alla som kan något vet att de gör detta för att få bort kort som fortfarande kan användas av vissa målgrupper. Att ändra drivrutiner är inte så svårt, jag har själv arbetet med det. Så det är ett dåligt skäl att sopa bort 6000-serien som såldes för bara 3-4 år sen. Även om vissa nya hårdvarufunktioner inte supporteras så tar ju DX12 hand om det mjukvarumässigt. Så var det iaf i DX9.

Nej, det blir ett skäl till att satsa på Nvidia nästa gång.

Permalänk
Inaktiv
Skrivet av dunis90:

Nvidia vet mycket väl vad Fermi är kapabel till och vilket åtagande det är att ge DX12-stöd åt arkitekturen. Om det inte fanns någon nytta hade Nvidia helt enkelt inte lovat DX12-stöd.
Antingen tror Nvidia att Fermi klarar minimikraven för kommande DX12-spel eller att det är bra för företagets image, eller båda.

Jag tvivlar på att dessa kort kommer gynnas speciellt mycket om DX12-stödet verkligen släpps för dessa (det är väl inte ute i dagsläget?). Men det lär nog se bra ut om man kör dxdiag antar jag.

Problemet med dessa kort är att de just är för daterade för att ha någon direkt chans idag. När det är Feature level 11_0 som verkar vara aktuellt så är det troligen mest bara smink. Men visst, bra om Nvidia ändå tycker det är värt att lägga ner tid på, även om det mest känns som ett PR-drag.

Permalänk
Medlem
Skrivet av anon5930:

Jag tvivlar på att dessa kort kommer gynnas speciellt mycket om DX12-stödet verkligen släpps för dessa (det är väl inte ute i dagsläget?). Men det lär nog se bra ut om man kör dxdiag antar jag.

Problemet med dessa kort är att de just är för daterade för att ha någon direkt chans idag. När det är Feature level 11_0 som verkar vara aktuellt så är det troligen mest bara smink. Men visst, bra om Nvidia ändå tycker det är värt att lägga ner tid på, även om det mest känns som ett PR-drag.

Alla av Nvidias kort förutom Maxwell 2 är väl DX12 feature level 11_0?

Vad gäller användningen av DX12 är det ju även så att ju fler kort som stöder det, desto bättre är det. Även om Fermi begränsas till lägsta inställningarna kan studior använda DX12 och få stöd för hårdvara fem år bakåt i tiden.

Permalänk
Medlem
Skrivet av Gtoxed:

tråkigt.. amd e antingen lata eller för mycket jobb o koda drivrutiner rätt åt spelen nuförtiden.

Har du ett grafikkort som blir påverkat av detta eller? Om du har det kan jag förstå din negativitet.

Om du inte blir påverkad av detta borde du precis som jag hoppa av glädje. AMD gör förmodligen ett klokt val av att spara in på behövda resurser.

Visa signatur

| Fractal Design R4 White | Intel I5 6600k@4Ghz| Asus Z170-A | MSI GTX 970 @1425Mhz | Corsair 16GB DDR4 2133mhz | Samsung 840 250GB | Corsair 650Watt nätagg |

https://soundcloud.com/symbolofficial

Permalänk
Avstängd
Skrivet av Gtoxed:

tråkigt.. amd e antingen lata eller för mycket jobb o koda drivrutiner rätt åt spelen nuförtiden.

Med tanke på att du bara använder nvidia kort så förstår jag inte varför du har problem med det här beslutet som bara gäller AMD kort?

Visa signatur

Asus Z97M-plus | i7 4790k @4.8Ghz | Aorus 1080Ti | FD Integra M 750W | Vengence 2x8 GB Ram | FD Define Mini C | Evo 850 500GB | Intel 750 1.2TB | AOC AG271QG

Permalänk
Quizmaster Malmö 22

Förståeligt. Kan inte stödja 5år gamla grejer hur länge som helst. Nånstans måste gränsen sättas.
Hade Nvidia slutat ge mitt GTX 570 uppdateringar nästa år så accepterar jag det. Var dags att uppgradera för minst ett år sen ändå.

Ända gången jag hade stört mig på det hade varit om nåt indiespel som knappt kräver nåt knappt hade funkat.

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Medlem
Skrivet av soderkvist:

Nej det var ju fermi som stod mot 5xxx-serien.

Skickades från m.sweclockers.com

Nu gick jag bara efter ungefärligt releasedatum, 2009-2010 var när båda familjerna lanserades.
HD 5000 i september 2009
GeForce 300 i november 2009
GeForce 400 i april 2010
HD 6000 i oktober 2010
GeForce 500 i november 2010

På det sättet kanske det är mer rätt att säga att Radeon HD 5000/6000 är jämngammalt med GeForce 200(GT200, ej G92)/300/400/500.

NVIDIA var ju mitt i sitt egna rebrandingrace när HD 5000 lanserades så det är lite knepigt att isolera generationerna. Jag kommer dock ihåg hur jag 2009 körde både Palit GTX 275 och Sapphire HD 5850 så jag skulle definitivt säga att de såldes samtidigt . Båda ansågs för övrigt vara högprestandakort och kostade ca 3000 kr vardera. Man kan nog säga att 2009 gjorde väldigt ont i plånboken.

Skrivet av ArcticFire:

Geforce 400/500-serien tävlade mot Radeon HD 5000/6000-serien.

Ska man tro Phoronix är prestandan med AMD-kort i Linux usel.

Några månader gammalt:
http://www.phoronix.com/scan.php?page=article&item=amd-r9-fur...
http://www.phoronix.com/scan.php?page=article&item=nv-gtx950-...
http://www.phoronix.com/scan.php?page=article&item=1080p-b-va... 950 vinner mot Fury...

Såklart, nu jämför du äpplen och päron. Fury använder AMDGPU som drivrutin medan HD 2000/3000/4000/5000/6000 använder R600g, där den senare presterar mycket bättre i förhållande till hårdvaran. AMDGPU ser lovande ut men är inte riktigt där än.

Trots att det inte riktigt är helt relevant här vill jag ändå slå ett slag för RadeonSI (GCN), som i enstaka fall presterar bättre än Catalyst. Riktigt bra jobbat av Linux-utvecklarna.

Skrivet av MarkSix:

Amd's 5000 Serie är jämn gammal med Fermi dvs. Nvidias 400 serie.

Inte riktigt, se svar ovan.

Visa signatur

Mjölnir: Ryzen 9 3900X | X570-I | Ballistix Sport 32GB | Powercolor RX 5500XT 4GB ITX | Kolink Sattelite
Server: Ryzen 5 1400 | X470-F | Ballistix Sport 24GB | ASUS HD 7790 2GB | Sapphire RX 470 8GB ME | NZXT Switch 810

Permalänk
Medlem
Skrivet av Wastaah:

Om du sitter på ett 5 år gammalt grafikkort, har du ens något behov av nya grafikdrivrutiner? Inte så att du kommer ladda hem witcher 3 på det endå. Enda jag kan tänka mig är om det skulle dyka upp en allvarlig bugg, men oddsen att det dyker upp nått nytt efter 5år är minimal.

5 år idag är ju inte alls som 5 år gammalt för 10 år sedan. Satt man år 2005 på ett 5 år gammalt grafikkort befann man sig i en helt annan tidsålder.

Hade man år 2000 ett 5 år gammalt grafikkort så… hade man ingen 3D-accelerering

Utvecklingen har saktat in, eller snarare är de upplevda framstegen väsentligt mycket mindre. Att gå från 1000 till 10 000 polygoner gör en enorm skillnad, medan 10 000 till 1 miljon ändå inte ger så stor skillnad fastän det första steget är 10ggr mer och det andra är 100ggr mer. De första stegen är alltid "störst".

Skrivet av RaBlack:

Håller med dig.
Saken är den bara, vad kommer AMD satsa på istället?
Vad kommer deras äldre kunder köpa istället som inte är nöjda med AMD och t.ex. detta beslut?
AMD kan inte överleva bara på deras märkestrogna kunder... De måste utveckla något i stil med Nvidia. Få fler att välja deras produkter så att AMD blir det de var en gång i tiden. CPU sidan borde utvecklas mer så de kan ta upp striden och kampen med Intel igen. GPU sidan har de inte lyckats med och förlorat starkt mot Nvidia... där bör de satsa mer också. Idagsläget har de en mycket lång uppförsbacke framför sig. Hoppas nu att de gör något som får folk att välja dem, inte bara för man tycker synd om dem, utan för att de kan påvisa att de sitter med suveräna "marknadsförare", ingenjörer och teknik m.m.
Jag tror många idag tänker att AMD är ett andrahands alternativ ifall inte pengarna räcker till.

AMD Arctic islands respektive Zen är på gång och ska komma nästa år
På GPU-sidan har de lyckats bra med korten, dock inte med marknadsföringen. Men det är heller inte så lätt när Nvidias kunder gladeligen blir fistade.

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Medlem
Skrivet av Djhg2000:

Nu gick jag bara efter ungefärligt releasedatum, 2009-2010 var när båda familjerna lanserades.
HD 5000 i september 2009
GeForce 300 i november 2009
GeForce 400 i april 2010

Du har dock missat att 300 var en skippad generation, och att inga "vanliga" kort någonsin släpptes under den serien. Endast low-end rebrand-kretsar för OEM system.

Permalänk
Avstängd
Skrivet av Djhg2000:

Nu gick jag bara efter ungefärligt releasedatum, 2009-2010 var när båda familjerna lanserades.
HD 5000 i september 2009
GeForce 300 i november 2009
GeForce 400 i april 2010
HD 6000 i oktober 2010
GeForce 500 i november 2010

På det sättet kanske det är mer rätt att säga att Radeon HD 5000/6000 är jämngammalt med GeForce 200(GT200, ej G92)/300/400/500.

NVIDIA var ju mitt i sitt egna rebrandingrace när HD 5000 lanserades så det är lite knepigt att isolera generationerna. Jag kommer dock ihåg hur jag 2009 körde både Palit GTX 275 och Sapphire HD 5850 så jag skulle definitivt säga att de såldes samtidigt . Båda ansågs för övrigt vara högprestandakort och kostade ca 3000 kr vardera. Man kan nog säga att 2009 gjorde väldigt ont i plånboken.

Nvidia var väldigt sen på ett svar på AMDs 58xx serie så AMD hade ingen konkurrens tills Nvidia släppte 400 serien.

Visa signatur

Asus Z97M-plus | i7 4790k @4.8Ghz | Aorus 1080Ti | FD Integra M 750W | Vengence 2x8 GB Ram | FD Define Mini C | Evo 850 500GB | Intel 750 1.2TB | AOC AG271QG

Permalänk
Medlem
Skrivet av eXale:

Du har dock missat att 300 var en skippad generation, och att inga "vanliga" kort någonsin släpptes under den serien. Endast low-end rebrand-kretsar för OEM system.

Men det släpptes ju low-end HD 5000 också. GeForce 300 får väl ändå ses som ett snabbt svar på de korten?

Skrivet av kaya:

Nvidia var väldigt sen på ett svar på AMDs 58xx serie så AMD hade ingen konkurrens tills Nvidia släppte 400 serien.

http://images.anandtech.com/graphs/rv870_092209122344/20106.png

Därav rättelsen "På det sättet kanske det är mer rätt att säga att Radeon HD 5000/6000 är jämngammalt med GeForce 200(GT200, ej G92)/300/400/500". Men då kanske man även ska inkludera HD 4000 och tidiga GeForce 200? GeForce 200 är en väldigt stor och rörig generation...

Skickades från m.sweclockers.com

Glömde tidiga GeForce 200
Visa signatur

Mjölnir: Ryzen 9 3900X | X570-I | Ballistix Sport 32GB | Powercolor RX 5500XT 4GB ITX | Kolink Sattelite
Server: Ryzen 5 1400 | X470-F | Ballistix Sport 24GB | ASUS HD 7790 2GB | Sapphire RX 470 8GB ME | NZXT Switch 810

Permalänk
Entusiast
Skrivet av Djhg2000:

Men det släpptes ju low-end HD 5000 också. GeForce 300 får väl ändå ses som ett snabbt svar på de korten?

Därav rättelsen "På det sättet kanske det är mer rätt att säga att Radeon HD 5000/6000 är jämngammalt med GeForce 200(GT200, ej G92)/300/400/500". Men då kanske man även ska inkludera HD 4000 och tidiga GeForce 200? GeForce 200 är en väldigt stor och rörig generation...

Skickades från m.sweclockers.com

Nja Geforce 300 var enbart omnamnade 200-serien för OEM. De såldes aldrig direkt och den typen av manövrar gör Nvidia och AMD enbart för att OEM vill ha lite högre siffror i sina specifikationer. 400 serien blev försenad med typ ett halvår och när den kom hade den en hel del problem. Nvidia hade visst designat en lite för stor och komplicerad krets i förhållande till dåvarande tillverkningstekniker. Hur som helst var 300 aldrig ett direkt svar på 5000 utan det var bara ett sätt att få sålt lite fler enkla GPUer till OEM. Så det var mer en reaktion på att 400 var försenad än något svar på 5000.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Hjälpsam
Skrivet av Djhg2000:

Nu gick jag bara efter ungefärligt releasedatum, 2009-2010 var när båda familjerna lanserades.
HD 5000 i september 2009
GeForce 300 i november 2009
GeForce 400 i april 2010
HD 6000 i oktober 2010
GeForce 500 i november 2010

På det sättet kanske det är mer rätt att säga att Radeon HD 5000/6000 är jämngammalt med GeForce 200(GT200, ej G92)/300/400/500.

NVIDIA var ju mitt i sitt egna rebrandingrace när HD 5000 lanserades så det är lite knepigt att isolera generationerna. Jag kommer dock ihåg hur jag 2009 körde både Palit GTX 275 och Sapphire HD 5850 så jag skulle definitivt säga att de såldes samtidigt . Båda ansågs för övrigt vara högprestandakort och kostade ca 3000 kr vardera. Man kan nog säga att 2009 gjorde väldigt ont i plånboken.

Såklart, nu jämför du äpplen och päron. Fury använder AMDGPU som drivrutin medan HD 2000/3000/4000/5000/6000 använder R600g, där den senare presterar mycket bättre i förhållande till hårdvaran. AMDGPU ser lovande ut men är inte riktigt där än.

Trots att det inte riktigt är helt relevant här vill jag ändå slå ett slag för RadeonSI (GCN), som i enstaka fall presterar bättre än Catalyst. Riktigt bra jobbat av Linux-utvecklarna.

Inte riktigt, se svar ovan.

Geforce 400 Wooden Screw Edition lanserades redan September 2009, den skarpa versionen lanserades March/April.

Alla som funderade på att köpa ett HD5000 fick höra att det är nog bättre att vänta och köpa ett Fermi som lanseras, "under hösten->i god tid innan Jul->till Jul->i början på det nya året->innan vår->till våren".

Nvidia behöver ingen marknadsföring, inte med så många gratis marknadsförare de har runt om på forumen.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Zotamedu:

Nja Geforce 300 var enbart omnamnade 200-serien för OEM. De såldes aldrig direkt och den typen av manövrar gör Nvidia och AMD enbart för att OEM vill ha lite högre siffror i sina specifikationer. 400 serien blev försenad med typ ett halvår och när den kom hade den en hel del problem. Nvidia hade visst designat en lite för stor och komplicerad krets i förhållande till dåvarande tillverkningstekniker. Hur som helst var 300 aldrig ett direkt svar på 5000 utan det var bara ett sätt att få sålt lite fler enkla GPUer till OEM. Så det var mer en reaktion på att 400 var försenad än något svar på 5000.

Men då är vi väl ändå överens om att GeForce 200/300 såldes samtidigt som HD 5000? Kan gå med på att NVIDIA inte ville konkurrera med GeForce 200/300 mot HD 5000 men under halva livslängden av HD 5000 hade de inget bättre. Att de valde att byta namn på 200 till 300 för att se bättre ut kan ju inte gärna ha varit annat än för att kontra HD 5000 (precis som AMD valde att byta namn på HD 7000 till HD 8000).

HD 6000 och GeForce 400/500 var dock definitivt direkta konkurrenter, även om HD 6000 bara var en liten förbättring över HD 5000.

Skickades från m.sweclockers.com

Visa signatur

Mjölnir: Ryzen 9 3900X | X570-I | Ballistix Sport 32GB | Powercolor RX 5500XT 4GB ITX | Kolink Sattelite
Server: Ryzen 5 1400 | X470-F | Ballistix Sport 24GB | ASUS HD 7790 2GB | Sapphire RX 470 8GB ME | NZXT Switch 810

Permalänk
Medlem
Skrivet av Ratatosk:

Geforce 400 Wooden Screw Edition lanserades redan September 2009, den skarpa versionen lanserades March/April.

Alla som funderade på att köpa ett HD5000 fick höra att det är nog bättre att vänta och köpa ett Fermi som lanseras, "under hösten->i god tid innan Jul->till Jul->i början på det nya året->innan vår->till våren".

Nvidia behöver ingen marknadsföring, inte med så många gratis marknadsförare de har runt om på forumen.

Ja just det ja, träskruvsfiaskot hade jag glömt bort . Räknar man den som en seriös produkt har du helt rätt i att GeForce 400 lanserades nästan samtidigt som HD 5000.

Skickades från m.sweclockers.com

Visa signatur

Mjölnir: Ryzen 9 3900X | X570-I | Ballistix Sport 32GB | Powercolor RX 5500XT 4GB ITX | Kolink Sattelite
Server: Ryzen 5 1400 | X470-F | Ballistix Sport 24GB | ASUS HD 7790 2GB | Sapphire RX 470 8GB ME | NZXT Switch 810

Permalänk
Medlem
Skrivet av Djhg2000:

Ja just det ja, träskruvsfiaskot hade jag glömt bort . Räknar man den som en seriös produkt har du helt rätt i att GeForce 400 lanserades nästan samtidigt som HD 5000.

Skickades från m.sweclockers.com

Nvidia 200 serie lanserades ju 2008 med GTX280 och GTX260, 300 serien är ju en ren rebrand så den räknas inte.
och 400 serien matchade ju nästan inte 5000 serien förutom stekpannan GTX480

Permalänk
Entusiast
Skrivet av Djhg2000:

Men då är vi väl ändå överens om att GeForce 200/300 såldes samtidigt som HD 5000? Kan gå med på att NVIDIA inte ville konkurrera med GeForce 200/300 mot HD 5000 men under halva livslängden av HD 5000 hade de inget bättre. Att de valde att byta namn på 200 till 300 för att se bättre ut kan ju inte gärna ha varit annat än för att kontra HD 5000 (precis som AMD valde att byta namn på HD 7000 till HD 8000).

HD 6000 och GeForce 400/500 var dock definitivt direkta konkurrenter, även om HD 6000 bara var en liten förbättring över HD 5000.

Skickades från m.sweclockers.com

Såldes samtidigt som och var tänkt att konkurrera med är två helt olika saker. 300-serien var inte ett svar på 5000 serien. Det var bara för att OEM krävde det.

OEM släpper nya laptopar ungefär en gång om året. De vill inte släppa en ny modell med samma hårdvara som förra året. Därför petar de på AMD och Nvidia och ber dem att lösa något nytt. Finns det inga nya GPUer så släpper de en ny serie med gamla GPUer där bara namnet är nytt. En viktig ledtråd som du verkar ignorera är att de enbart släpptes till OEM. Om Nvidia nu ville slänga ut något för att svara mot 5000-serien hade de släppt den på konsumentmarknaden också. Så var inte fallet.

De hade antagligen bytt namn till 300 serien oavsett vad AMD höll på med för det var inte AMDs fel att 400-serien var försenad. Hade Nvidia haft 400-serien ute i tid hade de inte behövt släppa en 300-serie.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk

Hoppas jag kan fiska upp ett 970 imorgon då. Var ändå dags att uppgradera.

Visa signatur

Main: R9 390 Nitro, 4690K @ 4 GHZ, NH-U12P SE2, Corsair 8GB 1600MHz, Gigabyte Z97X Gaming 3, Fractal Design Define S, 1 TB, Fractal Design 650W, samsung 840 evo 120gb, windows 10
Equipment: Benq xl2411t Tesoro durandal ultimate G1NL, steelseries rival, Qpad qh 90.

Permalänk
Medlem
Skrivet av Zotamedu:

Såldes samtidigt som och var tänkt att konkurrera med är två helt olika saker. 300-serien var inte ett svar på 5000 serien. Det var bara för att OEM krävde det.

Absolut, men nu försöker jag ju jämföra åldern på korten, inte prestanda.

Skrivet av Zotamedu:

OEM släpper nya laptopar ungefär en gång om året. De vill inte släppa en ny modell med samma hårdvara som förra året. Därför petar de på AMD och Nvidia och ber dem att lösa något nytt. Finns det inga nya GPUer så släpper de en ny serie med gamla GPUer där bara namnet är nytt. En viktig ledtråd som du verkar ignorera är att de enbart släpptes till OEM. Om Nvidia nu ville slänga ut något för att svara mot 5000-serien hade de släppt den på konsumentmarknaden också. Så var inte fallet.

Fullt medveten om detta och har tidigare sagt att AMD gjorde samma sak med HD 8000.

Skrivet av Zotamedu:

De hade antagligen bytt namn till 300 serien oavsett vad AMD höll på med för det var inte AMDs fel att 400-serien var försenad. Hade Nvidia haft 400-serien ute i tid hade de inte behövt släppa en 300-serie.

Åter igen är det enbart ålder jag vill jämföra, till skillnad mot prestanda som är en helt annan femma.

Typo, 8000 blev 7000
Visa signatur

Mjölnir: Ryzen 9 3900X | X570-I | Ballistix Sport 32GB | Powercolor RX 5500XT 4GB ITX | Kolink Sattelite
Server: Ryzen 5 1400 | X470-F | Ballistix Sport 24GB | ASUS HD 7790 2GB | Sapphire RX 470 8GB ME | NZXT Switch 810