Allt från Computex 2023

AMD presenterar Radeon R9 Fury X, R9 Fury och minstingen R9 Nano

Permalänk
Skrivet av Ase:

Roligt att folk tror det är AMD som har hittat på HBM minnen ,det är hynix som har skapat minnena
(om det inte är flera minnestillverkare som skapat den standarden ihop)
som AMD använder inte AMD s påhitt, var samma med Gddr1 -5 e samma med vanliga ddr 1-5.
Minnestillverkarna deras utvecklingsavdelningar & var säkert några på nåt universitet som bidragit oxå. Känns inte särskilt konstigt att folk kallas fanboys.

P.S däremot så var AMD först med att sälja (eller blir för konsumentmarknaden) Grafikkort med HBM minnen implementerad i deras grafikkrets.
Som att säga att min dator är en intel dator bara för att den har en intel processor den består av många komponenter tillverkade av många olika företag.

P.S Hade fel där tydligen, så var det Hynix i samarbete med AMD som gemensamt tagit fram denna standard.

Alla kan göra fel Ja AMD och Hynix lyckades bättre än Micron/nvidia samarbetet (försökte Nvidia köra inlåsningsmetoden så det slog slint tro ). trots alla F***Y säger att nvidia lyckas bättre än amd. Lite ironiskt i alla fall.

Tror faktiskt mycket av själva cpu:n görs av intel själv (kanske inte allt men mycket), har ju egna fabriker som tillverkar cpu:erna så

Skrivet av Ase:

Som jag fattat det med DX12 så finns det sen ingen anledning med sli eller crossfire utan varje komponent ska ses som en enskild resurs. i nya spel som har kod skrivit för detta (jag kan ha missuppfattat detta, men hoppas gör jag.)

Precis låter som något jag hört med, men äldre titlar och såna som kommer utan DX12 eller dåligt DX 12 stöd kommer så klart behöva profiler. AMD har ju tyvärr bestämt att dom ska ligga i programvaran och inte bredvid (körde det bredvid förr, kanske blir stabilare och bättre att köra allt i samma paket och behöver inte anpassa sig till äldre drivers också troligen).

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Yoshman:

R300 må ha varit det första kortet som hade stöd för DX9 och unified shaders, men det var DX8 som först möjliggjorde att kunna köra program per vertex/pixel och Nvidia lanserade GeForce3-serien runt ett halvår innan R200-serien som båda var första generation att stödja detta. R100 hade visst stöd för detta, men det användes aldrig då det inte var kompatibelt med DX8 modellen (har haft Radeon 7200, 8500 och 9800Pro, tror 9800Pro ligger kvar i källaren än ).

Nvidia var med bred marginal först med T&L i HW (GeForce256) i konsumentkort.

Nvidia var först med en design (skalära beräkningsenheter) som lämpar sig för GPGPU (Fermi, CGN1.0 för AMD), det trots att det känns som AMD är de som pratat mest om detta. Man var också den som gjorde att GPGPU realiserades i praktiken med SDK för CUDA.

Nvidia var också först att visa upp en fungerande "low-overhead" API (i form av en Nvidia-specifik utökning till OpenGL), något man hade på plats innan AMD ens avslöjade att Mantel existerade. Uppmärksammades bl.a. av John Carmack

Så det är definitivt fullt möjligt att hitta saker som både Nvidia och AMD varit först med, upp till var och en hur man värderar varje ny teknik.

Man kan passa på att tillägga att Nvidias uppsving i teknikkunnande/utveckling i stor del berodde på ingenjörer som flydde från SGI, i vilken utsträckning kan man diskutera, men det var en hel del teknikutbyte som gick till Nvidias fördel (GeForce256 som tidigaste exemplet) plus att de (ingenjörerna) nu plötsligt hade en budget de inte haft på väldigt länge i det blödande och en gång så extremt tekniskt framgångsrika Silicon Graphics.

ATI fick sin injektion när de köpte upp ArtX, varav dessa direkt bidrog till utvecklingen av R300. För de som inte vet så är ArtX utbrytare från Silicon Graphics också. ArtX var före detta ingenjörer som utvecklade Nintendo 64ans hårdvara när de jobbade hos SGI och senare startade ArtX och sedan även gjorde grafikdelen till Nintendos GameCube. ArtX blev uppköpta under det tidsspannet, det är därför senare GameCubes även har ett ATI klistermärke på sig.

Så sett ur det perspektivet så finns Silicons Graphics DNA i både Nvidia och AMD grafik idag i sin "renaste" form. Hos SGI, på grund av en helt korkad och extremt girig ledning, så fanns inte teknikutvecklingen kvar efter typ 98-99 (enligt vissa ännu tidigare). Även om de gjorde några riktigt coola försök med exempelvis deras Onyx4 Ultimate vision system. Ironiskt nog så utvecklade de inte grafiken själva längre, utan använde sig av ATI baserade lösningar. Tyvärr så nådde den aldrig sina teoretiska nivåer pga av "drivers". Men 4 miljarder polygoner per sekund teoretiskt prestanda var inte fy skam, och detta för över 10 år sedan. Dock var Onyx4an den mest hatade och sämsta av de initierade. SGI var slut och andades med konstgjord andning. Sorgligt kapitel på ett företag som tog fram så mycket extremt coola designer.

Så som en gammal SGI-räv som jag, så uppskattar jag både Nvidia och AMD (ATI delen då, om det går säga så längre) väldigt mycket. Synd att vi aldrig fick Irix konverterad till andra plattformar, det saknar jag mest. Dock har det gjort att vi har en enorm teknikutveckling som blivit tillgänglig till gemene Man/Kvinna. Ibland fnissar jag lite smått när folk klagar på dagens priser, tur ni inte jobbade i branschen när SGI regerade över den 3D accelererade världen Sett ur det perspektivet var GeForce256 en revolution, när jag tänker efter.

Ja, jag vet, jag är gammal

Visa signatur

Ride more, Work less!

Permalänk
Datavetare
Skrivet av sgtprobe:

Så som en gammal SGI-räv som jag, så uppskattar jag både Nvidia och AMD (ATI delen då, om det går säga så längre) väldigt mycket. Synd att vi aldrig fick Irix konverterad till andra plattformar, det saknar jag mest. Dock har det gjort att vi har en enorm teknikutveckling som blivit tillgänglig till gemene Man/Kvinna. Ibland fnissar jag lite smått när folk klagar på dagens priser, tur ni inte jobbade i branschen när SGI regerade över den 3D accelererade världen Sett ur det perspektivet var GeForce256 en revolution, när jag tänker efter.

Ja, jag vet, jag är gammal

Hade möjlighet att välja mellan en Indy workstation och ett DEC Alpha 21164 system under mitt examensjobb på KTH (ja, är i princip lika gammal som du). 3D-delen (OpenGL) i det program jag utvecklade var inte tillräckligt avancerat för att det skulle vara värt att använda Indy-maskinen över Alpha 21164, den förra hade rejält mycket bättre tryck i grafikdelen men den stackars MIPS-baserade CPU hade inget att sätta emot Alpha 21164 och programmet utförde väldigt mycket flyttalsberäkningar (kvantkemi). Alphan fick även min dåvarande AMD K6-2 på 400MHz kännas lite som en brödrost...

Köpte GeForce256 direkt vid lansering, det var ett dåligt beslut då det var relativt dyrt och kortet var extremt begränsat av SDRAM. Kom ganska snabbt en version med DDR minne som var rejält mycket snabbare. Det är nackdelen att köpa något som innehåller väldigt ny teknik, man skaffar i princip en avgiftsbelagd beta...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Master of Overkill
Skrivet av Tumnus:

Tåls att nämnas att än idag så fungerar Nvidia surround inte i närheten av lika bra som Eyefinity.

Antar du kör det om du utalar dig om det.

Surround 3x Swift G-SYNC i surround funkar helt GALET bra.

Typ inga problem what so ever.

Visa signatur

CASE Caselabs SMA8 + SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones GSP 670 + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av Spruce89:

Angående AMDs kommande dubbelgpu med Fiji, hur hanterar AMD crossfire? Misstänker att det är som med SLI att det krävs någon typ av profil, är inte detta problematiskt då AMD har varit lite sparsamma med drivrutiner senaste året?

Hur lång tid efter att en titel släppts brukar man behöva vänta innan man kan köra med CF?
AMDs singelkort ser ju ut att klara sig bra utan konstanta drivrutiner, men jag misstänker att det inte är samma sak för de som har crossfire.

Har fungerat väldigt bra senaste åren.
Ett spel CF inte fungerade i vad jag minns, är ESO. Fast det berodde på att det inte gick att köra i riktig full screen. Alltså bethesda som klantade sig. Behövs det så släpps ofta en beta driver som fixar eventuella fel.

Visa signatur

| Fractal Design Define Mini C | MSI Z490M MPG GAMING EDGE | Corsair RM750X 750W v2 | Intel Core i5 10600K |
|GIGABYTE RTX 3070 AORUS Master |Corsair 32GB DDR4 3200MHz CL16 |
| Asus Strix Raid DLX | Acer 27" Predator XB271HK G-Sync 4K IPS | Tobii 4C |
| LG OLED55B6V | nVidia Shield V2 |

Permalänk
Avstängd
Skrivet av Ase:

Roligt att folk tror det är AMD som har hittat på HBM minnen ,det är hynix som har skapat minnena
(om det inte är flera minnestillverkare som skapat den standarden ihop)
som AMD använder inte AMD s påhitt, var samma med Gddr1 -5 e samma med vanliga ddr 1-5.
Minnestillverkarna deras utvecklingsavdelningar & var säkert några på nåt universitet som bidragit oxå. Känns inte särskilt konstigt att folk kallas fanboys.

P.S däremot så var AMD först med att sälja (eller blir för konsumentmarknaden) Grafikkort med HBM minnen implementerad i deras grafikkrets.
Som att säga att min dator är en intel dator bara för att den har en intel processor den består av många komponenter tillverkade av många olika företag.

P.S Hade fel där tydligen, så var det Hynix i samarbete med AMD som gemensamt tagit fram denna standard.

Vad trevligt att du tolkade folks uttalande på det sättet.. Ingenstans säger folk att AMD kom på HBM utan de säger (och med rätta) att AMD var först ut med tekniken på sina kort. Nvidia valde att satsa halvdant på en liknande teknik.

Skrivet av tvelander:

Antar du kör det om du utalar dig om det.

Surround 3x Swift G-SYNC i surround funkar helt GALET bra.

Typ inga problem what so ever.

Faktiskt. Har haft en hel del problem med Surround bland annat så vägrar skiten sluta slänga upp svarta kanter på varje skärm.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Medlem
Skrivet av Yoshman:

Hade möjlighet att välja mellan en Indy workstation och ett DEC Alpha 21164 system under mitt examensjobb på KTH (ja, är i princip lika gammal som du). 3D-delen (OpenGL) i det program jag utvecklade var inte tillräckligt avancerat för att det skulle vara värt att använda Indy-maskinen över Alpha 21164, den förra hade rejält mycket bättre tryck i grafikdelen men den stackars MIPS-baserade CPU hade inget att sätta emot Alpha 21164 och programmet utförde väldigt mycket flyttalsberäkningar (kvantkemi). Alphan fick även min dåvarande AMD K6-2 på 400MHz kännas lite som en brödrost...

Köpte GeForce256 direkt vid lansering, det var ett dåligt beslut då det var relativt dyrt och kortet var extremt begränsat av SDRAM. Kom ganska snabbt en version med DDR minne som var rejält mycket snabbare. Det är nackdelen att köpa något som innehåller väldigt ny teknik, man skaffar i princip en avgiftsbelagd beta...

Haha, ja, 21164 är ju en legend Stackars indyn körde ju bara med Mips R4000/4400/4600 CPUer. R4000 och R4600 fanns ju i både sc/pc versioner, varav pc versionerna var riktigt trötta, fast R4600 var riktigt trött rakt igenom. Dock kom en variant med R5000 i slutet också, vilken var betydligt piggare på flyttal (ordentligt också, den kunde transformera geometri snabbare än de dedikerade 4 "geometry engines" som fanns på XZ grafiken). Så beroende på vilken grafik du hade i Indyn så är det faktiskt inte säkert att Alphan var så mycket sämre på grafik egentligen.

Har en Indigo2a med en 250MHz R4400sc CPU stående här också, riktigt bra fart på den faktiskt! Ah, just det, har en Indy med en 150MHz R4400sc också kom jag på, är dock tröttare än vad tappet i MHz beror på. Dock är de ju hopplöst efter Mips lite senare R10k arkitektur, vilket du nog hade uppskattat en hel del på den tiden.

Du hade ju även Mips R8k som är riktigt häftig, värdelös på integer med brutal på flyttal. Tyvärr är de svåra att få tag på idag, extremt ömtåliga har det visat sig. Har sökt men inte lyckats få tag på någon inom rimlig prisklass.

Skönt att inte vara ensam gammal räv på forumen. Alltid uppskattat dina givande/sakliga inlägg också. Tack för dem, lär sig alltid något nytt

Edit/
Ja, jag gjorde samma misstag med GeForce256, dock bytte jag upp mig ganska snabbt

Edit2/
Kom dock på att R5000 inte var så bra på DP flyttal dock, men den var riktigt snabb på SP. Men det var så länge sedan att jag knappt kommer ihåg det där exakt. Även om R10k och senare var betydligt snabbare på både SP och DP så vet jag inte om de någonsin slog 21264 i absolut prestanda. Var mycket snack om det där på den tiden, men 21164 höll mot länge kom jag ihåg, innan den ersattes av 21264. Dock slog väl HP dem båda senare med sin PA 8000 serie vill jag minnas. Äh, jag blir lite nostalgisk och babblar för mycket.

la till mer text
Visa signatur

Ride more, Work less!

Permalänk
Medlem
Skrivet av sgtprobe:

Ja, jag vet, jag är gammal

Jag ångrar fortfarande bittert att jag slet ut min oceanblåa SGI-tshirt på diverse LAN och liknande.

Permalänk
Medlem
Skrivet av Sveklockarn:

Jag ångrar fortfarande bittert att jag slet ut min oceanblåa SGI-tshirt på diverse LAN och liknande.

Naah! Var inte bitter, du använde den säkert på den tiden SGI var coola, hade nog själv gjort det samma. Fast nu kanske man skulle velat ha den på väggen i sitt kontor istället, bland sina maskiner och annat SGI swag

Visa signatur

Ride more, Work less!

Permalänk
Medlem
Skrivet av sgtprobe:

annat SGI swag

Tröjan var dessvärre min enda swag.

Permalänk
Medlem
Skrivet av Sveklockarn:

Tröjan var dessvärre min enda swag.

Nooooooooooooo! (Darth Vader style)

Fast i ärlighetens namn så har jag inget swag på kontoret ännu, ligger på vinden. Men i min tanke så är det där (Om jag får för min bättre hälft, vill säga) Hon är redan tillräckligt trött på alla mina burkar, så vill kanske inte utmana ödet för mycket.

Visa signatur

Ride more, Work less!

Permalänk
Medlem
Skrivet av Ase:

Som jag fattat det med DX12 så finns det sen ingen anledning med sli eller crossfire utan varje komponent ska ses som en enskild resurs. i nya spel som har kod skrivit för detta (jag kan ha missuppfattat detta, men hoppas gör jag.)

Jo, jag läste något liknande jag med. Frågan blir då om det här kommer fungera automatiskt med DX 12 eller om det kommer vara något som spelföretag får koda specifikt för. Om det blir det sistnämnda så blir ju då också frågan, hur mycket kodning/arbete denna funktion kommer kosta.

Folk med SLI/Crossfire system är ju en väldigt liten minoritet av de som spelar. Vi får hoppas på att det blir något som liknar kantutjämning, alltså en teknik som är lätt att applicera och kan bli lite av en standard.

Visa signatur

Rigg : Fractal Design Define S | ASUS Z170 PRO GAMING | Corsair 16GB (2x8GB) DDR4 3000Mhz CL15 Vengeance | 6700K 4.0 GHz 8MB |MSI GeForce GTX 1080 8GB Gaming X | EVGA Supernova G2 750W | OCZ TR150 480GB x2 |

Permalänk
Medlem
Visa signatur

Det var bättre förr
- Michael B. Tretow

Permalänk
Permalänk
Medlem
Skrivet av Ase:

Roligt att folk tror det är AMD som har hittat på HBM minnen ,det är hynix som har skapat minnena
(om det inte är flera minnestillverkare som skapat den standarden ihop)
som AMD använder inte AMD s påhitt, var samma med Gddr1 -5 e samma med vanliga ddr 1-5.
Minnestillverkarna deras utvecklingsavdelningar & var säkert några på nåt universitet som bidragit oxå. Känns inte särskilt konstigt att folk kallas fanboys.

P.S däremot så var AMD först med att sälja (eller blir för konsumentmarknaden) Grafikkort med HBM minnen implementerad i deras grafikkrets.
Som att säga att min dator är en intel dator bara för att den har en intel processor den består av många komponenter tillverkade av många olika företag.

P.S Hade fel där tydligen, så var det Hynix i samarbete med AMD som gemensamt tagit fram denna standard.

Det ursprungliga initiativet kommer dock från AMD och startade för ungefär 7 år sedan, dvs strax efter GDDR5 standarden var färdig.

http://techreport.com/review/28294/amd-high-bandwidth-memory-...

Utdrag ur artikeln.

"Fiji is a fitting companion for HBM since a team of engineers at AMD has once again helped lead the charge in its development. In fact, that team has been led by one of the very same engineers responsible for past GDDR standards, Joe Macri."

"Macri said the HBM development effort started inside of AMD seven years ago, so not long after GDDR5 was fully baked. He and his team were concerned about the growing proportion of the total PC power budget consumed by memory, and they suspected that memory power consumption would eventually become a limiting factor in overall performance."

"Making this sort of innovation happen was a broadly collaborative effort. AMD did much of the initial the heavy lifting, designing the interconnects, interposer, and the new DRAM type. Hynix partnered with AMD to produce the DRAM, and UMC manufactured the first interposers. JEDEC, the standards body charged with blessing new memory types, gave HBM the industry's blessing, which means this memory type should be widely supported by various interested firms. HBM made its way onto Nvidia's GPU roadmap some time ago, although it's essentially a generation behind AMD's first implementation."

Visa signatur

/havoc

Permalänk
Medlem
Skrivet av Tumnus:

Ja. Och den stämmer inte ens i närheten av mitt scenario. Den är antagligen tagen ur GTA Vs benchmark och den gissar ju hej vilt över mängden vram som behövs.

Njae... Tydligen ska det vara ett lite nedbantat kort (mindre streamprocessorer) i den luftkylda versionen.

Tråkigt att det är nedbantat (även om jag misstänkte det), hoppades på en luftkyld variant som skulle vara billigare.
Men men blir väl ett x i hopp om att det finns tredjepartblock där ute vid launch.

Skrivet av Dinoman:

Det kan samtidigt finns något att lära i det här och ta till sig för framtida spekulationer. Jag har ett litet tips, och det är att sätta en sned liten banner över nyheter, rykten, test m.m. Detta gör också att läsaren snabbt kan lokalisera vad det är i fråga som man klickar på. Det hjälper också att ännu tydligare klargöra att det handlar om rykten. Alla läser ju inte igenom era texter så noga tyvärr. Har gjort tre exempel på vad jag menar nedan.

http://i.imgur.com/uKwpOud.png

http://i.imgur.com/NxUuRUm.png

http://i.imgur.com/pb03knH.png

Mycket nice idee. Hoppas verkligen SweC-teamet funderar på det.

Skrivet av FlashTec:

Det speciella enligt mig är placeringen av rören som går till radiatorn, det är nog det som bland annat gör det attraktivt för mig

hehe Jo det är en riktigt intressant lösning och troligen en bra sådan då kortet ändå är så pass kort som det är. Blir väl bara längden på sland som avgör hur väl fungerande det är i praktiken antar jag.

Visa signatur

MediaCen= Playstation 4, Playstation 3, Xbox 360, Proj= Epson TW700, Projduk= Grandview Cyber 100" tab-tension, Receiver= Marantz SR-6005, Front= Jamo S708, Cen= Jamo D8CEN, Surr= Jamo D8SUR, Surr bak= Jamo D8SUR, Sub= REL T3 + Audiovector K-Sub Signature, Köpta filmer= 1000++ och stiger stadigt

Permalänk
Medlem

Finns det några vattenblock på ingång för fury och fury x än? Vi med custom loops vill ju också va med på ett hörn

Visa signatur

Ryzen 5 5600 <> Asus B550 I <> Corsair LED 2*8GB 3200Mhz <> GeForce 2070 Super <> Acer X34A <> Ducky Shine 4 brown <> Zowie ec2-a <>

Permalänk

Inte så farligt pris och redan tredjepart kort ute. Får hoppa swec lägger ut ett test snart, får man se vad dom gjort.

Skickades från m.sweclockers.com

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av IRONBERG:

Finns det några vattenblock på ingång för fury och fury x än? Vi med custom loops vill ju också va med på ett hörn

EK Brukar vara rätt snabba på att plocka fram block, förhoppningsvis så låter de oss inte vänta alldeles för länge

Visa signatur

R5 3600 | 5700 xt | XPG SPECTRIX 3200MHz 16GB | B450i Aorus Pro WIFI | Corsair SF750v2 | Evolv Shift Air |
Galleri: Aether | Chandra

-=CITERA FÖR SVAR=-

Permalänk
Medlem

Nordichardware förhandstitt

http://youtu.be/evU6Nsnrm0c

Skickades från m.sweclockers.com

Visa signatur

ASUS K7M, AMD Athlon 1000 MHz Slot A, 3dfx Voodoo5 5500 64 MB AGP, 512 MB SDRAM @ CL 2-2-2-5, Cooler Master ATC-100-SX Aluminum Mid Tower.

Permalänk
Medlem
Skrivet av Tumnus:

Vad jag har hört så ska texturer och annat kunna fraktas till hårddisken betydligt snabbare vid brist av vram. Detta är dock bara vad jag har hört och har inte direkt någon källa för så vore fallet.

Helt fel. Sånt går via PCIe, inte minnesbussen i kortet. Jag har svårt att förstå var ryktena om att det går snabbare att skyffla till och från kortet kommer från.

Permalänk
Medlem

Jag blev nyfiken på hur man räknar ut bandbredden för grafikkort. Och upptäckte en sak som väckte min nyfikenhet.

minnesbuss/8 (för att få bytes istället för bit) * minnes hastighet (i MHz) * x (en multipel vars värde beror på minnestyp gddr3, gddr5 o.s.v.)
= bandbredd (i GB/s)

så för fury x kan man alltså få fram:

4096/8*500*x=512 GB/s

vilket ger x=2. 2 är multipeln man använder för gddr3. Efter att ha tittat i gpu-z med mitt gtx 980 som har gddr5 kom jag fram till att multipel för gddr5 är 4. Så....vad vill jag komma till. Jag misstänker att man inom en inte så avlägsen framtid kommer se 1 TB/s bandbredd på HBM.

Både pascal och framtida amd kort kommer ju att ge avsevärt bättre minneshantering. Blir väl att uppgradera min trogna dell u2711 nästa år med en ordentlig 4k eller 5k skärm.

Permalänk
Medlem
Skrivet av Storage Jar:

Har fungerat väldigt bra senaste åren.
Ett spel CF inte fungerade i vad jag minns, är ESO. Fast det berodde på att det inte gick att köra i riktig full screen. Alltså bethesda som klantade sig. Behövs det så släpps ofta en beta driver som fixar eventuella fel.

Jo det låter ju bra, vad jag förstår dock tog det 4 veckor innan CF funka i The Witcher 3. Får hoppas att AMD bättrar sig på drivrutinsfronten. Jag får känslan av att de har ny energi nu i alla fall.

Visa signatur

Rigg : Fractal Design Define S | ASUS Z170 PRO GAMING | Corsair 16GB (2x8GB) DDR4 3000Mhz CL15 Vengeance | 6700K 4.0 GHz 8MB |MSI GeForce GTX 1080 8GB Gaming X | EVGA Supernova G2 750W | OCZ TR150 480GB x2 |

Permalänk
Inaktiv
Skrivet av Spruce89:

Jo det låter ju bra, vad jag förstår dock tog det 4 veckor innan CF funka i The Witcher 3. Får hoppas att AMD bättrar sig på drivrutinsfronten. Jag får känslan av att de har ny energi nu i alla fall.

Witcher 3 är en Gameworks-titel där Nvidia medvetet gjort det svårt för AMD att optimera drivrutiner. Inte helt AMDs fel i fallet med detta spel.

Permalänk
Medlem
Skrivet av anon5930:

Witcher 3 är en Gameworks-titel där Nvidia medvetet gjort det svårt för AMD att optimera drivrutiner. Inte helt AMDs fel i fallet med detta spel.

Vet inte riktigt om det där är helt rätt. Gameworks har ju egentligen bara med hairworks att göra.
AMD anklagade Nvidia för att med flit göra upplevelsen sämre för de med AMD, men en redditanvändare lyckades redan dag 1 hitta en fix genom att ändra en inställning i catalyst control center.

Jag hade haft lättare att tro att Witcher 3 är mer optimerat för Nvidia om det inte vore för att 290x har bättre prestanda än 780TI i det.

Visa signatur

Rigg : Fractal Design Define S | ASUS Z170 PRO GAMING | Corsair 16GB (2x8GB) DDR4 3000Mhz CL15 Vengeance | 6700K 4.0 GHz 8MB |MSI GeForce GTX 1080 8GB Gaming X | EVGA Supernova G2 750W | OCZ TR150 480GB x2 |

Permalänk
Inaktiv
Skrivet av Spruce89:

Vet inte riktigt om det där är helt rätt. Gameworks har ju egentligen bara med hairworks att göra.
AMD anklagade Nvidia för att med flit göra upplevelsen sämre för de med AMD, men en redditanvändare lyckades redan dag 1 hitta en fix genom att ändra en inställning i catalyst control center.

Jag hade haft lättare att tro att Witcher 3 är mer optimerat för Nvidia om det inte vore för att 290x har bättre prestanda än 780TI i det.

Läsvärt: https://en.wikipedia.org/wiki/GameWorks_%28API%29

"Fixen" har funnits i flera år, det är en inställning som finns i CCC för att begränsa hur mycket tesselering mjukvara får utföra. Inget som specifikt gjorts för just Witcher 3 dvs. Även kraftigt neddraget så blir skillnaden inte märkbar i form av sämre bildkvalitet. Ganska uppenbart att det var avsett att ge Nvidias kort fördelar då AMDs kort presterar dåligt med alla inställningar som standard. Samtidigt drabbades Nvidias egna kunder som körde Kepler-baserade grafikkort, blandannat just 780 Ti. Huruvida prestandaproblemen med de dåliga drivarna är lösta ännu vet jag inget om. Jag förmodar att Nvidia måste göra en liknande begränsning på tessleringen för Kepler-korten.

Riktigt bra spel dock, ett av de jag gillat mest under de senaste åren.

Permalänk
Medlem
Skrivet av anon5930:

Läsvärt: https://en.wikipedia.org/wiki/GameWorks_%28API%29

"Fixen" har funnits i flera år, det är en inställning som finns i CCC för att begränsa hur mycket tesselering mjukvara får utföra. Inget som specifikt gjorts för just Witcher 3 dvs. Även kraftigt neddraget så blir skillnaden inte märkbar i form av sämre bildkvalitet. Ganska uppenbart att det var avsett att ge Nvidias kort fördelar då AMDs kort presterar dåligt med alla inställningar som standard. Samtidigt drabbades Nvidias egna kunder som körde Kepler-baserade grafikkort, blandannat just 780 Ti. Huruvida prestandaproblemen med de dåliga drivarna är lösta ännu vet jag inget om. Jag förmodar att Nvidia måste göra en liknande begränsning på tessleringen för Kepler-korten.

Riktigt bra spel dock, ett av de jag gillat mest under de senaste åren.

Hmm jo Witcher 3 ser riktigt bra ut, har ju sparat det tills jag uppgraderar burken senare denna månad förhoppningsvis. Angående gameworks, är det inte främst Hairworks som är påverkat av det? Hairworks fungerar ju även dåligt med Nvidias egna kort(ganska stor prestandakostnad även för maxwell).

Även om det är Gameworks som påverkar optimering så har jag svårt att se att det är det som gjort att det tagit så lång tid innan CF fungerade.
Det handlar väl ändå mer om att AMD faktiskt varit väldigt dåliga på att släppa drivrutiner det senaste året? AMDs singelkort verkar ju klara sig bra utan konstant nya drivrutiner men det blir ju skillnad när det behövs profil för Crossfire.

Jag håller med om att det är riktigt fult av Nvidia att försöka påtvinga exklusivitet. AMD är inga änglar de heller, men de brukar vara mycket mer öppna med sin teknik(Freesync,HBM etc).

Visa signatur

Rigg : Fractal Design Define S | ASUS Z170 PRO GAMING | Corsair 16GB (2x8GB) DDR4 3000Mhz CL15 Vengeance | 6700K 4.0 GHz 8MB |MSI GeForce GTX 1080 8GB Gaming X | EVGA Supernova G2 750W | OCZ TR150 480GB x2 |

Permalänk
Inaktiv
Skrivet av Spruce89:

Hmm jo Witcher 3 ser riktigt bra ut, har ju sparat det tills jag uppgraderar burken senare denna månad förhoppningsvis. Angående gameworks, är det inte främst Hairworks som är påverkat av det? Hairworks fungerar ju även dåligt med Nvidias egna kort(ganska stor prestandakostnad även för maxwell).

Även om det är Gameworks som påverkar optimering så har jag svårt att se att det är det som gjort att det tagit så lång tid innan CF fungerade.
Det handlar väl ändå mer om att AMD faktiskt varit väldigt dåliga på att släppa drivrutiner det senaste året? AMDs singelkort verkar ju klara sig bra utan konstant nya drivrutiner men det blir ju skillnad när det behövs profil för Crossfire.

Jag håller med om att det är riktigt fult av Nvidia att försöka påtvinga exklusivitet. AMD är inga änglar de heller, men de brukar vara mycket mer öppna med sin teknik(Freesync,HBM etc).

Har du möjlighet att pricka in spelandet under eventuell ledighet i sommar kan det vara klokt, risken att du fastnar med spelet under all ledig tid är ganska stor skulle jag vilja påstå.
Nu vet jag inte hur just dina GTX 580s presterar i spelet men VRAM bör inte vara något problem alls iallafall. Själv kör jag höga grafikinställningar (men inte maxat) samt 2560x1440 och ligger runt 2GB VRAM. Om uppgraderingen drar ut på tiden och du är sugen på att spela så borde det gå rätt bra ändå.

Gameworks innehåller flera olika delar, just Witcher 3 får jag väl ändå säga är ganska snäll. Kommande Batman: Arkham Knight ser betydligt värre ut och frågan är hur vi med Radeon-kort kommer, i brist på lämpligare ord, bestraffas. PS4-utgåvan har samtidigt fått rätt bra betyg vad jag sett (Polygon.com gav det en 10a) så det är väl ett alternativ annars.
Hairworks fungerar bättre med Maxwell-korten vilket nog var viktigast för Nvidia. Men en hel del Kepler-ägare har blivit märkbart irriterade med samtidigt.

Just CF och SLI är i mitt tycke en rätt trist lösning. Extremt beroende av support från tillverkaren, speciellt då för stöd i titlar men sedan alla problem som kan uppstå. Personligen rekommenderar jag typ aldrig någon att ens tänka på att köra två kort utan istället ett bättre för att minska risken för problem. Den lilla skara som verkligen behöver mer än ett kort för att driva sina speldatorer vet oftast redan om vad de behöver.
Jag har kört mitt R9 290 sedan början av 2014 och har inte haft problem med drivrutiner. Visst kan man väl tycka att drivrutiner behöver lanseras oftare men samtidigt har drivarna stått sig bra nog även med nya titlar. Far Cry 4 var riktigt problematisk i början men blev bättre med drivrutinsuppdateringar. Även denna är ju en Nvidia-titel bör väl tilläggas. Samma titel har varit problematisk för SLI-användare med. Nu är jag osäker på om problemen löst men i april, ca 5 månader efter lansering, så var det fortfarande en hel del problem vad jag noterat.

Härvan kring Bulldozer och PR och snack kring den processorfamiljen är ju ett bra exempel på att man inte helt bör lita på snacket inför lanseringen av Fury-familjen. Nu förutsätter jag att de inte gör om samma sak igen och nu i veckan bör vi ju äntligen få veta hur det ligger till med dessa kort. Sedan är ju frågan hur det också ser ut med Zen nästa år. Kan ju inte bli sämre än Bulldozer men frågan är hur nära Intel de hamnar.

Permalänk
Medlem
Skrivet av anon5930:

Har du möjlighet att pricka in spelandet under eventuell ledighet i sommar kan det vara klokt, risken att du fastnar med spelet under all ledig tid är ganska stor skulle jag vilja påstå.
Nu vet jag inte hur just dina GTX 580s presterar i spelet men VRAM bör inte vara något problem alls iallafall. Själv kör jag höga grafikinställningar (men inte maxat) samt 2560x1440 och ligger runt 2GB VRAM. Om uppgraderingen drar ut på tiden och du är sugen på att spela så borde det gå rätt bra ändå.

Gameworks innehåller flera olika delar, just Witcher 3 får jag väl ändå säga är ganska snäll. Kommande Batman: Arkham Knight ser betydligt värre ut och frågan är hur vi med Radeon-kort kommer, i brist på lämpligare ord, bestraffas. PS4-utgåvan har samtidigt fått rätt bra betyg vad jag sett (Polygon.com gav det en 10a) så det är väl ett alternativ annars.
Hairworks fungerar bättre med Maxwell-korten vilket nog var viktigast för Nvidia. Men en hel del Kepler-ägare har blivit märkbart irriterade med samtidigt.

Just CF och SLI är i mitt tycke en rätt trist lösning. Extremt beroende av support från tillverkaren, speciellt då för stöd i titlar men sedan alla problem som kan uppstå. Personligen rekommenderar jag typ aldrig någon att ens tänka på att köra två kort utan istället ett bättre för att minska risken för problem. Den lilla skara som verkligen behöver mer än ett kort för att driva sina speldatorer vet oftast redan om vad de behöver.
Jag har kört mitt R9 290 sedan början av 2014 och har inte haft problem med drivrutiner. Visst kan man väl tycka att drivrutiner behöver lanseras oftare men samtidigt har drivarna stått sig bra nog även med nya titlar. Far Cry 4 var riktigt problematisk i början men blev bättre med drivrutinsuppdateringar. Även denna är ju en Nvidia-titel bör väl tilläggas. Samma titel har varit problematisk för SLI-användare med. Nu är jag osäker på om problemen löst men i april, ca 5 månader efter lansering, så var det fortfarande en hel del problem vad jag noterat.

Härvan kring Bulldozer och PR och snack kring den processorfamiljen är ju ett bra exempel på att man inte helt bör lita på snacket inför lanseringen av Fury-familjen. Nu förutsätter jag att de inte gör om samma sak igen och nu i veckan bör vi ju äntligen få veta hur det ligger till med dessa kort. Sedan är ju frågan hur det också ser ut med Zen nästa år. Kan ju inte bli sämre än Bulldozer men frågan är hur nära Intel de hamnar.

Jo jag håller med fullständigt, kan ju berätta att jag just nu också har för mycket fritid då jag är arbetslös. Hade jag haft båda mina 580s kvar kanske jag hade väntat tills nästa generation med att uppgradera, men ena har gått sönder.

Far cry 4 hade jag inga problem med, förmodligen för att jag spelade det en bra tid efter att det släpptes. Far cry 3 är en annan historia dock, det var ganska mycket problem då hela 500 serien stängde ner sig efter bara 5-10 minuters spelande. Detta problem hade med DX 10(eller 11) att göra och det tog 4 månader innan det fixades, det ska nämnas att om man höjde volten så löste det sig.

SLI var kul att testa, det var också mer rimligt när jag byggde denna dator då mina 580s ihop kostade 8400kr, jämför det med dagens priser och man blir deprimerad. Jag har haft en del problem med SLI jag med, speciellt microstuttering är något som har märkts i många spel.

Mitt 580 kanske skulle kämpa sig igenom The Witcher 3, samt de andra spel jag lagt på is tills uppgradering. Men det skulle inte vara samma sak alls, fps är något jag alltid varit kräsen över. 30 fps är inte samma sak som att ligga stabilt över 60.

2015 ser ut att bli ett otroligt bra år när det kommer till spel. Efter att ha sett trailers för Fallout 4, Dishonored 2, Battlefront, Metal gear solid 5 och många mer, jag kommer inte ihåg när jag kände mig hypad sist.

Jag måste medge att jag känner mig lite orolig inför om Fury X verkligen kommer vara så bra som man vill.
AMDs egna benchmark har ju läckt, och även med uppenbar bias i testet så ser det inte så mycket bättre ut än 980TI.
Med tanke på att det redan nu finns 980TIs som är väldigt bra överklockade redan ifrån fabrik så hoppas jag att jag har fel.

Ska bli kul att se om det blir 980TI eller Fury x för min del, det får bli det som är bäst.
Allt man kan göra nu är ju dock att spekulera, om 4 dagar så släpps NDA på Fury X och vi får då se neutrala tester. Jag tycker det är väldigt imponerande av AMD i vilket fall, att de lyckas göra så mycket med så lite resurser(jämfört med Nvidia).

Visa signatur

Rigg : Fractal Design Define S | ASUS Z170 PRO GAMING | Corsair 16GB (2x8GB) DDR4 3000Mhz CL15 Vengeance | 6700K 4.0 GHz 8MB |MSI GeForce GTX 1080 8GB Gaming X | EVGA Supernova G2 750W | OCZ TR150 480GB x2 |

Permalänk
Skrivet av Spruce89:

Jo jag håller med fullständigt, kan ju berätta att jag just nu också har för mycket fritid då jag är arbetslös. Hade jag haft båda mina 580s kvar kanske jag hade väntat tills nästa generation med att uppgradera, men ena har gått sönder.

Far cry 4 hade jag inga problem med, förmodligen för att jag spelade det en bra tid efter att det släpptes. Far cry 3 är en annan historia dock, det var ganska mycket problem då hela 500 serien stängde ner sig efter bara 5-10 minuters spelande. Detta problem hade med DX 10(eller 11) att göra och det tog 4 månader innan det fixades, det ska nämnas att om man höjde volten så löste det sig.

SLI var kul att testa, det var också mer rimligt när jag byggde denna dator då mina 580s ihop kostade 8400kr, jämför det med dagens priser och man blir deprimerad. Jag har haft en del problem med SLI jag med, speciellt microstuttering är något som har märkts i många spel.

Mitt 580 kanske skulle kämpa sig igenom The Witcher 3, samt de andra spel jag lagt på is tills uppgradering. Men det skulle inte vara samma sak alls, fps är något jag alltid varit kräsen över. 30 fps är inte samma sak som att ligga stabilt över 60.

2015 ser ut att bli ett otroligt bra år när det kommer till spel. Efter att ha sett trailers för Fallout 4, Dishonored 2, Battlefront, Metal gear solid 5 och många mer, jag kommer inte ihåg när jag kände mig hypad sist.

Jag måste medge att jag känner mig lite orolig inför om Fury X verkligen kommer vara så bra som man vill.
AMDs egna benchmark har ju läckt, och även med uppenbar bias i testet så ser det inte så mycket bättre ut än 980TI.
Med tanke på att det redan nu finns 980TIs som är väldigt bra överklockade redan ifrån fabrik så hoppas jag att jag har fel.

Ska bli kul att se om det blir 980TI eller Fury x för min del, det får bli det som är bäst.
Allt man kan göra nu är ju dock att spekulera, om 4 dagar så släpps NDA på Fury X och vi får då se neutrala tester. Jag tycker det är väldigt imponerande av AMD i vilket fall, att de lyckas göra så mycket med så lite resurser(jämfört med Nvidia).

Sett till resurser eller snarare R&D så lägger AMD ungefär 100.000 mer än Nvidia. Men har ju mindre resurser på grund av dom tillverkar både cpu och gpu. Sen vilket dom lägger mest på/ kostar mest är svårt att svara på.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar