::: Radeon Fury / Fiji XT diskussionstråd :::

Permalänk
Medlem
Skrivet av fufuheo:

Hur har de ökat antalet shaders från 2816 till 4096 utan att öka strömförbrukningen med mer än 10W då? HBM gör inte så stor skillnad, tror det drar 10W istället för 30W.

Talar om 390X, det är högst orimligt att de gjort några som helst optimeringar av kärnan, allra helst inte några som ökar IPC.
Och ja, i Fiji så har man fått mer utrymme för fler shaders eftersom man gått över till HBM, inte bara för att HBM drar mindre, utan nog främst för att man slipper GDDR5-minneskontrollerna. Men det finns inga skäl att tro att de skulle gjort några optimeringar i GCN-kärnorna på Fiji. En enskild shader, ROP eller TMU i Tahiti är nog precis lika snabb som motsvarande enhet i Fiji.

Permalänk
Medlem
Skrivet av Dinoman:

Min poäng var mer att Killbom inte hade fel. Det är förhållandevis många som sitter och spelar på integrerad GPU-krets.

Jo, menade att förr visade steams stats fel och det verkar fortfarande folk tro

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Aleshi:

Talar om 390X, det är högst orimligt att de gjort några som helst optimeringar av kärnan, allra helst inte några som ökar IPC.
Och ja, i Fiji så har man fått mer utrymme för fler shaders eftersom man gått över till HBM, inte bara för att HBM drar mindre, utan nog främst för att man slipper GDDR5-minneskontrollerna. Men det finns inga skäl att tro att de skulle gjort några optimeringar i GCN-kärnorna på Fiji. En enskild shader, ROP eller TMU i Tahiti är nog precis lika snabb som motsvarande enhet i Fiji.

HMB drar inte mycket mindre.

Permalänk
Medlem
Skrivet av fufuheo:

HMB drar inte mycket mindre.

Vet dom bara tagit upp hur mycket själva minnet drar i ström, men inte vad själva minnetskontrollen drar och ECC som är borttaget nu.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Broken-arrow:

Vet dom bara tagit upp hur mycket själva minnet drar i ström, men inte vad själva minnetskontrollen drar och ECC som är borttaget nu.

Minneskontroller behövs väl också för HBM?

Permalänk
Medlem
Skrivet av fufuheo:

Minneskontroller behövs väl också för HBM?

Ja, men är en betydligt enklare, som jag tolkar drar mindre ström. Men när man inte vet hur den gamla VS nya drar så är det ju bara gissningar.

Kanske tas upp på E3 får man hoppas, känns ju som en evighet dit

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Broken-arrow:

Ja, men är en betydligt enklare, som jag tolkar drar mindre ström. Men när man inte vet hur den gamla VS nya drar så är det ju bara gissningar.

Kanske tas upp på E3 får man hoppas, känns ju som en evighet dit

Jag tycker inte det låter realistiskt att det skulle kompensera för 45% mer shaders.

Permalänk
Medlem
Skrivet av fufuheo:

Jag tycker inte det låter realistiskt att det skulle kompensera för 45% mer shaders.

Håller med. Tror och hoppas man får något svar nästa vecka när NDA förhoppningsvis släpps. Känns inte som stapplat minne magiskt sänkt förbrukningen så här mycket (om dom inte kör på 3d kretsar också, likt Intels nyare cpuer och Samsungs 850 serie).

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av fufuheo:

Jag tycker inte det låter realistiskt att det skulle kompensera för 45% mer shaders.

Även om en shader i Fiji har samma prestanda som en shader i Hawaii(vilket vi inte säkert vet).
Så är det väl inte orimligt att anta att man vid konstruktionen av en helt ny krets har lyckats göra dem mer strömsnåla.
(Med hjälp av 3 års erfarenhet av GCN i 28nm.)

Visa signatur

“There will be people that are burdened by only having the capacity to see what has always been instead of what can be.
But don’t you let that burden you.”

Permalänk
Medlem
Skrivet av FatherOfThree:

Även om en shader i Fiji har samma prestanda som en shader i Hawaii(vilket vi inte säkert vet).
Så är det väl inte orimligt att anta att man vid konstruktionen av en helt ny krets har lyckats göra dem mer strömsnåla.
(Med hjälp av 3 års erfarenhet av GCN i 28nm.)

Precis, tror inte att HBM kan kompensera för så stor skillnad i antal shaders.

Permalänk
Medlem

AMD teasar lite 8k bilder på facebook och twitter 2 nämner även 16e juni.

direktlänk till bilderna ( ~100 MB styck )

battlefield 4
Crysis 3
Bioshock infinite

Intressant om de menar att 4 GB vram räcker för en trevlig spelupplevelse i sådana upplösningar.

Visa signatur

| HAF932 | Ryzen 3700X @ 4,3 GHz | Gigabyte X570 Aorus Ultra | 32 GB G.Skill @ 3600 MHz | RTX 2070 @ 2 GHz | O2 + ODAC | MP600 1TB + 2x 2TB RAID 1 + 2x 2TB RAID 1 | Win10 Pro 64-bit |

Permalänk
Medlem
Skrivet av Devildoll:

AMD teasar lite 8k bilder på facebook och twitter 2 nämner även 16e juni.

direktlänk till bilderna ( ~100 MB styck )

battlefield 4
Crysis 3
Bioshock infinite

Intressant om de menar att 4 GB vram räcker för en trevlig spelupplevelse i sådana upplösningar.

Ser snyggt ut, sista bilden är riktigt snygg. 4Gb kan räcka tack vare att den har så stor bus och tömma/fylla på minnet fort. Men troligt runt 40/60FPS i 4k i speltestet swec gör på ultra.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Devildoll:

AMD teasar lite 8k bilder på facebook och twitter 2 nämner även 16e juni.

direktlänk till bilderna ( ~100 MB styck )

battlefield 4
Crysis 3
Bioshock infinite

Intressant om de menar att 4 GB vram räcker för en trevlig spelupplevelse i sådana upplösningar.

Alla 3 spelen är ju typ 5 år gammal teknik. Även spelen som släpps idag byggs ju på 2-3 år gammal teknik. Battlefield 4 tror jag att jag körde på ett 1.2gb kort när det släpptes, lol.

Kan nån se om det är FSAA på bilderna? Annars så drivs nog 8K lätt av 4gb. Även med FSAA så skulle det inte öka så fasligt mycket. Bara för att du kör 8K upplösning på skärmen blir ju inte texturerna i spelet magiskt högre upplösta.

http://www.digitalstorm.com/unlocked/video-memory-usage-at-4k...

På den sidan jämför dom både Crysis 3 och BF4 (ren slump, jag sökte bara på 4K lol). 2.6-2.9gb minne för 4K på ett original Titan med 6gb minne. 780Ti med 3gb drar 2.2gb.

Permalänk
Medlem
Skrivet av Broken-arrow:

Ser snyggt ut, sista bilden är riktigt snygg. 4Gb kan räcka tack vare att den har så stor bus och tömma/fylla på minnet fort. Men troligt runt 40/60FPS i 4k i speltestet swec gör på ultra.

Mjo HBM har ju mycket högre bandbredd till vardera minneskapsel/stack, 1024 bit gentemot 32 bit på GDDR5.

Men man måste ändå kämpa sig fram igenom pci-e 3 om man vill ha ny information som inte finns på grafikkortet för tillfället.
och den går bara i ~16 GB/s om man kör hela 16x

Skrivet av murklor:

Alla 3 spelen är ju typ 5 år gammal teknik. Även spelen som släpps idag byggs ju på 2-3 år gammal teknik. Battlefield 4 tror jag att jag körde på ett 1.2gb kort när det släpptes, lol.

Kan nån se om det är FSAA på bilderna? Annars så drivs nog 8K lätt av 4gb. Även med FSAA så skulle det inte öka så fasligt mycket. Bara för att du kör 8K upplösning på skärmen blir ju inte texturerna i spelet magiskt högre upplösta.

http://www.digitalstorm.com/unlocked/video-memory-usage-at-4k...

På den sidan jämför dom både Crysis 3 och BF4 (ren slump, jag sökte bara på 4K lol). 2.6-2.9gb minne för 4K på ett original Titan med 6gb minne. 780Ti med 3gb drar 2.2gb.

Jag har inte så bra koll på vad det är som lagras i minnet på grafikkorten och hur den mängden förändrar sig beroende på upplösning, men i och med vram kraven på 6 GB för t.ex shadow of mordor i 1080P, vilket dock inte testas här, så blir det intressant om AMD kan kringå höga minneskrav genom bättre minneshantering.

En nuvarande minneshantering som AMD's CTO Joe Macri använder orden "exceedingly poor" för att beskriva.

Visa signatur

| HAF932 | Ryzen 3700X @ 4,3 GHz | Gigabyte X570 Aorus Ultra | 32 GB G.Skill @ 3600 MHz | RTX 2070 @ 2 GHz | O2 + ODAC | MP600 1TB + 2x 2TB RAID 1 + 2x 2TB RAID 1 | Win10 Pro 64-bit |

Permalänk
Medlem
Skrivet av Devildoll:

Jag har inte så bra koll på vad det är som lagras i minnet på grafikkorten och hur den mängden förändrar sig beroende på upplösning, men i och med vram kraven på 6 GB för t.ex shadow of mordor i 1080P, vilket dock inte testas här, så blir det intressant om AMD kan kringå höga minneskrav genom bättre minneshantering.

För många av dagens spel så funkar det, men för att göra ett väldigt extremt exempel:

Du har ett rum i ett spel som använder 4gb minne. Majoriteten av detta är pga att ~3gb är texturer (rummet har *jäkligt* nicea texturer ) medans ~1gb är det som behövs för 4K upplösning.
Du går in i nästa rum som har helt andra texturer. Men du har bara 4gb minne på kortet. Det betyder att dom resterande 3gb texturerna i andra rummet inte finns cacheade. Så du måste slänga ut allt i minnet och ladda 3gb texturer igen när du går in i nästa rum. Användning för 4K upplösning ändras inte, så det är inte 4K som begränsar det. Droppa till 2K och du skulle ändå inte få plats med texturerna i minnet (skulle kräva samma 6gb).

Om du hade haft 8gb minne på kortet kunde båda rummens 6gb texturer ligga färdiga att användas.

Om dom optimerar det så måste det flyta på perfekt mellan ram och vram i samma hastighet som vram kör. Sen om vi går ännu mera extremt kan vi ju anta att dina texturer inte ens får plats att cacheas i ram utan måste hämtas från hdd först. Dvs det skulle bli extremt laggigt. Jag tvivlar inte på att dom kan optimera det... frågan är bara hur länge det håller. Optimera 6gb ner till 3gb, nästa år kommer 6gb optimerat utrymme krävas igen. Fury kommer säkert inte lida av 4gb idag eller nästa år. 3 år från nu? När spel designats med dagens 6-8gb kort i ultra settings? Kommer vara lite tråkigt om man behöver dra ner settings när samma generation kort med mer minne klarar det.

TL;DR
Du kan aldrig ha tillräckligt mycket minne. Vad tror du folk sa när 32mb Geforce 256 DDR släpptes? Då var ju nåt som tex 256mb vram helt löjligt, skulle ju aldrig kunna utnyttjas på en miljon år.

Permalänk
Medlem
Skrivet av lowngcawt:

Måste rätta dig här, det är 9% av alla med samma setup som dig som är snabbare. 11k totalpoäng är inget speciellt (får mer än så på ett kort).

Skickades från m.sweclockers.com

Det är så att AMD inte får så många poäng i fys testet vilket ger låga total värde.

Men % siffran är i förhållande till alla testade system så det är 9% av alla testade rundor som är snabbare än min eller 91% som är långsammare än min set upp.

se här gå in på snabbaste systemet i den fliken så väljer du details så ser du att man tittar mot alla system som har kört testet.

http://www.3dmark.com/search?_ga=1.178125728.449271595.141988... FX-8350&gpuName=NVIDIA GeForce GTX 980 Ti

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av murklor:

För många av dagens spel så funkar det, men för att göra ett väldigt extremt exempel:

Du har ett rum i ett spel som använder 4gb minne. Majoriteten av detta är pga att ~3gb är texturer (rummet har *jäkligt* nicea texturer ) medans ~1gb är det som behövs för 4K upplösning.
Du går in i nästa rum som har helt andra texturer. Men du har bara 4gb minne på kortet. Det betyder att dom resterande 3gb texturerna i andra rummet inte finns cacheade. Så du måste slänga ut allt i minnet och ladda 3gb texturer igen när du går in i nästa rum. Användning för 4K upplösning ändras inte, så det är inte 4K som begränsar det. Droppa till 2K och du skulle ändå inte få plats med texturerna i minnet (skulle kräva samma 6gb).

Om du hade haft 8gb minne på kortet kunde båda rummens 6gb texturer ligga färdiga att användas.

Om dom optimerar det så måste det flyta på perfekt mellan ram och vram i samma hastighet som vram kör. Sen om vi går ännu mera extremt kan vi ju anta att dina texturer inte ens får plats att cacheas i ram utan måste hämtas från hdd först. Dvs det skulle bli extremt laggigt. Jag tvivlar inte på att dom kan optimera det... frågan är bara hur länge det håller. Optimera 6gb ner till 3gb, nästa år kommer 6gb optimerat utrymme krävas igen. Fury kommer säkert inte lida av 4gb idag eller nästa år. 3 år från nu? När spel designats med dagens 6-8gb kort i ultra settings?

TL;DR
Du kan aldrig ha tillräckligt mycket minne. Vad tror du folk sa när 32mb Geforce 256 DDR släpptes? Då var ju nåt som tex 256mb vram helt löjligt, skulle ju aldrig kunna utnyttjas på en miljon år.

Kom ju på annan sak, den kör ju utan ecc som tydligen äter 10% av minnet, så i stället för att ha 3,6 Gb att använda har du 4Gb totalt i stället (om det stämmer att ecc äter så mycket). Men ger ju mer men så klart inte tillräckligt, frågan är då hur dom tänkt få till 4k hop med kortet.

Vist presterar det bra, kommer ju folk även titta på AMD´s kort (får man hoppas att dom inte hänger upp sig för mycket på 4GB). Troligen är det svårt att få ut fungerande ex med 4Gb, känns ju som det vore bättre att köra på Gddr 5 och släppt ett nytt ex i höst med staplat minne.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Broken-arrow:

Kom ju på annan sak, den kör ju utan ecc som tydligen äter 10% av minnet, så i stället för att ha 3,6 Gb att använda har du 4Gb totalt i stället (om det stämmer att ecc äter så mycket). Men ger ju mer men så klart inte tillräckligt, frågan är då hur dom tänkt få till 4k hop med kortet.

Vist presterar det bra, kommer ju folk även titta på AMD´s kort (får man hoppas att dom inte hänger upp sig för mycket på 4GB). Troligen är det svårt att få ut fungerande ex med 4Gb, känns ju som det vore bättre att köra på Gddr 5 och släppt ett nytt ex i höst med staplat minne.

Normala consumer kort kör väl aldrig ECC minnen? Dom är ju svindyra. Kanske finns proffskort med dom (typ 30,000-100,000kr eller mer).

Som jag sa, 4K på 4gb funkar alldeles utmärkt för de flesta spel idag. För att 3 år sen så var det kanske 2gb som gällde för max inställningar. Under utvecklingstiden så ökade kraven säkert (varför många spel på ultra idag kan dra 4gb+) men dom satte "normal" ribban lägre. Medans dom kanske inte presterar hastighhetsmässigt så är den tekniska delen av grafikkort alltid långt före hur spelen utnyttjar dom.

Permalänk
Avstängd
Skrivet av murklor:

Normala consumer kort kör väl aldrig ECC minnen? Dom är ju svindyra. Kanske finns proffskort med dom (typ 30,000-100,000kr eller mer).

Som jag sa, 4K på 4gb funkar alldeles utmärkt för de flesta spel idag. För att 3 år sen så var det kanske 2gb som gällde för max inställningar. Under utvecklingstiden så ökade kraven säkert (varför många spel på ultra idag kan dra 4gb+) men dom satte "normal" ribban lägre. Medans dom kanske inte presterar hastighhetsmässigt så är den tekniska delen av grafikkort alltid långt före hur spelen utnyttjar dom.

4gb är perfekt balans mellan kraft och minnesmängd. Nvidia kort sitter ju med massa extra minne som aldrig används tänk att betala för saker man inte använder?
Dx12 och win 10 vänder upp och ned på begreppen också.

Visa signatur

Träna bort dyslexin. Ryzen 3600 - asus B350plus - Msi Vega56 - Acer 1440p 144hz - M.2 ssd - asus essence stx - Sennheiser hd600 - Corsair 750w - 16gb ram 3ghz - atcs 840 - luftkylt - Felsökning? (Lär dig Googla)

Permalänk
Hjälpsam

Gillar AMD, men jag tycker att 4 GiB är för lite för ett toppkort i dag, trots alla rykten hoppas jag på mer.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av murklor:

Normala consumer kort kör väl aldrig ECC minnen? Dom är ju svindyra. Kanske finns proffskort med dom (typ 30,000-100,000kr eller mer).

Som jag sa, 4K på 4gb funkar alldeles utmärkt för de flesta spel idag. För att 3 år sen så var det kanske 2gb som gällde för max inställningar. Under utvecklingstiden så ökade kraven säkert (varför många spel på ultra idag kan dra 4gb+) men dom satte "normal" ribban lägre. Medans dom kanske inte presterar hastighhetsmässigt så är den tekniska delen av grafikkort alltid långt före hur spelen utnyttjar dom.

Sitter i kontrollen på något vis, Du får läsa artikeln om HBM som släpptes förra månaden.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Flopper:

4gb är perfekt balans mellan kraft och minnesmängd. Nvidia kort sitter ju med massa extra minne som aldrig används tänk att betala för saker man inte använder?
Dx12 och win 10 vänder upp och ned på begreppen också.

Ja precis som 512mb internminne var perfekt balans mellan kraft och minnesmängd många år sen.

Hursomhelst, nog med 4gb minne. Man kommer ändå ingen vart.

Enligt 390X unboxing videon, så saknas crossfire möjlighet. Enligt bilderna på Fury, så finns inte heller några crossfire kontakter?

AMD tar ett vågat steg om dom låter Nvidia ha fritt spel på SLI marknaden. Antar det är för att tjäna pengar - varför sälja 2x billigare kort när man kan sälja ett x2 "premium" kort som är 4x dyrare...

Nån som vet om detta stämmer?

Permalänk
Medlem
Skrivet av murklor:

Ja precis som 512mb internminne var perfekt balans mellan kraft och minnesmängd många år sen.

Hursomhelst, nog med 4gb minne. Man kommer ändå ingen vart.

Enligt 390X unboxing videon, så saknas crossfire möjlighet. Enligt bilderna på Fury, så finns inte heller några crossfire kontakter?

AMD tar ett vågat steg om dom låter Nvidia ha fritt spel på SLI marknaden. Antar det är för att tjäna pengar - varför sälja 2x billigare kort när man kan sälja ett x2 "premium" kort som är 4x dyrare...

Nån som vet om detta stämmer?

Sedan AMD släppte r9 290 serien så har de slopat behovet att behöva ha en crossfire brygga, därför så finns ej dessa kontakter.

Visa signatur

FD Arc R2 |Asus Prime X370-PRO| AMD Ryzen 7 3700x -> NH-D15 | Palit GTX 1080TI Jetstream|G.skill Ripjaws 16GB 3400MHz| Evga G3 750W | Samsung 970 evo 500GB, Crucial MX100 256GB | Asus Xonar Essence STX| Fostex TH-x00 PH| Acer x34p |

Permalänk
Avstängd
Skrivet av murklor:

Enligt 390X unboxing videon, så saknas crossfire möjlighet. Enligt bilderna på Fury, så finns inte heller några crossfire kontakter?

Du kanske inte visste att AMD designande om crossfire att köras med pci-e som väg?
Att det existerat sedan 2013 och kallas XDMA?
Att Nvidia fortfarande inte kan göra det utan använder en sämre lösning med bryggor?

HUR KAN DU HA MISSAT DET?

Visa signatur

Träna bort dyslexin. Ryzen 3600 - asus B350plus - Msi Vega56 - Acer 1440p 144hz - M.2 ssd - asus essence stx - Sennheiser hd600 - Corsair 750w - 16gb ram 3ghz - atcs 840 - luftkylt - Felsökning? (Lär dig Googla)

Permalänk
Avstängd
Skrivet av Broken-arrow:

Kom ju på annan sak, den kör ju utan ecc som tydligen äter 10% av minnet, så i stället för att ha 3,6 Gb att använda har du 4Gb totalt i stället (om det stämmer att ecc äter så mycket). Men ger ju mer men så klart inte tillräckligt, frågan är då hur dom tänkt få till 4k hop med kortet.

Skrivet av murklor:

Normala consumer kort kör väl aldrig ECC minnen? Dom är ju svindyra. Kanske finns proffskort med dom (typ 30,000-100,000kr eller mer).

Skrivet av Broken-arrow:

Sitter i kontrollen på något vis, Du får läsa artikeln om HBM som släpptes förra månaden.

ECC påverkar bara minnesmängden om det är aktiverat. Vilket det inte är på något annat än workstationkort. Så den totala minnemängden för konsumenter behöver ni aldrig bry er om, den är alltid enligt utsatt mängd.

Oftast är det konfigurerat att för varje 8-bitar av lagring använder ECC en extra bit för paritet. Men detta räknas med för workstationkort som Firepro och Quadro och dessa korten har alltid extra minneschipp för att hantera denna pariteten.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Avstängd
Skrivet av Flopper:

Du kanske inte visste att AMD designande om crossfire att köras med pci-e som väg?
Att det existerat sedan 2013 och kallas XDMA?
Att Nvidia fortfarande inte kan göra det utan använder en sämre lösning med bryggor?

HUR KAN DU HA MISSAT DET?

Jösses Flopper, du är AMD-motsvarigheten av Orici här på Sweclockers.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem
Skrivet av fufuheo:

Hur har de ökat antalet shaders från 2816 till 4096 utan att öka strömförbrukningen med mer än 10W då? HBM gör inte så stor skillnad, tror det drar 10W istället för 30W.

Skrivet av fufuheo:

HMB drar inte mycket mindre.

Nä, men i kombination med HBM-kontroller istället för GDDR5-kontroller. Och sedan då Glofos snålare tillverkningsprocess.

Permalänk
Medlem
Skrivet av Aleshi:

Nä, men i kombination med HBM-kontroller istället för GDDR5-kontroller. Och sedan då Glofos snålare tillverkningsprocess.

Okej, 290X har en tdp på 290W. Fiji har en TDP på 300W. 290*1.45=421W, Fiji skulle dra 421W om det bara hade varit en ren ökning av antalet shaders. Det betyder att HBM+kontroller måste dra 121W mindre än GDDR5+kontroller. Är det verkligen realistiskt, i fallet med 290X skulle det innebära att mer en en tredjedel av strömförbrukningen utgörs av minnen plus kontrolller.
Tycker verkligen inte att det låter rimligt. AMD måste ha gjort optimeringar i kärnan.

Permalänk
Medlem
Skrivet av fufuheo:

Okej, 290X har en tdp på 290W. Fiji har en TDP på 300W. 290*1.45=421W, Fiji skulle dra 421W om det bara hade varit en ren ökning av antalet shaders. Det betyder att HBM+kontroller måste dra 121W mindre än GDDR5+kontroller. Är det verkligen realistiskt, i fallet med 290X skulle det innebära att mer en en tredjedel av strömförbrukningen utgörs av minnen plus kontrolller.
Tycker verkligen inte att det låter rimligt. AMD måste ha gjort optimeringar i kärnan.

Minneskontroller drar mycket ström så det kan bidra med en del. Men så tar vi tillverkningsprocessen i beräkningarna, som kan dra 20% enligt ryktet. Och att det inte alls skalar linjärt. 290X har 40% mer enheter än 7970. Men drar inte 40% mer. Jämför också med Tonga som är modernare än 290X. Hur mycket effektivare än 7970 var den? Trots att de gick ner till 256bits minneskontroller? Jämför 7870 med 7970, precis samtida, 7970 har 60% fler enheter, 50% bredare minnesbuss närmare 600% FP64-prestandan. Men den drar inte mer i motsvarande mängd. Alltså, du gör fel som räknar med linjär skalning.

Dessutom är det fullkomligt irrelevant för diskussionen om IPC-effektiviseringar vilket kräver grövre arkitekturella förändringar. Vilket jag anser är orimligt.

Helt enkelt. Det är inte verklighetsförankrat någonstans att 390X ska ha högre IPC än 290X.

Permalänk
Medlem

Då det endast är 3 dagar kvar och ingen info om prestandarden har läckt så måste det vara så att AMD inte har skickat ut några kort eller att man inte släppt några drivrutiner så man kan testa korten. Om det är så att de inte har skickat ut några kort ännu då kommer vi inte se några kort i butikerna fören MS windows med DX12 är släppt.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090