AMD demonstrerar 8K-videoredigering med arkitekturen Vega

Trädvy Permalänk
Medlem
Plats
Falun
Registrerad
Feb 2010

AMD för mig i grafikkort tappar intresset helt, ni kan tänkas släppa Refresh och lansera men ni dröjer så in i baken på Vega.

Lian Li Alpha 550X - MSI X99A GODLIKE Gaming - i7 6850K - 32GB@3000Mhz - Gigabyte RTX 2080 OC - 1TB Samsung 970 EVO M.2 - Samsung 860 1TB + Samsung 830 512GB - 12TB HD - EVGA SuperNOVA G2 750W

Playstation 4 Pro - Xbox One X

Trädvy Permalänk
Entusiast
Plats
Göteborg
Registrerad
Nov 2002
Skrivet av Yomster:

Sen är det ju inte säkert att de räknar rätt dvs giga = 10⁹.
Företag gör ju lite som de vill där och struntar helt i SI.

RAM och liknande brukar skrivas som GB men är GiB (dvs 1024³ byte) medans hårddiskar brukar skrivas korrekt som GB men visas i Windows som GiB fast med den felaktiga enheten GB (därför ser en disk på 1TB ut som 931 GB i Windows).

Så om det är 11,4 Gibit snarare än Gbit så innebär det att det blir 587,5 GB/s.
Om man omvänt angivit hastigheten 547,2 GB/s och menat 547,2 GiB/s så blir det 12,24 Gbit.

Inte konstigt att värden är missvisande när man inte ens kan lita på om leverantören använder rätt enhet.

Så som jag har förstått det (gärna rätta mig ni som vet bättre)
Vid lagring så har man fysiskt skapat sektorer på HDD med hänsyn till 1 byte eller 8 bitar med då t.ex. sektorstorlekar på 512bytes eller 4096bytes, därav "1024 = 1000" debaclet.
För RAM så har det säkert designats kretsar på liknande vis och så antar jag även för SSD:er

Vid överföring av data finns det inget behov av att ta hänsyn till detta och då räknas det med GT/s (gigatransfer) eller MT (megatransfer) per sekund istället.
Transfer räknas från "effektiv" Hz d.v.s. vis 100MHz DDR blir det 200MHz "effektiv" hastighet d.v.s. 200MT/s då det oftast(?) är 1bit per transfer. Då blir förhållandena oftast/alltid(?) följande för minnen: 1GHz (effektiv hastighet) = 1GT/s = 1Gbit/s.
GT/s är alltså de faktiska antalet bitar som skickas per sekund i miljarder (US billion) eller 10^9.

Eftersom det inte finns något behov att adressera strömmen av data på överföring som skickas så är det ingen talan om GiB (Gibibyte) data, bara där data lagras och adresseras kan man stöta på 1024/1000 debaclet.

Jag "överförklarar" då eftersom om jag har fel så vill jag gärna ha pointers på just var jag tänker fel och bli en bättre nörd människa... nä nörd blir bra

Trädvy Permalänk
Medlem
Plats
Förslöv Metropolen
Registrerad
Jan 2005
Skrivet av marcus84:

Inte för att vara sån men oftast när amd satsar på hype så brukar det ju floppa rätt rejält. Sen videoredigering i 8k, pga att dom säkert inte kan visa någon vidare prestanda i något spel gentemot titan, etc.

eller så var det för det var en video/tv mässa....

Trädvy Permalänk
Medlem
Registrerad
Okt 2016
Skrivet av Yomster:

Sen är det ju inte säkert att de räknar rätt dvs giga = 10⁹.
Företag gör ju lite som de vill där och struntar helt i SI.

RAM och liknande brukar skrivas som GB men är GiB (dvs 1024³ byte) medans hårddiskar brukar skrivas korrekt som GB men visas i Windows som GiB fast med den felaktiga enheten GB (därför ser en disk på 1TB ut som 931 GB i Windows).

Så om det är 11,4 Gibit snarare än Gbit så innebär det att det blir 587,5 GB/s.
Om man omvänt angivit hastigheten 547,2 GB/s och menat 547,2 GiB/s så blir det 12,24 Gbit.

Inte konstigt att värden är missvisande när man inte ens kan lita på om leverantören använder rätt enhet.

Gb/s, gigabit per sekund, är alltid ett decimalt värde. Det finns inget Gibit definierat, vad jag kan se, och det finns varken historiska eller matematiska skäl att hitta på den enheten. Vad gäller GB är det lite olika vad som menas. ISO har mycket riktigt definierat det som en miljard bytes, men det är det egentligen ingen som följer. Hårddiskar brukar vara det helt sanslösa 1000*1000*1024 om du tittar noga. En sektor är nämligen antingen 512 eller 4096 bytes, och storleksberäkningarna brukar vara baserad på att man räknar hur många sektorer det finns. Bäst av allt är dock SSDer - om det står att en disk har 250GB, så har den 250*1024*1024*1024 rent fysiskt, men du kan bara komma åt 250*1000*1000*1000. Resten används som buffert för wear-levelling.

Att sektorerna är den storlek de är beror naturligtvis på att man tidigt enbart använde enheter baserade på 1024. Så här i efterhand brukar hårddisk-tillverkarna säga att de aaaalltid har räknat med decimaltal, men det är inte sant - det fanns de som gjorde det redan på sjuttiotalet, men de flesta körde med binära enheter fram till slutet av åttiotalet nån gång när nån marknadsförare kom på att man kunde lura kunderna genom att rapportera på det andra sättet.

(Min personliga åsikt är att ISO var idioter som gjorde den definitionen de gjorde. Att blanda en binär enhet (byte) med decimala är bara korkat. De borde ha definierat att enheten för lagring är bit och låtit både RAM och hårddisk-tillverkare rapportera i det. Att så inte skedde var för att hela frågan lyftes av hårddisk-tillverkare som blivit stämda för falsk marknadsföring, och de behövde ha en definition av MB och GB som gjorde att de inte behövde betala).

Skickades från m.sweclockers.com

Trädvy Permalänk
Medlem
Registrerad
Nov 2011
Skrivet av mpat:

GFX 8, vilket är vad det var i Fury, fanns även i Tonga (380) och lär ha funnits i pyttelilla Iceland som aldrig lanserades som desktop-kort utanför sydostasien (fanns i en del bärbara, där det oftast felaktigt identifieras som Oland). Den mest naturliga jämförelsen är att jämföra Polaris 10 med Tonga, eftersom de riktar in sig på samma segment. Om det var det AMD gjorde eller om de letade upp något gammalt Pitcairn eller Tahiti framgår inte, men jag tror att de använde äldre kort - se nedan.

Men även Polaris är GFX IP v8.0. Så kan inte bara jämföra så, Tonga är på flera sätt primitivare än Fiji, och hur man än vrider och vänder på det så jämför de med previous generation, vilket snarare är Fiji. Men låt säga att de jämför med Tonga, Polaris har nästan identisk effektförbrukning och 30-35% högre prestanda enligt Sweclockers test. Det är pinsamt nära gamla 7970 från 2011!
Och det är inte i närheten av de siffror som AMD tillskrev på grund av krympning, och än mindre när man lägger till det som skulle komma från arkitekturförbättringar.

Skrivet av mpat:

Sannolikt tvingades AMD pressa upp klockfrekevsen för att matcha 1060, så att kortet går utanför det område där det är som mest effektivt. Vi har sett på Ryzen att 14LPP är en process som fungerar hyfsat upp till en gräns, men när man försöker klocka ännu högre går energiförbrukningen upp kraftigt. I laptops är Polaris ganska effektivt - den "460 Pro" som sitter i senaste Macbook Pron drar 30W och har en prestanda ganska jämn med 7970M, vilket är gamla Pitcairn som mobilchip. Det kortet drar 75W. Där har du dina 2.5 ggr. Skulle tro att det var så AMD räknade.

Ja nog är det utanför sin comfort zone alltid, det går ju att sänka effektförbrukningen rejält med nedklockning. Vilket stärker min tes om att ett Hawaii hade presterat bättre på 14nm än Polaris. Hawaii på 910-1040MHz hade presterat ungefär lika, men tack vare de låga frekvenserna varit långt ner i sin comfort zone. Kör man ett 290X på törstiga 28nm men i snåla 910MHz så är det plötsligt rätt energisnålt bara där.

Skrivet av Snubb1:

Ta inte siffran 2,8 ur sitt sammanhang då den är med AMD technologies vilket t.ex skulle kunna innebära radeon chill.
Det är helt rätt att jämföra Tonga med polaris då båda är GFX8 (TONGA, ICELAND/TOPAZ, CARRIZO, FIJI, STONEY, POLARIS10, POLARIS11, POLARIS12), den första Tonga är inte 380 utan R9 285.

Ja men vi räknar på Tonga och ser, då är det 30-35% energisnålare. Det räcker inte. Hawaii hade varit snålare på 14nm och nedklockat vid 910-1040MHz för att matcha prestanda. Så mycket för de förbättringarna. Så mycket för 2,5x.

Trädvy Permalänk
Inaktiv
Registrerad
Jan 2008
Skrivet av SpeedRebirth:

Sweclockers är helt rätt ute. 4k är på väg att bli vanligt (high-end) medans 1440p är mainstream numera.
8k är nästa steg och det kommer funka likadant där.
Dvs att när 1440p är low-end (där 1080p är idag) och 4k är mainstream så kommer 8k vara high end. Inget konstigt med det, det är den naturliga utvecklingen.

4k är på tv ÄR mainstream idag haha.. herregud inte köper man en 1080p tv idag, det gjorde jag redan 2009 så det är ju helt o hållet på utgång nu efter över 10år på marknaden.
High end på tv kommer vara 8k inom 1-2 år och kommer snabbt bli populärt

Skickades från m.sweclockers.com

Skitsnack! 4k upplösning är inte den mest vanliga upplösningen på datormonitorer som säljs idag utan det är fortfarande 1080p. 1440p kommer starkt och likaså 4k men vi är inte där än men kanske tidigast om två år.

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Jun 2015
Skrivet av anon114264:

Skitsnack! 4k upplösning är inte den mest vanliga upplösningen på datormonitorer som säljs idag utan det är fortfarande 1080p. 1440p kommer starkt och likaså 4k men vi är inte där än men kanske tidigast om två år.

Skrev att det är "vanligt (high-end)", läs
1440p är mycket vanligt idag. Sen att skräpdator med dual core sitter med 1080p är inte så konstigt. Det man ska kolla på är nyköp

Skickades från m.sweclockers.com

GTX1080 - i7 7700k - 16GB G.Skill 3733mhz - Noctua NH-D15
2x Samsung 960 Evo - 850 Evo 1TB - 750 Evo
Corsair HX750i - NZXT Phantom 630 - Acer XB271HU
Razer Deathadder 2013 - Logitech G410 - Sennheiser GSP 350

Trädvy Permalänk
Medlem
Plats
Örebro
Registrerad
Feb 2005
Skrivet av sKRUVARN:

http://hexus.net/media/uploaded/2016/1/edd6a72c-d5ec-4285-a0e4-6368cc0008ae.jpg
"Historic leap"... Nej, hoppet till fury var större.
"previous generation"... Bör imo vara senaste itterationen av CGN
"Polaris Architecture->Competition"... Titta polaris är nästan dubbelt så effektivt som maxwell.

Har inget emot polaris, är väl trevliga kort. Men, AMD slog enormt på en prestanda/w trumma innan release, något de helt enkelt inte levde upp tilll, speciellt med tanke på att Fiji redan hade kommit i kapp Maxwell. Polaris tog bara samma prestanda/w till en annan prisklass.

Jämför storleken på kretsen till Fury och kretsen till 480 först. Hoppet till Fury var inte mycket bättre rent tekniskt än tidigare serie, bortsett från HBM som var helt nytt men lite experimentellt. Det var till största delen bara en större krets och kunde därför prestera bättre.

Polaris 10 är nästan 3 gånger mindre i storlek än Fiji, 232mm^2 mot 596mm^2.

Att mäta datorns temperatur vid idle är ungefär lika värdefullt som att mäta frysens temperatur vid avfrostning.

Sitter just nu med en Ryzen 7 1700@3850Ghz och ett GTX 1080@2Ghz.

Trädvy Permalänk
Medlem
Registrerad
Nov 2011
Skrivet av thomas_skane:

Jämför storleken på kretsen till Fury och kretsen till 480 först. Hoppet till Fury var inte mycket bättre rent tekniskt än tidigare serie, bortsett från HBM som var helt nytt men lite experimentellt. Det var till största delen bara en större krets och kunde därför prestera bättre.

Polaris 10 är nästan 3 gånger mindre i storlek än Fiji, 232mm^2 mot 596mm^2.

Det där är ju till stor del tillverkningsprocessen som mer än dubblerade densiteten. Dessutom är ju Fury X markant snabbare. Prestandan per transistor är inte högre än den i lastgamla 7970! Detta trots högre frekvenser på Polaris, trots transistorbesparingar på antalet minneskontrollers kompenserat med snabbare minnen och trots mycket sämre dubbelprecisionsprestanda.

Att Polaris på något vis skulle göra mer med mindre stämmer helt enkelt inte.

Trädvy Permalänk
Medlem
Plats
Skåne
Registrerad
Dec 2002

Videoredigering i 8K låter häftigt men jag kan inte låta bli att tro att det beror på att de inte kan slå ut Nvidias motsvarighet i spelprestanda....

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Trädvy Permalänk
Medlem
Plats
SKÅNE
Registrerad
Jul 2007

8 GB ... LMAO kommer inte ens har full kontroll på 4K upplösning
Bra att AMD har satt lite eld i gumpen på Intel och Nvidia. Jag har väntat på både x299 och Polaris. Tack vare AMD's hype train, ser det nu ut som att jag kommer få bägge delarna i år.

Skickades från m.sweclockers.com

Trädvy Permalänk
Medlem
Registrerad
Okt 2016
Skrivet av Aleshi:

Men även Polaris är GFX IP v8.0. Så kan inte bara jämföra så, Tonga är på flera sätt primitivare än Fiji, och hur man än vrider och vänder på det så jämför de med previous generation, vilket snarare är Fiji. Men låt säga att de jämför med Tonga, Polaris har nästan identisk effektförbrukning och 30-35% högre prestanda enligt Sweclockers test. Det är pinsamt nära gamla 7970 från 2011!
Och det är inte i närheten av de siffror som AMD tillskrev på grund av krympning, och än mindre när man lägger till det som skulle komma från arkitekturförbättringar.

Polaris är GFX 8.1 om vi skall vara petiga, men det är ingen väsentlig skillnad - 8.0 och 8.1 lär ha identisk instruktionsuppsättning, vilket annars aldrig händer mellan generationer.

Skrivet av Aleshi:

Ja nog är det utanför sin comfort zone alltid, det går ju att sänka effektförbrukningen rejält med nedklockning. Vilket stärker min tes om att ett Hawaii hade presterat bättre på 14nm än Polaris. Hawaii på 910-1040MHz hade presterat ungefär lika, men tack vare de låga frekvenserna varit långt ner i sin comfort zone. Kör man ett 290X på törstiga 28nm men i snåla 910MHz så är det plötsligt rätt energisnålt bara där.

Gamla GCN gjorde aldrig någon succe bland bärbara. Skall du ner till de 30W som Polaris 11 går på just nu får du gå ner till en nerkapad Cape Verde som går under 600 Mhz. 14LPP (som processen heter) kan gå mycket snålare än de diverse 28nm-processerna AMD använde tidigare, men inte på de klockor AMD kör just nu.

Jag håller med om att Hawaii hade varit en bättre konstruktion här. AMDs misstag med Polaris 10 är att det bara har 32 ROPar. Hawaii hade 64. Det är talande att jämföra med nVidia här - GK106 hade 24 ROPar, medan GM206 had 32 och GP106 har 48. Polaris står kvar och stampar på samma 32 som Pitcairn hade 2012.

Trädvy Permalänk
Medlem
Registrerad
Apr 2012
Skrivet av mpat:

Polaris är GFX 8.1 om vi skall vara petiga, men det är ingen väsentlig skillnad - 8.0 och 8.1 lär ha identisk instruktionsuppsättning, vilket annars aldrig händer mellan generationer.

Vad får du detta ifrån?
Polaris är GFX8 i den dokumentation jag läst, länka källa tack.
Bara för att uncore skiljer gör inte att du kan döpa om efter eget tänk.
Uncore kan skilja en hel del mellan olika revisioner.

Skrivet av mpat:

Gamla GCN gjorde aldrig någon succe bland bärbara. Skall du ner till de 30W som Polaris 11 går på just nu får du gå ner till en nerkapad Cape Verde som går under 600 Mhz. 14LPP (som processen heter) kan gå mycket snålare än de diverse 28nm-processerna AMD använde tidigare, men inte på de klockor AMD kör just nu.

Jag förstår inte vad du menar? Avser du CPU/APU eller GPU?
GCN har sålt rätt bra i bärbara datorer och även i 500-serien kan vi hitta ett GCN 1 SI chip.
AMD har 28nm-processorer i bärbara för tillfället då 14nm-processorerna inte är presenterade än.
Jag finner det snarare att AMD inte gjort något större succé bland tillverkare av bärbara, det har varit rätt få bärbara med AMD hårdvara (de flesta användare är inte speciellt intresserade av hårdvara).
På bärbara finns det AMD processorer som står sig bra mot Intel i samma prisklasser även fast de är 28nm.
Nyare GPU:er från AMD har inte varit en vanlig syn även om polaris 400-serie nu börjat hitta ut på marknaden så är de trotts allt i rätt begränsat antal laptop modeller.
Jag kan informera om att RX460 fungerar rätt bra i en laptop.

Trädvy Permalänk
Medlem
Registrerad
Apr 2015
Skrivet av mpat:

Gb/s, gigabit per sekund, är alltid ett decimalt värde. Det finns inget Gibit definierat, vad jag kan se, och det finns varken historiska eller matematiska skäl att hitta på den enheten. Vad gäller GB är det lite olika vad som menas. ISO har mycket riktigt definierat det som en miljard bytes, men det är det egentligen ingen som följer. Hårddiskar brukar vara det helt sanslösa 1000*1000*1024 om du tittar noga. En sektor är nämligen antingen 512 eller 4096 bytes, och storleksberäkningarna brukar vara baserad på att man räknar hur många sektorer det finns. Bäst av allt är dock SSDer - om det står att en disk har 250GB, så har den 250*1024*1024*1024 rent fysiskt, men du kan bara komma åt 250*1000*1000*1000. Resten används som buffert för wear-levelling.

Att sektorerna är den storlek de är beror naturligtvis på att man tidigt enbart använde enheter baserade på 1024. Så här i efterhand brukar hårddisk-tillverkarna säga att de aaaalltid har räknat med decimaltal, men det är inte sant - det fanns de som gjorde det redan på sjuttiotalet, men de flesta körde med binära enheter fram till slutet av åttiotalet nån gång när nån marknadsförare kom på att man kunde lura kunderna genom att rapportera på det andra sättet.

(Min personliga åsikt är att ISO var idioter som gjorde den definitionen de gjorde. Att blanda en binär enhet (byte) med decimala är bara korkat. De borde ha definierat att enheten för lagring är bit och låtit både RAM och hårddisk-tillverkare rapportera i det. Att så inte skedde var för att hela frågan lyftes av hårddisk-tillverkare som blivit stämda för falsk marknadsföring, och de behövde ha en definition av MB och GB som gjorde att de inte behövde betala).

Skickades från m.sweclockers.com

Det som är definierat vad gäller gibi och de andra prefixen (kibi, mebi etc.) är just prefixet som innebär 2^x (2³⁰ för gibi).
Om man skriver 1 gibi innebär det alltså 1 x 2³⁰ av någonting, när man lägger till byte till gibi så blir det 1 gibibyte dvs 1 x 2³⁰ bytes dvs 1 GiB eller då 1 073 741 824 bytes.

Detta definieras i ISO 80000 och IEC 80000.
Där ser man även att enheten för t.ex. gibibyte är GiB och enheten för gibibit är Gibit.

Prefixet giga (och kilo, mega osv) används till massor av enheter så att det ska betyda något annat för data är helt tokigt.
Eftersom en byte består av 8 bitar så är det samma problematik med >1000 oavsett om det är bitar eller bytes.
Bitar har precis som bytes grupperats om 1024 men har skrivits som kb (kilobit) trots att kilo betyder 1000.
Detta insåg standadiseringsorganen och la till kibi, mebi, gibi osv för över 15 år sedan.

När en hårddisktillverkare säger 1TB så är det tera (10^¹²) bytes de syftar på och det är helt riktigt.
Rent praktiskt så blir det oftast lite mer på grund av sektorer och överflöd m.m. och detta kanske hamnar nära 1000*1000*1024 enligt din erfarenhet.

SSDs brukar däremot ha ett binärt jämnt antal GiB i grunden t.ex. 128, 256, 512, 1024 (ibland 196 och 768).
Vanligt är att disken har X antal kanaler och dessa kanaler har lika många minneschip var.
En SSD på 256 GB har kanske 4 kanaler vilket är ganska vanligt för konsumentdiskar och dessa är då vanligen en binärt jämn storlek vardera dvs 64 GiB.
Till en början har vi alltså en disk på 256 GiB (motsvarande ca 275 GB).
Sen skiljer det sig lite från modell till modell hur man gör med garbage collection, wear-levelling, i allmänhet och hur mycket som allokeras till övrig prestandaoptimering, felkorrigering och till och med viss redundans.
Säg att vi tar en åttondel av varje kanal dvs 8 GiB då har vi totalt 32 GiB som kontrollern kan använda till egna ändamål.
256 - 32 = 224 GiB = 240,5 GB (syns i Windows som 224 GB).
Vissa tillverkare använder bara skillnaden mellan GiB och GB till kontrollern så man får 238 GiB = 256 GB (syns i Windows som 238 GB).

Min personliga åsikts delas uppenbarligen av standardiseringsorganen då jag tycker det är heltokigt att använda ett prefix som innebär 1000^x till något som mäts i 1024^x.
Det hårddisktillverkarna gjorde och gör tror jag nästan enbart var för egen vinning som en marknadsgrej även om det också var tekniskt korrekt men jag personligen är alltid för att man ska använda det som är rätt även om det är jobbigt att anpassa sig om man lärt sig fel.

Trädvy Permalänk
Medlem
Registrerad
Apr 2015
Skrivet av SolidReactor:

Så som jag har förstått det (gärna rätta mig ni som vet bättre)
Vid lagring så har man fysiskt skapat sektorer på HDD med hänsyn till 1 byte eller 8 bitar med då t.ex. sektorstorlekar på 512bytes eller 4096bytes, därav "1024 = 1000" debaclet.
För RAM så har det säkert designats kretsar på liknande vis och så antar jag även för SSD:er

Vid överföring av data finns det inget behov av att ta hänsyn till detta och då räknas det med GT/s (gigatransfer) eller MT (megatransfer) per sekund istället.
Transfer räknas från "effektiv" Hz d.v.s. vis 100MHz DDR blir det 200MHz "effektiv" hastighet d.v.s. 200MT/s då det oftast(?) är 1bit per transfer. Då blir förhållandena oftast/alltid(?) följande för minnen: 1GHz (effektiv hastighet) = 1GT/s = 1Gbit/s.
GT/s är alltså de faktiska antalet bitar som skickas per sekund i miljarder (US billion) eller 10^9.

Eftersom det inte finns något behov att adressera strömmen av data på överföring som skickas så är det ingen talan om GiB (Gibibyte) data, bara där data lagras och adresseras kan man stöta på 1024/1000 debaclet.

Jag "överförklarar" då eftersom om jag har fel så vill jag gärna ha pointers på just var jag tänker fel och bli en bättre nörd människa... nä nörd blir bra

Nu skrev jag precis en större post i ämnet om du orkar läsa men det har inget med sektorstorlekar eller formatering att göra.
Problematiken kommer ifrån att vissa har använt prefixen kilo, mega, giga osv (som står för 10³, 10⁶ och 10⁹) som om de stod för respektive 2¹⁰, 2²⁰, 2³⁰ i stället.
Så talet som står är 1 GB men det är egentligen 1,0737...GB eftersom talet som står inte är gigabytes egentligen utan 2³⁰ bytes.

Det finns massor av historik kring detta om man vill veta exakt varför och hur de grupperat om 1024 i stället för 1000 (men rätt logiskt eftersom 1024 är 2¹⁰ och datorer räknar binärt.

Det blir farligt då när man t.ex. börjar prata om överföring som du pratar om nu och man blandar ihop felaktiga och korrekta användningar av prefixen.

Om vi förusätter den felaktiga typen megabyte som är 1024^2 bytes medans megabit i exemplet är 1000^2 så fungerar inte ekvationen riktigt:
1 MB = 1 048 576 byte = 8 388 608 bit = 8388,6 kbit = 8,38 Mbit = 1,04 MB

Så problemet ligger i att prefixen använts (och används) felaktigt och i att det inte med säkerhet går att säga vilken typ (MB / MiB) som används.

Behöver således nödvändigtvis inte knytas till något specifikt t.ex. adressering eller dataöverföring.

Trädvy Permalänk
Medlem
Registrerad
Okt 2016
Skrivet av Snubb1:

Vad får du detta ifrån?
Polaris är GFX8 i den dokumentation jag läst, länka källa tack.
Bara för att uncore skiljer gör inte att du kan döpa om efter eget tänk.
Uncore kan skilja en hel del mellan olika revisioner.

OpenCL-drivrutinen definerar dem så, men namnet är inte viktigt. Jag håller med om att skillnaden mellan Polaris och korten närmast innan (Tonga/Fiji/Iceland) är minimal.

Skrivet av Snubb1:

Jag förstår inte vad du menar? Avser du CPU/APU eller GPU?
GCN har sålt rätt bra i bärbara datorer och även i 500-serien kan vi hitta ett GCN 1 SI chip.
AMD har 28nm-processorer i bärbara för tillfället då 14nm-processorerna inte är presenterade än.
Jag finner det snarare att AMD inte gjort något större succé bland tillverkare av bärbara, det har varit rätt få bärbara med AMD hårdvara (de flesta användare är inte speciellt intresserade av hårdvara).
På bärbara finns det AMD processorer som står sig bra mot Intel i samma prisklasser även fast de är 28nm.
Nyare GPU:er från AMD har inte varit en vanlig syn även om polaris 400-serie nu börjat hitta ut på marknaden så är de trotts allt i rätt begränsat antal laptop modeller.
Jag kan informera om att RX460 fungerar rätt bra i en laptop.

Jag talar om hur grafikkorten beter sig på låg energi. Om skall ha en GPU som drar 30W nu med Polaris så blir det Polaris 11, fullt upplåst med 16 CU och klockfrekvensen runt 900 MHz. Inte så illa. Om du skall ha en GPU som drar 30W på gamla GCN på 28nm, så blir det en nedkapad Cape Verde, dvs 8 CUs med en klockfrekvens run 600 MHz. Där har det faktiskt gått framåt en del med 14LPP.

Trädvy Permalänk
Medlem
Registrerad
Nov 2011
Skrivet av mpat:

Polaris är GFX 8.1 om vi skall vara petiga, men det är ingen väsentlig skillnad - 8.0 och 8.1 lär ha identisk instruktionsuppsättning, vilket annars aldrig händer mellan generationer.

Jag läser 8.0 på ett flertal ställen.

Skrivet av mpat:

Gamla GCN gjorde aldrig någon succe bland bärbara. Skall du ner till de 30W som Polaris 11 går på just nu får du gå ner till en nerkapad Cape Verde som går under 600 Mhz. 14LPP (som processen heter) kan gå mycket snålare än de diverse 28nm-processerna AMD använde tidigare, men inte på de klockor AMD kör just nu.

Ja att man kan ha stora vinster vid processkrympning vid just låga frekvenser är ingen hemlighet. Det har vi sett på bärbart vid varje processkrympning på senare år. Det är dock inte riktigt något man kan ha som grund för dessa påståenden om effektivisering.
De siktade på tok för lågt med prestandan på Polaris och fick pressa kretsen utanför sin comfort zone helt enkelt. Verkar som att de hade tänkt behålla frekvenserna från 28nm nästan.

Man måste bli väldigt kreativ för att hitta större energieffektivitetsförbättringar än 35%, och även för att nå 35% så jämför man snällt. Ska man dessutom se till att de lovade förbättrad prefetch, förbättrad L2 och ökade bufferstorlekar för att få högre prestanda per shader. Men även en ny Primitive Discard Accelerator som skulle ge bättre geometriprestanda och minska datatrafik tillsammans med ny cache som också minskar datatrafik för sammanlagt upp till 3,5x geometriprestanda och tesseleringsprestanda. Utöver det förbättrad minneskomprimering osv, så ser man att Polaris prestanda är under all kritik. Den är ineffektivare än 390X på att nå sin teoretiska prestanda. Vi har den nya effektiviserade kretsen som har sämre prestanda per transistor vid tyngre laster, sämre praktisk prestanda per gflops och som sagt inte energieffektivare än Fury, och inte i närheten så mycket energieffektivare än Tonga som man kan begära. Och detta trots att de kapat för spel onödiga dubbelprecisionsprestandan, krympt noden ordentligt och kastat massa "Radeon Tech" på effektivare och energieffektivare arkitektur. Det är bedrövligt helt enkelt.

Trädvy Permalänk
Medlem
Registrerad
Okt 2016
Skrivet av Yomster:

Det som är definierat vad gäller gibi och de andra prefixen (kibi, mebi etc.) är just prefixet som innebär 2^x (2³⁰ för gibi).
Om man skriver 1 gibi innebär det alltså 1 x 2³⁰ av någonting, när man lägger till byte till gibi så blir det 1 gibibyte dvs 1 x 2³⁰ bytes dvs 1 GiB eller då 1 073 741 824 bytes.

Detta definieras i ISO 80000 och IEC 80000.
Där ser man även att enheten för t.ex. gibibyte är GiB och enheten för gibibit är Gibit.

Allright, fair enough.

Skrivet av Yomster:

Prefixet giga (och kilo, mega osv) används till massor av enheter så att det ska betyda något annat för data är helt tokigt.
Eftersom en byte består av 8 bitar så är det samma problematik med >1000 oavsett om det är bitar eller bytes.
Bitar har precis som bytes grupperats om 1024 men har skrivits som kb (kilobit) trots att kilo betyder 1000.
Detta insåg standadiseringsorganen och la till kibi, mebi, gibi osv för över 15 år sedan.

Bara 30 år för sent, alltså.

Om du tittar i en datorordlista från tiden innan hårddisk-tillverkarna började med sin PR-kampanj så stod det normalt kb=kilobit= 1000 bits och KB=kilobyte (notera stort K)=1024 bytes. Det är därför alla operativsystem rapporterade dem på det viset (Mac OS X bytte långt senare till decimala enheter, och skalet i UNIX-baserade system kan fås att rapportera hur du vill, men det var också en bit in på 2000-talet de började med det). Att det är korkat att låta kilo osv betyda något annat än 1000 kan jag absolut hålla med om, men att som ISO låtsas att MB betyder 1 miljon bytes och alltid har gjort är att stoppa huvudet i sanden. Det har oftast betytt något helt annat, och för många produkter är det standard att rapportera det så fortfarande. JEDEC specar fortfarande i sina standarder att man skall räkna med de 1024-baserade enheterna.

Min poäng är att ISO borde ha hållit sig borta från enheten byte och säga att man enbart skall använda bits att räkna med. Det är ingen som räknar tid i mega-minuter eller giga-timmar, utan man använder i så fall sekunder och så stora prefix man behöver. Hela enheten byte kommer av en gammal processor långt innan jag föddes som råkade jobba med så många bitar åt gången, och är mest att betrakta som historisk kuriosa. Finns ingen anledning att fortsätta ha den kvar nu när den blivit tvetydig.

Skrivet av Yomster:

Min personliga åsikts delas uppenbarligen av standardiseringsorganen då jag tycker det är heltokigt att använda ett prefix som innebär 1000^x till något som mäts i 1024^x.
Det hårddisktillverkarna gjorde och gör tror jag nästan enbart var för egen vinning som en marknadsgrej även om det också var tekniskt korrekt men jag personligen är alltid för att man ska använda det som är rätt även om det är jobbigt att anpassa sig om man lärt sig fel.

Min åsikt är att enheterna MB och GB osv är så urvattnade att de borde pensioneras. Om det inte står något förtydligande antar jag att det är decimala enheter om det är lagringsutrymme det handlar om, och binära enheter annars. Om vi alla hade bestämt oss för att vi skall skriva GiB osv framöver så är väl det OK, men man kan inte fortsätta använda de gamla enheterna när de har olika definitioner på olika ställen.

Trädvy Permalänk
Medlem
Registrerad
Apr 2012
Skrivet av mpat:

OpenCL-drivrutinen definerar dem så, men namnet är inte viktigt. Jag håller med om att skillnaden mellan Polaris och korten närmast innan (Tonga/Fiji/Iceland) är minimal.

Tackar för svaret och du har rätt 8.1 finns från AMD i kod.
Här är en länk för klarhet i frågan.
https://github.com/torvalds/linux/blob/master/drivers/gpu/drm...

Skrivet av mpat:

Jag talar om hur grafikkorten beter sig på låg energi. Om skall ha en GPU som drar 30W nu med Polaris så blir det Polaris 11, fullt upplåst med 16 CU och klockfrekvensen runt 900 MHz. Inte så illa. Om du skall ha en GPU som drar 30W på gamla GCN på 28nm, så blir det en nedkapad Cape Verde, dvs 8 CUs med en klockfrekvens run 600 MHz. Där har det faktiskt gått framåt en del med 14LPP.

Tack då förstår jag

Trädvy Permalänk
Medlem
Registrerad
Apr 2015
Skrivet av mpat:

Om du tittar i en datorordlista från tiden innan hårddisk-tillverkarna började med sin PR-kampanj så stod det normalt kb=kilobit= 1000 bits och KB=kilobyte (notera stort K)=1024 bytes. Det är därför alla operativsystem rapporterade dem på det viset (Mac OS X bytte långt senare till decimala enheter, och skalet i UNIX-baserade system kan fås att rapportera hur du vill, men det var också en bit in på 2000-talet de började med det).

Bitar har som sagt i många fall historiskt sett grupperats om 1024 också.
Vissa ordlistor kanske säger 1 kb = 1000 bits och vissa säger 1 kb = 1024 bits.
Om en ordlista säger att 1 kb = 1000 bits och 1 kB = 1024 bytes och sen säger att 8 bits = 1 byte så ogiltigförklarar ju ordlistan sig själv.

Skrivet av mpat:

Att det är korkat att låta kilo osv betyda något annat än 1000 kan jag absolut hålla med om, men att som ISO låtsas att MB betyder 1 miljon bytes och alltid har gjort är att stoppa huvudet i sanden.

Definitionen av Mega har alltid varit en miljon så det är inte ISO som låtsas om att MB betyder 1 miljon bytes, i min mening.
Om man väljer att använda prefixet Mega, som betyder en miljon, så får man anta att man menar 1 miljon och inte 1,048 miljoner.
Historiskt sätt valde man att använda kilo och mega osv för att det var "close enough" och det är där misstaget begicks, kan jag tycka.

Skrivet av mpat:

Hela enheten byte kommer av en gammal processor långt innan jag föddes som råkade jobba med så många bitar åt gången, och är mest att betrakta som historisk kuriosa. Finns ingen anledning att fortsätta ha den kvar nu när den blivit tvetydig.

Min åsikt är att enheterna MB och GB osv är så urvattnade att de borde pensioneras. Om det inte står något förtydligande antar jag att det är decimala enheter om det är lagringsutrymme det handlar om, och binära enheter annars. Om vi alla hade bestämt oss för att vi skall skriva GiB osv framöver så är väl det OK, men man kan inte fortsätta använda de gamla enheterna när de har olika definitioner på olika ställen.

Mycket intressant tankegång, måste jag säga!
Eftersom begreppen MB och GB kan antas mena både grupperingar om 1000 och 1024 så kan man se dessa som devalverade medans
MiB och GiB uttalat är grupperingar om 1024.
Eftersom bit och byte kan innebära både decimala och binära grupperingar så kan dessa också ses som devalverade.

Jag har aldrig tänkt i banorna att byte är onödig men det är ju faktiskt ytterligare ett lager av obskyritet (eftersom det ändå finns prefix för var tredje decimal).

Folk är så lata med versaler så det kan bli både GB, Gb och gb.
När man väl listat ut om de menar GB eller Gb måste man fortsätta för att få reda på om det är GB, GiB, Gb eller Gibit de egentligen menar.

Intressant, som sagt.

Trädvy Permalänk
Medlem
Registrerad
Apr 2012
Skrivet av mpat:

Polaris är GFX 8.1 om vi skall vara petiga, men det är ingen väsentlig skillnad - 8.0 och 8.1 lär ha identisk instruktionsuppsättning, vilket annars aldrig händer mellan generationer.

Gamla GCN gjorde aldrig någon succe bland bärbara. Skall du ner till de 30W som Polaris 11 går på just nu får du gå ner till en nerkapad Cape Verde som går under 600 Mhz. 14LPP (som processen heter) kan gå mycket snålare än de diverse 28nm-processerna AMD använde tidigare, men inte på de klockor AMD kör just nu.

Jag håller med om att Hawaii hade varit en bättre konstruktion här. AMDs misstag med Polaris 10 är att det bara har 32 ROPar. Hawaii hade 64. Det är talande att jämföra med nVidia här - GK106 hade 24 ROPar, medan GM206 had 32 och GP106 har 48. Polaris står kvar och stampar på samma 32 som Pitcairn hade 2012.

Men samtidigt hade GP104 64 ROPar, vilket är lika mycket som GM104 trots markant högre prestanda. Detsamma gäller för GP102 som hade 96 ROPar vilket var lika mycket som GM200.

Med tanke på att GP104 hade färre ROPar än GM200 trots att den förra presterar bättre får mig att tvivla att antalet ROPar är boven i dramat.

Kepler kretsarna hade å andra sidan hälften så många ROPar som deras Maxwell & Pascal motsvarighet (48 för GK110, 32 för GK104).

Som jämförelse hade Tonga kretsen 32 ROPar vilket var lika mycket som Polaris 10.

Siter som tar upp Frame Times/99th percentile/1% low fps i sina grafikkortstester: http://www.gamersnexus.net/, http://www.guru3d.com/, http://www.custompcreview.com/, http://arstechnica.co.uk/ http://www.pcper.com/, http://techreport.com/, http://www.tomshardware.com/,
Site som tar upp om spelen som är testade i deras grafikkortsrecensioner är sponsrade eller utvecklade i samarbetade med Nvidia/AMD: http://techgage.com/category/graphics-and-displays/

Trädvy Permalänk
Medlem
Registrerad
Okt 2016
Skrivet av FishTank:

Men samtidigt hade GP104 64 ROPar, vilket är lika mycket som GM104 trots markant högre prestanda. Detsamma gäller för GP102 som hade 96 ROPar vilket var lika mycket som GM200.

Med tanke på att GP104 hade färre ROPar än GM200 trots att den förra presterar bättre får mig att tvivla att antalet ROPar är boven i dramat.

Kepler kretsarna hade å andra sidan hälften så många ROPar som deras Maxwell & Pascal motsvarighet (48 för GK110, 32 för GK104).

Som jämförelse hade Tonga kretsen 32 ROPar vilket var lika mycket som Polaris 10.

NVidia kör med ett fixt antal ROPar per memory controller i en arkitektur, medan AMD kan variera detta. Oftast kör AMD med 8 ROPar per 64-bitars minnesbuss, men ibland kör de färre, som i Tahiti. nVidia körde med 8 ROP per 64-bitars buss i Kepler, men drog sedan upp till det dubbla i Maxwell och har inte ökat mer sen dess.

Poängen är att man skall ha nog med ROPar för att aldrig flaska på dem, eftersom ROParna är ganska små på chippet jämfört med de stora shaderbankarna. När nVidia insåg att de flaskade på ROPar i Kepler så drog de till med en dubblering till Maxwell, och sen dess är inte längre ROParna problemet. Maxwell flaskar istället på sina shaders, så när Pascal lade till fler shaders gick prestandan upp motsvarande (plus att klockfrekvensen naturligtvis gick upp, vilket hjälper både ROPar och shaders). Ett tag såg det ut som om AMD had lärt sig samma läxa, när Hawaii hade 64 ROPar och Fiji låg kvar på samma siffra, men tyvärr är Polaris 10 tillbaka på 32.

Om man jämför Polaris 10 med Hawaii så har den första 20% färre shaders, eller 10% färre om du jämför 480 med 290/390, medan det är hälften så många ROPar. Det är mycket därför Polaris 10 är sämre än Hawaii vid samma klockfrekvens - att de håller någorlunda jämna steg totalt beror på att Polaris 10 går på väsentligt högre klockfrekvens (samt att Hawaii ibland flaskar på geometrin). Hade AMD balanserat chippet bättre och kört med 48 eller 64 ROPar hade chippet inte blivit speciellt mycket större men antagligen betett sig mer som ett överklockat 390 istället för ett något upphottat 380.

Trädvy Permalänk
Medlem
Registrerad
Nov 2011
Skrivet av mpat:

NVidia kör med ett fixt antal ROPar per memory controller i en arkitektur, medan AMD kan variera detta. Oftast kör AMD med 8 ROPar per 64-bitars minnesbuss, men ibland kör de färre, som i Tahiti. nVidia körde med 8 ROP per 64-bitars buss i Kepler, men drog sedan upp till det dubbla i Maxwell och har inte ökat mer sen dess.

Poängen är att man skall ha nog med ROPar för att aldrig flaska på dem, eftersom ROParna är ganska små på chippet jämfört med de stora shaderbankarna. När nVidia insåg att de flaskade på ROPar i Kepler så drog de till med en dubblering till Maxwell, och sen dess är inte längre ROParna problemet. Maxwell flaskar istället på sina shaders, så när Pascal lade till fler shaders gick prestandan upp motsvarande (plus att klockfrekvensen naturligtvis gick upp, vilket hjälper både ROPar och shaders). Ett tag såg det ut som om AMD had lärt sig samma läxa, när Hawaii hade 64 ROPar och Fiji låg kvar på samma siffra, men tyvärr är Polaris 10 tillbaka på 32.

Om man jämför Polaris 10 med Hawaii så har den första 20% färre shaders, eller 10% färre om du jämför 480 med 290/390, medan det är hälften så många ROPar. Det är mycket därför Polaris 10 är sämre än Hawaii vid samma klockfrekvens - att de håller någorlunda jämna steg totalt beror på att Polaris 10 går på väsentligt högre klockfrekvens (samt att Hawaii ibland flaskar på geometrin). Hade AMD balanserat chippet bättre och kört med 48 eller 64 ROPar hade chippet inte blivit speciellt mycket större men antagligen betett sig mer som ett överklockat 390 istället för ett något upphottat 380.

Finns det något smidigt sätt att testa detta på? Deaktivera ROP:ar på ett 390X t.ex.? Eller är det för tätt sammanbyggt med annat?

Trädvy Permalänk
Medlem
Registrerad
Okt 2016
Skrivet av Aleshi:

Finns det något smidigt sätt att testa detta på? Deaktivera ROP:ar på ett 390X t.ex.? Eller är det för tätt sammanbyggt med annat?

Jag vet inget sätt att stänga av ROPar, men man kan ju (via kortets BIOS om inte annat) stänga av shader-kluster. Om man tog en Radeon 480 och började stänga av fyra CUn åt gången från 36 till 32 till 28 osv, så borde man kunna se hur mycket prestanda man tappar. Om man tappar 11% för varje steg så är den enbart begränsad av shaderkapaciteten. Tappar den mindre, är den begränsad av antingen ROParna eller minnebandbredden. Om man gör ett test där det garanterat inte är minnesbandbredden så är det väl bara ROParna kvar?

Men om man inte har korten, eller inte orkar jobba sig, så kan man få en idé genom att jämföra 480 med 570. Klockfrekvensen är nästan identisk, utan skillnaderna beror på antingen att 570 har 12.5% mindre minnesbandbredd eller på att den har 11% färre shaders och TMUer. Det är "allt" som kan vara begränsande förutom ROParna (OK geometrin, men AMD säger ju sig ha fixat den biten i Polaris), så prestandan borde gå ner med åtminstone 11%. En liten koll på Sweclockers test visar att det oftast är jämnare än så, speciellt på minimum framerate:

http://www.sweclockers.com/test/23657-amd-radeon-rx-580-och-r...

Jag kan inte se någon annan förklaring än att Polaris 10 flaskar på ROParna åtminstone i en del fall.