Xbox Project Scorpios speltitlar från Microsoft körs i äkta 4K-upplösning

Permalänk
Medlem
Skrivet av anon5930:

Digital Foundry spekulerar om 12GB minne iallafall: http://www.eurogamer.net/articles/digitalfoundry-2016-xbox-on...

Skrivet av ipac:

Den animering MS visade av moderkortet (det är naturligtvis så att de färdiga produkten inte måste se ut så - men det är vad vi har att gå på) innehåller 12 st minnesmoduler. Alla på en och samma sida av kretskortet (baksidan visades aldrig). 12 GB blir ju då den rimliga gissningen.

http://gearburn.sndytsvoxozgokstuvcm.netdna-cdn.com/wp-content/uploads/2016/06/xbox-scorpio-motherboard.jpg

Då är det mer troliga att de kör någon kombo av RAM som är 384-bit, 12GB, som ska bli 320GB/s. Om min matte-skalle nu inte är helt fel (vilket den har varit förr), så borde detta bli nånstans runt 6,667Ghz GDDR5 VRAM, vilket ju är möjligt.

Tittar man på google lite så är ju 6800Mhz rätt vanligt (sitter i rätt många olika GPUer, inkl AMD GPUer). Så det blir mao samma 320GB/s som 290 har, vilket inte låter helt koko, med tanke på att det är AMD som tillverkar detta och kärnorna bygger på typ dessa kretsar.

(I teorin då. Rätta mig om jag det låter koko)

Skrivet av ipac:

Då dyker några frågor upp:
Är det tekniskt möjligt att bara köra hälften av minnesmodulerna i clamshell mode? Och innebär clamshell att modulerna måste sitta på var sida av kretskortet (det är ju så det brukar vara konfigurerat iaf)?

Animeringen kan ju vara trams men samtidigt, varför skulle man animera 12 st bara lite på måfå sådär?

Eller är det lik förbaskat 12 GB DDR3/4 och ESRAM är tillbaka och härjar igen?

Vågar inte svara på det, men helt ärligt tror jag med på det jag skrev här ovan, då det är rätt logiskt för 12GB VRAM, 384-bit buss @ 1700Mhz (6,8Ghz eff)

Permalänk
Medlem
Skrivet av Paddanx:

Då är det mer troliga att de kör någon kombo av RAM som är 384-bit, 12GB, som ska bli 320GB/s. Om min matte-skalle nu inte är helt fel (vilket den har varit förr), så borde detta bli nånstans runt 6,667Ghz GDDR5 VRAM, vilket ju är möjligt.

Tittar man på google lite så är ju 6800Mhz rätt vanligt (sitter i rätt många olika GPUer, inkl AMD GPUer). Så det blir mao samma 320GB/s som 290 har, vilket inte låter helt koko, med tanke på att det är AMD som tillverkar detta och kärnorna bygger på typ dessa kretsar.

(I teorin då. Rätta mig om jag det låter koko)

Vågar inte svara på det, men helt ärligt tror jag med på det jag skrev här ovan, då det är rätt logiskt för 12GB VRAM, 384-bit buss @ 1700Mhz (6,8Ghz eff)

Hur funkar siffrorna med en APU med HBM?

Skickades från m.sweclockers.com

Permalänk
Skrivet av jOnÄTÄn:

Varför tror du nintendo vinner? För varje ny läcka om nintendos nästa blir det ju bara värre och värre eller var det inte rykten om något tegra skräp? Nu har ju redan både microsoft och Sony ett ganska stort försprång denna generationen också.
Nintendos egna spel lyckades ju inte rädda Wii u från att floppa.
Jag hoppas du har rätt för jag köper hellre en nintendo konsol än XBOX/PS, men inget av ryktena om hur den nya blir lockar mig i alla fall.

Beroende på användningen kan tegra vara en rätt kompetent krets. Men den känns malplacerad i detta fall

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Nord93:

Det kommer garanterat bli 4K i 30 fps annars hade de nämnt 60 fps då det är ett säljargument för konsolerna. Men kommer man inte få välja själv om man vill köra 60 fps i 1080 eller 30 fps i 4K upplösning som man kommer kunna med PS4 Pro?

Finns bara ett spel bekräftat som kan köras med upplåst FPS på PS4Pro såvitt jag vet, det är Rise of the Tomb Raider som då går mellan 40-60fps i 1080 på samma grafikinställningar som på PS4. Jaguar-cpun är för klen helt enkelt.

Visa signatur

7800X3D | RTX 4080 Super | 32GB DDR5 | LG 48 C1 OLED

Permalänk
Medlem
Skrivet av Söderbäck:

Det låter för bra för att vara sant, och det är också för bra för att vara sant ;).

TVapparaterna kan inte uppdatera bilden mer än 60 gånger per sekund i dagsläget. Tillverkarna har byggt in massa bildförbättringstekniker som man marknadsför med att skriva att man uppdaterar bilden oftare än så ändå... vilket inte riktigt är sant. Exempelvis kan man tända och släcka skärmbelysningen dubbelt så fort som 60hz-panelen byter bild. Och det innebär ju att man faktiskt använder 120hz i TVn ;). Men... ja.

Så problemet är större än att det inte sitter rätt kontakt på TVn.
Panelerna är inte gjorda för det, styrkorten i TVapparaterna är inte gjorda för så snabb uppdatering, och så är det dessutom som du säger att kontakterna också saknas.

Exempel på artikel:
https://www.cnet.com/news/fake-refresh-rates-is-your-tv-reall....

Där har du dock fel.
"more expensive models generally have an actual — or "native" — refresh rate of 120 Hz"
http://www.tomsguide.com/us/tv-refresh-rates-explained,review...

Visa signatur

WS: Asus X570-E, Ryzen 5900x, 2x16GB Ballistix E-die, EVGA 3080 FTW3 Ultra
FS: Asus X370-F, Ryzen 3600, 4x8GB G.Skill Flare, GT710, CM Stacker
HTPC: Asus F2A85-M, A10-5800K, 2x4GB G.Skill 2133MHz

Permalänk
Hedersmedlem
Skrivet av kirkunit:

Där har du dock fel.
"more expensive models generally have an actual — or "native" — refresh rate of 120 Hz"
http://www.tomsguide.com/us/tv-refresh-rates-explained,review...

Yepp. Good point!
Det verkar ha kommit en hel del skärmar där panelen har stöd för 120hz sedan många år. You are right! Vill ändå inflika att 60hz fortfarande verkar vara utbrett också.

Nu när jag har kollat på det här ett tag så verkar det vara rätt svårt att få reda på vilka TVskärmar som faktiskt klarar att hantera en källa som levererar mer än 60 bilder per sekund... Jädra otydlig djungel alltså.

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem

Angående ESRAM. Används det hela tiden eller är det mest upp till utvecklarna?

Det är säkert inte så många spel som använder det isf. Om det är upp till utvecklarna alltså.

Visa signatur

Asus TUF Gaming WiFi | Ryzen 5600X | 32 GB Ballistix| Vega 56 | Newton R2 650 W

Permalänk
Medlem
Skrivet av Paddanx:

Då är det mer troliga att de kör någon kombo av RAM som är 384-bit, 12GB, som ska bli 320GB/s. Om min matte-skalle nu inte är helt fel (vilket den har varit förr), så borde detta bli nånstans runt 6,667Ghz GDDR5 VRAM, vilket ju är möjligt.

Tittar man på google lite så är ju 6800Mhz rätt vanligt (sitter i rätt många olika GPUer, inkl AMD GPUer). Så det blir mao samma 320GB/s som 290 har, vilket inte låter helt koko, med tanke på att det är AMD som tillverkar detta och kärnorna bygger på typ dessa kretsar.

(I teorin då. Rätta mig om jag det låter koko)

Vågar inte svara på det, men helt ärligt tror jag med på det jag skrev här ovan, då det är rätt logiskt för 12GB VRAM, 384-bit buss @ 1700Mhz (6,8Ghz eff)

Låter inte helt orimligt. Dessutom lär 1700 Mhz minnen vara väldigt billiga år 2017, bra om man behöver 12 st.

Vad man kan vända emot det är 384 bits bussen. Dyrt och framförallt skalar den inte alls kostnadsmässigt. Något man normalt vill undvika för konsol. Där vill man ju sänka kostnaden med tiden för att fånga fler nya kunder, vilket ger fler spel sålda, mer gåslever till middag osv...

Men jag misstänker att MS kommer "köpa sig tillbaka" i konsolvärlden så det kanske inte spelar nån roll just denna gång.

Men som sagt, funkar 12 GB med 256 bits buss och allt minne på en sida av moderkortet? Kanske inte är nått konstigt alls men kan inte minnas att jag sett nått liknande upplägg. Nån som vet?

Skickades från m.sweclockers.com

Permalänk
Medlem

Bara jag som reagerade på att i rubriken står det "körs i ÄKTA 4K-upplösning"? Vilket jag tolkar som native 4096 × 2160.
Sen när man läser vidare framgår det att det är 4K UHD...

CLICKBAIT!!

Visa signatur

Chassi: Fractal Meshify, Skärm: LG C2 oled, GPU: AMD 6950XT, CPU: Ryzen 5800X3D, M2: 1TB , SSD: 480GB, M2 1TB, PSU: Dark Power Pro 1500W, Mobo: ASUS TUF GAMING X570-PLUS, RAM: 32GB Ripjaws @ 3600MT, Mus: Logitech G502X Matta: Steelseries QcK Heavy, Tbord: Logitech MX Mech Mini, Hörlurar: BD DT1990 Pro, DT770 PRO, Superlux HD-668B, Sennheiser HD599 OS: Win11. AI: Tascam US-20x20, Monitorer: Yamaha HS7 x2.
Citera när ni svarar! :)

Permalänk
Inaktiv
Skrivet av Wh1spY:

Bara jag som reagerade på att i rubriken står det "körs i ÄKTA 4K-upplösning"? Vilket jag tolkar som native 4096 × 2160.
Sen när man läser vidare framgår det att det är 4K UHD...

CLICKBAIT!!

Det är lite som vanligt, formatet som används i konsumentprylar och är det alla till 99,9% av tiden syftar på är just UHD som är namnet för 3840x2160. Just "4K" är så pass inarbetat även om det är en felaktig benämning då det trots allt fattas en hel del pixlar.

4K UHD är vad branschen försöker marknadsföra just 3840x2160 idag och förhoppningsvis försvinner "4K" med tiden. 4K UHD blir lite som CD skiva (Compact Disc skiva). UHD-BD har rätt benämning så där är benämningsproblematiken redan löst.

https://en.wikipedia.org/wiki/4K_resolution

Edit: Verkar vara lite olika, "4K" trycks fortfarande in här och var med UHD-BD. Olika bland tillverkarna. De okunniga kunderna lär väl inte hitta rätt om det inte står "4K" någonstans i produktnamnet.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Söderbäck:

Nu när jag har kollat på det här ett tag så verkar det vara rätt svårt att få reda på vilka TVskärmar som faktiskt klarar att hantera en källa som levererar mer än 60 bilder per sekund... Jädra otydlig djungel alltså.

rtings.com testar alltid support för 1080p120-signaler i deras tv-tester.

Så börja där. Amerikansk sajt dock och ibland kan det krävas lite grävande för att lista ut vad motsvarande modeller heter här.

Skrivet av anon5930:

Det är lite som vanligt, formatet som används i konsumentprylar och är det alla till 99,9% av tiden syftar på är just UHD som är namnet för 3840x2160. Just "4K" är så pass inarbetat även om det är en felaktig benämning då det trots allt fattas en hel del pixlar.

4K UHD är vad branschen försöker marknadsföra just 3840x2160 idag och förhoppningsvis försvinner "4K" med tiden. 4K UHD blir lite som CD skiva (Compact Disc skiva). UHD-BD har rätt benämning så där är benämningsproblematiken redan löst.

https://en.wikipedia.org/wiki/4K_resolution

Edit: Verkar vara lite olika, "4K" trycks fortfarande in här och var med UHD-BD. Olika bland tillverkarna. De okunniga kunderna lär väl inte hitta rätt om det inte står "4K" någonstans i produktnamnet.

Var lite inne på din linje ("bort med 4K") förr men faktum är att det inte är fel (men ofta överflödigt) att säga 4K UHD.

Antalet horisontella sampels/pixlar i en bildsignal är kopplat till aspect ratio. Mao, beroende på aspect ratio hamnar man under eller över 4000 pixlars gränsen som många tycks ha en hang-up på. DCI 4K Flat 1.85:1 är 3996*2160, det är inte "mindre 4K" för det. Det är bara ett annat aspect ratio.

UHD-signaler är 1.78:1, snäppet smalare än 4K Flat, och vips hamnar vi på 3840*2160. Samma där, det är inte "mindre 4K" för det.

Och om vi nu verkligen ska hänga upp oss på detaljer: UHD Blu-ray ska förövrigt inte förkortas som UHD-BD, "Disc" finns inte kvar i namnet längre.

Permalänk
Medlem
Skrivet av OllO:

Hur funkar siffrorna med en APU med HBM?

Skickades från m.sweclockers.com

Det vågar jag inte svara på, då jag inte vet vilket HBM de skulle använda (eller ens hur HBM2 ser ut). HBM1 var ju typ 4GB begränsning (4x 1GB), vilket är tex Fury's akilleshäl.

Oavsett så är HBM en dyr lösning jämfört med några gamla GDDR5 kretsar, och jag tror att 320GB/s är redan det en bra uppskalning för den GPU som sitter där. Men vi får se vad som kommer... för allt vi gör just nu är att gissa.

Skrivet av ipac:

Låter inte helt orimligt. Dessutom lär 1700 Mhz minnen vara väldigt billiga år 2017, bra om man behöver 12 st.

Vad man kan vända emot det är 384 bits bussen. Dyrt och framförallt skalar den inte alls kostnadsmässigt. Något man normalt vill undvika för konsol. Där vill man ju sänka kostnaden med tiden för att fånga fler nya kunder, vilket ger fler spel sålda, mer gåslever till middag osv...

Du säger det, men problemet är att enda alternativen är 12/16GB GDDR5X @ 10Ghz (eff), med 256-bit buss och jag tror inte det är billigare än denna lösning. Hade de bara behövt 8GB så okej... då hade det funnits bättre alt, men just att de "slipper" köpa GDDR5x kretsar tror jag väger ut 384-bit rätt bra, samt som jag sa ovan, hela GCN gen de använder, bygger på 384bit (7970) - 512bit (290) buss, så jag tror kretsen är gjord för det redan.

Sen denna diskussion om "det är dyrt" är lite löjlig. För titta på AMD korten. De har haft 384-512 bit buss och de har lägre prissatta än konkurrenten Nvidias 256-bit buss. Det som är problemet är ju GPU designen och värmen (då du helt enkelt får fler kretsar).

Så kan du bara få tag i GDDR5 modulerna billigt, så jämnar det snabbt ut sig. Och med tanke på att nyare korten kör 10Ghz GDDR5X eller 8Ghz GDDR5, så är där ett stort överskott av GDDR5 6800Mhz moduler (se det som defekta 8Ghz moduler), som MS/AMD säkert har fått en jädrigt bra deal på (då de köper ett relativt stort antal)

Skrivet av ipac:

Men jag misstänker att MS kommer "köpa sig tillbaka" i konsolvärlden så det kanske inte spelar nån roll just denna gång.

Skulle ju inte vara första gången de gjort så. Ursprungliga XBox kostade väl 1,5x mer än de sålde den för vill ja minnas. Och de fick hård kritik för att XboxOne inte levde helt upp till prestandan man hade tänkt sig, så de vill nog ta tillbaka den tronen om de kan.

Skrivet av ipac:

Men som sagt, funkar 12 GB med 256 bits buss och allt minne på en sida av moderkortet? Kanske inte är nått konstigt alls men kan inte minnas att jag sett nått liknande upplägg. Nån som vet?

Skickades från m.sweclockers.com

Enda jag kan tänka mig är om du kör 16GB "äkta" RAM och sen låter bli att använda 4GB av det, vilket låter... koko. Men att sätta det på "ena sidan av moderkortet" spelar mindre roll dock. Är väl mest optimala om du skulle behöva kyla dem.

Edit: (förtydligande med clamshell mode).
Om du i teorin skulle använda detta, vilket skulle gå. 12st 1GB moduler, med 1/3 av dem i 32-bit läge och 2/3 av dem i 16-bit läge. Men... du kan då inte få 320GB/s, utan får eff 256-bit läge och ca 213GB/s, därför tror jag inte det är lösningen de använt. Om vi "försöker lösa detta", med tex dyrare 8GHz moduler, så får du ändå bara 256GB/s, så du måste upp i 10Ghz GDDR5x för att nå 320GB/s och då pratar vi en väldigt dyr lösning.

Om vi tittar på teorin dock:
Varje DDR modul är ju 32-bit, oavsett. Så sätter du 2 stycken, får du 64-bit. Sätter du 4, får du 128-bit. Så 384-bit = 12 stycken, rent fysiskt. (Ja clamshell 16-bit finns, men som alt ovan visat, inte lämplig här)
Om du ska få tex 256-bit att bli 12GB så måste du sätta 8st (256/32) moduler, med 1,5GB vardera (som inte existerar), eller köra clamhell läget ovan.

Så just att den spekuleras att ha "12GB + 12 moduler + 320GB/s" gör det hela... komplext att lösa på annat sätt. De kan ha 192 eller 384-bit, som enda alternativ, (ja det finns fler över detta men det blir ju ännu dyrare), så enda alt är ju 192-bit med stora 2GB moduler (6st), vilket jag inte ens tror existerar, samt de måste då köra dem i 3400Mhz (13,6Ghz eff), för att få 320GB/s.

om 12GB, 12 moduler och 320GB/s stämmer... så finns det bara en vettig konf, om vi pratar GDDR5, och det är:
12 st (384-bit buss), GDDR5 6800Mhz (eff) och 8Gb (1GB) moduler.

Förtydligande
Permalänk
Medlem
Skrivet av Paddanx:

Du säger det, men problemet är att enda alternativen är 12/16GB GDDR5X @ 10Ghz (eff), med 256-bit buss och jag tror inte det är billigare än denna lösning. Hade de bara behövt 8GB så okej... då hade det funnits bättre alt, men just att de "slipper" köpa GDDR5x kretsar tror jag väger ut 384-bit rätt bra, samt som jag sa ovan, hela GCN gen de använder, bygger på 384bit (7970) - 512bit (290) buss, så jag tror kretsen är gjord för det redan.

Sen denna diskussion om "det är dyrt" är lite löjlig. För titta på AMD korten. De har haft 384-512 bit buss och de har lägre prissatta än konkurrenten Nvidias 256-bit buss. Det som är problemet är ju GPU designen och värmen (då du helt enkelt får fler kretsar).

Så kan du bara få tag i GDDR5 modulerna billigt, så jämnar det snabbt ut sig. Och med tanke på att nyare korten kör 10Ghz GDDR5X eller 8Ghz GDDR5, så är där ett stort överskott av GDDR5 6800Mhz moduler (se det som defekta 8Ghz moduler), som MS/AMD säkert har fått en jädrigt bra deal på (då de köper ett relativt stort antal)


Det låter lite som om du tror att jag inte håller med dig. "inte helt orimligt" var alltså en positiv respons från min sida. Men ja, jag kunde varit tydligare.

Totalt sätt låter en 384 bits-lösning absolut vettigare lösning. Att det kommer komma en Vega variant med 384-bits buss är ju dessutom ganska troligt vilket är ytterligare ett argument för lösningen.

Och tack för infon runt olika GDDR5-konfigurationer, 256 bit buss låter som du säger väldigt yxigt för en 12 GB konfig.

Däremot håller jag inte med alls om att kostnads-aspekten är löjlig. "Kostnadsmässig skalbarhet över tiden" är definitivt en faktor vid konsoldesign eftersom de kommer hänga med under flera år och, med tiden, allt lägre försäljningspriser. 384 bit buss ger definitivt en nackdel här (men, om man nu siktar på >8GB, troligen ändå bästa lösningen). Men som sagt, det kommer nog MS skita i den här gången.

Hur AMD prissätter sina prylar har ingen direkt relevans, detta enda det säger är att de säljer prylar med sämre marginal än Nvidia (vilket förstås bidrar till deras dåliga resultat).

Permalänk
Inaktiv
Skrivet av ipac:

rtings.com testar alltid support för 1080p120-signaler i deras tv-tester.

Så börja där. Amerikansk sajt dock och ibland kan det krävas lite grävande för att lista ut vad motsvarande modeller heter här.

Var lite inne på din linje ("bort med 4K") förr men faktum är att det inte är fel (men ofta överflödigt) att säga 4K UHD.

Antalet horisontella sampels/pixlar i en bildsignal är kopplat till aspect ratio. Mao, beroende på aspect ratio hamnar man under eller över 4000 pixlars gränsen som många tycks ha en hang-up på. DCI 4K Flat 1.85:1 är 3996*2160, det är inte "mindre 4K" för det. Det är bara ett annat aspect ratio.

UHD-signaler är 1.78:1, snäppet smalare än 4K Flat, och vips hamnar vi på 3840*2160. Samma där, det är inte "mindre 4K" för det.

Och om vi nu verkligen ska hänga upp oss på detaljer: UHD Blu-ray ska förövrigt inte förkortas som UHD-BD, "Disc" finns inte kvar i namnet längre.

Jag håller inte med. Onödigt att lägga till 4K då det blir överflödig. UHD säger egentligen tillräckligt då Ultra High Definition är just 3840x2160. Konsumentprodukterna som kommer och redan finns är i den upplösningen. Om det kommer bildskärmar/TVs i 4096x2160 så bör den förmodligen också specificeras som 4K och inte UHD.

BDA (Blu-ray Disc Association) accepeterar inte att namnet på standarden förkortas. Blu-ray Disc förkortas till BD ändå och UHD-BD har blivit förkortningen för UHD-varianten.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av anon5930:

Jag håller inte med. Onödigt att lägga till 4K då det blir överflödig.

Jag skrev ju att 4K tillägget ofta är överflödigt så vad är du inte håller med om?

Citat:

Om det kommer bildskärmar/TVs i 4096x2160 så bör den förmodligen också specificeras som 4K och inte UHD

Att kalla en 4096*2160-upplöst display (som dessutom har ett 1.90:1 aspect ratio) för "4K UHD" är förstås fel men det var ju inte det som diskuterades.

Permalänk
Medlem
Skrivet av ipac:


Det låter lite som om du tror att jag inte håller med dig. "inte helt orimligt" var alltså en positiv respons från min sida. Men ja, jag kunde varit tydligare.

Hmm, jag tolkade som att du höll med, men hade lite följdfrågor, som jag försökte besvara. Jag kunde varit lite mindre petig kanske
Det var menat som att förklara varför jag inte trodde alternativ skulle fungera dock, inte att säga emot dig

Skrivet av ipac:

Totalt sätt låter en 384 bits-lösning absolut vettigare lösning. Att det kommer komma en Vega variant med 384-bits buss är ju dessutom ganska troligt vilket är ytterligare ett argument för lösningen.

Och tack för infon runt olika GDDR5-konfigurationer, 256 bit buss låter som du säger väldigt yxigt för en 12 GB konfig.

Däremot håller jag inte med alls om att kostnads-aspekten är löjlig. "Kostnadsmässig skalbarhet över tiden" är definitivt en faktor vid konsoldesign eftersom de kommer hänga med under flera år och, med tiden, allt lägre försäljningspriser. 384 bit buss ger definitivt en nackdel här (men, om man nu siktar på >8GB, troligen ändå bästa lösningen). Men som sagt, det kommer nog MS skita i den här gången.

Hur AMD prissätter sina prylar har ingen direkt relevans, detta enda det säger är att de säljer prylar med sämre marginal än Nvidia (vilket förstås bidrar till deras dåliga resultat).

Ofta så är den billigaste lösningen, den som är minst komplex. För oavsett hur man ser det så är inte all kostnad baserad på en grundläggande tekniks kostnad, utan även hur komplicerad den är (att få bra yield på tex).

Påstår inte att 384-bit inte kostar, tolka mig rätt här, men eftersom de just måste ha mer än 8GB, för att kunna få en chans att driva 4K UHD effektivt, så är det nog det billigaste alternativet, just nu iaf. Jämför man med tex en PC så har ju spelen idag ofta minst 8GB Systemram + 2-4GB VRAM (bara för 1080p tom), och i konsolen ska ju RAMet göra båda dessa, så de måste ha 12-16GB RAM för att ha en chans (speciellt eftersom de kör på HDD som har den långsamma inladdningstid de har också, så måste allt in i RAM).

Så när man ser det som ett måste, och man tittar på alternativen för att få 12/16GB RAM, med hyfsad bandbredd, billigare, så faller det väldigt snabbt om du måste använda dyrare moduler (GDDR5X). Ja i teorin blir dessa billigare i längden, men som jag sa lite enkelt ovan, 6800Mhz moduler är ofta idag "trasiga" 8Ghz moduler, dvs de som inte blev bra nog att klara den frekvensen.

Och eftersom tillverkare som AMD/Nvidia fortfarande kommer använda 8Ghz moduler ett bra tag till, så är detta ett stadigt och billigt sätt att få RAM till konsolen (då du piggy backar på tillverkningen). GDDR5X o andra sidan kommer det vara konkurrens om under rätt lång tid framöver, även när 12-14Ghz (eff) modulerna kommer, samt premium pris just nu.

Sen har du storleken också, vilket är det som totalt stoppar dina alternativ med 256-bit. Idag finns bara 8Gbit (1GB) moduler i GDDR5, och även om de planerar att göra 16Gbit (2GB) i GDDR5X så lär dessa kosta multum när de kommer. Så för att nå 16GB, 256-bit (8 chip), måste du ha dessa 2GB moduler idag, vilket är omöjligt.

Det som används idag är mao, högsta mängden vi kan, och du ser det på 1080/1070/160 också, där de är "fast" på 8GB (6GB för 1060) och 256-bit buss (192-bit 1060), med rätt låg bandbredd. Det som räddar 1080/1070 är komprimeringen. Minneskomprimering har hjälpt Nvidia i många generationer nu och det är därför de kan köra 192-256bit buss överhuvudtaget. De måste dock köra snabbaste versionerna de kan få tag i, för att kunna använda det, vilket är dyrare moduler, för varje kort.

Man får ju välja mellan... mindre buss (dyrare) + fler (billiga) RAM kretsar som enkelt får mer bandbredd, eller smalare buss (billigare) + fler (dyrare) RAM kretsar som ofta ger smalare bandbredd. Så det finns kostnader på båda vägarna, och det hänger helt på vilket som passar dina behov (dvs hur mycket bandbredd du behöver).

Men som vi säkert vet så är det AMD GPU i konsolerna, och dessa har inte denna komprimering. Så det billigaste alternativet är bredare buss och fler billigare minnen.

Ang AMD lönsamhet så visst, Nvidia gör märkbart mer effektiva lösningar idag. AMD dumt nog borde lagt mer jobb på att optimera sina drivare, likt Nvidia. De hade nog helt hoppats på Mantle/Vulkan och DX12 för att dra fram deras kort. För under huven har de utan tvekan mer prestanda, de kan bara inte använda allt.

Permalänk
Medlem

@Paddanx: Mmm, 384 bit tror vi på. Om vi även tror på 12 GB (vilket jag gör för det vore så löjligt att animera 12 minnesmoduler bara för att j*vlas - iofs ska man inte vänta sig för mkt av nån som tyckte det var häftigt att klistra in texten "4K" på APU...).

Ang dagens Vega rykte:

Citat:

Extra intressant är att Vega 10 ska få en beräkningskapacitet på 24 TFLOPS vid halvprecision eller 12 TFLOPS vid enkelprecision. Det skulle betyda att kretsens klockfrekvens ligger på 1 465 MHz, att jämföra mot 1 266 MHz för Radeon RX 480 som med sina 2 304 streamprocessorer ligger på 5,8 TFLOPS
...
Nämnvärt är att uppgifterna sägs komma från produktplaner för servermarknaden, där klockfrekvenser ofta dras ned för att nå ett bättre förhållande mellan prestanda och strömbrukning. En konsumentversion av Vega 10 kan således släppas med högre klockfrekvenser på såväl grafikkrets som minne

Tolkar jag som att Vega beräknas tåla högre klockning än Polaris. Polaris tycks ha en "bas-klocka" på 912 Mhz. Historiskt är det på denna basnivå konsolerna ligger, vilket även gäller PS4 Pro nu senast. Vega > "bas-klocka" än Polaris kanske då.

Vidare:

Citat:

Vid sidan om Vega 10 ska AMD även släppa Vega 11, som blir en efterträdare till Polaris 10 som används i Radeon RX 480 och RX 470.

Vega 11 = RX580 och RX570 mao. De lär få 256 bit buss. Men det borde väl inte vara helt orimligt att tänka sig en RX590 oxå, som adderar en 384 bits buss (iofs inget måste, AMD/MS kan lägga till det bara för den custom design som Scorpio APU faktiskt är).

En kandidat för Scorpio GPU skulle mao kunna vara en Vega 11, snurrandes i "bas-klocka". En bas-klocka som är högre än 912 Mhz.

Frågan är då hur många CUs Vega 11 är? Samma som Polaris 10, 36 stycken? I så fall behöver Scorpio snurra i 1300 Mhz för att nå "6 TFlops". Med tanke på att 12 TF(1465 MHz) ovan sas vara eventuellt återhållsamt så låter ju det mycket möjligt, Vega 11 kanske har en bas-klocka på ca 1300 Mhz.

Eller är det kanske så att 1 465 MHz t.o.m. är bas-klockan för Vega? RX470 är ju en skadeskjuten Polaris 10 med 32 aktiva CU. Även om MS kan blöda lite på hårdvaran så kan det ju ändå vara så att de väljer att skadeskjuta GPU:n i Scorpio.

Scorpio GPU = Vega 11 med 32 CU (2048 SPs) @ 1465 Mhz och 12 GB GDDR5 @ 6800Mhz över en 384 bits buss.

Eller för att säga det med andra ord, en RX570 där 8 GB/256 bit minneskonfig byts ut mot en förhållandevis lågt klockad 12 GB/384 bit minneskonfig. Där den större bussen i första hand inte syftar till att öka bandbredden utan att möjliggöra mer minne (som dessutom är billigt per GB).

Sätter en "kom ihåg var du läste det först" på den, man vet ju aldrig.

Permalänk
Medlem
Skrivet av anon5930:

Jag håller inte med. Onödigt att lägga till 4K då det blir överflödig. UHD säger egentligen tillräckligt då Ultra High Definition är just 3840x2160. Konsumentprodukterna som kommer och redan finns är i den upplösningen. Om det kommer bildskärmar/TVs i 4096x2160 så bör den förmodligen också specificeras som 4K och inte UHD.
Skickades från m.sweclockers.com

Precis och då blir allt bara ännu mer rörigare för konsumenterna, då det helt plötsligt finns 4K, 4KUHD, 8KUHD osv... 4K låter ju då som ett sämre alternativ till 4KUHD, sämre i den meningen att man skulle få mindre pixlar.

Visa signatur

Chassi: Fractal Meshify, Skärm: LG C2 oled, GPU: AMD 6950XT, CPU: Ryzen 5800X3D, M2: 1TB , SSD: 480GB, M2 1TB, PSU: Dark Power Pro 1500W, Mobo: ASUS TUF GAMING X570-PLUS, RAM: 32GB Ripjaws @ 3600MT, Mus: Logitech G502X Matta: Steelseries QcK Heavy, Tbord: Logitech MX Mech Mini, Hörlurar: BD DT1990 Pro, DT770 PRO, Superlux HD-668B, Sennheiser HD599 OS: Win11. AI: Tascam US-20x20, Monitorer: Yamaha HS7 x2.
Citera när ni svarar! :)

Permalänk
Medlem
Skrivet av ipac:

Det troligaste är att MS första-parts titlar kommer ha samma fps som One-motsvarigheten. 30 fps i en del fall men i t.ex. fallet Halo och Forza Motorsport då 60 fps där iaf det sista är låst på 60 fps.

Skickades från m.sweclockers.com

Steget upp ifrån 1080p till 4k kräver grymt mycket bättre hårdvara för att hålla 30 eller 60 fps.
Det låter bara för bra för att vara sant, återstår att se hur det blir.

Visa signatur

CPU: 5600x
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Medlem
Skrivet av hakd:

Det låter bara för bra för att vara sant

Det låter snarare rätt korkat eftersom kraften lär kunna användas på ett bättre sätt. Som tur är så kommer Scorpio rendera i andra upplösningar än native 4K, oxå.

Såväl OG PS4 som PS4 Pro kommer ha större beräkningskraft per pixel (flops/pixel), i de upplösningar de avser jobba. Flops/pixel är förstås ett väldigt förenklat sätt att ange "renderingskvalité" men i praktiken funkar det ganska bra så det har sina poänger.

Vad MS säger är "deliver Xbox One-quality games in 4K.". Och det kommer Scorpio säkerligen göra (och Flops/pixel stödjer det med). Men det är inte direkt nått att skryta med så den här "PR stunten", som förstås ses som vältajmad då Sony just sagt att Pro normalt inte kommer rendera i native 4K, backfired imo. Det hade varit bättre om även de sa att de inte siktar på native 4K.

Permalänk
Medlem
Skrivet av ipac:

Ang dagens Vega rykte:
Tolkar jag som att Vega beräknas tåla högre klockning än Polaris. Polaris tycks ha en "bas-klocka" på 912 Mhz. Historiskt är det på denna basnivå konsolerna ligger, vilket även gäller PS4 Pro nu senast. Vega > "bas-klocka" än Polaris kanske då.

Låter inte helt ur banan att tänka högre klock, nej. Men det hänger ju på hur den är gjord, vilket vi inte vet så mycket om än (allt är ju spekulationer). Men även Nvidias nya tillverkningsteknik gav dem frekvensboost, dock verkar de ha tappat effektivitet också, vilket gör överklockning lite... värdelöst. 100MHz mer på 1Ghz är ju 10%, men på 1500 är det bara 6,7%, så man måste vinna fler Mhz för att få något effektivt.

Skrivet av ipac:

Vidare:
Vega 11 = RX580 och RX570 mao. De lär få 256 bit buss. Men det borde väl inte vara helt orimligt att tänka sig en RX590 oxå, som adderar en 384 bits buss (iofs inget måste, AMD/MS kan lägga till det bara för den custom design som Scorpio APU faktiskt är).

Problemet AMD har är ju att de inte komprimerar för att spara minnesbandbredd. Vet inte om detta är tänkt att introduceras, men jag har inte sett det i 480 iaf. Och utan det så är det svårt att göra hög prestanda kort idag, om du inte ska ha en stor minnesbuss.
Ta tex 1070. Den klarar sig på 8GB GDDR5 8Ghz, 256-bit, med en jäkligt effektiv kompression, men mycket mer prestanda än det går inte på så smal buss med vanlig GDDR5.

Så det innebär att RX580 osv behöver GDDR5X, som är dyrare och än så länge i låg produktion. Så då kommer detta kort bli dyrt till en början, samt låg tillgänglighet, för att blir bättre sen. Detta är lite av en papperslansering, och inte direkt bra för AMD. Så frågan är väl mer då om de går 384-bit och GDDR5 istället, för att få samma bandbredd, och kan lansera "idag" så att säga. I slutändan hänger det nog helt o hållet på vilken prestanda kortet har.

Skrivet av ipac:

En kandidat för Scorpio GPU skulle mao kunna vara en Vega 11, snurrandes i "bas-klocka". En bas-klocka som är högre än 912 Mhz.

Frågan är då hur många CUs Vega 11 är? Samma som Polaris 10, 36 stycken? I så fall behöver Scorpio snurra i 1300 Mhz för att nå "6 TFlops". Med tanke på att 12 TF(1465 MHz) ovan sas vara eventuellt återhållsamt så låter ju det mycket möjligt, Vega 11 kanske har en bas-klocka på ca 1300 Mhz.

Intressant tanke faktiskt. Jag vågar inte spekulera i det än, men visst... i teorin låter det möjligt.

Skrivet av ipac:

Eller är det kanske så att 1 465 MHz t.o.m. är bas-klockan för Vega? RX470 är ju en skadeskjuten Polaris 10 med 32 aktiva CU. Även om MS kan blöda lite på hårdvaran så kan det ju ändå vara så att de väljer att skadeskjuta GPU:n i Scorpio.

Scorpio GPU = Vega 11 med 32 CU (2048 SPs) @ 1465 Mhz och 12 GB GDDR5 @ 6800Mhz över en 384 bits buss.

Eller för att säga det med andra ord, en RX570 där 8 GB/256 bit minneskonfig byts ut mot en förhållandevis lågt klockad 12 GB/384 bit minneskonfig. Där den större bussen i första hand inte syftar till att öka bandbredden utan att möjliggöra mer minne (som dessutom är billigt per GB).

Sätter en "kom ihåg var du läste det först" på den, man vet ju aldrig.

Tror tyvärr inte att de lär nå så hög frekvens dock, men man vet ju inte. Runt 1500Mhz för något som ska sitta i en konsol låter högt dock... blir nog en hel del yield problem.
Tror att MS hellre väljer en beprövad teknik, över en pyrfärsk ny teknik dock, så det talar ju för att det blir färskare denna gång.

Permalänk
Medlem

@Paddanx: Hmm, ja 1465 Mhz och tom 1300 Mhz är nog lite väl optimistiskt om jag tänker på det en gång till...

Lutar nog åt en "större än 36 CU" GPU till Scorpion.

Permalänk
Medlem
Skrivet av ipac:

Det låter snarare rätt korkat eftersom kraften lär kunna användas på ett bättre sätt. Som tur är så kommer Scorpio rendera i andra upplösningar än native 4K, oxå.

Såväl OG PS4 som PS4 Pro kommer ha större beräkningskraft per pixel (flops/pixel), i de upplösningar de avser jobba. Flops/pixel är förstås ett väldigt förenklat sätt att ange "renderingskvalité" men i praktiken funkar det ganska bra så det har sina poänger.

Vad MS säger är "deliver Xbox One-quality games in 4K.". Och det kommer Scorpio säkerligen göra (och Flops/pixel stödjer det med). Men det är inte direkt nått att skryta med så den här "PR stunten", som förstås ses som vältajmad då Sony just sagt att Pro normalt inte kommer rendera i native 4K, backfired imo. Det hade varit bättre om även de sa att de inte siktar på native 4K.

Personligen så tror jag det är en grov upscale i pratar om. Det ska bli intressant att se om det hålls vad som lovas.

Visa signatur

CPU: 5600x
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Medlem
Skrivet av hakd:

Personligen så tror jag det är en grov upscale i pratar om. Det ska bli intressant att se om det hålls vad som lovas.

Varför tror du det?

Skickades från m.sweclockers.com

Permalänk
Medlem

Ms jäkla papperstigrar, skiten ligger 1 år plus bort, och kan väl inom den tiden ha blivit kastad i bingen.
Kan inte förstå och tycker rent utav riktigt illa om hypar gänget som nu trummar upp en fiktiv konsol som räddningen för något som är i allt utom behov att bli räddat (vad konsoll välden behöver är roliga spel och det är det enda).
Deras ord är lika betydande som mitt följande påstående 'jag ska se till att släppa en konsoll som kan spela alla spel, från alla tidigare lanserade konsoller i 16k @ 90000000000000000Hz utan problem, saken är att den inte kommer släppas före 2050 och möjligtvis inte alls.'

Skickades från m.sweclockers.com

Visa signatur

umgänge kan vara förenat med livsfara..

Permalänk
Medlem

Intressant och se vad denna landar på i pris. Hur ska de hålla priset nere med den prestandan de utlovar ?

Permalänk
Medlem
Skrivet av Dataru:

Intressant och se vad denna landar på i pris. Hur ska de hålla priset nere med den prestandan de utlovar ?

Lanserar de den inte för $399 så kan de lika gärna strunta i det. Det är där en konsol måste ligga idag.

14/16 nm FinFET kommer vara betydligt mer moget nästa år så även om MS har en större APU (tack vare större GPU-del, CPU-delen vet vi ju inget om. personligen tror jag de håller sig till nått Jaguar liknande) än vad Sony har i Pro så kommer den nästa år nog inte kosta MS nämnvärt mer än vad Pro APU:n kostar Sony idag.

384 bit buss och 12 stycken 6.8 Gbps minnesmoduler (om det nu blir den konfigen) är förstås en merkostnad över Pro (256 bit buss, 8 st 6.8 Gbps moduler) men det här tror jag MS tar på sitt "blödarkonto". Är övertygad om att de är helt inställda på att köpa sig mot konsoltoppen denna gång.

Permalänk
Medlem
Skrivet av anon5930:

Hårdvaran är troligen inte redo för produktion. Speciellt om det är Zen-baserad CPU och en Vega-basead grafiklösning.

Microsoft har ju en väldigt intensiv period nu och framöver med massor av AAA-släpp, ReCore och Forza Horizon 3 ska vara lanserade nyligen och framöver kommer GoW4, Sea of Thieves och Halo Wars 2 blandannat.

Skickades från m.sweclockers.com

Jo det är ju precis det du skriver jag menade...
Det känns sjukt att MS står och kastar skit på t ex att "PS4 PRO kommer ej klara 4k lika bra som vår scorpio", när dom säkert inte ens satt sin hårdvara samt ska släppa den över ett år senare..

Absolut, den dagen det är dags för release av Scorpio får dom gärna slänga upp grafer på vad den nu gör bättre.
Men för tillfället känns det mest som ett desperat försök att få folk avstå att köpa en PRO eftersom ett starkt fäste av PRO förmodligen minskar spelarbasen som är target för Scorpio.

Btw, hälften av spelen du nämner har jag inte hört talas om (eftersom jag spelar PS4), men Scorpio däremot har man ju full koll på. Därför jag menar att MS istället kanske borde försöka att driva försäljning av dagens XONE mha att marknadsföra titlarna dom nu har på gång istället för en hårdvara som ligger ett år bort.

Jag är definitivt ingen fanboy, och eftersom jag främst spelar singleplayer (och därför inte har en friendslist att ta hänsyn till) så hade det utan problem kunnat bli så att jag sparade min "vanilla"-ps4 och köpte på min en Scorpio istället, om Scorpio hade släppts nu.
Men jag har ju hellre en PRO i november än en Scorpio holiday 2017

TL;DR
Jag anser att MS kör en ful taktik med att jämföra en konsol som är i butik om en månad, med en som knappt har en slutgiltig spec och ett förväntat datum som ligger över ett år bort.

Permalänk
Medlem
Skrivet av BasseBaba:

Det känns sjukt att MS står och kastar skit på t ex att "PS4 PRO kommer ej klara 4k lika bra som vår scorpio"...

Det här har jag missat. Var kan man läsa om det?

Permalänk
Medlem
Skrivet av OllO:

Det här har jag missat. Var kan man läsa om det?

http://www.eurogamer.net/articles/2016-09-21-microsoft-on-pro...