Geforce RTX 3080 rullar för fullt i testlabbet – men recensionsembargot skjuts fram

Permalänk
Medlem
Skrivet av Borked:

Här sitter jag, 33 år gammal med fru, barn, jobb, hus... och det pirrar i magen för att om 2h så släpps recensioner på något som kanske kommer att kosta mig 9.000kr. Det är som julafton för mig!

Fan vad sjukt egentligen....

(Edit; Om det visar sig att 3080 inte är minst 30% snabbare än 2080ti så kommer jag att köpa ett Asus ROG STRIX 2080ti för 4500kr idag istället..)

Ifall man kunde få nobelpriset för ett inlägg så hade du fått det. Utan tvekan!

Permalänk
Medlem
Skrivet av oztin:

Har övat på Nvidia's hemsida.
Har ändrat RGB färgerna till Brons.
Tiden går långsamt.

Haha har också "övat" eller åtminstone kikat lite för deras hemsida är fan inte enkel att navigera i tycker jag. Skulle inte förvåna mig om det ser helt annorlunda ut imorgon också..
Förhoppningsvis räcker https://www.nvidia.com/sv-se/geforce/graphics-cards/30-series... och sedan att klicka på köp!

Permalänk
Medlem
Skrivet av RunRookieRun:

Exact samma sitts, fast jag är 34.

Har inte haft PC på 2 år sedan första barnet kom, men nu fan är det dags igjen!

Lättviktare.

//44

Permalänk
Medlem
Skrivet av oztin:

Har övat på Nvidia's hemsida.
Har ändrat RGB färgerna till Brons.
Tiden går långsamt.

Hur övar du på Nvidias hemsida när det inte går att komma åt korten i deras webshop?

Permalänk
Medlem

93 minuter kvar nu. Dags att börja räkna ned sekunderna. 5580.. 5579.. 5578..

Permalänk
Medlem
Skrivet av DasIch:

Hur övar du på Nvidias hemsida när det inte går att komma åt korten i deras webshop?

Testat med andra artiklar och ser över vilka betalningsalternativ, vad som behövs fyllas i etc.
Skulle ja inte gjort detta så hade ja behövt skapa ett nvidia konto vilket inte behövs när man tittar noggrant

Permalänk
Skrivet av Borked:

Jag har bestämt mig för en panel från LG. Det verkar vara för mycket problem med samsungs G7/G9 angående flicker.
Samtidigt så är det en bjässe och jag vill inte ha en curved skärm.

hört mkt om LG's men som jag förstår är det mer en skärm allt i allo ? jag gamear bara så är den så bra till det ?
har idag rog swift pq27 versionen

Permalänk
Avstängd
Skrivet av Borked:

Här sitter jag, 33 år gammal med fru, barn, jobb, hus... och det pirrar i magen för att om 2h så släpps recensioner på något som kanske kommer att kosta mig 9.000kr. Det är som julafton för mig!

Fan vad sjukt egentligen....

(Edit; Om det visar sig att 3080 inte är minst 30% snabbare än 2080ti så kommer jag att köpa ett Asus ROG STRIX 2080ti för 4500kr idag istället..)

Ja, det är sjukt att låsa fast sig i decennier med fru, barn, jobb, hus men du har ju 3080 recensionen att se framemot

Skojar... Lite i alla fall.

Permalänk
Medlem

@RunRookieRun:
Samma här
44 år två barn äldsta 9år köpte ny dator 2009 med Radeon 5870 tror jag det hette
Inte rört den på 9-10 år då det blev ett hus med flera års omfattande renovering å två produktioner av barn idag 6 å 9 år
Så nu skall jag tamejfan få köpa ett nytt topp grafikkort på över 11år
Helt galet som julafton å om en månad sitter man här å väntar på nya AMD CPU sen kan man spela om man orkar vänta annars får det väl bli nått 3900 eller 3700x
1.5h kvar

Permalänk
Medlem
Skrivet av HandsomeT:

Ja, det är sjukt att låsa fast sig i decennier med fru, barn, jobb, hus men du har ju 3080 recensionen att se framemot

Skojar... Lite i alla fall.

Visst är det galet!

Skillnaden mot grafikkort är att man inte kan byta ut sin familj bara för att det kanske finns något bättre på gång...... eller?

Skämt åsido.

Permalänk
Medlem
Skrivet av AntonKG:

Ifall man kunde få nobelpriset för ett inlägg så hade du fått det. Utan tvekan!

Tack!

Men det är ju en sådan otrolig tankeställare.
Tänk att vi lever i ett land där våra (vi som sitter här iaf) problem endast är att vi kanske inte får chansen att köpa något materialistiskt på launch-day för en summa som överstiger vad många i världen aldrig kommer att tjäna ihop under sin livstid, samtidigt som barn i fattiga länder inte har råd med varken mat eller kläder.

Vi har det så jävla bra egentligen, och om jag inte får tag i ett 3080 på lanseringsdagen (om jag bestämmer mig för att införskaffa det istället för 2080ti). Så är det fan inte hela världen!

Permalänk
Medlem
Skrivet av Borked:

Tack!

Men det är ju en sådan otrolig tankeställare.
Tänk att vi lever i ett land där våra (vi som sitter här iaf) problem endast är att vi kanske inte får chansen att köpa något materialistiskt på launch-day för en summa som överstiger vad många i världen aldrig kommer att tjäna ihop under sin livstid, samtidigt som barn i fattiga länder inte har råd med varken mat eller kläder.

Vi har det så jävla bra egentligen, och om jag inte får tag i ett 3080 på lanseringsdagen (om jag bestämmer mig för att införskaffa det istället för 2080ti). Så är det fan inte hela världen!

1 vecka efter man fått de så är allt som vanligt igen

Permalänk
Medlem

@Borked:
Det är som du säger å många gånger så har de/mår de mindre lyckligt lottade (ekonomiskt) bättre än vi......

Permalänk
Medlem
Skrivet av oztin:

1 vecka efter man fått de så är allt som vanligt igen

Då hittar jag något annat att klaga på, som att ICA Malmborgs har höjt priset på satsumas från 25kr/kg till 35kr/kg och därmed bojkottar deras Satsmuas-monopol genom att inte köpa frukt den dagen för att jag tycker det är för dyrt.

En riktig Svensson helt enkelt.

Permalänk
Medlem
Skrivet av Yoshman:

Skulle säga att han inte bara fick majoriteten av alla relevanta detaljer rätt ordentligt fel, ...

Jag har svårt att bevisa det påståendet, se nedan.

Skrivet av Yoshman:

1,7 GHz är rätt långt från 2,5 GHz. Nu är 1,7 GHz specificerad frekvens ... några 2,5 GHz lär det knappast bli, når vi ens 2,0 vore det förvånansvärt bra.
... verkar inte riktigt som 230 W är nära (faktiskt rejält fel),

Och ditt bevis för att Nvidia inte haft ett eller ett par exemplar som klarat högre frekvenser?
Testerna kanske kördes på mindre kretsar som klockades upp, men när man såg effektförbrukning och yield valdes i stället den större kretsen med fler kärnor och lägre frekvens för att få hög prestanda med hanterbar effektförbrukning.

Skrivet av Yoshman:

blev inga 21 Gbps för VRAM ...

Står ju faktiskt "~1TB/s possible" och RTX 3090 har officiellt 936 GB/s. Det kallar jag att ha rätt.

Skrivet av Yoshman:

Oavsett hur man vill räkna "CUDA-kärnor" i Ampere så är han totalt off med 10-20 % IPC ökning.

Betänk att många i industrin verkar anse att IPC inte handlar om "per clock" och att förutsättningen är högre klockfrekvenser så skulle det stämt, givet att frekvenserna hamnat nära 2 GHz.
Skulle inte förvåna mig om Sweclockers testexemplar går att skrämma upp dit, men förvänta dig inte att partnerkorten av icke-premiummodell klarar det.
Finns även senare rapporter/läckor om kort som klarar >2GHz, exempel:
https://www.sweclockers.com/nyhet/30208-geforce-rtx-3080-ampe...
Det "fel" Tom gör här är att han utgår från de rapporterade höga frekvenserna hos testexemplaret.

Skrivet av Yoshman:

Det är inte dubbla antalet Tensor-kärnor per SM, det är tvärtom en minskning från TU102 till GA102 fast kapaciteten per Tensor-kärna har ökat rejält.

Japp, där blev det rejält fel. Undrar var uppgiften o fler tensorkärnor kom ifrån.

Skrivet av Yoshman:

Raytracing prestanda är inte i närheten av 4x, Nvidias egna siffror pekar på ... ~2x.

Kombinera denna dubblerade effektivitet per TC med den förväntade dubbleringan av antalet TC (enligt ovan) och du kommer når "upp till x4 bättre".

Dubbleringen av prestanda per TC stämde alltså!

Skrivet av Yoshman:

Hela lineup är på Samsung 8 nm, även top-tier. ...

RTX 3090 är inte top tier, det är A100. Nvidias Keynote 14/5: "GA100 tillverkas på TSMC:s 7-nanometersteknik..."
Detta hade alltså varit offentlig information ett par veckor när Tom gav presentationen, och han missade inte det.

Skrivet av Yoshman:

Ampere är i grunden definitivt en krympning av Turing ... fast med förändringen att varje CUDA-kärna nu kan köra FP32+INT32... eller FP32+FP32 (något Turing inte kan).

Dvs en anpassning för bättre HPC/Multipurpose.

Skrivet av Yoshman:

Det finns ingen DLSS 3.0 och DLSS 2.1 kräver ungefär samma jobb i spelen som DLSS 2.0. Förstår inte hur man får ihop DLSS med TAA, ...

Som jag förstått det ska DLSS 3.0 på något sätt kunna nyttja TAA för att få de data som behövs för de egna beräkningarna. Kanske även posera som TAA, dvs om man har drivrutiner/API(?) för DLSS 3.0 installerade och kör ett spel som inte skrivits för DLSS men har TAA, så kommer en aktivering av TAA innebära att man får DLSS i stället.

Min sammanfattning:
(Gällande Toms tre månader gamla förutsägelser från Yoshmans inlägg ovan och helt utan hänsyn tagen till Toms verbalt kommunicerade egen sannolikhetsbedömning för respektive punkt.)
Påstående: Diverse påståenden gällande ett specifikt engineering sample.
Utfall: Kan inte alls verifieras som sanna eller falska. Bortses från.

Påstående: De läckta bilderna på FE-kylaren ser riktiga ut.
Utfall: Sant! Det är bilder av den riktiga kylaren.

Påstående: Kort på upp till 2,5 GHz sannolika.
Utfall: Fel. I alla fall i de presenterade prisklasserna.

Påstående: Använder GDDR6X eller GDDR6, nära 1TB/s möjligt.
Utfall: Sant. RTX 3090 har GDDR6X med 936 GB/s, övriga kort har GDDR6 med lite lägre prestanda.

Påstående: Ingen NVCache eller Tensor Memory Compression för konsumentkorten.
Utfall: Falskt ???
Korten ska ha stöd för RTX IO som innebär snabbare kommunikation med systemminnet (lika med "NVCache"?) tack vare komprimering av datan (Tensor Memory Compression?).

Påstående: 10-20% IPC-ökning gentemot Turing.
Utfall: Återstår att se.

Påstående: Klockfrekvenser över 1,9 GHz borde bli standard.
Utfall: Fel. (~1,7 GHz boost, men överklockning möjlig för de bästa chipen)

Påstående: Dubblerat antal TC per SM.
Utfall: Fel, det är ungefär samma? (Hittar inga hårda data om antalet TC, men definitivt ingen dubblering per SM.)

Påstående:Dubblerad prestanda per TC (resulterande i RT-prestanda upp till fyra gånger bättre än Turing).
Utfall: Rätt. Prestandan per TC är (enligt Nvidia) upp till dubblerad.

Påstående: RT ingen större negativ inverkan på prestandan.
Utfall: Återstår att se i praktiken, men verkar osannolikt.

Påstående: Ampere är en evolution av Turin, inte bara en krympning.
Utfall: Sant!

Påstående: Ampere ska fungera både till HPC och spel. En arkitektur som ska fungera till flera användningsområden.
Utfall: Sant.

Påstående: GA100 tillverkas på TSMCs 7nm nod (officiellt från Nvidia), men GPU för gaming tillverkas på Samsung 8nm, oklart vid vilken prestandanivå gränsen går.
Utfall: Mer 8nm än han vågade tro. Sant.

Påstående: DLSS 3.0 mycket bättre än 2.0, så nu blir det ett realistiskt försäljningsargument (till skillnad från när Turing släpptes).
Utfall: DLSS 3.0 kommer inte (ännu) till Ampere. Återstår att se om
- DLSS 2.1 blir ett försäljningsargument.
- 3.0 hinner komma till Ampere.
- 3.0 kan jobba med TAA.

Påstående: NVCache kommer, och är Nvidias svar på HBCC.
Utfall: Här är jag inte kompetent att avgöra, men jag tror också att det är för tidigt. I alla fall är "NVCache" inte ett namn som används.

Resultat, så här långt:
6 rätt
3 fel
5 oklara, baserat på min okunnighet och/eller att det ännu saknas officiella data. En del av dessa bör kunna avgöras om ett par timmar.
Definitivt inte "majoriteten rätt ordentligt fel".

Permalänk
Medlem
Skrivet av Borked:

Tack!

Men det är ju en sådan otrolig tankeställare.
Tänk att vi lever i ett land där våra (vi som sitter här iaf) problem endast är att vi kanske inte får chansen att köpa något materialistiskt på launch-day för en summa som överstiger vad många i världen aldrig kommer att tjäna ihop under sin livstid, samtidigt som barn i fattiga länder inte har råd med varken mat eller kläder.

Vi har det så jävla bra egentligen, och om jag inte får tag i ett 3080 på lanseringsdagen (om jag bestämmer mig för att införskaffa det istället för 2080ti). Så är det fan inte hela världen!

Ack så rätt du har. Har varit inne på samma tankebanor.
"Spontan" uppgraderade min dator förra veckan, fick lite ångest en stund, men övergick snabbt till glädje med tanke på vilket nöje jag kommer få ut av det. Nu är ju 7000 en fis i rymden om man jämför med mycket annat.

Men för dem som inte har mat på bordet i fattigare länder, eller bara folk med dåligt avlönade jobb är 7000 en förmögenhet. Och det hade räckt till bra mycket mer än Chassi, RAM-minnen och en ny CPU kylare.

Ja nu gick jag lite OT, men man skall vara grymt glad över hur bra man har det egentligen, och aldrig ta något förgivet.

Permalänk
Datavetare
Skrivet av Olle P:

Jag har svårt att bevisa det påståendet, se nedan.

Och ditt bevis för att Nvidia inte haft ett eller ett par exemplar som klarat högre frekvenser?
Testerna kanske kördes på mindre kretsar som klockades upp, men när man såg effektförbrukning och yield valdes i stället den större kretsen med fler kärnor och lägre frekvens för att få hög prestanda med hanterbar effektförbrukning.

Står ju faktiskt "~1TB/s possible" och RTX 3090 har officiellt 936 GB/s. Det kallar jag att ha rätt.

Betänk att många i industrin verkar anse att IPC inte handlar om "per clock" och att förutsättningen är högre klockfrekvenser så skulle det stämt, givet att frekvenserna hamnat nära 2 GHz.
Skulle inte förvåna mig om Sweclockers testexemplar går att skrämma upp dit, men förvänta dig inte att partnerkorten av icke-premiummodell klarar det.
Finns även senare rapporter/läckor om kort som klarar >2GHz, exempel:
https://www.sweclockers.com/nyhet/30208-geforce-rtx-3080-ampe...
Det "fel" Tom gör här är att han utgår från de rapporterade höga frekvenserna hos testexemplaret.

Japp, där blev det rejält fel. Undrar var uppgiften o fler tensorkärnor kom ifrån.

Kombinera denna dubblerade effektivitet per TC med den förväntade dubbleringan av antalet TC (enligt ovan) och du kommer når "upp till x4 bättre".

Dubbleringen av prestanda per TC stämde alltså!

RTX 3090 är inte top tier, det är A100. Nvidias Keynote 14/5: "GA100 tillverkas på TSMC:s 7-nanometersteknik..."
Detta hade alltså varit offentlig information ett par veckor när Tom gav presentationen, och han missade inte det.

Dvs en anpassning för bättre HPC/Multipurpose.

Som jag förstått det ska DLSS 3.0 på något sätt kunna nyttja TAA för att få de data som behövs för de egna beräkningarna. Kanske även posera som TAA, dvs om man har drivrutiner/API(?) för DLSS 3.0 installerade och kör ett spel som inte skrivits för DLSS men har TAA, så kommer en aktivering av TAA innebära att man får DLSS i stället.

Min sammanfattning:
(Gällande Toms tre månader gamla förutsägelser från Yoshmans inlägg ovan och helt utan hänsyn tagen till Toms verbalt kommunicerade egen sannolikhetsbedömning för respektive punkt.)
Påstående: Diverse påståenden gällande ett specifikt engineering sample.
Utfall: Kan inte alls verifieras som sanna eller falska. Bortses från.

Påstående: De läckta bilderna på FE-kylaren ser riktiga ut.
Utfall: Sant! Det är bilder av den riktiga kylaren.

Påstående: Kort på upp till 2,5 GHz sannolika.
Utfall: Fel. I alla fall i de presenterade prisklasserna.

Påstående: Använder GDDR6X eller GDDR6, nära 1TB/s möjligt.
Utfall: Sant. RTX 3090 har GDDR6X med 936 GB/s, övriga kort har GDDR6 med lite lägre prestanda.

Påstående: Ingen NVCache eller Tensor Memory Compression för konsumentkorten.
Utfall: Falskt ???
Korten ska ha stöd för RTX IO som innebär snabbare kommunikation med systemminnet (lika med "NVCache"?) tack vare komprimering av datan (Tensor Memory Compression?).

Påstående: 10-20% IPC-ökning gentemot Turing.
Utfall: Återstår att se.

Påstående: Klockfrekvenser över 1,9 GHz borde bli standard.
Utfall: Fel. (~1,7 GHz boost, men överklockning möjlig för de bästa chipen)

Påstående: Dubblerat antal TC per SM.
Utfall: Fel, det är ungefär samma? (Hittar inga hårda data om antalet TC, men definitivt ingen dubblering per SM.)

Påstående:Dubblerad prestanda per TC (resulterande i RT-prestanda upp till fyra gånger bättre än Turing).
Utfall: Rätt. Prestandan per TC är (enligt Nvidia) upp till dubblerad.

Påstående: RT ingen större negativ inverkan på prestandan.
Utfall: Återstår att se i praktiken, men verkar osannolikt.

Påstående: Ampere är en evolution av Turin, inte bara en krympning.
Utfall: Sant!

Påstående: Ampere ska fungera både till HPC och spel. En arkitektur som ska fungera till flera användningsområden.
Utfall: Sant.

Påstående: GA100 tillverkas på TSMCs 7nm nod (officiellt från Nvidia), men GPU för gaming tillverkas på Samsung 8nm, oklart vid vilken prestandanivå gränsen går.
Utfall: Mer 8nm än han vågade tro. Sant.

Påstående: DLSS 3.0 mycket bättre än 2.0, så nu blir det ett realistiskt försäljningsargument (till skillnad från när Turing släpptes).
Utfall: DLSS 3.0 kommer inte (ännu) till Ampere. Återstår att se om
- DLSS 2.1 blir ett försäljningsargument.
- 3.0 hinner komma till Ampere.
- 3.0 kan jobba med TAA.

Påstående: NVCache kommer, och är Nvidias svar på HBCC.
Utfall: Här är jag inte kompetent att avgöra, men jag tror också att det är för tidigt. I alla fall är "NVCache" inte ett namn som används.

Resultat, så här långt:
6 rätt
3 fel
5 oklara, baserat på min okunnighet och/eller att det ännu saknas officiella data. En del av dessa bör kunna avgöras om ett par timmar.
Definitivt inte "majoriteten rätt ordentligt fel".

Nu är testet ute, dina oklara kan nu sättas till "fel".

Du missar dock att 21 Gbits är hastighet per pinne, den blev i praktiken inte så hög för finns inget GDDR6X som är så snabbt. Här är han ändå inte helt fel ute, 3090 pressade upp det till 19,5 medan 3080 stannade på 3090. Fast hur svårt är detta att gissa när Micron officiellt gick ut med 19 Gbps hösten 2019? Gissningsvis plockar Nvidia manuellt ut de minneskretsar som klarar tester på 19,5 och reserverar de för 3090.

Vidare är det faktiskt olika mikroarkitektur för Ampere i datacenter och den som kommer på konsumentsidan. Märkliga är att datacentermodellen rätt mycket är "Turing med fler kärnor" medan Ampere för konsument avviker betydligt mer p.g.a. FP32+FP32 stödet (som alltså saknas på datorcentermodellen). Vad han faktiskt påstår är inte är en ren krympning, men det är rätt mycket så (han har också pratat om långt mer cache och andra mikroarkitekturförändringar, det är samma som Turing här).

Låt oss vara lite snällare då: han träffar sämre än andra vettig tech-tubers. I.o.f.s. kanske han påstått långt fler saker, men ändå.

Permalänk
Medlem
Skrivet av Borked:

Här sitter jag, 33 år gammal med fru, barn, jobb, hus... och det pirrar i magen för att om 2h så släpps recensioner på något som kanske kommer att kosta mig 9.000kr. Det är som julafton för mig!

Fan vad sjukt egentligen....

(Edit; Om det visar sig att 3080 inte är minst 30% snabbare än 2080ti så kommer jag att köpa ett Asus ROG STRIX 2080ti för 4500kr idag istället..)

Haha typ samma här. Fast jag åker på mer eller mindre systembyte.

Permalänk
Medlem

Uppdatering med ett par av oklarheterna besvarade.

Påstående: 10-20% IPC-ökning gentemot Turing.
Utfall: Återstår att se. Här räckte det att klura lite mer. Det är sedan en tid tillbaka känt att varje SM nu har i princip samma IPC för heltalsberäkning och dubblerad IPC vid ren flyttalsberäkning gentemot Turing. Beroende på arbetsuppgift varierar andelen heltalsberäkningar och därmed skillnaden i IPC. 10-20% förbättring i snitt, beräknat över flera olika program, kan vara ett rimligt antagande.

Påstående: Dubblerat antal TC per SM.
Utfall: Fel, det är ungefär samma? Antalet tensorkärnor per SM är halverat, från åtta till fyra.

Påstående:Dubblerad prestanda per TC (resulterande i RT-prestanda upp till fyra gånger bättre än Turing).
Utfall: Rätt. Prestandan per TC är (enligt Nvidia) upp till dubblerad.
Här har jag (på grund av tidigare okunskap) förväxlat tensorkärnor och RT-kärnor.
Grundpåståendet var att RT är uppemot fyra gånger bättre, vilket är fel! (I bästa fall nästan dubbelt så bra.)

Påstående: RT ingen större negativ inverkan på prestandan.
Utfall: Återstår att se i praktiken, men verkar osannolikt. RT ensamt har fortfarande stor negativ inverkan på prestandan. Nvidia kompenserar detta genom att erbjuda väl fungerande DLSS som drar upp prestandan så att inverkan inte är "stor", men DLSS fungerar inte i alla program.
Påståendet blir en halvsanning då RT i kombination med DLSS inte ger någon större negativ inverkan på prestandan.

Påstående: DLSS 3.0 mycket bättre än 2.0, så nu blir det ett realistiskt försäljningsargument (till skillnad från när Turing släpptes).
Utfall: DLSS 3.0 kommer inte (ännu) till Ampere. Återstår att se om
- DLSS 2.1 blir ett försäljningsargument.
DLSS 2.1 är bra, när det kan användas. Finns betydligt fler titlar med stöd för DLSS nu än för två år sedan, så det är definitivt mer av ett försäljningsargument nu än då.

Skillnader mot min tidigare bedömning:
En oklar -> Rätt
En oklar -> Fel
En Rätt -> Fel

Nu
Rätt 6
Fel 5
Oklara 2

Permalänk
Medlem
Skrivet av Yoshman:

Du missar dock att 21 Gbits är hastighet per pinne, den blev i praktiken inte så hög för finns inget GDDR6X som är så snabbt. ...

Micron har GDDR6X med 21 Gbit i sitt sortiment och det är ingen brist på kretsar.
De säljer också en 19 Gbit-version, vilket vara den som Nvidia köpt in.
Enligt Igor's Lab verkar minnet ligga på gränsen till överhettning, så snabbare minne skulle inte fungera på befintliga kort.

Antag nu att GPU tillverkats på TSMCs 7nm nod, som ursprungligen planerat. Då skulle det finnas utrymme för minnet att dra mer effekt, så det snabbare minnet skulle kunna användas.
Vi har inte heller sett några testresultat från RTX 3090, som kanske har det snabbare minnet monterat men underklockat för att inte överhetta nära en GPU som genererar ännu mer värme.

Permalänk
Medlem
Skrivet av UndaC:

Jag skulle tro att vi talar om extremt många fler kort än så.

Update? Verkar som jag hade mer rätt eller?

Permalänk
Konsolpleb 🕹
Skrivet av crion:

Update? Verkar som jag hade mer rätt eller?

Ja det verkar inte bättre. :/