Utvecklare får igång ray tracing på processor

Permalänk
Medlem

Ray tracing flyter på bättre på mit rx 480 😗

Permalänk
Medlem
Skrivet av DeluxXxe:

Jag läste 60 fps, men det var ju 60 per minut

Skrivet av evil penguin:

"1 fps" i skärmdumpen är väl tydligt avrundat ut med tanke på 1629ms-tiden bredvid? Så känns inte rimligt att förmoda att det blir 60 fpm, tycker jag.
Vi ser ju visserligen att grafen hoppar runt mycket där (de enorma spikarna börjar så fort de kommit in i själva spelet antar jag) men känns oavsett som vilda gissningar om det skulle kunna bli så "bra" som 60 i snitt givet mätpunkten vi faktiskt ser med en bildruta som tog 1,6s att rendera.

Jag förstår ju att det inte är jätteseriöst menat, men det det ser bara så uppenbart fel ut

Tänkte skriva något liknande som pingvinen.

Går man på latensen får jag det till runt 36-37 bilder per minut.
Vilket är ju lite mer än en halv bildruta per sekund och avrundar man till heltal så blir det 1 FPS.
Men med decimaler så hamnar vi mer runt en halv FPS.

Sen kan det säkert variera beroende på vad som händer i spelet också.
Men ändå...

Men visst jämför man med om någon körde, ja inte spel då, men någon annan form av rendering, på 80/90-tals datorer.
Där de kunde få en raytracad stillbild som tar flera timmar att rendera klart.
Jämför vi då att få runt 30 - 40 bilder per minut så är det en enorm ökning om man ser det så.

Om 30-40 år till så kanske vi får spelbara bildfrekvenser på CPU

Permalänk
Medlem

Kommer ihåg när jag satt med Imagine 3.0 till Amigan i mitten av 90-talet, gjorde 3D-modeller och lekte. Att raytraca en bild i upplösningen 640x480 kunde ta timmar även om modellen var relativt simpel. Dagens datorer är onekligen snabbare på att raytraca med processorn

Permalänk
Medlem
Skrivet av Xverminator:

Borde det inte gå att lägga över mer Ray Tracing på CPU, alltså att implementera det i hårdvaran?

Min CPU används typ bara 35% i spel i snitt (extremt sällan jag kommer upp över 50%). Har rätt mycket kraft till godo som hade kunnat användas till annat.

Borde gå att göra mer samspel mellan cpu och grafikkort.

Din processor har 8st Zen 3 kärnor.
RTX 4090 har 16384 Cuda kärnor.

Zen 3 kärnorna är väl kraftigare per kärna och beroende på användningsområden är grafikkort inte bra på allt.
Men grafikkort har ju visat sig vara bra på grafik och till saker som lämpar sig bra för att köras på grafikkort så är inte en Zen 3 (eller Zen 4 heller för den delen) 2000 gånger kraftigare än en Cuda kärna.

Däremot hade det varit lite kul att se om det fanns någon Demo tävling vem som kan göra mest på en modern flerkärnig CPU utan att använda GPU, enbart software renderer.
Men jag har ingen koll på om det finns någon aktiv demoscen nu för tiden eller om det hör till det förflutna.

Permalänk
Medlem
Skrivet av Alexraptor:

Det är därmed en fysisk omöjlighet att skapa hårdvara som kan omsättas från att utföra ett sorts arbete till ett annat, såvida vi inte uppfinner sci-fi teknologi, så som nanites, som då kan konfigurera om kärnan efter behov.

Det låter lite som en tjusig och "magisk" beskrivning av FPGA

FPGA = Field-Programmable Gate Array = programmerbara kretsar.

Är bra för vissa ändamål men brukar vara en dyrare lösning för massproducerade saker än mer dedikerade kretsar och går väl inte att komma upp i samma max prestanda som mer specifikt dedikerade kretsar.

Men FPGA används en del inom retro bl.a.

Exempelvis har jag både Super Nt och Mega Sg från Analogue.
De båda använder sig av FPGA.

Annars är väl artikeln tråden handlar om lite av ett bevis på att en CPU är en generell krets som kan klara lite av varje... (kan utföra olika sorts arbeten)
...men kanske inte till samma prestanda som dedikerade kretsar.

Permalänk
Medlem
Skrivet av GuessWho:

Det låter lite som en tjusig och "magisk" beskrivning av FPGA

FPGA = Field-Programmable Gate Array = programmerbara kretsar.

Är bra för vissa ändamål men brukar vara en dyrare lösning för massproducerade saker än mer dedikerade kretsar och går väl inte att komma upp i samma max prestanda som mer specifikt dedikerade kretsar.

Men FPGA används en del inom retro bl.a.

Exempelvis har jag både Super Nt och Mega Sg från Analogue.
De båda använder sig av FPGA.

Annars är väl artikeln tråden handlar om lite av ett bevis på att en CPU är en generell krets som kan klara lite av varje... (kan utföra olika sorts arbeten)
...men kanske inte till samma prestanda som dedikerade kretsar.

Haha, ja. Jag satt dock och tänkte mer fysikaliskt, en processor som kan fysiskt konfigurera om sig själv och skapa nya optimerade kanaler, när de behövs.

Vad jag har förstått så är FPGA väldigt användbart speciellt för prototypande, när hårdvara och mjukvara ska utvecklas tillsammans.

Visa signatur

| Corsair Obsidian 1000D | AMD Ryzen 9 5950x med Corsair iCue H170i Elite Capellix | Asus ROG Crosshair VIII Extreme | G.Skill Trident Z Royal, 4x16GB 3600MHz C16 | ROG Strix LC GeForce 3090 Ti OC Edition 24GB | 1x Seagate FireCuda 520 1TB, 1x Seagate FireCuda 520 2TB, Seagate FireCuda 530 2TB, 1x Seagate Ironwolf 16TB HDD | Corsair H1500i | XG27AQM|

Permalänk
Medlem
Skrivet av Xverminator:

Jo precis.

Men det finns hybrider och det finns cpu:er med inbyggd vanlig grafik (iGPU), det är inte omöjligt att peta in annan teknik på detta som kan avlasta eller göra grund beräkningar.

Exempel, måste alla cpu:er idag ha typ 8 kärnor? Det skulle gå lika bra med 6 kärnor och sen peta in annan teknik.
Det finns fortfarande många spel som inte kan utnyttja alla kärnor även om det blivit bättre.

I framtiden kanske man inte behöver köpa ett separat grafikkort för grafiken. AMD är ju inne på det spåret lite.

Förr köpte man separata ljudkort, idag är ljudet integrerat på moderkortet eller grafikkortet (nu är det väldigt mycke enklare kretsar än för ljud än ray tracing), men i framtiden så...

Klart det går att göra så som du beskriver. Men det finns nog inget ekonomiskt incitament för det. Konsumentbasen är för liten och vinsten med en sån design troligen obefintlig i scenarion där du vill avlasta en dedikerad beräkningskrets.

Du köper en cpu med inbyggd grafik för att slippa köpa ett dedikerat grafikkort och då bryr du dig inte om grafiken jättemycket, kanske vill du kunna spela lite mer välkända titlar med 0 krav på grafiken.

Att köra ad-hoc med specialicerad beräkningshårdvara för väldigt specifika uppgifter på en cpu som ska vara generalistisk driver bara komplexitet utan någon vinning. Sen misstänker jag att det blir bekymmersamt när du vill dela olika typer av grafikberäkningar på två separata beräkningsenheter som CPU & GPU är, det är för hög latens skulle jag tro.

Men det kommer sannolikt säljas APU? (Cpu+gpu) som tillgodoser bra nog prestanda för spelare som inte bryr sig om att ha särskillt höga grafiska inställningar.

Men ska vi snacka framtidsutsikter så tror jag streaming är det som ligger framför oss, givet kommer det ju finnas dedikerad hårdvara ett långt tag till. Men ett klientel som skulle kunna tänkas vara intresserad av en Gpu/cpu-kombo tar nog hellre en streamingtjänst än ett beräkningschipp, i vart fall den större andelen.

Visa signatur

Sweclockers 2024:
"
Eftersom vi tillhandahåller en öppen diskussionsplattform har vi ett berättigat intresse av att behålla användargenererat innehåll även efter en eventuell radering eller anonymisering av ditt användarkonto. Vi kommer även att fortsätta lagra vissa uppgifter för att upprätthålla säkerheten och förhindra missbruk av våra tjänster.
"

Permalänk
Medlem
Skrivet av Xverminator:

Borde det inte gå att lägga över mer Ray Tracing på CPU, alltså att implementera det i hårdvaran?

Min CPU används typ bara 35% i spel i snitt (extremt sällan jag kommer upp över 50%). Har rätt mycket kraft till godo som hade kunnat användas till annat.

Borde gå att göra mer samspel mellan cpu och grafikkort.

Håller helt med. Frågan är bara vad temperaturen landar på då? För att en CPU, eller GPU för den delen, ska fungera och klocka ultimat är under 50°C riktmärket. Det kan nog bli en utmaning. Kör man en enklare kylare eller aio får man nog räkna med temp-throttle, vilket skjuter en i foten en hel del speciellt när det kommer till spel

Permalänk
Medlem
Skrivet av Alexraptor:

Haha, ja. Jag satt dock och tänkte mer fysikaliskt, en processor som kan fysiskt konfigurera om sig själv och skapa nya optimerade kanaler, när de behövs.

Vad jag har förstått så är FPGA väldigt användbart speciellt för prototypande, när hårdvara och mjukvara ska utvecklas tillsammans.

Det är faktiskt möjligt att dynamiskt konfigurera om FPGA:er via så kallad partial reconfiguration!

Permalänk
Medlem
Skrivet av xenom:

Håller helt med. Frågan är bara vad temperaturen landar på då? För att en CPU, eller GPU för den delen, ska fungera och klocka ultimat är under 50°C riktmärket. Det kan nog bli en utmaning. Kör man en enklare kylare eller aio får man nog räkna med temp-throttle, vilket skjuter en i foten en hel del speciellt när det kommer till spel

Ja precis. Tempen blir knepig. Men det kanske går att bredda cpu så de kanske är 1 cm bredare så värmen sprids ut mer och mer plats för grafik.

Men jag tänker mig kanske fem år fram i tiden och att de RT kärnor som implementeras är mest för grundarbete, typ så man kan ha ray tracing på low i spel, så kan det dedikerade grafikkoret göra resten om det går att synca ihop det på nått bra vis.

tekniken (nanometer) blir bara mindre och mindre och nya lösningar hittas, så att ha lite mer grafik beräkningar i cpu är nog inte omöjligt. Vore intressant för bärbara enheter.

AMD:s igpu har kommit en bit på väg och man kan ju spela vissa spel hyfsat bra utan dedikerat grafikkort (ej ray tracing i nuläget)

Visa signatur

AMD Ryzen 7 5700X 3,4GHz
Asus GeForce RTX 4070 Dual OC 12GB
Asus ROG Strix X570-E Gaming
G.Skill Trident Z Neo DDR4 3600MHz 32GB
Kingston Fury Renegade PCIe 4.0 NVMe M.2 SSD 2TB

Permalänk
Medlem
Skrivet av Xverminator:

Borde det inte gå att lägga över mer Ray Tracing på CPU, alltså att implementera det i hårdvaran?

Min CPU används typ bara 35% i spel i snitt (extremt sällan jag kommer upp över 50%). Har rätt mycket kraft till godo som hade kunnat användas till annat.

Borde gå att göra mer samspel mellan cpu och grafikkort.

Tror inte det skulle funka så bra. GPU är så mycket snabbare på detta och har sitt dedikerade minne. För att det som beräknas på CPU ska vara användbart måste det ju också synkas i tid. Det får ju inte bli så att GPU får vänta in CPU. Min magkänsla säger att den over head som blir av att flytta en del av jobbet i varje frame till CPU är större än vinsten.

Visa signatur

Ryzen 7 7800X3D | ASUS TUF Gaming B650-Plus WIFI | Kingston 32GB (2x16GB) DDR5 6GT/s CL30 FURY Beast | Kingston Fury Renegade M.2 NVMe SSD Gen 4 2TB | MSI RTX 4060 8GB | Fractal Design Define S | MSI MPG A850G 850W | Thermalright Phantom Spirit 120 SE | Windows 11 Pro | AOC 27" AGON AG276QZD2 OLED QHD 240 Hz

Permalänk
Medlem
Skrivet av Xverminator:

Ja precis. Tempen blir knepig. Men det kanske går att bredda cpu så de kanske är 1 cm bredare så värmen sprids ut mer och mer plats för grafik.

Men jag tänker mig kanske fem år fram i tiden och att de RT kärnor som implementeras är mest för grundarbete, typ så man kan ha ray tracing på low i spel, så kan det dedikerade grafikkoret göra resten om det går att synca ihop det på nått bra vis.

tekniken (nanometer) blir bara mindre och mindre och nya lösningar hittas, så att ha lite mer grafik beräkningar i cpu är nog inte omöjligt. Vore intressant för bärbara enheter.

AMD:s igpu har kommit en bit på väg och man kan ju spela vissa spel hyfsat bra utan dedikerat grafikkort (ej ray tracing i nuläget)

Jag är med på vad du vill/tror, men som någon nämnde tidigare så finns det inte riktigt något vinning i det; det du föreslår är att ta en del (hårdvara) från gpun för att istället sätta den i CPUn, mest för att du inte utnyttjar hela din cpu när du spelar.
Problemet är att det ALLTID kommer vara någon komponent som är den begränsande faktorn i ett system; får du upp 100% cpu så kommer nästan garanterat din gpu inte vara 100%
Det kommer dessutom leda till att du har outnyttjad prestanda/hårdvara i alla lägen som du inte kräver RT från cpun, vilket gör att hela ditt grundproblem förblir olöst (att utnyttja hela CPUn)

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av sweisdapro:

Jag är med på vad du vill/tror, men som någon nämnde tidigare så finns det inte riktigt något vinning i det; det du föreslår är att ta en del (hårdvara) från gpun för att istället sätta den i CPUn, mest för att du inte utnyttjar hela din cpu när du spelar.
Problemet är att det ALLTID kommer vara någon komponent som är den begränsande faktorn i ett system; får du upp 100% cpu så kommer nästan garanterat din gpu inte vara 100%
Det kommer dessutom leda till att du har outnyttjad prestanda/hårdvara i alla lägen som du inte kräver RT från cpun, vilket gör att hela ditt grundproblem förblir olöst (att utnyttja hela CPUn)

Det var inte det jag menade.

Bara att man kan bygga hybrider. Allting måste inte vara separat eller dedikerat. Sen hur prestandan fördelas är ju en helt annan sak och hur man balanserar det i framtiden.

Vem vet, det kanske finns de som kommer integrera kretsar på moder koret som ljudkort. Det kanske tom skulle kunna slå ihop flera kretsar i en enda klump, cpu, gpu och minne. Kanske inte så optimalt i nutid vs dedikerade kretsar.

Jämför dagens modernaste mobiltelefoner hur små de är och vad de klarar av, jämfört med en PC för 10 år sedan. Tänk 10 år fram från nu. Man kanske inte måste ha en PC som är stor och klumpig med massa onödigt utrymme som inte används. Ett grafikkort från 2010 är ungefär lika stort och klumpigt som idag och det finns fortfarande massa luft och outnyttjat utrymme i ett chassie, de är stora som lådor vs en mobiltelefon som är super slimmad.

Om tio år kommer dåtida mobiltelefoner säkert kunna köra dagens tyngre spel och allt får plats i bröstfickan.

Visa signatur

AMD Ryzen 7 5700X 3,4GHz
Asus GeForce RTX 4070 Dual OC 12GB
Asus ROG Strix X570-E Gaming
G.Skill Trident Z Neo DDR4 3600MHz 32GB
Kingston Fury Renegade PCIe 4.0 NVMe M.2 SSD 2TB

Permalänk
Medlem
Skrivet av Thor:

Klart det går att göra så som du beskriver. Men det finns nog inget ekonomiskt incitament för det. Konsumentbasen är för liten och vinsten med en sån design troligen obefintlig i scenarion där du vill avlasta en dedikerad beräkningskrets.

Spelkonsolerna är lite mer integrerade.
Åtminstone har de delat minne, lite liknande en CPU med iGPU, men kraftfullare.

Har man exempelvis en Playstation 5 så går det att spela på den...

Sen de nya Apple Mac datorerna med olika varianter av M1, M2 och M3 där är större delen av datorn en stor SoC.
(Med större menar jag kretsmässigt, funktionsmässigt. Inte nödvändigtvis sett till yta. Där exempelvis batteri kan ta upp en stor del av ytan i en laptop)

Skrivet av Xverminator:

Vem vet, det kanske finns de som kommer integrera kretsar på moder koret som ljudkort. Det kanske tom skulle kunna slå ihop flera kretsar i en enda klump, cpu, gpu och minne. Kanske inte så optimalt i nutid vs dedikerade kretsar.

Det låter lite som att du vill ha en Mac.
Det med att vara kompakt också så kanske en Mac Studio kan passa dig.

En Mac Studio med 76 kärnig grafik, 192GB enhetligt minne och 2TB SSD kostar "bara" 95kkr.
Men du får en kompakt och kraftfull dator.

Den blir inte bättre för spel än en PC med ett RTX 4090.
Men det finns scenarion där en stor mängd delat minne kan vara en fördel.
Tror vissa typer av AI kan dra nytta av mycket minne.
Finns väl andra specialtillämpningar.

Det finns scenarion där en 90kkr Mac kan slå en 50kkr PC bortsett från högt pris och skrytfaktor.

LTT gjorde en video några veckor sen där de jämförde en Mac Pro mot ett dyrt Threadripper bygge för att få en dator som är ungefär lika dyr som Macen.

Minns inte alla detaljer, men var väl något Macen var snabbare i.
Typ om den var snabbare att starta datorn från avstängt läge eller något sånt.
I typ allt annat var väl PC minst ~ 40-50% snabbare och i saker som PC kunde dra nytta av 4090 så kunde PC vara heltalsfaktorer snabbare.

Kanske du inte vill lägga på 40kkr extra på priset på din nästa dator...
Men annars, rent tekniskt sett låter det som att lösningen du efterfrågar är en Mac.
Eller åtminstone är de nyare Macarna med Apple Silicon det närmaste jag kommer på.

Permalänk
Medlem

1.6s för en frame är rätt snabb tför cpu iaf, finns. bra med acceleration för beräkningar.

Visa signatur

Nätverksnörd

Permalänk
Medlem
Skrivet av Xverminator:

Det var inte det jag menade.

Bara att man kan bygga hybrider. Allting måste inte vara separat eller dedikerat. Sen hur prestandan fördelas är ju en helt annan sak och hur man balanserar det i framtiden.

Vem vet, det kanske finns de som kommer integrera kretsar på moder koret som ljudkort. Det kanske tom skulle kunna slå ihop flera kretsar i en enda klump, cpu, gpu och minne. Kanske inte så optimalt i nutid vs dedikerade kretsar.

Jämför dagens modernaste mobiltelefoner hur små de är och vad de klarar av, jämfört med en PC för 10 år sedan. Tänk 10 år fram från nu. Man kanske inte måste ha en PC som är stor och klumpig med massa onödigt utrymme som inte används. Ett grafikkort från 2010 är ungefär lika stort och klumpigt som idag och det finns fortfarande massa luft och outnyttjat utrymme i ett chassie, de är stora som lådor vs en mobiltelefon som är super slimmad.

Om tio år kommer dåtida mobiltelefoner säkert kunna köra dagens tyngre spel och allt får plats i bröstfickan.

Förstår inte alls vart du vill komma, hybrider existerar ju redan sedan lång tid tillbaka, dvs processorer med iGPU, och tekniken används ju redan för superslimmade notebooks och kompakta minidatorer, vissa som till och med i storleksformatet av en usb-sticka.

Jag får intrycket av att du egentligen inte förstår hur datorer och deras komponenter faktiskt fungerar. Anledningen till att saker är som de är handlar om ren och skär termodynamik.

Det går inte att pumpa in hur mycket energi som helst på en hur liten/kompakt yta som helst. Hög prestanda kräver mycket energi och mycket energi betyder hög värmeutveckling och ett behov av hög värmeutväxling för att bli av med det.

Mindre dator = mindre prestanda.
Större dator = högre prestanda.

Så har det alltid varit och så kommer det alltid att vara.

Visa signatur

| Corsair Obsidian 1000D | AMD Ryzen 9 5950x med Corsair iCue H170i Elite Capellix | Asus ROG Crosshair VIII Extreme | G.Skill Trident Z Royal, 4x16GB 3600MHz C16 | ROG Strix LC GeForce 3090 Ti OC Edition 24GB | 1x Seagate FireCuda 520 1TB, 1x Seagate FireCuda 520 2TB, Seagate FireCuda 530 2TB, 1x Seagate Ironwolf 16TB HDD | Corsair H1500i | XG27AQM|

Permalänk
Medlem
Skrivet av Alexraptor:

Förstår inte alls vart du vill komma, hybrider existerar ju redan sedan lång tid tillbaka, dvs processorer med iGPU, och tekniken används ju redan för superslimmade notebooks och kompakta minidatorer, vissa som till och med i storleksformatet av en usb-sticka.

Jag får intrycket av att du egentligen inte förstår hur datorer och deras komponenter faktiskt fungerar. Anledningen till att saker är som de är handlar om ren och skär termodynamik.

Det går inte att pumpa in hur mycket energi som helst på en hur liten/kompakt yta som helst. Hög prestanda kräver mycket energi och mycket energi betyder hög värmeutveckling och ett behov av hög värmeutväxling för att bli av med det.

Mindre dator = mindre prestanda.
Större dator = högre prestanda.

Så har det alltid varit och så kommer det alltid att vara.

Du har fastnat i nutid, jag tänker framtid. Läs vad jag skriver.

Mindre dator = mindre prestanda.
Större dator = högre prestanda.

Precis, men tänk nu FRAMTID! Du hade sagt att det var omöjligt för 15 år sedan att implementera Ray Tracing på dåtidens framtida grafikkort (dvs nutid).

Framtidens mobiltelefoner kommer ha Ray Tracing som standard om 10 år, idag kan du spela spel som Fortnite på standard mobiltelefoner, och då utan ett stort och luftigt chassie som på PC.

Jag pratar inte om dagens teknik utan framtida teknik som kan bakas samman mer och mer.

Idag har vi 3D cache i cpu. Framtidens CPU kanske är som våningshus, kärnorna på våning 1 ren cpu, våning 2 (lager 2) har grafikrelaterat osv... Tekniken krymper och värmeutvecklingen minskar.

Exempel på spela utan grafikkort, enbart CPU, tänk nu i framtiden hur det kommer se ut
https://www.youtube.com/watch?v=GmJBTb9QPX8

En Nintendo Switch klarar Fortnite och har väldigt slimmade komponenter vs en PC
https://www.youtube.com/watch?v=fa7TbLBSISs

En mobiltelefon behöver ingen kylning, ändå kan man spela på dem hyfsat bra tex Fortnite / Minecraft.
https://www.youtube.com/watch?v=lvuNQgqjCXE

https://youtu.be/rVlpg6w3q04?t=190

En dator från 2010 har typ sämre prestanda än dagens mobiltelefoner och då ändå mer kylning och större komponenter och drog mer energi osv.. Förstår du? Tänk framtid, inte nutid!

Visa signatur

AMD Ryzen 7 5700X 3,4GHz
Asus GeForce RTX 4070 Dual OC 12GB
Asus ROG Strix X570-E Gaming
G.Skill Trident Z Neo DDR4 3600MHz 32GB
Kingston Fury Renegade PCIe 4.0 NVMe M.2 SSD 2TB

Permalänk
Medlem
Skrivet av Xverminator:

Borde det inte gå att lägga över mer Ray Tracing på CPU, alltså att implementera det i hårdvaran?

Min CPU används typ bara 35% i spel i snitt (extremt sällan jag kommer upp över 50%). Har rätt mycket kraft till godo som hade kunnat användas till annat.

Borde gå att göra mer samspel mellan cpu och grafikkort.

Japp. Jag väntar fortfarande på att AMD:s Smart Access Memory (SAM) skall ge mer fps i spel, men det är hugget som stucket om jag har funktionen påslagen eller ej 😐

Visa signatur

Star citizen - swedish umbrella. En svensk union för er spelare och organisationer som tycker om demokratiska val.
https://robertsspaceindustries.com/orgs/SWEUMB
Discord:
https://discord.com/invite/j5AkGERJz3

Permalänk
Medlem

Korrekt användning av swenglish? (eller ja, adopterade engelska termer) Grisar flyger!

inga "bildrutor per minut" här icke!

Visa signatur

Xeon E5450@3.2ghz
9800GTX+