Ageia svarar på ATI:s Triple Play

Permalänk
Medlem

hmm.. skulle va coolt om man kunde sånt där me simuleringar:)
värkar rätt knepigt

Visa signatur

På A svarar jag B, och på C vill jag höra om frågan.

Permalänk

Skaffa MatLab så har du halva jobbet gjort

Hoppas verkligen att "fysisk fysik" (inte mjukvara) kommer att komma på lite bredare front. Kan bli hur fett som helst om ett par generationer.

Visa signatur

/ SvSm
- Datorer ska synas men inte höras.
AMD Barton 2600+, 1024 DDRAM 400 @ 333, ASUS A7V880, Radeon 9800 Pro, Eizo FlexScan L557.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dinoman
Oj oj oj, här har vi visst någon som blev förbannad för min åsikt. Vet inte riktigt vad jag har med gnälliga snorungar att göra, vet du? Tycker inte alls om din ton och har anmält ditt inlägg för att jag tycker inte att jag har förtjänat att du ska behandla mig på det otrevliga sättet.

För mig låter det som att stirra på siffror inte säger ett skit om det är en möjlighet eller inte, man kan ju ställa sig frågan hur både Intel och AMD har löst sina multi-cpu:er, om det nu ser så fruktansvärt omöjligt ut för grafikkorts-tillverkarna. Borde ju rimligtvis gå att lösa med gpu:er också, inte sant?

Åh, nej det är ingen alls som har tvingat mig till någonting, jag anser bara att det hade varit en smartare utveckling med multi-gpu:er istället för att behöva köpa två grafikkort. Visst är det jätte bra att man nu KAN köpa två grafikkort för att få ännu mer kräm men jag ser bara att det gynnar företagen.

Sen låter det väl inte som en dum idé att man skulle kunna använda ett gammalt uttjänt grafikkort till att hantera fysikmotorn?

Det är skillnad på CPUer o GPUer. Man kan nästan säga att Nvidia och ATI redan gör multi-gpu-kort, och det har dom gjort väldigt länge. Nya grafikkort får fler och fler beräkningsenheter, vilket i stort sett är samma sak som att sätta flera GPUer på ett chip. Tex har GeForce 7600 GT 12 pixel-shaders, medan 7800 GTX har 24 st.

Så att det finns SLI beror nog på att det är hyfsat billigt att utveckla och tillverka, det behövs ju ingen ny GPU för den lilla lilla marknaden som SLI-korten står för och ändå kan man nästan dubbla sin fps i benchmarks, o det är nog en viktig PR-grej o kunna säga att man är snabbast osv.

Edit: meat4u: Fast just en hyfsad krusning efter en drake som slår ner i en sjö kan man göra redan idag rätt bra, speciellt om den inte behöver påverka nått utan bara synas.. även om jag förstår din poäng

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av vb
Det är skillnad på CPUer o GPUer. Man kan nästan säga att Nvidia och ATI redan gör multi-gpu-kort, och det har dom gjort väldigt länge. Nya grafikkort får fler och fler beräkningsenheter, vilket i stort sett är samma sak som att sätta flera GPUer på ett chip. Tex har GeForce 7600 GT 12 pixel-shaders, medan 7800 GTX har 24 st.

Så att det finns SLI beror nog på att det är hyfsat billigt att utveckla och tillverka, det behövs ju ingen ny GPU för den lilla lilla marknaden som SLI-korten står för och ändå kan man nästan dubbla sin fps i benchmarks, o det är nog en viktig PR-grej o kunna säga att man är snabbast osv.

Edit: meat4u: Fast just en hyfsad krusning efter en drake som slår ner i en sjö kan man göra redan idag rätt bra, speciellt om den inte behöver påverka nått utan bara synas.. även om jag förstår din poäng

Jo visst sätter de in fler och fler beräkningsenheter för att hjälpa den faktiska GPU:n att rendera grafik på skärmen. Men deras uppgifter är ju mer inriktade åt förprogrammerade områden såsom antialiasing.

Jag tror fortfarande att det hade varit ett naturligt steg i utvecklingen att ha tillexempel Nvidia a la Core Duo. Om du dessutom har två GPU:er som sammarbetar så kan du dra ner på shaders etc. Att sedan i framtiden få ett sammarbete mellan Aegia och grafikkortstillverkarna så hade man kunnat få en PPU integrerat på grafikkortet. Med mindre transistor-teknik så kan man nog få klämt in det. Aegia kan ju låta Nvidia och ATi att tillverka på licens.

Jaja, den som lever får se.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dinoman
Jo visst sätter de in fler och fler beräkningsenheter för att hjälpa den faktiska GPU:n att rendera grafik på skärmen. Men deras uppgifter är ju mer inriktade åt förprogrammerade områden såsom antialiasing.

Jag tror fortfarande att det hade varit ett naturligt steg i utvecklingen att ha tillexempel Nvidia a la Core Duo. Om du dessutom har två GPU:er som sammarbetar så kan du dra ner på shaders etc. Att sedan i framtiden få ett sammarbete mellan Aegia och grafikkortstillverkarna så hade man kunnat få en PPU integrerat på grafikkortet. Med mindre transistor-teknik så kan man nog få klämt in det. Aegia kan ju låta Nvidia och ATi att tillverka på licens.

Jaja, den som lever får se.

Varför skriver du om massa saker du inte har den minsta koll på? Både apanove och sedan vb ger dig en alldeles utmärkt förklaring på varför inte dual core GPUer finns (de flesta har fö tröttnat för länge sedan på att förklara varför), och ändå måste du försöka säga emot när du inte vet vad du pratar om. Det var sannolikt därför apanove blev lite irriterad på dig.

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av maglar
Varför skriver du om massa saker du inte har den minsta koll på? Både apanove och sedan vb ger dig en alldeles utmärkt förklaring på varför inte dual core GPUer finns (de flesta har fö tröttnat för länge sedan på att förklara varför), och ändå måste du försöka säga emot när du inte vet vad du pratar om. Det var sannolikt därför apanove blev lite irriterad på dig.

Tror inte att jag har så särskilt mindre koll än alla andra här eller är det många som sitter med grafikprocessor-tillverkning?

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av maglar
Varför skriver du om massa saker du inte har den minsta koll på? Både apanove och sedan vb ger dig en alldeles utmärkt förklaring på varför inte dual core GPUer finns (de flesta har fö tröttnat för länge sedan på att förklara varför), och ändå måste du försöka säga emot när du inte vet vad du pratar om. Det var sannolikt därför apanove blev lite irriterad på dig.

apanove och vb har INTE gett utmärkta förklaringar, ni får allt ha bättre argument än så för att övertyga mig och kanske Dinoman

Dessutom är kommentarer som apanove skrev inte acceptabla!

Visa signatur

Citera för att vara säker på svar!

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av Blubben
apanove och vb har INTE gett utmärkta förklaringar, ni får allt ha bättre argument än så för att övertyga mig och kanske Dinoman

Dessutom är kommentarer som apanove skrev inte acceptabla!

Tack för det.

Började känna mig ensam på denna teorin. Känns skönt att det är någon annan som förstår vad jag menar. Det jag presenterar är en teori jag kan inte gå in i detalj hur det ska skall genomföras eller det tekniska.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dinoman
Hur du blir bemött dagligen är för mig helt orellevant eller hur? Tycker du att det är en okej kommentar på mitt första inlägg så får det stå för dig, jag anser inte att jag ska behöva ta sådan skit.

För en människa som bitchar om att bli bemött på rätt sätt så är detta inlägg inte direkt till din fördel. Det är nästan som du säger "Så länge det är dej dom skiter på så bryr jag mig inte"

Citat:

Ursprungligen inskrivet av Dinoman
Aegia PhysX kräver ström, utvecklar värme och dess fläkt låter alldeles säkert den också plus att kortet kräver en ledig PCI-slot. Så varför det kortet skulle vara smidigare än ett graikkort förstår jag inte. Dessutom kommer det grafikkort som inte kräver PCI-E 16x.

Saken är den att vi kan stöta och blöta det här till alla evinnerlighet men faktum är att än så länge vet ingen av oss hur det kommer att bli. Kanske ter det sig så att vi alla sitter med ett fysikkort i våra datorer i framtiden.

De som var med på den gamla Vodoo-tiden kommer väl antagligen ihåg 3DFX. Det började med ett företag som hårdvaru-accelererade 3D. Förändrade hela spelvärlden. Kanske är det detta vi står inför nu också. Men som vi alla vet så slutade det med att till slut så integrerades 3D-hårdvaruaccelereringen in i grafikkorten a la GeForce. [/B]

Saken är väl den också att Havok som jag antar det är de tänker implementera från ATi`s sida också inte stödjer alla former av fysikberäkning som Aegia korten gör.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MOrKiz
För en människa som bitchar om att bli bemött på rätt sätt så är detta inlägg inte direkt till din fördel. Det är nästan som du säger "Så länge det är dej dom skiter på så bryr jag mig inte"

Du sa ju att du inte anmälde inlägg som du får med liknande innehåll, det var ju det han svarade på.

Citat:

Saken är väl den också att Havok som jag antar det är de tänker implementera från ATi`s sida också inte stödjer alla former av fysikberäkning som Aegia korten gör.

Jo, det var väl att Havok bara klarar av den grafiska fysiken, men det borde gå att koppla ihop på något sätt med den interna fysiken.

MVH

Visa signatur

Citera för att vara säker på svar!

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av MOrKiz
För en människa som bitchar om att bli bemött på rätt sätt så är detta inlägg inte direkt till din fördel. Det är nästan som du säger "Så länge det är dej dom skiter på så bryr jag mig inte"...

"Bitchar"? Vad är det du menar?

Det jag menade var inte att jag skiter i att du får ta skit, men du sa att sådana kommentarer får du ta varje dag och det bryr inte du dig om. Det är alltså helt orelevant för mig för jag anser inte att jag ska behöva ta skit vilket du uppenbarligen gör. Alltså är det inte mitt ansvar att du får ta skit, jag tycker att DU lika lite som JAG ska behöva ta skit men jag gör något åt det. Sen att du tycker att jag som du uttrycker det "bitchar" så får ju det stå för dig då.

Citat:

Ursprungligen inskrivet av MOrKiz
Saken är väl den också att Havok som jag antar det är de tänker implementera från ATi`s sida också inte stödjer alla former av fysikberäkning som Aegia korten gör.

Nej jag tycker att Havok's fysik verkar ganska lam i jämförelse med Aegia. Därför tror jag att PPU har en klar framtid men helst integrerad på grafikkortet.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dinoman
Jo visst sätter de in fler och fler beräkningsenheter för att hjälpa den faktiska GPU:n att rendera grafik på skärmen. Men deras uppgifter är ju mer inriktade åt förprogrammerade områden såsom antialiasing.

Jag tror fortfarande att det hade varit ett naturligt steg i utvecklingen att ha tillexempel Nvidia a la Core Duo. Om du dessutom har två GPU:er som sammarbetar så kan du dra ner på shaders etc. Att sedan i framtiden få ett sammarbete mellan Aegia och grafikkortstillverkarna så hade man kunnat få en PPU integrerat på grafikkortet. Med mindre transistor-teknik så kan man nog få klämt in det. Aegia kan ju låta Nvidia och ATi att tillverka på licens.

Jaja, den som lever får se.

Nej, det är just det som är tricket. I stort sett varje steg som en GPU gör, vertex-shading, pixel-shading mm är sådana saker som den kan göra parallellt.
Därför kan man helt enkelt stoppa in mer av dessa beräkningsenheter och få ut motsvarande kraft i högre fps.

I en CPU däremot funkar det inte på samma sätt. När den jobbar måste den ta varje steg i tur o ordning, och då funkar det inte o stoppa in en beräkningsenhet till på samma sätt (även om det givetvis kan ge en del, SSE är ett exempel på när man gjort så).

En liknelse man kan göra är att en GPUs jobb kan liknas vid att man ska färglägga en bild (rita upp en frame). Då går det i stort sett dubbelt så fort att göra det om man är 2 personer som 1.

CPUns jobb kan man istället likna vid att borra ett hål (köra ett program). Då hjälper det inte om man är 2 personer, utan det som spelar roll är hur snabb den snabbaste personer är på att borra hålet. Är det däremot 2 hål (program) som ska borras är det däremot bra om man är 2 som kan borra samtidigt..

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av vb
Nej, det är just det som är tricket. I stort sett varje steg som en GPU gör, vertex-shading, pixel-shading mm är sådana saker som den kan göra parallellt.
Därför kan man helt enkelt stoppa in mer av dessa beräkningsenheter och få ut motsvarande kraft i högre fps.

I en CPU däremot funkar det inte på samma sätt. När den jobbar måste den ta varje steg i tur o ordning, och då funkar det inte o stoppa in en beräkningsenhet till på samma sätt (även om det givetvis kan ge en del, SSE är ett exempel på när man gjort så).

En liknelse man kan göra är att en GPUs jobb kan liknas vid att man ska färglägga en bild (rita upp en frame). Då går det i stort sett dubbelt så fort att göra det om man är 2 personer som 1.

CPUns jobb kan man istället likna vid att borra ett hål (köra ett program). Då hjälper det inte om man är 2 personer, utan det som spelar roll är hur snabb den snabbaste personer är på att borra hålet. Är det däremot 2 hål (program) som ska borras är det däremot bra om man är 2 som kan borra samtidigt..

Haha, väldigt pedagogiskt förklarat...

I vilket fall som helst så borde det i alla fall vara en klar fördel att låta en PPU sitta direkt på grafikkortet eftersom det är i sammarbete med det som den är användbar.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av vb
Nej, det är just det som är tricket. I stort sett varje steg som en GPU gör, vertex-shading, pixel-shading mm är sådana saker som den kan göra parallellt.
Därför kan man helt enkelt stoppa in mer av dessa beräkningsenheter och få ut motsvarande kraft i högre fps.

I en CPU däremot funkar det inte på samma sätt. När den jobbar måste den ta varje steg i tur o ordning, och då funkar det inte o stoppa in en beräkningsenhet till på samma sätt (även om det givetvis kan ge en del, SSE är ett exempel på när man gjort så).

En liknelse man kan göra är att en GPUs jobb kan liknas vid att man ska färglägga en bild (rita upp en frame). Då går det i stort sett dubbelt så fort att göra det om man är 2 personer som 1.

CPUns jobb kan man istället likna vid att borra ett hål (köra ett program). Då hjälper det inte om man är 2 personer, utan det som spelar roll är hur snabb den snabbaste personer är på att borra hålet. Är det däremot 2 hål (program) som ska borras är det däremot bra om man är 2 som kan borra samtidigt..

Bra förklarat

Dock så går det ju att använda flera gpu:er samtidigt trots högt pipeline antal för har du korten hopkopplade kan du ju använda gpu:erna till t.ex. varannan frame(vilket de använder på sli om jag kommer ihåg rätt).

Visa signatur

Citera för att vara säker på svar!

Permalänk

Owned by mad logical skillz. *clap*

Visa signatur

C2D Q6600 || Gigabyte P31-DS3L || Corsair 6400 1GB*2 || 8800GT || Audigy2

Permalänk
Medlem
Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7800X3D Delidded | Custom EK Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-38-38-76| AMD Radeon RX 7900 XTX| LG UltraGear 45GR95QE OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av Blubben
Bra förklarat

Dock så går det ju att använda flera gpu:er samtidigt trots högt pipeline antal för har du korten hopkopplade kan du ju använda gpu:erna till t.ex. varannan frame(vilket de använder på sli om jag kommer ihåg rätt).

Det är lite det som varit min poäng hela tiden, eftersom SLI bevisligen fungerar så torde det finnas en prestandavinst i att ha två stycken GPU:er som sammarbetar.

Dock verkar ju tillverkarna ha problem med just denna lösning av två GPU:er på ett och samma kort, har för mig att Gigabyte släppte ett sådant kort för ett tag sedan. Eller så kanske det bara var ett koncept-kort.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk

7950GX2 är ju två GPU:s på samma kort, är ju dock en SLI-lösning intryckt på ett PCB så...

Visa signatur

C2D Q6600 || Gigabyte P31-DS3L || Corsair 6400 1GB*2 || 8800GT || Audigy2

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av Friamannen
7950GX2 är ju två GPU:s på samma kort, är ju dock en SLI-lösning intryckt på ett PCB så...

Precis och det kan man väl knappast kalla en smidig lösning direkt. Det är ju just två kort i SLI fast med bara en PCI-E anslutning. Det är ju två kort. Inte ett.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman
http://www.myit365.com/article_Photo/2006-6/200665161125870.j...

Precis och det kan man väl knappast kalla en smidig lösning direkt. Det är ju just två kort i SLI fast med bara en PCI-E anslutning. Det är ju två kort. Inte ett.

Ah, fult. Trodde det delade samma PCB. Asus hade annars två GPU på ett PCB en gång (minns ej exakt vilket kort, möjligtvis 6x00-serien) men då blev det ju jävligt långt istället för dubbelt så högt. Men ett instickskort var det likväl.

Visa signatur

C2D Q6600 || Gigabyte P31-DS3L || Corsair 6400 1GB*2 || 8800GT || Audigy2

Permalänk
Moderator
Testpilot

Tänkte blåsa lite liv i denna tråden igen.

Det var någon som nämnde att två stycken GPU:er på ett kort inte var möjligt för att det skulla ta för stor plats. Tja, vad ska man säga.

http://www.sweclockers.com/news_show.php?id=4510

Tror fortfarande att grafikkorten kommer gå samma väg som CPU:erna så småningom. Detta är dock två GPU-kärnor på ett kort, inte så revolutionerande kanske. :-/

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman
Tänkte blåsa lite liv i denna tråden igen.

Det var någon som nämnde att två stycken GPU:er på ett kort inte var möjligt för att det skulla ta för stor plats. Tja, vad ska man säga.

http://www.sweclockers.com/news_show.php?id=4510

Just den där kortet ta fortfarande stor plats. Kortet är längre än moderkortet (25cm) vilket jag tycker inte är godkännt. Gigabytes dual 6600GT höll dock måttet när det gäller storlek. Kortet var lika stor som X1800/X1900.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem

Dino: Suck, är det fortfarande dual core GPUer du snackar om? Du vill verkligen inte lyssna på de som vet vad de pratar om?

Iofs kan man ju faktiskt tänka sig dual core GPUer i den formen Intel har gjort med vissa Pentium D, dvs två separata chip i samma package (paket på svenska? njee). Det finns ju även något liknande i Xbox360 där ATI gjort två chip i form av en ganska "normal" GPU och ett EDRAM-chip som även innehåller lite logik för z-buffring, anti-aliasing och liknande.

Hittar inte något inlägg i tråden där någon hävdar att det inte får plats två GPUer på samma kort, det har tom postats länkar till såna kort som funnits ute sedan länge.

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av maglar
Dino: Suck, är det fortfarande dual core GPUer du snackar om? Du vill verkligen inte lyssna på de som vet vad de pratar om?

Iofs kan man ju faktiskt tänka sig dual core GPUer i den formen Intel har gjort med vissa Pentium D, dvs två separata chip i samma package (paket på svenska? njee). Det finns ju även något liknande i Xbox360 där ATI gjort två chip i form av en ganska "normal" GPU och ett EDRAM-chip som även innehåller lite logik för z-buffring, anti-aliasing och liknande.

Hittar inte något inlägg i tråden där någon hävdar att det inte får plats två GPUer på samma kort, det har tom postats länkar till såna kort som funnits ute sedan länge.

Nej jag vill inte lyssna på vad ovanstående talare har snackat om för jag tror inte på det. Bakåtsträvare har jag inte mycket för. Hade jag däremot fått ett uttalande från ATi eller Nvidia om att det är omöjligt pga. av det en eller det andra så hade jag köpt det.

Det ska till mer än en massa amatör-utlåtanden för att jag ska ändra min åsikt.

Du är inne på mitt spår där. Intel har ju gjort det med sina CPU:er därför borde det gå att göra samma sak med en GPU. Kortet är fortfarande stora, det håller jag med om, men vem minns inte Vodoo2 korten? De var ju enorma!

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Det handlar inte om att det inte _går_ att göra en dual core GPU. Det klart att det går, det finns ju redan SLI. Anledningen till att det inte görs är för att det ger sämre prestanda/krona, oavsett pris det landar på. Annars hade man gjort det för länge sedan, precis som man hade kunnat klämma in 10 Pentium-kärnor istf en Pentium 4-kärna men det inte gjorts eftersom det är sämre. Anledningen till att man började med dual core CPUer är inte för att det är häftigt, utan för att man inte kan få ut mer av single core.

Jag vet att du inte vill lyssna på det, men iaf...

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av maglar
Det handlar inte om att det inte _går_ att göra en dual core GPU. Det klart att det går, det finns ju redan SLI. Anledningen till att det inte görs är för att det ger sämre prestanda/krona, oavsett pris det landar på. Annars hade man gjort det för länge sedan, precis som man hade kunnat klämma in 10 Pentium-kärnor istf en Pentium 4-kärna men det inte gjorts eftersom det är sämre. Anledningen till att man började med dual core CPUer är inte för att det är häftigt, utan för att man inte kan få ut mer av single core.

Jag vet att du inte vill lyssna på det, men iaf...

Haha, du tror verkligen att jag är ett barn va? Får ju anta det eftersom du behandlar mig som ett. Den här diskussionen är avslutad. Det slutar ändå med att min idé inte var helt fel.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Din idé är som sagt helt galen... Jag fattar inte varför du håller på att försöka sia om saker du inte har koll på, och vägrar lyssna när folk tar sig tid att försöka förklara för dig hur det fungerar.

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av maglar
Din idé är som sagt helt galen... Jag fattar inte varför du håller på att försöka sia om saker du inte har koll på, och vägrar lyssna när folk tar sig tid att försöka förklara för dig hur det fungerar.

Helt galen? Är jag helt galen som förutspår dubbla GPU:er på grafikkorten i framtiden? Ok.

Det är inte jag som snackar om 10 kärnor i storleksförhållande med en P4.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dinoman
Helt galen? Är jag helt galen som förutspår dubbla GPU:er på grafikkorten i framtiden? Ok.

Det är inte jag som snackar om 10 kärnor i storleksförhållande med en P4.

Jag sa inte att du var galen, jag sa att din idé var galen. Och det vi pratade var inte om dubbla GPUer på grafikkort (som funnits ute sedan länge), utan om dual core GPUer. Helt olika saker.

En Pentium-MMX-processor är på 4.5 miljoner transistorer enligt
http://en.wikipedia.org/wiki/List_of_Intel_microprocessors. En NorthWood A Pentium 4 är på 55 miljoner transistorer enligt samma sida. Man kunde alltså välja att göra en "deca core" (10-kärnig) CPU istället för en single core Northwood A. Den skulle förvisso bli helt utan L2-cache eftersom Pentium 1 hade en extern sådan på moderkortet, men iaf. (Om det nu var detta du inte trodde på, jag vet inte riktigt varför du tog upp det.)

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av maglar
Jag sa inte att du var galen, jag sa att din idé var galen. Och det vi pratade var inte om dubbla GPUer på grafikkort (som funnits ute sedan länge), utan om dual core GPUer. Helt olika saker.

En Pentium-MMX-processor är på 4.5 miljoner transistorer enligt
http://en.wikipedia.org/wiki/List_of_Intel_microprocessors. En NorthWood A Pentium 4 är på 55 miljoner transistorer enligt samma sida. Man kunde alltså välja att göra en "deca core" (10-kärnig) CPU istället för en single core Northwood A. Den skulle förvisso bli helt utan L2-cache eftersom Pentium 1 hade en extern sådan på moderkortet, men iaf. (Om det nu var detta du inte trodde på, jag vet inte riktigt varför du tog upp det.)

Nej dual core GPU och dual GPU är inte HELT olika saker. Det blir en helt annan uppbyggnad av grafikkortet men det är inte helt olika saker eftersom båda utförnadena bygger på två stycker GPU:er som sammarbetar. Med en dual core CPU så har du båda kärnorna intryckta i ett hölje istället för två processorer med var sin socket på ett moderkort så behöver man bara en socket. Men det bygger fortfarande på att det är två stycken CPU:er oavsett om de sitter i samma hölje eller har var sitt. Samma sak skulle ju då gälla en GPU.

Det du tar upp om att ha 10 kärnor i samma hölje skulle medföra ett enormt stort hölje. Där är vi inte än. Däremot kommer snart quad core, vilket då är två stycker dual core under samma hölje.

Jag fattar inte varför det är så otroligt med att man skulle göra dual core GPU:er? Kan man göra dual core CPU:er så borde ju det rimligtvis vara tekniskt möjligt att göra en dual core GPU.

Mitt påpekande innan var att i och med att man gör dual GPU grafikkort så är det rent tekniskt möjligt att få två stycken GPU:er att sammarbeta, dessutom ger det en prestanda vinst. Kan man dessutom då trycka in dem i samma hölje så sparar man ju uttrymme på PCB:n. Dessutom behöver man ingen "brygga".

Jag vill inte vara dryg, vilket du förmodligen tycker. Jag förstår att det givetvis inte bara är att klämma in en kärna till så är vi där.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt