AMD Mantle uppgår i Vulkan

Permalänk
Medlem

Någon som vet varför dom valt att byta namn från OpenGL till Vulkan?

Visa signatur

Mina poster är en illusion. Det som står skrivet här över står i själva verket inte där så inget av det som du läser är sant. Inte ens den här texten. Jag har själv ingen kunskap om det jag skriver och ingen bör således läsa eller ta in den information som står skrivet.

Permalänk
Medlem
Skrivet av Ratatosk:

I detta fall (och många andra) har AMD tillfört något riktigt bra, till öppna standarder för spel på PC.
De flesta i den här tråden ger glädjande nog uppskattande ord om detta.
Vete fan vad jag skall säga om de magsura inläggen.

Säg inget om de magsura inläggen ^^ Ignorera alla sådana inlägg och låt dom dö i frid. 'Tomma tunnor skramlar mest' som man brukar säga
Väldigt trevligt att AMD lät det ingå till OpenGL (Vulcan) och det ska bli trevligt att se hur det här utvecklas! Jag hoppas att Vulcan används vidspritt så att man kanske kan ta sig ann att använda Linux åter igen på sin huvuddator Fria standarder och AMD går verkligen hand i hand!

Permalänk
Medlem
Skrivet av rumpnisse:

Någon som vet varför dom valt att byta namn från OpenGL till Vulkan?

Som artikeln säger, "Det innebär även ett från grunden nytt applikationsgränssnitt utan kompatibilitet med OpenGL, varför det begåvats med ett nytt namn.".

Lätt att missa dock Det har som sagt med bakåtkompatibilitet att göra, och jag tycker det är rätt för dom att ändra på namnet Det undviker förvirring som sagt.

Permalänk
Medlem

De grekiska gudarna härskar över grafikkorten.

(Vulkan logon har till och med saturnusringen)

Permalänk
Medlem

Det var väl bra, men ställer mig tveksam till om det kommer kunna bli speciellt relevant. Knappast någon av nycklarna som behövs för att göra det lönsamt att satsa på marginal-OS.

Permalänk
Hjälpsam
Skrivet av Evil Peter:

Det var väl bra, men ställer mig tveksam till om det kommer kunna bli speciellt relevant. Knappast någon av nycklarna som behövs för att göra det lönsamt att satsa på marginal-OS.

Största "nyckeln"är givetvis Steams satsning på Linux, men visst tillför även detta.
Tänk också på OpenGL ofta används i Windows.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare
Skrivet av Paddanx:

Utan Intels rent ut enorma fusk och ful spel 2009 så skulle AMD idag legat mer jämsides med Intel, och AMD ha en rätt bra kassa från sina AMD 64 x2 CPUer.
Det faktum att det är AMDs 64-bitars lösning som både Intel och alla andra använder, för att få 32-bitars bakåt kompatibilitet, är anledningen till att du kan köra 32-bitars program på alla CPUer än idag. Intel gjorde en Itanium 64-bit lösning, som inte hade något bakåtkompatibelt, som mer eller mindre inte används idag.

Och tittar du i en modern dator, ska du ser att allt från enkla spel, till de flesta program, ÄR 32-bitar fortfarande.

Helt rätt att Intel fälldes, så inget att orda om det, men rättegången avgjordes 2009, det Intel fälldes för hände under åren ~2002-2004-ish. Det riktigt stora problemet för AMD ställde man till på eget bevåg genom att köpa ATI 2006 för dels ett överpris och dels för långt mer än vad som var rimligt för ett företag med AMDs dåvarande ekonomi.

Är ju knappast Intels fel att så mycket fortfarande är 32-bitars på Windows, det får man till väldigt stor del skylla på Visual Studio där C/C++ kompilatorn (dessa språk används nästan uteslutande för "vanliga" program som körs på skrivbordet) som föll väldigt långt efter andra kompilatorer under senare delen av 00-talet när x86_64 var nytt. Under lång tid producerade VC++ så pass dålig x86_64 kod att saker var snabbare under 32-bitars läge. Är ganska nyligen som Microsoft åter igen börjat storsatsa på MSVC++.

Jämför med Linux här, AMD var väldigt populärt på Linux strax efter millennieskiftet och redan under första generationen Athlon64 fanns riktigt bra OS-stöd och kompilatorstöd fö x86_64.

Angående artikeln, råder inga tvivel om att Mantle har bidragit väldigt mycket till Vulkan. Tydligen så startande man prototypning av designen genom att starta med Mantle, d.v.s. man kan mycket väl beskriva Vulkan som en "fork" av Mantle. AMD ska ha all heder för detta, enda jag funderar över är hur AMD på något sätt kan motivera allt jobb man lagt ner på detta rent affärsmässigt då Nvidia/Qualcomm/Imagination/Intel drar precis lika mycket nytta av detta jobb i slutändan (Qualcomm/Intel kanske får mest nytta då de har starkast Linux-stöd och därmed Android-stöd, Android lär använda Vulcan). Det man jobbat med i Vulkan sedan start är just att göra modifieringar som hindrar tekniken att fungera på andra GPU-designer än GCN + att man jobbat med att ersätta HLSL med en öppen motsvarighet (som tydligen baserar sig väldigt mycket på det jobb man gjort kring OpenCL).

AMD behöver fundera lite på hur man kan tjäna pengar på det arbete man lägger ner, fungerar ju inte i längden att göra saker som man själv inte gör någon vinst på. Att få lite hurrarop på forum kommer inte ge svarta siffror i balansräkningen, tyvärr

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Snusfri

Tror detta är det bästa som kan göras av AMD gällandes Mantle faktiskt.

Att ha två stora som Vulkan och DX kommer att göra så att de pushar varandra och det blir bättre för slutkund.

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Sötast

Det borde namngetts något i stil med :
Indirect X
Direct Y

eller liknande

Permalänk
Quizmaster Malmö 22

Jag undrar vad AMD tjänar på detta om det inte e så att mycket av Mantelinnehållet endast kan nyttjas av GCN gpuer.

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Medlem
Skrivet av Yoshman:

AMD behöver fundera lite på hur man kan tjäna pengar på det arbete man lägger ner, fungerar ju inte i längden att göra saker som man själv inte gör någon vinst på. Att få lite hurrarop på forum kommer inte ge svarta siffror i balansräkningen, tyvärr

Undrar om inte AMD tänkte lite, för att 2xx (och senare) dvs moderna GCN tekniken att fungera bra, och ha en chans att hänga med, måste vi släppa något där våra kort är optimerade för det, från start. De trodde väl då att de skulle få en fördel med försäljningen både för sina APUer och på sina vanliga CPUer, om man förbättrade DX11 och fick ner overheaden. Vilket gör en 8350 klart med användbar när fler trådar och mindre rå CPU kraft behövs.

Men jag håller med dig, AMD är för liten för att leda marknaden, de borde försöka tjäna på mer säkra kort.
Dock är ju både Nvidia och Intel blodtörstiga, och hade inte AMD försökt leda sig fram, så hade nog AMD blivit överkörda av de 2 andra.
Resultatet för oss? 5x dyrare dator delar, utan konkurrens.

Permalänk
Medlem

Bra att AMD tar rejält betalt nu när någon... aaah tänkte visst på ett annat företag...

Visa signatur

Ny dator: Acer Predator Orion 5000 (RTX 3080)
[ I7 3770K @ 4.6Ghz | Asus 980 Ti 6GB | 16GB | Asus P8Z77-V PRO | Samsung 830 128GB | Corsair H100 | Cooler Master HAF X | Corsair AX 850W | Samsung DVD±RW ] [ Sony AF9 65" | Sony WF-1000XM3 | HTC Vive | Huawei P40 Pro | PS4 Pro | PS3 Slim | PS2 chippad | PS Vita | DS Lite | SNES Mini ]

Permalänk
Medlem
Skrivet av strejf:

Windows 10 blir gratis så... inget problem den här versionen direkt

Om man har en windows licens för win7 och uppåt ja. Det är en schyst deal. Dock kör jag gärna gnu/linux också bara för att det är ashäftigt (min personliga åsikt åtminstone) ^^

Skickades från m.sweclockers.com

Visa signatur

No man is free who is not master of himself

Permalänk
Datavetare
Skrivet av Paddanx:

Undrar om inte AMD tänkte lite, för att 2xx (och senare) dvs moderna GCN tekniken att fungera bra, och ha en chans att hänga med, måste vi släppa något där våra kort är optimerade för det, från start. De trodde väl då att de skulle få en fördel med försäljningen både för sina APUer och på sina vanliga CPUer, om man förbättrade DX11 och fick ner overheaden. Vilket gör en 8350 klart med användbar när fler trådar och mindre rå CPU kraft behövs.

Men jag håller med dig, AMD är för liten för att leda marknaden, de borde försöka tjäna på mer säkra kort.
Dock är ju både Nvidia och Intel blodtörstiga, och hade inte AMD försökt leda sig fram, så hade nog AMD blivit överkörda av de 2 andra.
Resultatet för oss? 5x dyrare dator delar, utan konkurrens.

Låt oss verkligen hoppas att AMD inte lägger krut på att få saker att fungera bättre på Bulldozer-designen, det var ett misstag nästan i P4-nivå och det man gör nu måste titta framåt.

DX12/Vulcan kommer göra signifikant skillnad i vad som är möjligt att göra i grafisk intensiva applikationer, så det finns absolut inget negativt med att dessa tekniker nu kommer på bred front. Inte heller någon tvekan att AMD storsatsar på APU. Problemet här är att det som framkommit så här långt visar att AMDs APUer och framförallt Intels iGPUer är typiskt fundamentalt begränsade av GPU-delen redan när man kör med DX11 vilket betyder att det inte finns någon större fördel med low-overhead API, vinsten med low-overhead APIer är främst på starkare dGPUer.

På low-end lär man ju fundera vilka möjligheter det ger när man friar upp CPU-kraft. Här verkar ju Intel tänkt till betydligt mer är AMD då man jobbat mycket med hur SSE/AVX kan användas för att avlasta en relativt klen iGPU, resultatet ser lovande ut fast är tyvärr inga goda nyheter för AMD då de inte lagt speciellt mycket krut på SSE-prestanda och så här långt har man mer eller mindre ignorerat AVX (man stödjer instruktionerna men det ger samma teoretiska prestanda som SSE både i Bulldozer-serien och Jaguar-serien).

Intels jobb är ett exempel på hur man kan göra något, ge bort resultatet och ändå vinna på det. Börjar det Intel jobbat på användas i större utsträckning gynnar det de flesta system (så bra för många), men gynnar mest system med stark CPU med riktigt stark SIMD-del kopplat till en relativt klen GPU-del (d.v.s. exakt vad Intel själva har). Faktum är att Intel mångdubblat SIMD-kapaciteten sedan Core2, men man har utanför HPC-området haft svårt att hitta en "killer-app" för all flyttalskapacitet som nu finns (blir ju en fördubbling av SIMD-flyttals kapacitet igen med Skylake). Det man jobbar på kring att använda SSE/AVX för att hjälpa iGPU kan vara en sådan "killer-app", rätt likt hur SPE-enheterna används på PS3 för att kompensera för att den har klenare GPU-del än Xbox360.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

AMD känns väldigt ofta som branchens Good Guy Greg. När jag köpte senast blev det ett GTX660 - det var det vettigaste då. Hoppas att det kan bli ett AMD-kort nästa gång.

Visa signatur

O11D Evo | Aorus Z790 Elite AX | 13600K | Kingston 5200 CL40 32GB DDR5 | Galahad 360 | 7900 XTX Nitro+ | Kingston Fury Renegade 1TB & 2TB NVMe | 2 x 860 EVO 1TB @ RAID0 | Ironwolf 8TB | Asus PB278QR & VG27WQ1B

HP Microserver Gen8 1610 | Samsung 840 120GB | 2x WD RED 1TB RAID 1 | 1x WD RED 2TB | 1x WD Green 1TB

Permalänk
Entusiast
Skrivet av Yoshman:

Låt oss verkligen hoppas att AMD inte lägger krut på att få saker att fungera bättre på Bulldozer-designen, det var ett misstag nästan i P4-nivå och det man gör nu måste titta framåt.

DX12/Vulcan kommer göra signifikant skillnad i vad som är möjligt att göra i grafisk intensiva applikationer, så det finns absolut inget negativt med att dessa tekniker nu kommer på bred front. Inte heller någon tvekan att AMD storsatsar på APU. Problemet här är att det som framkommit så här långt visar att AMDs APUer och framförallt Intels iGPUer är typiskt fundamentalt begränsade av GPU-delen redan när man kör med DX11 vilket betyder att det inte finns någon större fördel med low-overhead API, vinsten med low-overhead APIer är främst på starkare dGPUer.

På low-end lär man ju fundera vilka möjligheter det ger när man friar upp CPU-kraft. Här verkar ju Intel tänkt till betydligt mer är AMD då man jobbat mycket med hur SSE/AVX kan användas för att avlasta en relativt klen iGPU, resultatet ser lovande ut fast är tyvärr inga goda nyheter för AMD då de inte lagt speciellt mycket krut på SSE-prestanda och så här långt har man mer eller mindre ignorerat AVX (man stödjer instruktionerna men det ger samma teoretiska prestanda som SSE både i Bulldozer-serien och Jaguar-serien).

Intels jobb är ett exempel på hur man kan göra något, ge bort resultatet och ändå vinna på det. Börjar det Intel jobbat på användas i större utsträckning gynnar det de flesta system (så bra för många), men gynnar mest system med stark CPU med riktigt stark SIMD-del kopplat till en relativt klen GPU-del (d.v.s. exakt vad Intel själva har). Faktum är att Intel mångdubblat SIMD-kapaciteten sedan Core2, men man har utanför HPC-området haft svårt att hitta en "killer-app" för all flyttalskapacitet som nu finns (blir ju en fördubbling av SIMD-flyttals kapacitet igen med Skylake). Det man jobbar på kring att använda SSE/AVX för att hjälpa iGPU kan vara en sådan "killer-app", rätt likt hur SPE-enheterna används på PS3 för att kompensera för att den har klenare GPU-del än Xbox360.

Fast var inte alla utvecklare rörande överens om att Cell med dess SPE var helt fruktansvärd att programmera mot? Hur motiverade är spelprogrammerare att optimera spel mot Intels nya CPUer enbart? Känns som att det krävs att det ligger ett abstraktionslager mellan som kan sköta det automatiskt för att det någonsin ska användas i någon större utsträckning.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Datavetare
Skrivet av Zotamedu:

Fast var inte alla utvecklare rörande överens om att Cell med dess SPE var helt fruktansvärd att programmera mot? Hur motiverade är spelprogrammerare att optimera spel mot Intels nya CPUer enbart? Känns som att det krävs att det ligger ett abstraktionslager mellan som kan sköta det automatiskt för att det någonsin ska användas i någon större utsträckning.

SSE/AVX finns ju på alla moderna x86-CPUer, inklusive senaste generationens konsoler. Även om ARMs NEON inte är fullt lika finessrik som SSE så går nog just detta att göra väldigt bra, så det är en väldigt generell teknik. Även med en stark dGPU har man nytta av detta då det möjliggör mer avancerade shader-program på den data man faktiskt skickar till GPU-delen.

SIMD verkar dock lida av lite samma sak som Cell, det finns massor med kraft och den går att använda även i praktiken. Det är dock så pass komplicerat att använda kraften att få har tid/pengar att verkligen utnyttja det, finns det färdiga byggblock minskar tröskeln. Cell har används mer på sluttampen då det nu finns en hel del färdiga bibliotek för saker som fysik och rendering, samma sak gäller nog SIMD.

Om saker som OpenCL tar fart kommer nog också SIMD-användningen att öka rejält. OpenCL förknippas mest med GPGPU, men det är en skala från optimalt för CPU där man typiskt har mycket logik och jobbar på skalärer till optimalt för GPU där det är liten eller ingen villkorad körning och problemet har miljontals oberoende uppgifter där samma (eller nästan samma) transform ska utföras i alla uppgifter. SIMD verkar optimalt för de problem som ligger någonstans mittemellan dessa extremer och finns rätt mycket sådant, känt exempel är Mandelbrot-mängden, varje pixel kan beräknas oberoende men antal varv man kör innan det divergerar/nått max (d.v.s. längden på varje oberoende transform) är variabelt mellan pixels vilket inte är optimalt för GPUer.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Entusiast
Skrivet av Yoshman:

SSE/AVX finns ju på alla moderna x86-CPUer, inklusive senaste generationens konsoler. Även om ARMs NEON inte är fullt lika finessrik som SSE så går nog just detta att göra väldigt bra, så det är en väldigt generell teknik. Även med en stark dGPU har man nytta av detta då det möjliggör mer avancerade shader-program på den data man faktiskt skickar till GPU-delen.

SIMD verkar dock lida av lite samma sak som Cell, det finns massor med kraft och den går att använda även i praktiken. Det är dock så pass komplicerat att använda kraften att få har tid/pengar att verkligen utnyttja det, finns det färdiga byggblock minskar tröskeln. Cell har används mer på sluttampen då det nu finns en hel del färdiga bibliotek för saker som fysik och rendering, samma sak gäller nog SIMD.

Om saker som OpenCL tar fart kommer nog också SIMD-användningen att öka rejält. OpenCL förknippas mest med GPGPU, men det är en skala från optimalt för CPU där man typiskt har mycket logik och jobbar på skalärer till optimalt för GPU där det är liten eller ingen villkorad körning och problemet har miljontals oberoende uppgifter där samma (eller nästan samma) transform ska utföras i alla uppgifter. SIMD verkar optimalt för de problem som ligger någonstans mittemellan dessa extremer och finns rätt mycket sådant, känt exempel är Mandelbrot-mängden, varje pixel kan beräknas oberoende men antal varv man kör innan det divergerar/nått max (d.v.s. längden på varje oberoende transform) är variabelt mellan pixels vilket inte är optimalt för GPUer.

Fast du skrev ju själv att det bara är Intel som satsat på SIMD-prestanda. Om nu prestandan är klen hos AMD så känns det ju ännu mindre motiverande för spelprogrammerare att satsa på det. Som du säger så måste det ju vara värt tiden och pengarna. Fast om det hade dykt upp standardiserade bibliotek i till exempel DX12 hade det nog sett annorlunda ut. De programmerade ju inte mot Cell för att det var roligt utan för att de var tvungna. På samma sätt är nog ingen spelutvecklare överlycklig över att denna konsolgeneration behöva programmera mot ~6 klena x86 uppdelade på två kluster men de måste för att få ut spel till konsol. Mot PC är det ju lättare att skita i de klena plattformarna och bara räkna med att folk skaffar en bättre dator istället.

Visst hade det varit häftigt om vi fick använda mer av våra häftiga CPUer och om man kunde utnyttja de klenare iGPUerna bättre på mindre plattformar men jag har svårt att se att Intel själva kan lösa det om de inte kan släppa verktyg så att spelmotorer och/eller APIer löser det själva.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Allexz:

Det borde namngetts något i stil med :
Indirect X
Direct Y

eller liknande

Direct GL hade faktiskt varit ett ganska passande namn...

Permalänk
Datavetare
Skrivet av Zotamedu:

Fast du skrev ju själv att det bara är Intel som satsat på SIMD-prestanda. Om nu prestandan är klen hos AMD så känns det ju ännu mindre motiverande för spelprogrammerare att satsa på det. Som du säger så måste det ju vara värt tiden och pengarna. Fast om det hade dykt upp standardiserade bibliotek i till exempel DX12 hade det nog sett annorlunda ut. De programmerade ju inte mot Cell för att det var roligt utan för att de var tvungna. På samma sätt är nog ingen spelutvecklare överlycklig över att denna konsolgeneration behöva programmera mot ~6 klena x86 uppdelade på två kluster men de måste för att få ut spel till konsol. Mot PC är det ju lättare att skita i de klena plattformarna och bara räkna med att folk skaffar en bättre dator istället.

Visst hade det varit häftigt om vi fick använda mer av våra häftiga CPUer och om man kunde utnyttja de klenare iGPUerna bättre på mindre plattformar men jag har svårt att se att Intel själva kan lösa det om de inte kan släppa verktyg så att spelmotorer och/eller APIer löser det själva.

Även om SSE inte är lika kraftigt på Jaguar så är det fortfarande det överlägset snabbaste sättet att jobba med flyttal på den CPUn. Så om/när man kommer till en punkt i dagens konsoler där GPU-delen är den stora flaskhalsen så är det en möjlighet att göra något likt det folk gjorde på PS3 och det Intel nu gjort med SSE/AVX för att pusha systemet längre.

För bärbara enheter (vilket är mer än halva PC-install-base) är detta en intressant teknik oavsett om det handlar om iGPU eller dGPU då dessa typiskt inte har speciellt starka dGPUer.

Sedan har AMD sagt att i kommande Zen kommer man implementera AVX2 (som i sig inte är speciellt relevant för detta då AVX2 handlar om heltal men visar att AMD tror på tekniken), gissar att de då också har en "riktig" AVX- implementation som ger fördelar över SSE.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av ipac:

Direct GL hade faktiskt varit ett ganska passande namn...

Ja, eller Instant Success GL.

Visa signatur

"Obi-Wan: Luke, you will find that many of the truths we cling to depend greatly on our own point of view."
— Return of the Jedi
So help spread Dogecoin Many world. Such address: D6wTiKAD9hbVcgRgML687jvj2KiqAbiaUR
So good Much deed! ( Currently: Very few DOGEcoins donated ) even few deeds can be good!

Permalänk
Medlem
Skrivet av dahippo:

Läste på någon sida igår, att för första gången en representant från nVidia, i detta fall vicepresidenten, talade glatt om AMDs Mantel. Att den låg i grunden för Vulkan. Denna vicepresident är ordförande i Khronos group.

Citat:

Neil Trevett, the current president of Khronos Group and a vice president at NVIDIA, made an on-the-record statement to acknowledge the start of the Vulkan API. The quote came to me via Ryan, but I think it is a copy-paste of an email, so it should be verbatim.

Many companies have made great contributions to Vulkan, including AMD who contributed Mantle. Being able to start with the Mantle design definitely helped us get rolling quickly – but there has been a lot of design iteration, not the least making sure that Vulkan can run across many different GPU architectures. Vulkan is definitely a working group design now.

Var det detta citat?

Permalänk
Medlem

Stämmer bra ^^.
Att AMD nämns, tycker jag är en merit utifrån sett.

Permalänk
Sötast
Skrivet av ipac:

Direct GL hade faktiskt varit ett ganska passande namn...

Haha ja! Den var rätt finurlig

Permalänk
Medlem
Skrivet av strejf:

Windows 10 blir gratis så... inget problem den här versionen direkt

En liten varning.....
När den ledande leverantören släpper något gratis, då kan man ana att de har något i görningen.
Jag misstänker att vad MS egentligen vill är att så snabbt som möjligt döda Win7, Win8, Win 8.1 och leda in alla Windowsanvändare i Win10-fållan.
Det känns olustigt på något sätt.
Jag anar att det inte blir som man tänkt sig...

Man har ett år på sig, jag kommer att vänta in i det sista innan jag beslutar mig.
Win7 innehåller allt jag vill ha och behöver i ett OS.

EDIT:
Kan det vara så att det är gratis att uppdatera till Win10 i ett år och efter det måste man börja prenumerera?

Permalänk
Medlem
Skrivet av Ase:

är roligt med folk som tror att AMD är öppen med allt, utan Intels pengar för licensering av AMD s patent så skulle dom nog gått omkull för länge sen. Hoppas att dx12 & Vulcan ger oss snyggare spel & framförallt nya hårdvarufunktioner i framtida grafikkort.
För fjollet att avlasta cpu är totalt ointressant har inte varit ett bekymmer på 5-6 år att cpu inte orkat med att driva spelen.
DX 11.3 (i dx 12) är det enda intressanta än så länge ser framöver med spänning vad som dyker upp med dx12 & Vulcan.
Är bara att hoppas att AMD ger bättre stöd för linux i deras drivrutiner (open GL,Vulcan) Har inte alltid vart så bra stöd där, Nvidia har skött detta bättre.

Trollvarning, men kan inte låta bli.
Ta en titt på x64.

(vad hade hänt med Windows-marknaden om x64 hade licensierats?;D)

Permalänk
Inaktiv
Skrivet av Yoshman:

Helt rätt att Intel fälldes, så inget att orda om det, men rättegången avgjordes 2009, det Intel fälldes för hände under åren ~2002-2004-ish. Det riktigt stora problemet för AMD ställde man till på eget bevåg genom att köpa ATI 2006 för dels ett överpris och dels för långt mer än vad som var rimligt för ett företag med AMDs dåvarande ekonomi.

Är ju knappast Intels fel att så mycket fortfarande är 32-bitars på Windows, det får man till väldigt stor del skylla på Visual Studio där C/C++ kompilatorn (dessa språk används nästan uteslutande för "vanliga" program som körs på skrivbordet) som föll väldigt långt efter andra kompilatorer under senare delen av 00-talet när x86_64 var nytt. Under lång tid producerade VC++ så pass dålig x86_64 kod att saker var snabbare under 32-bitars läge. Är ganska nyligen som Microsoft åter igen börjat storsatsa på MSVC++.

Jämför med Linux här, AMD var väldigt populärt på Linux strax efter millennieskiftet och redan under första generationen Athlon64 fanns riktigt bra OS-stöd och kompilatorstöd fö x86_64.

Angående artikeln, råder inga tvivel om att Mantle har bidragit väldigt mycket till Vulkan. Tydligen så startande man prototypning av designen genom att starta med Mantle, d.v.s. man kan mycket väl beskriva Vulkan som en "fork" av Mantle. AMD ska ha all heder för detta, enda jag funderar över är hur AMD på något sätt kan motivera allt jobb man lagt ner på detta rent affärsmässigt då Nvidia/Qualcomm/Imagination/Intel drar precis lika mycket nytta av detta jobb i slutändan (Qualcomm/Intel kanske får mest nytta då de har starkast Linux-stöd och därmed Android-stöd, Android lär använda Vulcan). Det man jobbat med i Vulkan sedan start är just att göra modifieringar som hindrar tekniken att fungera på andra GPU-designer än GCN + att man jobbat med att ersätta HLSL med en öppen motsvarighet (som tydligen baserar sig väldigt mycket på det jobb man gjort kring OpenCL).

AMD behöver fundera lite på hur man kan tjäna pengar på det arbete man lägger ner, fungerar ju inte i längden att göra saker som man själv inte gör någon vinst på. Att få lite hurrarop på forum kommer inte ge svarta siffror i balansräkningen, tyvärr

Det mest troliga är att de hjälper sina APUs och framförallt förhindrar att Nvidia kommer med något eget skit och låser ner det. Tyvärr har nvidia tonvis med fanboys och är bra större än AMD så de skulle kunna trycka för spel som är i princip bara optimerade för de själva. Genom att öppna upp Mantle så lyckades AMD också få MS att uppgradera directx då Mantle inte är windows only.
Ingen direkt inkomst men förmodligen väldigt smart i längden. Tyvärr är deras linux drivisar fortfarande rätt så kassa ( hela x är rena skiten men det är drivrutiner som får skit för alla problem).

Permalänk
Skrivet av ThomasLidstrom:

En liten varning.....

EDIT:
Kan det vara så att det är gratis att uppdatera till Win10 i ett år och efter det måste man börja prenumerera?

Det va lite den känslan jag fick jag med när jag läste om det

Permalänk
Skrivet av Kärlekstrollet:

Båda parter har haft dåliga drivisar när man jämför med Intel.

Bara om man är en idiot och självmant väljer open-sourcedrivrutinerna.

Permalänk
Medlem
Visa signatur

XFX Radeon RX 7700 XT Speedster QICK 319 Black Edition | AMD Ryzen R7 5700X | Noctua NH-D15 | Asus TUF Gaming B550-Plus | Kingston Fury Beast DDR4 3600MHz 4x8GB | Samsung 990 Pro 1TB | Corsair HX1000i | Fractal Design Define S | LG 27GL83A | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair Void Elite Wireless