Apples egenutvecklade grafikteknik ska redan bräcka Intels integrerade grafik

Permalänk
Melding Plague

Apples egenutvecklade grafikteknik ska redan bräcka Intels integrerade grafik

Enligt rapporter ska Apples egenutvecklade grafikdel för Apple Silicon-processorer redan överträffa Intels integrerade grafik.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

AMD, Intel och Apple tävlar med vem som har bäst kretsar i "skitsegmentet" ... Fast de funkar ju halvt till fortnite och sånt. Annars tycker jag att prestandan i detta segmentet kvittar så länge det orkar dra runt GUI:t i OS:et man kör.

Eller är det bara jag?

Möjligtvis i de få fall man kan använda accelereringen för att kompletera CPU:n i vissa program, som när man klipper videos eller nått.

Man vill ju ha så mycket som möjligt, men att tävla i det känns lite special olympics (ingen skugga på special olympics!).

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Citat:

Fördelen med TBDR-lösningen Apple använder är att den mer effektivt utnyttjar de resurser grafikkretsen är bestyckad med, något som är viktigt då tekniken hittills använts i mobila enheter där kapaciteten för värmeutveckling och teknisk komplexitet är begränsad.

Dessutom behöver man inte ha några 21GHz 384-bitars minnesgränssnitt för att hålla hela kretsen nöjd. TBDR klarar sig med mindre minnesbandbredd (eftersom det är lättare att cacha det man jobbar med).

Citat:

TBDR-rendering kan dock användas även på dessa grafikkortsfamiljer.

Det visste jag inte. Goda nyheter i så fall. Var lite orolig över hur det skulle fungera med diskreta grafikkort framöver.

Citat:

Då Apples ARM-processorer, åtminstone inledningsvis, inte stöder dedikerade grafikkort från AMD eller Nvidia är det troliga scenariot att företagets hemmabyggda grafikteknik introduceras först i bärbara datorer och Imac-familjen, för att på sikt införas i mer högpresterande bärbara och Mac Pro-familjen.

iMacarna har normalt sätt bättre grafik än MBP. Undantag finns i att 16"aren brukar ha bättre grafik än den billigaste iMacen, men jämfört lika mot lika har iMacen normalt sett bättre grafik.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av kelthar:

AMD, Intel och Apple tävlar med vem som har bäst kretsar i "skitsegmentet" ... Fast de funkar ju halvt till fortnite och sånt. Annars tycker jag att prestandan i detta segmentet kvittar så länge det orkar dra runt GUI:t i OS:et man kör.

Eller är det bara jag?

Möjligtvis i de få fall man kan använda accelereringen för att kompletera CPU:n i vissa program, som när man klipper videos eller nått.

Man vill ju ha så mycket som möjligt, men att tävla i det känns lite special olympics (ingen skugga på special olympics!).

Det beror helt och hållet på vilken upplösning man vill jobba med. På en MBP 13" skall man normalt spela i 1280*800 (en fjärdedel av native). T.o.m Intel integrated räcker för att dra runt ett spel i den upplösningen.

Visa signatur

5900X | 6700XT

Permalänk
Medlem

Hur mycket arbete krävs det för att porta spel mellan IMR och TBDR? Antar att det är mer på drivrutinsnivå då Unreal och Unity stödjer båda, eller har jag fel?

Permalänk
Lyxfällan 🎮
Skrivet av mpat:

Det visste jag inte. Goda nyheter i så fall. Var lite orolig över hur det skulle fungera med diskreta grafikkort framöver.

Den raden innefattar en mycket längre förklaring som det inte fanns plats för i brödtexten. Metoden för hårdvarurendering hos dagens grafikkort är inte så svart och vitt som det en gång har varit, där Kyro-kretsar körde ren TBDR-rendering. Både AMD och Nvidia använder något som kallas tile-based immediate mode rendering, där de grafiska objekten som ska renderas bryts ned enligt TBDR-modellen och beräknas på grafikkortet, men skickas till videominnet som hela bilder (därav immediate-mode).

Så Apples modell ser ut att vara en återgång till mer renodlad TBDR är det som används i dedikerade grafikkort idag. Men precis som att tile-uppdelningen sker utan utvecklarens inblandning på AMD/Intel/Nvidia-hårdvara gissar jag att det sker utan utvecklares inblandning i Metal 2 också (utvecklar inte mot det själv så kan inte säga definitivt). Så de som utvecklat spel mot Radeon-hårdvara på Mac OS tidigare kommer nog ha en ganska smärtfri övergång till Metal 2 och Apple-GPU skulle jag tro.

Visa signatur

"We're with the press, hired geeks!"
Raoul Duke, Fear n' Loathing in Las Vegas

Permalänk
Medlem
Skrivet av mpat:

Det beror helt och hållet på vilken upplösning man vill jobba med. På en MBP 13" skall man normalt spela i 1280*800 (en fjärdedel av native). T.o.m Intel integrated räcker för att dra runt ett spel i den upplösningen.

Bara spel som är byggda för att kunna köras på extremt prestandalös hårdvara. League of legends, dota 2, fortnite, etc. Flight simulator kan man fetglömma tror jag.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av Feeku:

Hur mycket arbete krävs det för att porta spel mellan IMR och TBDR? Antar att det är mer på drivrutinsnivå då subtraktion och Unity stödjer båda, eller har jag fel?

Ja, Unity stödjer bägge. Tror att Unreal gör det också (Fortnite finns ju som många vet vid det här laget, på iOS), men Unity är de som varit öppna med att de jobbat på det och att Metal 2 är fantastiskt.

Skrivet av loevet:

Den raden innefattar en mycket längre förklaring som det inte fanns plats för i brödtexten. Metoden för hårdvarurendering hos dagens grafikkort är inte så svart och vitt som det en gång har varit, där Kyro-kretsar körde ren TBDR-rendering. Både AMD och Nvidia använder något som kallas tile-based immediate mode rendering, där de grafiska objekten som ska renderas bryts ned enligt TBDR-modellen och beräknas på grafikkortet, men skickas till videominnet som hela bilder (därav immediate-mode).

Så Apples modell ser ut att vara en återgång till mer renodlad TBDR är det som används i dedikerade grafikkort idag. Men precis som att tile-uppdelningen sker utan utvecklarens inblandning på AMD/Intel/Nvidia-hårdvara gissar jag att det sker utan utvecklares inblandning i Metal 2 också (utvecklar inte mot det själv så kan inte säga definitivt). Så de som utvecklat spel mot Radeon-hårdvara på Mac OS tidigare kommer nog ha en ganska smärtfri övergång till Metal 2 och Apple-GPU skulle jag tro.

Japp, jag vet att det är tile-based immediate rendering på både AMD (sen Vega) och Nvidia (sen Maxwell). Minns den där realworldtech-videon som demonstrerade det. Trodde dock att man var tvungen att ändra på spelmotor-nivå för att få det att fungera med TBDR, baserat på kommentaren från utvecklingen av Unity, men det kanske är så att det fungerar hyfsat även utan det och att det bara är en fråga om optimering på spelmotor-nivå.

Har fortfarande inte sett den där WWDC-videon, måste försöka hinna med det nån gång.

Visa signatur

5900X | 6700XT

Permalänk
Medlem

Både väntat och lovande. Längtar tills man kan läsa review av Ian på AnandTech

Permalänk
Medlem

Det är att märka att om man går till den kinesiska källan, så är det luddigt om de menar att "Lifuka" refererar till en SoC/APU för iMac, eller en GPU. Det blir fler klick om man tolkar det som att de avser en GPU, antar jag. Och det spelar i grund och botten inte så stor roll för möjlig prestanda (XBox sx lär prestera hyfsat t.ex.) men det är värt att påpeka.

Permalänk
Medlem

Sorry men tolkar namnet som Li(ttle)fuckah

Jag tror denna grafik över överhypad och har faktiskt inga höga förväntningar alls på apples egna grafikdel förutom att den kommer vara energieffektiv.

Ärligt talat tycker jag det har gått väldigt långsamt fram med den inbyggda grafiken för både AMD och Intel.

AMD må ha kastat bottennapp med Bulldozer men på GPU-sidan i APUer, är vi ungefär på samma nivå som Vega 6-8 är idag.

Hoppas mycket (e)Xe och oneAPI.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Datavetare

Egentligen är det enda som sägs här: snabbare och mer energieffektiv än Intel GPU. Intels GPUer har inte speciellt hög absolut prestanda, även om man får tänka på att Apple rätt konsekvent använde sig av Iris-kretsarna som presterar 50-100 % bättre än Intels "vanliga" serie.

Intels kretsar har dock rätt bra effektivitet om man sätter det i relation till teoretisk maxkapacitet.

Ändå, om man bara siktade på att så dagens Iris graphics, som har en teoretisk kapacitet runt 1 TFLOPS, så vore det rätt kasst. Under WWDC20 nämndes en lite mer relevant nivå på absolut prestanda

"The Apple Silicon GPU will return false when queried for isLowPower because its performance is at least as good as the discrete GPU performance in current Macs, while offering a much better performance/watt ratio."

Det känns långt mer rimligt för att det ens ska vara värt att fippla med egna dGPUer. Bästa man har i dagens Mac (antar att detta var i kontext av MBP) är AMD Radeon Pro 5600M, en GPU som ligger i nivå med Nvidia 1660/1660S.

Om det visar sig vara fallet klår man Intels Xe LP då den bedöms kunna nå i närheten av Nvidia 1650 i bästa fall. Vi kanske vet mer imorgon om just detta.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Med tanke på hur många företag som nu har egendesignade GPUer kan man ju fundera över vilka vallgravar de traditionella tillverkarna, AMD och Nvidia faktiskt har. Jag trodde att dessa tekniker var ett minfält av olika IP-rättigheter, så hur både Intel och Apple kommit runt detta vore intressant att lära sig mer om.

Permalänk
Medlem

Tittade igenom Apples WWDC-video på ämnet, och det blev kanske lite klarare. Apples GPUer kommer att stödja feature set "Mac 2", vilket är vad alla nuvarande Macars GPUer stödjer. De kommer också att stödja ett nytt feature set, samt OpenGL 4.1 (=vad Apple stödjer idag, ja jag vet att det är extremt gammalt). Det kommer alltså att fungera om man bara tar en gammal app och kompilerar om den, med några specifika undantag som togs upp i videon (samt säkert lite smått och gott och som kommer att bugga ur, men så är det alltid), men om man vill ha maximal prestanda, så blir det en del optimeringsjobb.

Det som är mindre klart är om det blir något nytt feature set i Metal för GPUer som inte är Apples. Efter att ha tittat igenom det, känns det som om...kanske. Vega stödjer ju FP16 med dubbel prestanda, det som var Metals ursprungliga prestanda-optimering, och den är som sagt tile-based. Man skulle kunna tänka sig ett feature set som låter Vega och senare AMD-GPUer använda samma code path som Apples egna grejer för bättre prestanda.

Visa signatur

5900X | 6700XT

Permalänk
Avstängd

Kunde ni inte har väntat med att lägga ut detta, vill inte förstöra Ampere nyheter med andra grafikkort.

Visa signatur

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow
Om mig ----> #16970666

Permalänk
Medlem
Skrivet av Yoshman:

Egentligen är det enda som sägs här: snabbare och mer energieffektiv än Intel GPU. Intels GPUer har inte speciellt hög absolut prestanda, även om man får tänka på att Apple rätt konsekvent använde sig av Iris-kretsarna som presterar 50-100 % bättre än Intels "vanliga" serie.

Intels kretsar har dock rätt bra effektivitet om man sätter det i relation till teoretisk maxkapacitet.

Ändå, om man bara siktade på att så dagens Iris graphics, som har en teoretisk kapacitet runt 1 TFLOPS, så vore det rätt kasst. Under WWDC20 nämndes en lite mer relevant nivå på absolut prestanda

"The Apple Silicon GPU will return false when queried for isLowPower because its performance is at least as good as the discrete GPU performance in current Macs, while offering a much better performance/watt ratio."

Det känns långt mer rimligt för att det ens ska vara värt att fippla med egna dGPUer. Bästa man har i dagens Mac (antar att detta var i kontext av MBP) är AMD Radeon Pro 5600M, en GPU som ligger i nivå med Nvidia 1660/1660S.

Om det visar sig vara fallet klår man Intels Xe LP då den bedöms kunna nå i närheten av Nvidia 1650 i bästa fall. Vi kanske vet mer imorgon om just detta.

Med tanke på att de visade upp Shadow of the tomb raider i 1080p i vad som såg ut som vettig FPS genom Rosetta 2 gör att iaf jag blir lite taggad, vii vet ju inte exakt vilket chip det var som kördes i den demon dock.

Permalänk
Medlem

Ja det är väl inte så svårt direkt. Men bra ändå

Permalänk
Datavetare
Skrivet av Feeku:

Hur mycket arbete krävs det för att porta spel mellan IMR och TBDR? Antar att det är mer på drivrutinsnivå då Unreal och Unity stödjer båda, eller har jag fel?

Går inte att säga rent generellt. Kan vara allt från "trivialt" till "kräver rejäl förändring av design".

Orsaken är att vissa saker som är relativt dyrt i IMR kan vara väldigt billigt i TBDR och vice versa. I titlar som utnyttjar tesselation och/eller geometry shaders blir det lurigt, just detta är inte alls effektivt i TBDR och Apple har därför helt sonika skippat stöd för detta i Metal. Går att trixa sig runt det m.h.a. manuellt designade "compute shaders", men varken lätt eller säkert att det blir speciellt effektivt.

Skrivet av mpat:

Japp, jag vet att det är tile-based immediate rendering på både AMD (sen Vega) och Nvidia (sen Maxwell). Minns den där realworldtech-videon som demonstrerade det. Trodde dock att man var tvungen att ändra på spelmotor-nivå för att få det att fungera med TBDR, baserat på kommentaren från utvecklingen av Unity, men det kanske är så att det fungerar hyfsat även utan det och att det bara är en fråga om optimering på spelmotor-nivå.

Värt att nämna här är att videon/programmet som RealWorldTech använde hade en del brister som gjorde att man drog felaktiga slutsatser. I videon ser det ut som det verkligen är en "ren" "tile-based immediate rendering" implementation väldigt analog till hur kretsarna som använder TBDR fungerar på HW-nivå.

Missen i programmet är att man bara testade med väldigt stora trianglar som täcker halva skärmen! Tar man samma program och ändrar logiken så man i stället renderar massor med små trianglar ser man att det är rätt stora skillnader mellan "TBIR" fungerar jämfört med TBDR.

TBDR tar verkligen saker tile-för-tile, något som gör att saker som Z-buffer och mycket annat kan cachas helt i SRAM -> extremt snabbt och effektivt. Detta är bara möjligt om man hårt separerar renderingsprocessen i "allt innan rastrering" resp. "allt efter rastrering". Detta då man måste ha screen-space coordinater på allt som ska renderas innan rastrering och fragment-shader körs.

TBIR är "bara" en best-effort att sortera saker, i fallet att man har väldigt många trianglar som sprider sig rejält i screen-space så blir det inte alls någon strikt "tile-based-rendering". Men bara det faktum att man oftast för en bättre lokalitet i screen-space i Maxwell och senare samt Vega och senare gör att man i genomsnitt får bättre cache-hit-rate i rastreringssteget (som är extremt bandbreddskrävande).

Skillnaden är ändå rejäl: TBIR kräver fortfarande rejält med bandbredd mot VRAM medan TBDR kan effektivt användas i höga upplösningar enbart med bandbredd från RAM som delas med CPU. IMR är mer flexibelt i vad man kan göra och är därför optimalt om man har möjlighet till hög bandbredd och hög TDP, TBDR är helt överlägset som teknik när bandbredd och TDP är en signifikant flaskhals.

Just det sista måste man ha i baktanke när Apple senare kommer göra jämförelser mot PC dGPUer. Håller man sig inom ramen för vad som är effektivt med TBDR kommer Apples GPUer prestera extremt väl mot PC dGPUer, men det är lite äpplen mot päron då det finns saker man kan göra med IMR som får en TBDR krets att totalt gå på sin knän.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Lyxfällan 🎮

@superegg: Haha, förlåt, jag tänkte inte på den aspekten

Visa signatur

"We're with the press, hired geeks!"
Raoul Duke, Fear n' Loathing in Las Vegas

Permalänk
Avstängd
Skrivet av loevet:

@superegg: Haha, förlåt, jag tänkte inte på den aspekten

Lugnt hade vart värre om det var AMD.

Visa signatur

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow
Om mig ----> #16970666

Permalänk
Medlem
Skrivet av Yoshman:

Orsaken är att vissa saker som är relativt dyrt i IMR kan vara väldigt billigt i TBDR och vice versa. I titlar som utnyttjar tesselation och/eller geometry shaders blir det lurigt, just detta är inte alls effektivt i TBDR och Apple har därför helt sonika skippat stöd för detta i Metal. Går att trixa sig runt det m.h.a. manuellt designade "compute shaders", men varken lätt eller säkert att det blir speciellt effektivt.

Tesselation finns i Metal:

http://englishonlineclub.com/pdf/Metal%20Programming%20Guide%...

Hur pass effektivt det är kan jag inte svara på.

Geometry shaders får man dock hacka ihop själv.

Citat:

Värt att nämna här är att videon/programmet som RealWorldTech använde hade en del brister som gjorde att man drog felaktiga slutsatser. I videon ser det ut som det verkligen är en "ren" "tile-based immediate rendering" implementation väldigt analog till hur kretsarna som använder TBDR fungerar på HW-nivå.

Missen i programmet är att man bara testade med väldigt stora trianglar som täcker halva skärmen! Tar man samma program och ändrar logiken så man i stället renderar massor med små trianglar ser man att det är rätt stora skillnader mellan "TBIR" fungerar jämfört med TBDR.

Jo, jag har förstått att den med tiden kommit att ses som ett lite udda rand-fall, men det var intressant när den kom.

Citat:

Just det sista måste man ha i baktanke när Apple senare kommer göra jämförelser mot PC dGPUer. Håller man sig inom ramen för vad som är effektivt med TBDR kommer Apples GPUer prestera extremt väl mot PC dGPUer, men det är lite äpplen mot päron då det finns saker man kan göra med IMR som får en TBDR krets att totalt gå på sin knän.

Absolut, men det är här som den där Tomb Raider-demon blir så intressant. Där har du ett spel som inte är ett dugg optimerat för Apples GPUer och som ändå går i helt OK fart, med Laras (tesselerade?) hår fladdrande. Visst kommer den lösningen att ha en glaskäke, så att säga, och krascha prestandan fullständigt när man kör ”fel” program på den, men jag tror inte att det är det vanliga fallet.

Visa signatur

5900X | 6700XT

Permalänk
Datavetare
Skrivet av mpat:

Tesselation finns i Metal:

http://englishonlineclub.com/pdf/Metal%20Programming%20Guide%...

Hur pass effektivt det är kan jag inte svara på.

Slarvigt av mig: fixed function tesselation finns i Metal, däremot saknas möjligheten till tesselation control shaders (vilket finns i DX12 och Vulkan). D.v.s. man ha sett till att plocka bort de delar som ställer till det för en hård separation av "konvertera allt till screen-space", dela upp i tiles, rastrera.

Edit: Notera också att fixed-function tesselation sker innan vertex shaders i Metal, det lär vara just p.g.a. att man vill köra färdigt vertex shaders och sedan sortera rubbet på en TBDR-krets. I Vulkan/DX12 sker tesselation shaders efter vertex shaders

Vulkan

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av kelthar:

AMD, Intel och Apple tävlar med vem som har bäst kretsar i "skitsegmentet" ... Fast de funkar ju halvt till fortnite och sånt. Annars tycker jag att prestandan i detta segmentet kvittar så länge det orkar dra runt GUI:t i OS:et man kör.

Eller är det bara jag?

Möjligtvis i de få fall man kan använda accelereringen för att kompletera CPU:n i vissa program, som när man klipper videos eller nått.

Man vill ju ha så mycket som möjligt, men att tävla i det känns lite special olympics (ingen skugga på special olympics!).

Vet inte hur det ser ut i familjer nu för tiden alla kanske har varsin surfplatta. Men när jag var i den åldern där man använde familjens dator hade jag några vänner där familjedatorn enbart hade integrerad grafik, i det läget är all prestanda väldigt användbar. Och man kan göra mer än man tror på integrerad grafik bara man kan acceptera 30fps och lite lägre upplösning.

Visa signatur

Ryzen 5 7600
Rx 6650xt
32Gb

Permalänk
Medlem

Det intressanta är ju hur bra Apples gpu är om 2-3 år, jag ser framför mig att en $499 Mac Mini ARM år 2022 klår PS5 i många spel.

Detta utan att vidare veta.

Redan idag klarar sig de flesta säkert helt ok med integrerad grafik oavsett om man kör macbook pro eller kommande macbook arm. Sweclockers är ju inte största målgruppen för Apple

Visa signatur

ASUS P8Z68-v Pro i7 2600K@4.5, 32GB RAM, RX 580, 4K Samsung u24e590, Intel SSD, Seagate SSHD, LG BH16NS55 BD/RW, MacOS Monterey, Win 10+11, Linux Mint

Macbook Pro 2009, 8GB RAM, SSD, MacOS Catalina + Windows 7

Permalänk
Medlem
Skrivet av loevet:

Metoden för hårdvarurendering hos dagens grafikkort är inte så svart och vitt som det en gång har varit, där Kyro-kretsar körde ren TBDR-rendering.

Värt att nämna är ju att Apple fram till ganska nyligen kontrakterat PowerVR, som låg bakom Kyro på tidigt 2000-tal – som partner för grafikkretsar tills de bestämde sig för att skapa egna kretsar.

Visa signatur

🛜🫀: HP ProDesk 400 G3, i5 6500, 8GB DDR4, Intel X520-DA2
🐳🐧: AMD R5 3600 | Google Coral.ai | ASRock X570D4U-2L2T | Silverstone CS381 | 80GB DDR4 | 8 HDD BTRFS RAID1
⌨️🎮: R9 3900X | RTX 2080 LC | Acer XF270HUA | 96GB @ 3200 | MSI X570 MPG G EDGE WIFI | CORSAIR C70
🎞🎶: LG OLED55C8 | Epson TW3200 | Onkyo TX-NR646 | Infinity Reference 61/51 mk2 | Shield TV V2 | minhembio.com

Permalänk
Medlem

Jämförelser som kommer från Apple är som vanligt fruktansvärt vinklade och patetiska. De lyfter fram och överdriver det självklara och får det att låta som något helt otroligt. Att grafikkretsarna är mer energisnåla än intels datorkretsar är väl inte så konstigt när Apples härstammar från mobilkretsar. Vem blir då chockad över att de är mer energieffektiva. Halleluja!!

Den tidigare jämförelsen i prestanda mot en dualcore snik-i3-processor var precis lika vinklad.

Apple har alltid gjort så här och kommer också fortsätta med det. Deras silikon kommer säkert ha fördelar (främst energieffektiviteten) men de kommer troligtvis få svårt att slå Intel och Amd på fingrarna när det gäller rå prestanda. Då kommer Apple givetvis anklaga Intel för att slösa på energin och försöka övertyga alla att det är bättre med mindre prestanda eftersom man då tänker på miljön. Eller så gör de som de gjorde med Power-Pc prollarna. Påstår att de kör cirklar runt intels trots att de är fruktansvärt mycket långsammare. Det värsta är att många går på det...

Permalänk

Är inte detta "bara" en egen variant av PowerVR?

Visa signatur

AMD Ryzen 5 2600 | MSI B450 Gaming Pro Carbon AC | Corsair 32GB CL 15 (4x8GB) DDR4 3000MHz | Corsair RM750X 750W v2 | MSI RTX 2060 Ventus XS 6GB | NZXT H440 Midi Tower :: ASUS VivoBook 15 X505ZA-BQ252T AMD Ryzen 7 | 2700U Radeon Vega 10
Vilken var din första?

Permalänk
Medlem
Skrivet av Pirum:

Det intressanta är ju hur bra Apples gpu är om 2-3 år, jag ser framför mig att en $499 Mac Mini ARM år 2022 klår PS5 i många spel.

Detta utan att vidare veta.

Redan idag klarar sig de flesta säkert helt ok med integrerad grafik oavsett om man kör macbook pro eller kommande macbook arm. Sweclockers är ju inte största målgruppen för Apple

Det är väl inte omöjligt att vi hamnar där, samtidigt är ju PS5 och XboxseriesX i paritet med de högre delarna av 20xx serien i råprestanda medans Apple från vad jag kunnat läsa mig till ser ut att hamna runt ett 1660 så de ska få upp prestandan ganska rejält innan de faktiskt är där.

Permalänk
Skrivet av fredrik831:

Med tanke på hur många företag som nu har egendesignade GPUer kan man ju fundera över vilka vallgravar de traditionella tillverkarna, AMD och Nvidia faktiskt har. Jag trodde att dessa tekniker var ett minfält av olika IP-rättigheter, så hur både Intel och Apple kommit runt detta vore intressant att lära sig mer om.

Intel har ett avtal med Amd för att kunna luta sig mot deras patentportfölj inom grafik.
Apple har ett avtal med Imagination (powerVR) igen.

Permalänk
Medlem
Skrivet av yestomtom:

Är inte detta "bara" en egen variant av PowerVR?

Det är samma bas, ja. Dock har inte Imagination lagt några stora resurser på att utveckla det under de senaste åren, så ett par år med Apples resurser kan göra underverk. Apple är också riktigt bra på cachedesign i sina CPUer, och det lär inte skada. Kombinera det med att GPUn i en A13 är 15 mm2, vilket är fullständigt minimalt på en marknad där NVidia gör kretsar över 800mm2 på samma process, så ser du att det finns möjlighet att skala upp. OK att det inte är en helt rättvis jämförelse eftersom Nvidias GPU innehåller en memory controller, men hela A13 är under 100 mm2. Apple kan gå mycket bredare, om de vill.

Visa signatur

5900X | 6700XT