Ställ dina frågor om Alder Lake till Intel

Permalänk
Medlem
Skrivet av Yoshman:

Fråga till Intel:

Priset på moderkort har dragit iväg rejält senaste åren, Z670 tog tyvärr det ännu ett steg uppåt.
Vilket av följande saker har relativt sett liten resp. stor påverkan på denna prisökning

  • DMI 4.0, anslutning till chipset har gått från 4x PCIe3 (Z470 och tidigare), till 8x PCIe3 (Z570) till nu 8x PCIe4

  • PCIe5 stöd

  • Z670 som förutom DMI 4.0 mot CPU nu också har 12 st PCIe4 banor + 16 st PCIe3 banor

  • VRM-lösningar som kan hantera 12900K rekommenderade PL2 på 249 W

Klicka för mer information

ECO mode är en funktion i AGESA, men det enda gränssnitt mot detta som AMD officiellt verkar stödja är genom Ryzen Master. Vissa moderkort har stöd för att slå på ECO-mode, men ser inte att vare sig moderkortet jag har till min 3900X eller det till 5950X har en sådan funktion (går att slå på ECO mode från Ryzen Master för båda dock). Kikar man på Reddit verkar ECO mode via moderkortet vara en rätt buggig historia, rätt många med Gigabyte-moderkort som noterat att "inget händer" om man slår på ECO-mode därifrån (trots att det fungerar via Ryzen Master).

Som funktion är ECO mode direkt jämförbart med Intel konfigurerbara PL1/PL2/Tau nivåer. AMDs ECO mode är dock väsentligt mer begränsad, 105 W modellerna kan köras i 105 W (ECO mode avslaget) eller 65 W (ECO mode påslaget) medan 65 W modellerna har 65 W eller 45 W.

I Intels fall kan PL1, PL2 och Tau sättas helt fritt, d.v.s. man kan sätta det både högre och lägre än "rekommenderade värdet". "Upplåst strömbudget" är därför inte något annat än att sätta PL1/2 nivåerna så högt att CPUn bara begränsas av saker som systemets peak-ström, peak-effekt samt kapaciteten hos kylaren. Intel har specifikt sagt att detta är inom specifikation vilket är orsaken till att det fungerar på alla CPU-modeller (inte bara K-modeller).

AMDs PBO är funktionellt samma sak som Intels MCE, båda dessa kör CPU utanför specifikation och är därför ett solklart fall av överklockning. I Intels fall stödjer därför bara K-modellerna MCE. Var just MCE som vissa moderkortstillverkare hade påslaget som förval och det är helt korrekt att se till att denna funktion är avstängd när man testar CPUn då det helt enkelt inte finns några garantier att systemet fungerar korrekt med dessa aktiverade.

Vidare lider både PBO och MCE av samma problem: de totalt demolerar perf/W samtidigt som ökningen av total prestanda i bästa fall är några fåtal procent och i vissa fall får man sämre prestanda p.g.a. minskad perf/W (har man inte tillräckligt bra kylare kan man därför få sämre prestanda i visas lägen).

Men huvudpunkten för hela denna diskussion är: ja, Intel valde att pusha "rekommenderade värden" för 12900K till löjliga nivåer bara för att "vinna" benchmarks. Det betyder inte att CPUn i absoluta termer har dålig perf/W då PL1/PL2/Tau är fritt konfigurerbara på alla OS och sätter man dessa på nivåer så effekt motsvarar PPT på Ryzen 5000 så är Alder Lake i de flesta fall den mest effektiva x86 designen just nu.

Inte superviktigt för desktop, något vi också ser i hur Intel skalar nedåt. Varför har t.ex. i7 8P+4E i stället för 6P+8E? På mobilsidan kommer det bli riktigt spännande att se hur 15W 2P+8E modellerna står sig. För än idag är det för majoriteten (för de som vill opponera sig, majoriteten!=alla, så finns självklart undantag) fullt tillräckligt med 2C/4T och högre enkeltrådprestanda är långt viktigare är fler kärnor (de flesta kör webbläsare, office, view-port jobb etc, alla är notoriskt enkeltrådade laster).

I de fall som trots ser nytta av många kärnor har man då hela 8E cores. För dessa laster är perf/W kritiskt, framförallt när det handlar om kretsar med låg TDP där man också utför interaktivt arbete i förgrunden. Så av den begränsade TDP som finns måste man ha möjlighet att ge rätt stor andel till eventuellt program som kör latenskritiska laster som UI (och latenskritiska laster är i princip alltid värdelösa på att skala över kärnor då bästa sätten att effektivt utnyttja flera kärnor tyvärr medför ökad latens).

Visa mer

Får erkänna att jag blandade ihop saker. Det är inte MCE de slagit på som default utan Tau som helt enkelt tagits bort, och det går ju egentligen inte ha synpunkter på nu när de ersatt ett godtyckligt TDP-värde med förväntad maximal strömförbrukning.

Det jag syftar på är b.la den här tabellen, där Intel är långt efter AMD,

Permalänk
Datavetare
Skrivet av Ozzed:

Får erkänna att jag blandade ihop saker. Det är inte MCE de slagit på som default utan Tau som helt enkelt tagits bort, och det går ju egentligen inte ha synpunkter på nu när de ersatt ett godtyckligt TDP-värde med förväntad maximal strömförbrukning.

Det jag syftar på är b.la den här tabellen, där Intel är långt efter AMD,

https://cdn.sweclockers.com/artikel/diagram/24920?key=d6828b9b8106772b9478722191cb035b

Visst är de efter där, men att 12900K är efter 12600K (som i sin tur är före 5600X...) i ett benchmark som skalar i princip perfekt med CPU-kärnor borde ge en rätt bra vink om att problemet kanske inte primärt är CPU-designen. Problemet är att man pushat max-effekten genom taket.

Finns en del tester kring hur 12900K presterar med 250 W, 125 W resp 65 W PL2 (och Tau satt till "oändligt"). I just Blender behålls ca 88 % av prestandan när man går från 250 W till 125 W, d.v.e. en ökning av perf/W med 76 %. Går man sedan från 125 W till 65 W behålls ca 75 % av prestandan, så ytterligare en 45 % ökning av perf/W.

Poängen: om man vill optimera för perf/W är det fullt möjligt, i det läget ska man absolut inte köra 12900K med "rekommenderade" PL1/PL2 värdena utan sätta dessa till ett (väsentligt) lägre värde. Att göra detta är en standardfunktion, så kräver ingen större mängd av research.

Permalänk
Hedersmedlem
Skrivet av Yoshman:

Visst är de efter där, men att 12900K är efter 12600K (som i sin tur är före 5600X...) i ett benchmark som skalar i princip perfekt med CPU-kärnor borde ge en rätt bra vink om att problemet kanske inte primärt är CPU-designen. Problemet är att man pushat max-effekten genom taket.

Jo, men det var ju precis det Ozzeds fråga gällde från början också.

Citat:

Vore intressant att veta om de planerar produkter som åtminstonne är i paritet med Ryzen vad gäller energieffektivitet eller om balls to the wall för att kunna hävda topplaceringar i diagram är vägen de tänkt sig frammåt.

De har ju en design som kan vara energieffektiv, men de tycks föredra att hamna etta i prestanda istället, när det ändå är såna enorma skillnader i effektivitet vi talar om, och marginella skillnader i absolut prestanda.

Självklart gäller detta till stor del även AMD, men frågorna här var ju till Intel, så det är inte så relevant.

Permalänk
Medlem
Skrivet av Yoshman:

Visst är de efter där, men att 12900K är efter 12600K (som i sin tur är före 5600X...) i ett benchmark som skalar i princip perfekt med CPU-kärnor borde ge en rätt bra vink om att problemet kanske inte primärt är CPU-designen. Problemet är att man pushat max-effekten genom taket.

Finns en del tester kring hur 12900K presterar med 250 W, 125 W resp 65 W PL2 (och Tau satt till "oändligt"). I just Blender behålls ca 88 % av prestandan när man går från 250 W till 125 W, d.v.e. en ökning av perf/W med 76 %. Går man sedan från 125 W till 65 W behålls ca 75 % av prestandan, så ytterligare en 45 % ökning av perf/W.

Poängen: om man vill optimera för perf/W är det fullt möjligt, i det läget ska man absolut inte köra 12900K med "rekommenderade" PL1/PL2 värdena utan sätta dessa till ett (väsentligt) lägre värde. Att göra detta är en standardfunktion, så kräver ingen större mängd av research.

Jag true jag är med på vad du menar. Om man gjort samma test med bara en kärna så hade Intel varit mer effektiv? Ock att AMD ligger i topp har att göra med att de helt enkelt har fler hyfsat effektiva kärnor. I så fall så blir ju testet rätt intetsägande om man vill mäta vilken arkitektur som är mest effektiv, men däremot så verkar ju fortfarande AMD ha den bästa "paketlösningen" för laster som skalar bra med fler kärnor, trotts att det verkar vara ett av problemen som Intel försökt lösa med 120õ-serien.

Permalänk
Medlem

Har en liten fundering kring Thread director. När jag har läst på forumet och artiklar så brukar förklaringen vara så här, och där låter det som det är rätt mekaniskt när processorn väljer kärnor/trådar

När upp till 8 CPU-trådar används kör man normal på de ”stora” kärnorna, d.v.s. man lastar en av de två SMT trådarna

När 9-16 CPU-trådar lastas lägger man dessa på de ”små” kärnorna

När 17-24 CPU-trådar lastas använder man ”den andra” tråden på de stora kärnorna

Men ser man t ex denna video https://www.youtube.com/watch?v=YthL9raFx_s (från 4:40 min) från Intel så låter Thread director mer intelligent och kan välja kärnor och trådar beroende på last och kan även flytta saker som inte ligger optimalt.

Det optimala måste vara att bakgrundsuppgifter som inte kräver så mycket kraft skall ha de små kärnorna. Snabba latenskritiska uppgifter de snabba.

Så frågan är hur det förhåller sig egentligen? Har även en fråga om inte bärbara enheter borde ha lite mer fokus på de energieffektiva än stationära då batteritiden är en faktor att ta in, om det skall vara riktigt optimalt alltså?

Permalänk
Datavetare
Skrivet av shogun-r:

Har en liten fundering kring Thread director. När jag har läst på forumet och artiklar så brukar förklaringen vara så här, och där låter det som det är rätt mekaniskt när processorn väljer kärnor/trådar

När upp till 8 CPU-trådar används kör man normal på de ”stora” kärnorna, d.v.s. man lastar en av de två SMT trådarna

När 9-16 CPU-trådar lastas lägger man dessa på de ”små” kärnorna

När 17-24 CPU-trådar lastas använder man ”den andra” tråden på de stora kärnorna

Men ser man t ex denna video https://www.youtube.com/watch?v=YthL9raFx_s (från 4:40 min) från Intel så låter Thread director mer intelligent och kan välja kärnor och trådar beroende på last och kan även flytta saker som inte ligger optimalt.

Det optimala måste vara att bakgrundsuppgifter som inte kräver så mycket kraft skall ha de små kärnorna. Snabba latenskritiska uppgifter de snabba.

Så frågan är hur det förhåller sig egentligen? Har även en fråga om inte bärbara enheter borde ha lite mer fokus på de energieffektiva än stationära då batteritiden är en faktor att ta in, om det skall vara riktigt optimalt alltså?

Det jag skrev är en överförenkling, men som stämmer rätt väl med vad som händer för en enskild applikation som använder en viss mängd trådar. En vanlig applikationstyp som kan komma att påverkas framåt är spel, om/när dessa börjar se någon relevant användning av mer än 6/8 st P-cores.

Har man flera applikationer som körs samtidigt verkar policy vara att bakgrundsapplikationer primärt läggs på E-cores medan den som har input-fokus primärt läggs på P-cores.

Ovanpå det finns logik som känner av vilken typ av kod som körs. Detekteras AVX-instruktioner designade för AI-acceleration prioriteras P-cores även för saker körs i bakgrunden.

Som vanligt med saker som görs "automatiskt" är ovan optimalt/nära optimalt för "de flesta men inte alla". Därför jag frågande om Intel Thread Director policy är något som man kanske kan få styra lite i framtiden.

Permalänk
Medlem

Är nyfiken på om det kan dyka upp en Enthusiast NUC 12 med Alder Lake och kanske Intel Arc? Nuvarande version med RTX2060 går knappt att få tag på så en kraftfullare NUC med både CPU och GPU från Intel vore intressant

Permalänk
Medlem
Skrivet av ajp_anton:

Det är ju just prestandan som är grejen. Du ser ju på testerna att den slåss mot 5950X. Det hade den knappast gjort om de 8 små kärnorna ersatts med 2 stora (samma area). 10st Golden Cove räcker inte till att bräcka 16st Zen3.

Jag trodde de små kärnorna i kombo med Windows 11 var svaret på Apples energisnåla processorer men jag hade tydligen fått det runt bakfoten ..

Permalänk
Medlem
Skrivet av Ozzed:

Jag true jag är med på vad du menar. Om man gjort samma test med bara en kärna så hade Intel varit mer effektiv? Ock att AMD ligger i topp har att göra med att de helt enkelt har fler hyfsat effektiva kärnor. I så fall så blir ju testet rätt intetsägande om man vill mäta vilken arkitektur som är mest effektiv, men däremot så verkar ju fortfarande AMD ha den bästa "paketlösningen" för laster som skalar bra med fler kärnor, trotts att det verkar vara ett av problemen som Intel försökt lösa med 120õ-serien.

Energieffektivitet är ju inte särskilt relevant om man kopplar bort alla andra parametrar. Det mest effektiva är kanske att köra renderingen på en telefon, men där tiden det tar är 100 ggr längre. Effektivitet är bara relevant om man samtidigt väger in prestanda och användningsområde. För mig är en energieffektiv dator inte målet, prestanda värderas högre. Likaså är energiåtgång vid hård belastning inte särskilt relevant då datorn till 99% idlar eller används till surf, kontorsarbete m.m. För mig är strömförbrukning vid idle betydligt viktigare. Samt att CPUn vid behov kan utföra tyngre arbete snabbt samt är ok för gaming.

Där får ju var och en göra en bedömning vad som är viktigt för dom.

Permalänk
Chefredaktör 🕹

För den som inte hunnit upptäcka det har vi nu Intels svar på tal:

https://www.sweclockers.com/artikel/33335-intel-svarar-pa-com...

Permalänk
Medlem
Skrivet av Yoshman:

Dels finns fördelarna som @Thomas nämner ovan.

Men lika viktigt är att klocka ned de normala kärnorna har klara nackdelar för interaktiva laster. Extremfallet här är AMDs 8C/16T 15 W CPUer, de är bra för Cinebench men för det är en katastrofdesign om man faktiskt har nytta av så pass många kärnor samtidigt som man vill använda sitt system interaktivt.

Det majoriteten använder sin desktop/laptop-dator till är mer beroende av låg latens än hög total beräkningskapacitet. Låg latens är något man nästan uteslutande får genom hög prestanda per CPU-tråd!!!

12900K kan hålla 4,7 GHz när alla kärnor är lastade, min 5950X håller ~4,0 GHz. Om man har saker i bakgrunden som använder alla kärnor betyder det att latenskritiska saker som kör i förgrunden (som nästan alltid skalar öken förbi 1-2 kärnorn, t.ex. office/text-redigererare för kod eller liknande, webbläsare, ”view-port” arbete i 3D-program/spelmotorer, och liknande) kör på en fraktion av hastigheten de gör i ett lågt lastat system -> UI känns segt!!

Alder Alake minskar ena problemet, den klockar ned sig mindre (och den har även riktigt hög IPC). Dock tror jag Intel borde fundera om det inte är så att de ”små” kärnorna faktiskt är att föredra för interaktiva laster så fort som lastar mer än 16 CPU-trådar på en 12900K.

Logiken för Alder Lake 12900K ska ju vara

  • När upp till 8 CPU-trådar används kör man normal på de ”stora” kärnorna, d.v.s. man lastar en av de två SMT trådarna

  • När 9-16 CPU-trådar lastas lägger man dessa på de ”små” kärnorna

  • När 17-24 CPU-trådar lastas använder man ”den andra” tråden på de stora kärnorna

När 1 CPU-tråd lastas har man maximal interaktiv prestanda, då kör man i 5,3 GHz.
När 9-16 CPU-trådar är lastade har man 4,7/5,3 ~ 90 % av prestanda!
När 17-24 CPU-trådar är lastade finns risk att last råkar hamna på samma CPU-kärna man kör sin latenskritiska saker på, om/när det händer droppar prestanda till ~60 % av det man har i ett lågt lastat system.

Och det är i bästa fall, det är så mycket rå-compute man har. I praktiken droppar prestanda mer än så då det finns andra resurser som måste delas mellan CPU-trådar, t.ex. RAM, I/O etc.

60 % är ett klart drop, men ändå något bättre än t.ex. 5950X som i motsvarande situation tappar ned till 50 %. 15 W 8C/16T laptops droppar ned till ~30 % av sin maxprestanda, så tekniken är mer användbar vid riktigt låg TDP än för desktop. Fast för desktop kvarstår som sagt fördelen med klart bättre prestanda/transistor jämfört med att bara ha ”stora” kärnor.

Frågor till Intel:
* Kommer det i framtiden vara möjligt för användare att påverka policy kring vad som läggs på vilken CPU-kärna?
* Är det möjligt för ”thread-director” att dynamiskt aktivera/inaktivera SMT? Hade varit riktigt trevligt om SMT kunde stängas av dynamiskt för den/de ”stora” kärnorna som kör interaktiva trådar

En 5950x kan köra all core OC över 4.7 ghz manuellt.

Permalänk
Medlem

Fråga till intel: Stämmer det att arkitekturen till en början skulle heta Adel-lake och endast finnas tillgänglig för förmögna eller adliga?

Permalänk
Medlem
Skrivet av UndaC:

Tack för timestamps i videon!

Permalänk
Chefredaktör 🕹
Skrivet av CymbalCrasher:

Tack för timestamps i videon!

Blir ganska smidigt i en sådan här video med så tydligt indelade frågor kände jag

Permalänk
Medlem

jag paxxade en fin 12900K direkt ur hyllan på netonnet sen var den slut i lager "woooohooo" fick tag på ddr5 minnen med corsair 32gb kit på 5200mhz har också köpt EVGA FRTW3 ULTRA RTX 3080 + en MSI RTX 3080 VENTUS 3X nytt! + en ASUS STRIX 3070 + en ASUS STRIX 3070 TI har jag här hemma och även en Msi RTX 3090 Gaming TRIO-X på väg nu. har köpt grafikkort för 90.000kr nydligen beställt från webhallen idag för knappt 15 minuter sen. det är julafton hemma hos mig nu

Permalänk
Medlem

Sjukt bra att ni börjar göra fler intervjuer. Riktigt uppskattat.

Permalänk
Medlem

Hur var det med Linux schemaläggaren? Funktionen finns redan i? Vilken funktion?

Linux har stöd för Intel® Turbo Boost Max 3.0™ vilken gör att schemaläggare vet att P-core är snabbare än E-core. Men det samma kan sägas om Windows 10 också? Allt prat om att Windows 11 är optimerad för plattformen handlar om thread director stöd. Hur optimerad är Linux för thread director?

Om jag söker i git historiken för Linux kärnan för "thread director", "hardware feedback" eller "EHFI" hittar jag inga resultat. Thread director tycks vara namnet på hårdvaran och EHFI (Enhanced Hardware Feedback Interface) namnet på funktionen. Enligt Intels dokumentation ska processorer ha stöd för thread director om CPUID[6].EAX[23] är satt men kärnan har inte ens definierat den featuren i arch/x86/include/asm/cpufeatures.h. För att aktivera thread director används MSR IA32_HW_FEEDBACK_CONFIG MSR (17D1H) men jag ser inget som tyder på att kärnan använder den MSRen eller thread director över huvud taget.

Redaktionen frågade om man kan splitta pcie x16 gen 5 I x8/x4/x4 konfiguration. Varför pratar han då om chipsetet? 12-gen styrkretsar har inte stöd för gen 5 eller? Enligt 12th Generation Intel® Core™ Processors Datasheet, Volume 1 of 2 har processorn endast stöd för x8/x8 bifurcation så x8/x4/x4 ser inte ut att gå.

Permalänk
Hjälpsam
Skrivet av UndaC:

Thomas Melzer och Anton Nilsson sitter och myser i Sweclockers studiohörna!

Permalänk
Medlem
Skrivet av pytonOrm:

jag paxxade en fin 12900K direkt ur hyllan på netonnet sen var den slut i lager "woooohooo" fick tag på ddr5 minnen med corsair 32gb kit på 5200mhz har också köpt EVGA FRTW3 ULTRA RTX 3080 + en MSI RTX 3080 VENTUS 3X nytt! + en ASUS STRIX 3070 + en ASUS STRIX 3070 TI har jag här hemma och även en Msi RTX 3090 Gaming TRIO-X på väg nu. har köpt grafikkort för 90.000kr nydligen beställt från webhallen idag för knappt 15 minuter sen. det är julafton hemma hos mig nu

Vad ska du göra med allt det där?

Permalänk
Medlem
Skrivet av draanexle:

Vad ska du göra med allt det där?

ha roligt med ! seriöst, jag har redan sålt av några kort. fick min nya 3080 Msi kort såld + Asus trix 3070 också såld. det jag har nu är rtx 3090 som jag behåller är svårt nu och köpa redan slut i lager på webhallen, dom gick fort bort idag jag slog till på ett och vara garanterad att få den redan iväg till mig nu + Evga ftw3 ultra Rtx3080 kör jag i burken just nu i skrivande stund, den ska jag nog sälja kanske och Asus Tuf 3060 ti liggnas också... ska ut på tradera med snart under helgen

Permalänk
Medlem
Skrivet av Ozzed:

Vore intressant att veta om de planerar produkter som åtminstonne är i paritet med Ryzen vad gäller energieffektivitet eller om balls to the wall för att kunna hävda topplaceringar i diagram är vägen de tänkt sig frammåt.

Det har de ju redan släppt i och med 12600k.
Racet för att ha snabbaste processorn för spel är ett tungt försäljningsargument som både Intel och AMD strävar efter.
Så kommer det alltid vara.

Permalänk
Medlem
Skrivet av pytonOrm:

ha roligt med ! seriöst, jag har redan sålt av några kort. fick min nya 3080 Msi kort såld + Asus trix 3070 också såld. det jag har nu är rtx 3090 som jag behåller är svårt nu och köpa redan slut i lager på webhallen, dom gick fort bort idag jag slog till på ett och vara garanterad att få den redan iväg till mig nu + Evga ftw3 ultra Rtx3080 kör jag i burken just nu i skrivande stund, den ska jag nog sälja kanske och Asus Tuf 3060 ti liggnas också... ska ut på tradera med snart under helgen

Du är exakt den typen av person som orsakar problemen alltså.

Permalänk
Medlem
Skrivet av ZaInT:

Du är exakt den typen av person som orsakar problemen alltså.

För att han köper upp sig en GPU åt gången och sen säljer den gamla?

Nä, det är dom som köper pallvis med GPUer som är problemet, inte nån Svensson som bara är uppmärksam på när det släpps något nytt och köper ett exemplar.

Permalänk
Medlem
Skrivet av heatm:

För att han köper upp sig en GPU åt gången och sen säljer den gamla?

Nä, det är dom som köper pallvis med GPUer som är problemet, inte nån Svensson som bara är uppmärksam på när det släpps något nytt och köper ett exemplar.

Fast nu snackar han ju om... 7 kort bara i det senaste inlägget? Med uttalat mål att slussa skiten vidare på Tradera vilket han även skriver att han gjort med ett antal kort i samma inlägg.

Permalänk
Medlem
Skrivet av ZaInT:

Fast nu snackar han ju om... 7 kort bara i det senaste inlägget? Med uttalat mål att slussa skiten vidare på Tradera vilket han även skriver att han gjort med ett antal kort i samma inlägg.

Du skrev att han är "exakt den typen som orsakar problemen", jag hävdar att han inte är ens i närheten av orsaken till GPU-bristen.

Vi kan nöja oss med att ha olika åsikter i den frågan. Jag tycker bara det är onödigt att anklaga folk i forumet för något dom inte är orsaken till. Låt folk köpa och sälja lite GPU:er om dom lägger tid på det. Inte som så att han lyfter pall efter pall med GPU:er innan dom ens når butikshyllorna. Inte heller har han uppfunnit kryptovaluta som gör att folk kan tjäna pengar på GPU:er, vilket självklart pressar upp priserna.

Men ja, jag förstår att det kan sticka i ögonen. Tycker bara det är bra med lite perspektiv så man inte anklagar symptomen för sjukdomen.

Permalänk
Medlem
Skrivet av ZaInT:

Du är exakt den typen av person som orsakar problemen alltså.

du får fan tolka det som du vill ger jag fan i.. mina pengar mina dator saker nej, jag håller inte på med jävla mining skit. dom är problemen punkt slut...

Permalänk
Chefredaktör 🕹

@pytonOrm @ZaInT @heatm

Vänligen lägg ner det här sidospåret, det har absolut noll att göra med artikeln, videon eller tråden att göra. Och även om folk har annorlunda åsikter så behöver vi inte hålla på och höja tonen mot varandra.

Tackar.

Permalänk
Medlem
Skrivet av heatm:

Du skrev att han är "exakt den typen som orsakar problemen", jag hävdar att han inte är ens i närheten av orsaken till GPU-bristen.

Vi kan nöja oss med att ha olika åsikter i den frågan. Jag tycker bara det är onödigt att anklaga folk i forumet för något dom inte är orsaken till. Låt folk köpa och sälja lite GPU:er om dom lägger tid på det. Inte som så att han lyfter pall efter pall med GPU:er innan dom ens når butikshyllorna. Inte heller har han uppfunnit kryptovaluta som gör att folk kan tjäna pengar på GPU:er, vilket självklart pressar upp priserna.

Men ja, jag förstår att det kan sticka i ögonen. Tycker bara det är bra med lite perspektiv så man inte anklagar symptomen för sjukdomen.

Fair enough.

Skrivet av UndaC:

@pytonOrm @ZaInT @heatm

Vänligen lägg ner det här sidospåret, det har absolut noll att göra med artikeln, videon eller tråden att göra. Och även om folk har annorlunda åsikter så behöver vi inte hålla på och höja tonen mot varandra.

Tackar.

Uppfattat. En höjd ton var inte min avsikt, ibland är ju text lätt att tolka på måååånga sätt. Jag har inte heller tolkat det som att någon annan "hoppat på" mig gällande nämnda sidospår så lägg ingen skuld på dem relaterat till mig om det skulle tänkas vara så.

OnT: När vi ändå har Intel på tråden; finns det NÅGONTING mer som kan avslöjas gällande de kommande GPUerna relaterat till denna launchen? Det vore ju inte helt otänkbart att det kommer fler modeller i serien; kommer vi kanske få se bättre iGPUer redan i 12xxx (eventuella) senare modeller? Jag tänker speciellt på hur de skulle stå sig mot nuvarande samt kanske till och med att man kan få någonting nytt intressant att veta om detta isåfall. (Det skadar ju inte att fråga

(Detta är alltså ett hopp om att det kanske är så att någon i närheten av Intel råkar titta in här. Vi har ju en hel del representanter för en hel del olika företag här)

EDIT: Jag och pytonOrm har som sagt pratat privat som vuxna människor, båda gick lite över gränsen och båda har bett om ursäkt med gemensam förståelse. Det är trots allt så det borde fungera i den här jävla världen...

Permalänk
Medlem
Skrivet av UndaC:

@pytonOrm @ZaInT @heatm

Vänligen lägg ner det här sidospåret, det har absolut noll att göra med artikeln, videon eller tråden att göra. Och även om folk har annorlunda åsikter så behöver vi inte hålla på och höja tonen mot varandra.

Tackar.

jag har pratat med vederbörande och bett om ursäkt dvs privat meddelande...