Larrabee är en jätte

Permalänk
Citat:

Ursprungligen inskrivet av h3b0
Nu är det ju inte så att jag är en expert på GPUer etc. men snälla någon, vad tjänar det till att ösa ur sig en massa faktoider baserade på Ert behova av att verka kunniga? Som Dunde tidigare sade så börjar det bli obehagligt många högstadielever här inne, skit kastas och hypoteser blåses upp till proportioner en enkel googling (?) skulle punkterat två sidor tidigare i diskutionen. Snart är det lite för låg nivå här inne, de med köpkraft lämnar sidan osv. Lite dystopiskt kanske, men lite sanning ligger det väl i det?

OT: Eftersom till en början DX api-et måste emuleras på Larrabee så dröjer det nog ett tag (för alltid?) innan vi kan se den egentliga prestandan. Samt, skulle Intel ha en dunderprodukt så skulle vi få se iaf lite fake-tester för att skrämma upp motståndet och skapa opinion.

Ett diskussions forum är till för... ja diskussioner. Och du anklagar alla här för att vara högstadienivås intellekt när du själv inte kan stava till "diskussion"?

Är du ingen expert på GPUer hur kan du då yttra dig så? Om det är så enkelt att sänka allas hypoteser med en enkel googling, be our guest. Vi är trots allt här för att detta är vårat intresse och vi vill diskutera detta.
Har någon astronomiska fel med sina hypoteser eller liknande så rättar vi andra denna person.

Visa signatur

Bianconeri siamo noi, ma chi cazzo siete voi?

Permalänk
Citat:

Ursprungligen inskrivet av Juventino
Ett diskussions forum är till för... ja diskussioner. Och du anklagar alla här för att vara högstadienivås intellekt när du själv inte kan stava till "diskussion"?

Stavning är helt irrelevant för ålder. Speciellt på ett så vanligt felstavat ord som "diskussion", spelar helt enkelt ingen roll om man är 40 eller 14. Så att ta upp något så trivialt som ett felstavat ord för att möta ett argument visar om något på en icke mognad talare.

Det finns inte en enda grund till att vara otrevlig kors och tvärs, en vanlig mogen diskussion ska man kunna föra utan dumheter som sådana.

OnT:
Ska bli intressant och se vad det blir av detta.

Visa signatur

i7 2600K | XFX 6970 | 8GB DDR3 1600mhz Vengeance| 1TB HDD | DVD-RW Dual Layer

Permalänk
Citat:

Ursprungligen inskrivet av Nypifisel
Stavning är helt irrelevant för ålder. Speciellt på ett så vanligt felstavat ord som "diskussion", spelar helt enkelt ingen roll om man är 40 eller 14. Så att ta upp något så trivialt som ett felstavat ord för att möta ett argument visar om något på en icke mognad talare.

Det finns inte en enda grund till att vara otrevlig kors och tvärs, en vanlig mogen diskussion ska man kunna föra utan dumheter som sådana.

OnT:
Ska bli intressant och se vad det blir av detta.

Ja faktiskt du har rätt, det finns lika många barn som vuxna som stavar fel, rent generellt så är det dagis nivå på all stavning. Det du menar? Det är inte irrelevant, det är väldigt relevant för ålder.
Det var inte min poäng hur som helst, jag dissar hans intellekt och hans inlägg.

Han sa i princip "Jag är inte en expert på GPU, men sluta prata om tekniken som att ni vet något för ni vill bara visa eran kunskap när ni i själva verket går på högstadiet."

Visa signatur

Bianconeri siamo noi, ma chi cazzo siete voi?

Permalänk

Ska bli intressant att se vad Larrabee kommer att leverera

Visa signatur

Intel Core i7 965 | Intel DX58SO | Intel X25-M 80 GB SSD | OCZ Platinum 6 GB | Gigabyte 4850 1 GB | Corsair HX 620 | Samsung F1 1TB | Thermaltake DH 101 VF7000BNS

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Nighthog
Ok så Larabee i 45nm är ungefär i samma storlerkar som GT200 chipen från Nvidia. Så det är ju en ganska dyr krets att tillverka som för Nvidia med sina GT200 kretsar. dock hade väll Nvidia sina i 55nm väll nu?

Du kan inte jämföra lite hursomhelst mellan olika tillverkare och tillverkningsprocesser. Intel har världens mest avancerade litografiprocess, och sannolikt de kunnigaste teknikerna och ingenjörerna också. De ligger närmare en hel generation före sina konkurrenter på fabrikationsområdet, det är ju först nu som andra tillverkare börjar få snurr på sin .45nm-tillverkning, intel är redan på väg mot nästa mindre steg.

Även på samma generation av litografiprocess brukar intel sparka alla andra tillverkares rumpa. Intels process ger typiskt sett högre komponentdensitet, enheterna klockar högre och drar mindre ström dessutom. Detta kommer att ge intel en fördel gentemot nvidia och AMD, som är utlämnade till taiwanesernas mindre avancerade processer.

Citat:

Om denna gigantiska chip inte kan prestera i samma liga som HD48** eller GTX2** och helst faktiskt bättre så blir det en flopp ganska självklart.

Det är ju inte alls självklart. Hur framgångsrikt larrabee blir beror ju inte på dess prestanda jämfört med motsvarande stora GPUer från andra tillverkare, utan på faktorer som faktisk prestanda, pris, mjukvarustöd, kvalitet på drivrutiner med mera. Särskilt det senare har intel varit rätt jäkla kassa på, men nu när de ska satsa på allvar inser de säkert själva att de måste göra en uppryckning.

Citat:

48processor kärnor gamla pentium klass i hög frekvens.... fasiken den kan ju göra /%"¤&" loads av beräkningar.

Att kalla larrabees processorer för "pentiumkärnor" är egentligen ganska missvisande; core2 baseras ju i grunden på P7 - dvs gamla pentium pro - men det är inte mycket (om ens något alls) som återstår av P7an mer än generella drag på ett blockdiagram. Samma lär ju gälla larrabee jämfört med gamla trötta pentium. Dessutom är det inte själva processorkärnan som drar det tunga lasset, det gör den anslutna SIMD-enheten, vilken har en massa mer beräkningskraft.

Sedan är det väl litet si och så med hurpass bra prestanda larrabee egentligen kan tänkas få, nvidia och AMDs GPUer har ju en massa dedikerad, icke programmerbar hårdvara för pixelrastrering med extrema pipelines för att få bra "flås"; larrabee ska enligt uppgift sköta inte bara shaders i mjukvara utan även rastrering, och det blir en tuff uppgift för drivrutinsmakarna att lösa. En modern toppklass-GPU kan jonglera flera tusen pixelfragment i olika stadier av slutförandegrad, larrabee får nog nöja sig med att arbeta med betydligt färre åt gången.

Bara en sådan simpel sak som bilinjär texturinterpolation kräver ett par hundra miljoner operationer per sekund i 60fps och hög upplösning per texturlager. Om man sedan hoppar till trilinjär 16-tap anisotropisk filtrering skuttar beräkningskravet mångfaldigt mer. Moderna spel arbetar med rätt många texturlager... Iofs behöver inte alla texturlager så hög filtrering, men då måste drivrutinen känna igen vilka lager man kan dra ner på utan att det ser fult ut, vilket kräver större insats från intels programmerarlag...

Detta blir larrabees stora utmaning; att återanvända samma beräkningsenheter för alla de moment som nvidia och amd använder separata enheter för att utföra. När du filtrerar texturer på larrabee, då kan du inte beräkna shaders, utföra polygonsetup, antialiasing, göra alphablending med mera. Så larrabee måste nog klockas rätt jäkla högt för att kunna konkurrera med G200 och motsvarande AMD-chip. Flera GHz, utan tvekan.

Visa signatur

Es ist verboten Pajas zu spielen!
Min dator Uggla

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Dunde
Tänk på att forumet idag domineras av rätt unga personer som tenderar att bli väldigt upphängda på ett varumärke och "hatar" varumärken som t.ex. MS och Intel.

säger han som nyss skrev detta

Citat:

Ursprungligen inskrivet av Dunde
Tror man på allvar att det blir en flopp så är man helt fel ute. Intel skulle ALDRIG släppa något som de själva vet blir floppartat.

Citat:

Ursprungligen inskrivet av h3b0
Nu är det ju inte så att jag är en expert på GPUer etc. men snälla någon, vad tjänar det till att ösa ur sig en massa faktoider baserade på Ert behova av att verka kunniga? Som Dunde tidigare sade så börjar det bli obehagligt många högstadielever här inne, skit kastas och hypoteser blåses upp till proportioner en enkel googling (?) skulle punkterat två sidor tidigare i diskutionen. Snart är det lite för låg nivå här inne, de med köpkraft lämnar sidan osv. Lite dystopiskt kanske, men lite sanning ligger det väl i det?

håller med, börjar tröttna på inlägg som"Har svårt att se intel gå om nvidia" eller "Intel har ingen erfarenhet av gpu"
sanningen är att vi alldrig sett ett liknande projekt, så vi kan därför omöjligt veta om det blir en floppeller inte.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av denstore
Du menar som storsäljaren itanium?

Ja, när ett företag tappar sitt fokus och sin själ så kan knasiga saker hända. Olika interna grupper kämpar mot varandra av prestigesjäl. Itanium var genomusel i alla versioner, men som fanatiska galningar upprepade Intels marknadsgycklare mantrat att detta var framtiden och att nästa version skulle slå x86.

Att lyssna på dem var en riktig "Dilbert" upplevelse. Den bästa någonsinn i mitt arbetsliv.

Intel verkar ha återått förståndet och låter Itanium självdö. Deras Itanium partner 'HP' verkar inte ha kommit ur sitt självbedrägeri ännu.

Sannolikt är Intel idag ett för friskt företag för att släppa skit. Om HP skulle stå bakom Larrabee så hade det funnits själ för misstänksamhet enligt min uppfattning.

Visa signatur

Foldning: 2xGTX285, 1xGSO9600, 2 UniCore clienter.

Permalänk

det skulle väl mest bli en raytracer för professionellt bruk ändå, om jag förstått det rätt? det låter som om den blir alldeles för stor och dyr för att säljas till ett rimligt pris till konsumenter...

Visa signatur

i5 10400f | asus b460-f | 2x8gb kingston 2666 | zotac 3060ti | corsair mp510 960gb (OS) + samsung 860 evo 1tb + 2x kingston a400 480gb | corsair vx450 | tr true black | fractal r3 | asus mg279q + lg w2363d | dt 880 | win 10 x64 | deathadder chroma | glorious 3xl | tb impact 600 | oculus quest 2

Permalänk
Citat:

Ursprungligen inskrivet av LennyV

Sedan är det väl litet si och så med hurpass bra prestanda larrabee egentligen kan tänkas få, nvidia och AMDs GPUer har ju en massa dedikerad, icke programmerbar hårdvara för pixelrastrering med extrema pipelines för att få bra "flås"; larrabee ska enligt uppgift sköta inte bara shaders i mjukvara utan även rastrering, och det blir en tuff uppgift för drivrutinsmakarna att lösa. En modern toppklass-GPU kan jonglera flera tusen pixelfragment i olika stadier av slutförandegrad, larrabee får nog nöja sig med att arbeta med betydligt färre åt gången.

Bara en sådan simpel sak som bilinjär texturinterpolation kräver ett par hundra miljoner operationer per sekund i 60fps och hög upplösning per texturlager. Om man sedan hoppar till trilinjär 16-tap anisotropisk filtrering skuttar beräkningskravet mångfaldigt mer. Moderna spel arbetar med rätt många texturlager... Iofs behöver inte alla texturlager så hög filtrering, men då måste drivrutinen känna igen vilka lager man kan dra ner på utan att det ser fult ut, vilket kräver större insats från intels programmerarlag...

Detta blir larrabees stora utmaning; att återanvända samma beräkningsenheter för alla de moment som nvidia och amd använder separata enheter för att utföra. När du filtrerar texturer på larrabee, då kan du inte beräkna shaders, utföra polygonsetup, antialiasing, göra alphablending med mera. Så larrabee måste nog klockas rätt jäkla högt för att kunna konkurrera med G200 och motsvarande AMD-chip. Flera GHz, utan tvekan.

Bra sagt! Just texturhantering och filtrering är dock en av de få fixfunktionsenheter som faktiskt ingår i larrabee så där gav de upp på mjukvarusidan. Angående programmeringen så kanske Michael Abrash artikel kan vara lite intressant läsning.

Visa signatur

/Hej hopp!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av sykes90

håller med, börjar tröttna på inlägg som"Har svårt att se intel gå om nvidia" eller "Intel har ingen erfarenhet av gpu"
sanningen är att vi alldrig sett ett liknande projekt, så vi kan därför omöjligt veta om det blir en floppeller inte.

Klart vi inte kan veta nåt men alla får väl spekulera, det är väl inge problem? Tror man inte på larrabee pga det ena eller det andra så tycker jag man får tro det utan att bli tillsagt av besserwissrar... (oops stavning) och btw jag är sjutton men tycker att mitt argument ska ses lika seriöst som vilket inlägg som helst....

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av sykes90

håller med, börjar tröttna på inlägg som"Har svårt att se intel gå om nvidia" eller "Intel har ingen erfarenhet av gpu"
sanningen är att vi alldrig sett ett liknande projekt, så vi kan därför omöjligt veta om det blir en floppeller inte.

Intel har ingen erfarenhet av GPU, därför gör de en typ av CPU som emulerar en GPU

EDIT:

Nej, deras pissiga integrerade kretsar räknas inte.

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Avstängd

Misstänker att det kanske kan komma att prestera sämre i många populära spel som Crysis, UT3, etc än AMD och NVIDIA's grejer.

Men att det helt kommer äga sönder i raytracing som POV-Ray med enorm marginal.

Permalänk
Citat:

Ursprungligen inskrivet av P1nGviN
Intel har ingen erfarenhet av GPU, därför gör de en typ av CPU som emulerar en GPU

EDIT:

Nej, deras pissiga integrerade kretsar räknas inte.

Hela poängen med Larrabee är ju att det inte är en GPU utan en "accellerator" för de flesta sorters dataparallella beräkningar.

Visa signatur

/Hej hopp!

Permalänk
Medlem

Att Larrabee skulle slå igenom stort på grafiksidan i början har jag svårt att tro (även om det nu enbart skulle bero på de vanliga grafikkortens dominans i dagsläget), däremot har den andra kvalitéer och även om den skulle bli riktigt dyr så tror jag nog att man kommer får god användning för den inom vissa områden.

Citat:

Ursprungligen inskrivet av Dunde
BTX var väl ett lovvärt försök och att det floppade var jäkligt synd då det var mycket förbättringar. Så att förutse att det skulle floppa var inte lätt.

Öh?
Den enda anledningen att BTX hade något existensberättigande låg ju i intels värmeproblem (vid den tiden). Att byta standard bara för att försöka laga en ineffektiv processorarkitektur är ju bara det löjligt men förvärrades av att BTX aldrig skulle hinna slå ordentligt innan intel kommit med effektivare processorer.

Att BTX skulle floppa var således äckligt uppenbart från dag ett, frågan var bara om intel skulle tvinga på marknaden skiten i alla fall. Lyckligtvis är det väl bara blinda early-adopters som slösat pengar på det.

Permalänk
Medlem

Kanske blir så att Larrabee kommer att sitta i en sockel på moderkortet och användas för vissa typer av beräkningar och att vi fortfarande har ett kraftfult grafikkort fårn NV eller ATI?

Visa signatur

-dool

Permalänk
Medlem

Att Larrabee skulle bli en stor krets (rent fysiskt) har det väl aldrig varit någon tvekan om. Sen kommer ju inte Larrabee (inledningsvis i alla fall) konkurrera med AMD och Nvidias high end kretsar det har man ju själv sagt.

Permalänk
Citat:

Ursprungligen inskrivet av dool
Kanske blir så att Larrabee kommer att sitta i en sockel på moderkortet och användas för vissa typer av beräkningar och att vi fortfarande har ett kraftfult grafikkort fårn NV eller ATI?

Tanken är väl att Larrabee liknande kärnor ska ingå i en vanlig processor så småning om. Kanske fortsätter de även tillverka instickskort/processorer med bara larrabee liknande kärnor för de som behöver mer beräkningskraft. Intel siktar ju på att all beräkningskraft i en PC ska komma från en x86-processor som de tillverkar.

Visa signatur

/Hej hopp!

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av echo
Den enda anledningen att BTX hade något existensberättigande låg ju i intels värmeproblem (vid den tiden). Att byta standard bara för att försöka laga en ineffektiv processorarkitektur är ju bara det löjligt men förvärrades av att BTX aldrig skulle hinna slå ordentligt innan intel kommit med effektivare processorer.

Då intels värmeproblem inte är principiellt annorlunda än andras borde väl världen ha tjänat på att byta från atx till btx, förutsatt att det nu var en bättre lösning (vilket jag antar att det är)? Även om de flesta processorer idag inte drar så stor effekt att problemet är så stort vinner man väl inget på att behålla en sämre design?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Elgot
Då intels värmeproblem inte är principiellt annorlunda än andras borde väl världen ha tjänat på att byta från atx till btx, förutsatt att det nu var en bättre lösning (vilket jag antar att det är)? Även om de flesta processorer idag inte drar så stor effekt att problemet är så stort vinner man väl inget på att behålla en sämre design?

Om nu processorkylningen vore det enda av intresse och om det inte redan vore så att processorn är en av de enklare komponenter att kyla...

Det är ju sett till helheten som BTX förlorar.

Permalänk
Citat:

Ursprungligen inskrivet av LennyV
Du kan inte jämföra lite hursomhelst mellan olika tillverkare och tillverkningsprocesser. Intel har världens mest avancerade litografiprocess, och sannolikt de kunnigaste teknikerna och ingenjörerna också. De ligger närmare en hel generation före sina konkurrenter på fabrikationsområdet, det är ju först nu som andra tillverkare börjar få snurr på sin .45nm-tillverkning, intel är redan på väg mot nästa mindre steg.

Hur förklarar du då att Phenom II gjord i "dålig" 45nm springer förbi Intels Core 2 Quad och Core 2 Duo i "bra" 45nm?

Visa signatur

| R5 2600 | 32GB DDR4 | RTX 2060 super |
Vänligen citera ifall du vill ha ett svar

Permalänk

Jag orkar inte läsa allt. MEN:

Datorutveckling är bra oavsett. Jag skiter fullständigt i företagen. Så om Intel gör en jätte bra grafikkrets kommer jag säga tack nu får jag bättre grafik i min burk inte springa till amd/nvidia och gråta och lova inte vara otrogen.

Detsamma med hd ram osv.....
Sen om någon kommer med invändningar att Intel på sikt kommer dra ner utvecklingshastigheten pga monopol så säger jag att ni bara gissar och kul för er att ni läst lite ekonomi men glömt historia.

Visa signatur

[5900x][MSI-B550-Tomahawk][RTX-3700][32GBRam3200CL14]

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av SpammerN^
Hur förklarar du då att Phenom II gjord i "dålig" 45nm springer förbi Intels Core 2 Quad och Core 2 Duo i "bra" 45nm?

Hmm, så om jag verkligen verkligen älskar en trabant från -78 så är den snabbare än en Koenigsegg CCXR?

Visa signatur

Hur kan syltkakor överleva i det vilda utan ögon?

Permalänk
Citat:

Ursprungligen inskrivet av SirMauser
Sen om någon kommer med invändningar att Intel på sikt kommer dra ner utvecklingshastigheten pga monopol så säger jag att ni bara gissar och kul för er att ni läst lite ekonomi men glömt historia.

Så det finns inte tydliga exempel på hur monopolföretag lagt utvecklingen på hyllan och istället mjölkat pengar ur gamla produkter?
Hur såg det t.ex ut när Microsoft släppte IE6 och så gott som sparkat ut alla andra webbläsare från marknaden? IE6 fanns ändå på marknaden i lite mer än 5 år och blev ersatt först 2 år efter senaste versionen av webbläsaren. Nu när bland annat Firefox tagit över lite av marknaden så har det helt plötsligt kommit 2 nya IE-varianter på inom loppet av 3 år.
Var det konkurrensen som fick fart på marknaden eller var det för att utvecklingsavdelningen på MS fick för sig att de skulle använda lite intjänade pengar till att utveckla helt nya versioner?

Du får gärna förklara den där historian som alla verkar ha missat när man påstår att konkurrens gynnar utvecklingen till skillnad mot monopol.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av echo
Den enda anledningen att BTX hade något existensberättigande låg ju i intels värmeproblem (vid den tiden).

Det är inte ett enda ord där som faktiskt är sant. Du har HELT FEL.

Värmeproblem, vad snackar du om? Nästan alla P4-moderkort var av ATX-typ, det var inga problem att kyla processorn där.

Annars kan du ju betänka att dagens i7 har betydligt högre maxeffekt än de flesta P4 hade. Lustigt så knasigt det kan bli då man bara lyssnar på korkad hatpropaganda istället för att läsa på om fakta, eller hur?

BTX utvecklades för att förbättra kylningen och planlösningen rent generellt i ett PC-chassi - vilken inte är särskilt bra i ATX-lådor; sydbryggan ligger ju inknôkad under grafikkorten till exempel, minnesplatserna krockar också ofta med det övre grafikkortet, strömsladdar och övriga anslutningar hamnar hajsvajs utströsslat lite där de får plats, och luftgenomströmningen tar snirkliga, dåliga vägar genom lådan.

ATX utvecklades ur gamla AT, och båda härstammar från en tid då datorkomponenter inte alls hade den effektutveckling och kylbehov de har idag. BTX är mycket mer strömlinjeformat vad gäller luftvägarna och är generellt sett betydligt bättre ur i princip alla synvinklar.

Visa signatur

Es ist verboten Pajas zu spielen!
Min dator Uggla

Permalänk
Medlem

Larrabee kommer nog bli något dyrt och exklusivt för de med mycket pengar, ungefär som nehalem. Jag tror att de kommer kosta 3000kr och uppåt.

Visa signatur

Desktop: Arch Linux - i7 3770 - 16GB DDR3 - R9 290X 4GB - 1TB M2 SSD - 1TB SATA SSD - AOC U32PWQU 4K
Dell Latitude 7400 2-in-1 - Arch Linux - i5 8265u

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av SpammerN^
Hur förklarar du då att Phenom II gjord i "dålig" 45nm springer förbi Intels Core 2 Quad och Core 2 Duo i "bra" 45nm?

Hur förklarar jag att något som inte är verklighetsöverensstämmande inträffar? Det finns ingen anledning för mig att göra det.

Finns det tester där Phenom2 är snabbare än core2 extreme? Ja. I de flesta fall? Nej. Samt, vad har generell processorprestanda med litografiprocesser att göra? Svar: inget. Du jämför äpplen och päron.

Jag förmodar att du helt enkelt är för ung och ovetande om du på fullaste allvar ifrågasätter att intels tillverkningsteknik faktiskt är den mest avancerade på den här planeten.

Visa signatur

Es ist verboten Pajas zu spielen!
Min dator Uggla

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av LennyV
Det är inte ett enda ord där som faktiskt är sant. Du har HELT FEL.

Värmeproblem, vad snackar du om? Nästan alla P4-moderkort var av ATX-typ, det var inga problem att kyla processorn där.

Annars kan du ju betänka att dagens i7 har betydligt högre maxeffekt än de flesta P4 hade. Lustigt så knasigt det kan bli då man bara lyssnar på korkad hatpropaganda istället för att läsa på om fakta, eller hur?

Ååh va pinsamt
Du har inte funderat på hur processorkylningen utvecklats sen dess?
När jag menar problem så menar jag inte att processorerna brann upp utan att det var problematiskt att för en vettig summa (relativt) få bra och tyst kylning till en high-end P4. Spelar ingen roll om dagens processorer är hungrigare, de är trotts det enklare att kyla med dagens kylning.

Det var inte direkt någon hemlighet att det var problematiskt. Det enda intel kunde göra då var att öka klockfrekvensen vilket ledde till att värmeutvecklingen skenade iväg. Det hela förvärrades förstås av AMD som var både snabbare och svalare vid den tiden.

Citat:

Ursprungligen inskrivet av LennyV
BTX utvecklades för att förbättra kylningen och planlösningen rent generellt i ett PC-chassi - vilken inte är särskilt bra i ATX-lådor; sydbryggan ligger ju inknôkad under grafikkorten till exempel, minnesplatserna krockar också ofta med det övre grafikkortet, strömsladdar och övriga anslutningar hamnar hajsvajs utströsslat lite där de får plats, och luftgenomströmningen tar snirkliga, dåliga vägar genom lådan.

ATX utvecklades ur gamla AT, och båda härstammar från en tid då datorkomponenter inte alls hade den effektutveckling och kylbehov de har idag. BTX är mycket mer strömlinjeformat vad gäller luftvägarna och är generellt sett betydligt bättre ur i princip alla synvinklar.

Har inget att invända där, vilket gör det än mer anmärkningsvärt att de misslyckades så brutalt att de inte ens förbättrade sig mot ATX.

Men man kan ju vända på det, en effektiv planlösning är ju även den som missgynnar konkurrenten.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Juventino
Ja faktiskt du har rätt, det finns lika många barn som vuxna som stavar fel, rent generellt så är det dagis nivå på all stavning. Det du menar? Det är inte irrelevant, det är väldigt relevant för ålder.
Det var inte min poäng hur som helst, jag dissar hans intellekt och hans inlägg.

Han sa i princip "Jag är inte en expert på GPU, men sluta prata om tekniken som att ni vet något för ni vill bara visa eran kunskap när ni i själva verket går på högstadiet."

*dagisnivå

Visa signatur

Ryzen 3700x, ASUS PRIME X370-PRO, 32GB ram, RTX 2080, Acer XN253Q 240Hz, MSI G241 IPS 1080p 144Hz, Varmilo VA88M (MX Brown), Cooler Master MM710.

Permalänk
Avstängd

Har länge sagt att larrabee kommer bli något ruggigt vasst

Nej, är ingen Intel-fanboy.. aldrig ägt en Intel.

Visa signatur

Knowledge is not achieved until shared.

Permalänk
Medlem

Tror inte larrabee direkt lämpar sig för samma typ av renderingsmetoder som amd och nvidias kort är anpassade för. Tror den riktiga vinsten med en arkitektur som larrabee är att man kan ta ett steg närmre att utföra raytracing, och liknande tekniker, i realtid.

Men vad vet jag.. Vi kan väl fortsätta kriga om huruvida än p4 var varm eller ej, det är ju trots allt relevant för artikeln, right? Right?