Intel adderar extra grafikminne i Haswell

Permalänk
Melding Plague

Intel adderar extra grafikminne i Haswell

Medan världen väntar på Ivy Bridge arbetar Intels ingenjörer på nästa generation, känd under kodnamnet Haswell, där en av huvudingredienserna är nytt minne till grafikprocessorn.

Läs artikeln

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk

suck, och återigen läggs krutet på att uppdatera en ointressant integrerad grafikdel...

Permalänk
Medlem

Haswell
DDR4
Thunderbolt

Visa signatur

Asus P7H57D-V EVO...... 80GB 2.5" SSD Intel X25-M G2 SATA.....OCZ 4GB (2x2048MB) Obsidian XTC 1600MHz.....Intel Core i3 530, 2.93GHz.....Windows 7 Home Premium Svensk Retail...

Permalänk
Avstängd
Skrivet av lanbonden:

suck, och återigen läggs krutet på att uppdatera en ointressant integrerad grafikdel...

För majoriteten av Intels kunder, OEM tillverkare så är den integrerade grafikdelen långt ifrån ointressant.

Permalänk
Skrivet av Morkul:

För majoriteten av Intels kunder, OEM tillverkare så är den integrerade grafikdelen långt ifrån ointressant.

Jag vet, men för majoriteten av oss entusiaster är den lika intressant som vem som vinner melodifestivalen.

Känns som min 2600k kommer bli processorn jag haft som kommer hålla längst med tanke på var utvecklingskrutet ligger.

Permalänk
Medlem

Jag kommer aldrig lyckas köpa en laptop om något bättre alltid vilar runt hörnet >.< cruel IT-world.

Tycker den integrerade grafiken är intressant när man kollar på laptops, dock leder ju AMD stort på den fronten.

Permalänk
Avstängd
Skrivet av lanbonden:

Jag vet, men för majoriteten av oss entusiaster är den lika intressant som vem som vinner melodifestivalen.

Känns som min 2600k kommer bli processorn jag haft som kommer hålla längst med tanke på var utvecklingskrutet ligger.

Ska man skylla på någon i det fallet så är det mjukvaruutvecklarna. Som det är idag så är det inte många program/spel som belastar CPUn speciellt mycket vilket gör att behovet för att uppgradera inte känns så stort. Skulle däremot utvecklarna se till att CPUn börjar maxbelastas allt mer så skulle viljan att uppdatera vara högre och där med skulle Intel kunna tjäna mer pengar på att utveckla CPU delen mer.

Allting handlar i slutändan om hur Intel kan tjäna mest pengar, precis som alla andra företag tänker alltså.

Permalänk
Legendarisk

*Tråd rensad från memes, off-topic och §1.6 i allmänhet.*

Visa signatur

Abstractions all the way down.

Permalänk
Medlem
Skrivet av lanbonden:

Jag vet, men för majoriteten av oss entusiaster är den lika intressant som vem som vinner melodifestivalen.

Känns som min 2600k kommer bli processorn jag haft som kommer hålla längst med tanke på var utvecklingskrutet ligger.

Jag tycker faktiskt delvis om utvecklingen här, en strömsnål men någorlunda kompetent grafikdel i processorn som kan möjliggöra att det diskreta grafikkortet stängs av i den vanliga windows/surfmiljön, eller helt ersätta det diskreta grafikkortet i t.ex. HTPC-applikationer.

Visa signatur

Quad-quad core med kvävekylning och kokvattenreaktor.

Permalänk
Medlem
Skrivet av lanbonden:

Jag vet, men för majoriteten av oss entusiaster är den lika intressant som vem som vinner melodifestivalen.

Det är intressant för mig. Grafikprocessorn alltså, inte vem som vinner melodifestivalen.

...tror du sätter likhetstecken mellan datorentusiast och spelentusiast.

Visa signatur

CPU: Ryzen 5 1600 GPU: Asus GeForce GTX 1060 6GB DUAL Moderkort: MSI B350M Mortar
RAM: 16GB Corsair Vengeance DDR4 3200MHz PSU: Corsair RM750X
Laptop: ThinkPad T480s, Core i7 8550U, 16GB RAM Mobil: Samsung Galaxy S10

Permalänk
Medlem

Hur är det nu med den här funktionen, om man har t.ex ett GTX 580 och ett moderkort/processor som har inbyggt grafikkort (dvs HDMI-utgång på moderkortet), kan man ställa in så att GTX'en bara går igång när man spelar? Och hur funkar kopplingen isåfall, måste man koppla skärmen till GTX'et eller moderkortet?

Permalänk
Medlem
Skrivet av aniron:

Jag tycker faktiskt delvis om utvecklingen här, en strömsnål men någorlunda kompetent grafikdel i processorn som kan möjliggöra att det diskreta grafikkortet stängs av i den vanliga windows/surfmiljön, eller helt ersätta det diskreta grafikkortet i t.ex. HTPC-applikationer.

Som med Fusion?

Permalänk
Medlem
Skrivet av Lasse Laserman:

Det är intressant för mig. Grafikprocessorn alltså, inte vem som vinner melodifestivalen.

...tror du sätter likhetstecken mellan datorentusiast och spelentusiast.

Precis, en spelentusiast behöver 60-120 fps. En datorentusiast vill ha throughput gissar jag.
Integrerad grafik är strömsnålare och billigare eftersom den är på samma die. Jag väljer lätt en i5 med 2-4 trådar för spel, det räcker väl. En sandy-e eller annan i7 för annat.
Det är därför ivy bridge kommer vara mest intressant för notebooks. Och vad det gäller entusiastmodeller av haswell utan igp så kommer dom nog. Det är för tidigt att säga nej ännu.

Visa signatur

No man is free who is not master of himself

Permalänk
Medlem

Undra hur detta påverkar oss som inte vill ha integrerad grafik?

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Datavetare
Skrivet av Orici:

Undra hur detta påverkar oss som inte vill ha integrerad grafik?

Antagligen inte alls. Men för oss som faktiskt använder GPUn i Intels CPU:er (ja, det duger hur bra som helst för mig på laptop samt på jobbdatorn) så är detta positivt då GPU i Sandy/Ivy Bridge kan använda L3-cachen som cache, något som rent teoretiskt kan påverka CPUn negativt i lägen där både GPU och CPU är hårt belastande (i.o.f.s. rätt ovanligt på de system där Intel GPU räcker).

En annan fördel är att GPUn som sitter integrerad med CPUn delar bandbredd mot RAM och en GPU tenderar att vilja ha MASSOR med bandbredd mot RAM. Finns flera site:er som jämfört Llano med motsvarande GPU med separat GPU minne och man inser att GPUn i Llano skulle i många fall kunna prestera ganska mycket bättre om den hade haft bättre bandbredd mot RAM. Så det man nu gör för Haswell får vi hoppas dyker upp även på AMDs APU:er.

Men det absolut mest intressanta med Haswell är knappast extra GPU-minne. Det är att det nu är officiellt att den får s.k. transactional memory, något som definitivt gör det lättare att skriva program som effektivt kan utnyttja många CPU-trådar.

http://arstechnica.com/business/news/2012/02/transactional-memory-going-mainstream-with-intel-haswell.ars
http://realworldtech.com/page.cfm?ArticleID=RWT021512050738

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av Biberu:

*Tråd rensad från memes, off-topic och §1.6 i allmänhet.*

Låt mig gissa, AMD core meme bilder.

Kirara~

Min uppgradering ligger nog på Ivy så man slipper Marvell 9128, så jag äntligen kan använda mig av SATA3 på riktigt för min SSD som jag haft sedan Winter DH gör inte mycket nytta oinkopplad :/

Visa signatur

CPU i9-9900K GPU ASUS RTX 2080 TI Strix OC MB ASUS STRIX Z390-E RAM Corsair VENGEANCE RGB 32GB DDR4 3200MHz Case Fractal Design Define C PSU EVGA G3 850W Cooling Noctua D15
Monitor MSI Optix MAG342CQR SSD Samsung 970 EVO 500GB 860 EVO 500GB 860 QVO 2TB + QVO 4TB PLEX Server 2x HC560 20TB+WD RED 2x10TB+12TB

Permalänk

Det här borde verkligen vara en funktion som många vill ha men det finns ganska lite info om det. Det finns program som gör det möjligt att växla mellan gpu'erna men det medför vissa försämringar om jag förstått det rätt. Det nämndes också i en fredagspanel för några månader sedan tror jag. Någon som vet?

Skrivet av FL3JM:

Hur är det nu med den här funktionen, om man har t.ex ett GTX 580 och ett moderkort/processor som har inbyggt grafikkort (dvs HDMI-utgång på moderkortet), kan man ställa in så att GTX'en bara går igång när man spelar? Och hur funkar kopplingen isåfall, måste man koppla skärmen till GTX'et eller moderkortet?

Permalänk
Avstängd

Står att den har OpenGL 3.2+

Synd att det inte är OpenGL 4.2.

Men förhoppningvis kanske det blir OpenGL 3.3?