Intel visar grafikkortsprototyp

Trädvy Permalänk
Inhibitor
Registrerad
Dec 1999

Intel visar grafikkortsprototyp

Att Intel har siktet inställt på bättre grafiklösningar är känt sedan tidigare och under ISSCC visar bolaget en prototyp, som övergripande illustrerar hur en framtida lösning kan se ut.

Läs hela artikeln här

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa leder till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Trädvy Permalänk
Medlem
Plats
Ryssby
Registrerad
Jul 2015

Billigare grafikkort åt folket!!!!!

Mvh

Skickades från m.sweclockers.com

CPU: I7 6700K, GPU: Msi 980 ti Gaming Golden edition, MOBO: Msi Z170 Pro Carbon, RAM: 16GB Corsair Vengeance 3000MHz, Nätdel: Evga Gold 650W, Lagring: SSD 240GB, HDD 1TB.

Trädvy Permalänk
Medlem
Plats
Staden
Registrerad
Aug 2007

Har AMD och Nvidia patent på sina lösningar så att Intel måste komma på något helt nytt eller? Annars förstår jag inte varför de inte bara gör samma sak som någon av de andra.

Trädvy Permalänk
Medlem
Plats
Sthlm
Registrerad
Jul 2001

Lite extra konkurrens på den här marknaden behövs garanterat, hoppas intel använder sitt kapital väl så vi kanske har 3 aktörer värt namnet om ett par år.

Saknar lite tiden på 90-talet när det fanns mer roliga, om än inte alltid kanske skitbra alternativ.

as it was in the beginning so it shall be in the end

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Jul 2016

Om några år så kommer vi ha massa GPU över men då har vi inga CPU då alla miningar.

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow
Om mig ----> #16970666

Trädvy Permalänk
Medlem
Plats
Skåne, nordväst
Registrerad
Feb 2002

Köp AMDs grafikkortsavdelning istället
Kapital borde väl inte vara någon begränsning.

Trädvy Permalänk
Medlem
Plats
Partille
Registrerad
Jul 2008
Skrivet av Hellowiener:

Har AMD och Nvidia patent på sina lösningar så att Intel måste komma på något helt nytt eller? Annars förstår jag inte varför de inte bara gör samma sak som någon av de andra.

Ingen aning kring patent och sånt, men Intel kanske inte tycker att nVidias och AMDs lösningar är bra nog helt enkelt?

» AMD Ryzen 5 1500X » 16 Gb DDR4 » ASUS GTX 1060 6 Gb OC » 256 Gb M.2 PCIe
Fraktfritt från Inet för Sweclockersmedlemmar
Vänligen citera om du pratar med mig

Trädvy Permalänk
Medlem
Plats
Nacka
Registrerad
Sep 2013

Intel får bygga core+vega > Intel visar dedikerade kort

Inc shitstorm om något år?

4930k | R9 290 CF | Gskill Ares 2133MHz 16GB | Asrock x79 Extreme4-m | Corsair AX1200i | Parvum s2.0 Extended | EK Supremacy EVO | EK-FC Original CSQ Nickel | 360+240 | EK D5+EK-D5 X-RES 140
Bygglogg: Chandra | by lowngcawt
Galleri: Aether | Chandra

-=CITERA FÖR SVAR=-

Trädvy Permalänk
Medlem
Plats
Youtube
Registrerad
Okt 2009

RGB-grafik om några år då.

Ryzen 1800x,32GB@2400MHz, Vega56
Citroën C5 Break 2006 @140
Shirimasen

Trädvy Permalänk
Medlem
Registrerad
Apr 2011
Skrivet av Klonk97:

Billigare grafikkort åt folket!!!!!

Mvh

Skickades från m.sweclockers.com

"Det handlar om en förhållandevis liten krets på 64 mm2 [...]"

Billigt kommer det säkert vara men vad ska folket ha det till?

Trädvy Permalänk
Datavetare
Plats
Stockholm
Registrerad
Jun 2011
Skrivet av Hellowiener:

Har AMD och Nvidia patent på sina lösningar så att Intel måste komma på något helt nytt eller? Annars förstår jag inte varför de inte bara gör samma sak som någon av de andra.

Från designen att döma verkar detta mer ett beräkningskort än ett regelrätt grafikkort. Det optimala för ett beräkningskort är inte riktigt samma sak som det optimala för en GPU för spel och liknande. Vi ser ju tecken på att Nvidia går två separata spår, ett för traditionella GPUer och ett för rena beräkningskort.

Om det nu handlar om rena beräkningskort har faktiskt Intel en del intressant teknik i deras HD graphics design. På hög nivå ser detta som en uppskalad HD graphics krets.

T.ex. har HD-graphics fler möjligheter att utnyttja existerande beräkningsenheter än både Nvidia och AMDs GPUer.

AMDs GCN förlitar sig helt på att kunna köra väldigt många "trådar" per cykel (64 st per CU), dock finns ingen möjlighet för en enskild wavefront att köra mer än en instruktion per cykel.

Nvidia kör med en bredd på 32 st "trådar", dock kan endera två "warps" (32 trådar som alla kör samma instruktion) köra per cykel alt. så kan en enskild warp köra två instruktioner.

Intel har dels möjlighet att variera bredden på sin "wavefront/warp", allt från 1 till 32 i steg om tvåpotenser.

något som även AMD planerade lägg in i Vega, men det verkar ha försvunnit

Vidare kan varje EU köra upp till fyra instruktioner per cykel, dessa kan komma från en till fyra separata "warp/wavefront" (edit: lite lurig med nomenklatur här, Intel säger "trådar" om det Nvidia kalla warp och AMD wavefront). Nu har HD graphics väldigt lite råkraft (framförallt har man väldigt liten storlek på cache jämfört med Nvidia/AMD vilket nog ställer till det i spel), men designen är väldigt "robust" och man kommer nära teoretisk max i fler fall vid GPGPU jämfört med Nvidias/AMDs GPUer.

Och för den som undrar. Nej, variabel "wavefront/warp" är absolut ingen fördel för mining.

Det skrivet: rimligen jobbar man även på en "riktigt" GPU givet att man anställde Raj Kaduri.

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Trädvy Permalänk
Medlem
Registrerad
Okt 2016
Skrivet av Hellowiener:

Har AMD och Nvidia patent på sina lösningar så att Intel måste komma på något helt nytt eller? Annars förstår jag inte varför de inte bara gör samma sak som någon av de andra.

Jepp, de har patent. Väldigt många patent, och det är väldigt svårt att utveckla en ny GPU som stöder DirectX utan att inkräkta på något av dem. nVidia stämde Intel angående detta för några år sen, och eftersom de har trollat en del sedan dess också (nVidia och Samsung var i luven på varandra nyligen, tror att Samsung vann den bataljen) måste Intel vara försiktiga. Lösningen verkar vara att de har licensierat massor av AMDs patent i samband med den vanliga korslicensieringen av x86, men de måste ändå utveckla något nytt som använder dem.

Trädvy Permalänk
Medlem
Plats
Sthlm
Registrerad
Jul 2001
Skrivet av mpat:

Jepp, de har patent. Väldigt många patent, och det är väldigt svårt att utveckla en ny GPU som stöder DirectX utan att inkräkta på något av dem. nVidia stämde Intel angående detta för några år sen, och eftersom de har trollat en del sedan dess också (nVidia och Samsung var i luven på varandra nyligen, tror att Samsung vann den bataljen) måste Intel vara försiktiga. Lösningen verkar vara att de har licensierat massor av AMDs patent i samband med den vanliga korslicensieringen av x86, men de måste ändå utveckla något nytt som använder dem.

Fast intel och nvidia gick väl och korslicenserade en hiskelig massa grejer för ett antal år sen, så om den dealen fortfarande gäller så är de betydligt mer safe misstänker jag

as it was in the beginning so it shall be in the end

Trädvy Permalänk
Medlem
Registrerad
Nov 2011
Skrivet av Durkadur:

"Det handlar om en förhållandevis liten krets på 64 mm2 [...]"

Billigt kommer det säkert vara men vad ska folket ha det till?

Det är en prototyp för att utvärdera utmaningarna med att ta deras arkitektur till riktiga grafikkort, samt få upp frekvenserna. Inget som ska säljas.

Trädvy Permalänk
Medlem
Plats
Götet
Registrerad
Okt 2013

Hur mycket påverkan har egentlingen Raji på själva arkitekturen? Jag menar, han är anställd att driva projektet. Tror knappast han har tid över för tekniska frågor utan han kommer vara upptagen 60h per vecka med budgetmöten som alla andra ledare högt upp.

Visst, produktionstekniska detaljer kan han säkert en del om, men där har ju Intel redan grym kompetens.

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Trädvy Permalänk
Medlem
Plats
Uppsala
Registrerad
Aug 2015
Skrivet av Hellowiener:

Har AMD och Nvidia patent på sina lösningar så att Intel måste komma på något helt nytt eller? Annars förstår jag inte varför de inte bara gör samma sak som någon av de andra.

Är ju inte riktigt så att AMD och Nvidia sitter på varsin lösning och bara pumpar ut fetare grafikkort dock, allting utvecklas

PC #1 CPU: R5 1600 @3.8 Motherboard: B350-A PRIME GPU: EVGA 1080 Ti
PC #2 CPU: i7 5820K @4.2 Motherboard: GA-X99-UD4 GPU: ASUS 1070 Strix
HTPC #3 CPU: R5 1600 @3.6 Motherboard: B350m-A GPU: 1080 Sea Hawk X

Trädvy Permalänk
Medlem
Plats
Linköping
Registrerad
Mar 2006

Andra försöket gillt?
Gick ju inte så bra förra gången Intel försökte släppa ett dedikerat grafikkort.
Men det är dock inget annat än positiva nyheter. Mer konkurrens är bara bra.

┻━┻ ︵ ヽ(°□°ヽ)
(╯°□°)╯︵ ┻━┻
┻━┻ ︵ \( °□° )/ ︵ ┻━┻

Trädvy Permalänk
Medlem
Registrerad
Okt 2016
Skrivet av nidas:

Fast intel och nvidia gick väl och korslicenserade en hiskelig massa grejer för ett antal år sen, så om den dealen fortfarande gäller så är de betydligt mer safe misstänker jag

Det var inte mycket till en korslicensiering, Intel betalade mest en massa pengar - 1.5 miljarder dollar. nVidia ville licensiera x86, men Intel vägrade blankt (och nVidia fick göra om Denver till ARM som ett resultat). Intel släppte iväg några patent, samt fortsatt licens till den gamla FSB-arkitekturen, men behöll x86 och DMI.

https://www.anandtech.com/show/4122/intel-settles-with-nvidia...

Den dealen har löpt ut:

https://www.fudzilla.com/news/graphics/42815-intel-s-nvidia-g...

Intel ersatte den med en licens av AMDs grafik-patent.

Trädvy Permalänk
Medlem
Plats
Ryssby
Registrerad
Jul 2015
Skrivet av Durkadur:

"Det handlar om en förhållandevis liten krets på 64 mm2 [...]"

Billigt kommer det säkert vara men vad ska folket ha det till?

Tänkte mer att konkurrens kommer göra alla kort billigare. Så slipper man den här skiten med överprisade grafikkort.

Mvh

Skickades från m.sweclockers.com

CPU: I7 6700K, GPU: Msi 980 ti Gaming Golden edition, MOBO: Msi Z170 Pro Carbon, RAM: 16GB Corsair Vengeance 3000MHz, Nätdel: Evga Gold 650W, Lagring: SSD 240GB, HDD 1TB.

Trädvy Permalänk
Medlem
Plats
Staden
Registrerad
Aug 2007
Skrivet av Bloodstainer:

Är ju inte riktigt så att AMD och Nvidia sitter på varsin lösning och bara pumpar ut fetare grafikkort dock, allting utvecklas

Jo men frågan är varför det tar sån ryslig tid för intel. Deras ingenjörer lär ju veta exakt hur AMDs och Nvidias grafikkort fungerar samt ha tillgång till mer pengar.

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Dec 2008
Skrivet av apamedvapen:

Andra försöket gillt?
Gick ju inte så bra förra gången Intel försökte släppa ett dedikerat grafikkort.
Men det är dock inget annat än positiva nyheter. Mer konkurrens är bara bra.

Har för mig att det var snack om att dom låg 10 år efter när det gäller grafikkort. I såfall, så följer dom ju bara planeringen. ¨\_=)_/¨

"Dustybridge" 2500K - 32GB RAM - Tac2 - GTX770 - 120hz - vattenkylning - vad mer behöver man veta? ;)

Trädvy Permalänk
Medlem
Plats
Flen
Registrerad
Jul 2001

Patent är ett icke-problem, det är fritt fram för de här då Intel har patent att försvara sig med för alla inkräktar ändå på Intels grafik och processor-patent (och vise versa) redan. Patent handlar inte om uppfinningar och det är ovanligt att någon verkligen får ensamrätt på ett teknikområde som detta, när det blir bråk brukar det antingen lösas genom korslicensavtal eller att patenten de bråkar om upphävs eller inte anses inkräktade. Intel Gen-graphics finns för den delen redan på marknaden och lär knappast göra större skada på andras patent för att det kommer komma på ett diskret kort. IPR är minsta problemet.

De har säkert jobbat på en ny arkitektur ett tag redan, men det tar ett antal år för att nå dit, att de skulle bygga vidare på Gen/HD-Graphics hade de redan annonserat och det är ju bara positivt att de inte dödar det utan kan jobba med fler spår samtidigt. De har ju redan det misslyckade Larrabee-projektet bakom sig, så de har säkert lärt sig en hel del.

Trädvy Permalänk
Medlem
Plats
Sikfors
Registrerad
Feb 2007

@mpat: Patent spelar enorm roll. Till exempel: Intel, AMD och Nvidia alla måste betala för alla deras kretsar i dagsläget till S3 (Tror SiS äger dem fortfarande som ett dotterbolag) eftersom de har ett grundpatent på texturkompression som vore otroligt om inte näst intill omöjligt att komma runt i USA, EU och alla andra länder som erkänner mjukvarupatent. (Altså alla utom Norkorea, Nya Zeeland, Mongoliet, Burma, Zimbabwe och Sydsudan.)

Trädvy Permalänk
Medlem
Plats
Flen
Registrerad
Jul 2001

S3TC-patenten har gått ut, dessutom gick de att gå runt.

Mjukvarupatent är inte samma sak som patent som täcker programvara för övrigt.

Transmeta implementerade sin binäröversättning av x86 utan att ingå i några avtal med Intel. Tror folk drar lite för stora slutsatser här, när det gäller IPR-området. Med patent handlar det mest om att ha patent att försvara sig med, inte om att licensiera ut sin teknik.

Trädvy Permalänk
Medlem
Registrerad
Nov 2010
Skrivet av apamedvapen:

Andra försöket gillt?

Tredje i så fall. De hade Intel740 på 90-talet.

NO MAAM

Trädvy Permalänk
Medlem
Registrerad
Okt 2016
Skrivet av kemuffkamelen:

@mpat: Patent spelar enorm roll.

Jag håller med. Svarade du till rätt person nu?

Skickades från m.sweclockers.com

Trädvy Permalänk
Medlem
Registrerad
Apr 2011
Skrivet av Klonk97:

Tänkte mer att konkurrens kommer göra alla kort billigare. Så slipper man den här skiten med överprisade grafikkort.

Mvh

Skickades från m.sweclockers.com

Jag tror din optimism är felplacerad. Intel torde inte vara speciellt intresserad av att göra grafikkort för gamers. Om något är de intresserade av att inte halka efter inom områden som AI och Deep Learning. Det kommer knappast göra skillnad för prisnivåer på konsumentkort. Det enda som kommer hjälpa i närtid är utökad produktion från Nvidia och AMD eller att folk helt plötsligt slutar gräva.

Om inte annat lär grävandet avta nån gång runt 2032 när omkring 99% av alla Bitcoins kommer att vara utgrävda

Trädvy Permalänk
Medlem
Plats
Uppsala
Registrerad
Aug 2015
Skrivet av Hellowiener:

Jo men frågan är varför det tar sån ryslig tid för intel. Deras ingenjörer lär ju veta exakt hur AMDs och Nvidias grafikkort fungerar samt ha tillgång till mer pengar.

Fram tills några år sedan var ju GPU väldigt specificerat. Det var ju vid 2014-2016 som det började hända saker.

Innan 2014 var GPUer använda för:

* Gaming

* 3D modellering och CAD

* Vissa typer av beräkningar

Och Nvidia hade en rejäl marknadsandel för de här delarna och att slå sig in på dom vore nästan omöjligt. På bara 3-4 år nu har Cryptovalutor samt AI växt fram som rejäla nya marknader och med tanke på att alla förvänta sig att Crypto-bubblan skulle spricka för 3-4 månader sedan och vi tagit oss igenom Januarikrisen så verkar det här mer stabilt än när Bitcoin kraschade. Dvs Kryptovalutor och AI kommer nog båda två växa, och i och med att de marknaderna fortfarande har brist på hårdvara så ser Intel en chans att slå sig in, antagligen tills dess att RAM priserna har stabiliserats.

PC #1 CPU: R5 1600 @3.8 Motherboard: B350-A PRIME GPU: EVGA 1080 Ti
PC #2 CPU: i7 5820K @4.2 Motherboard: GA-X99-UD4 GPU: ASUS 1070 Strix
HTPC #3 CPU: R5 1600 @3.6 Motherboard: B350m-A GPU: 1080 Sea Hawk X

Trädvy Permalänk
Medlem
Registrerad
Nov 2013

Intel: - Vi söker en ny medarbetare för att utveckla vår nya grafikkrets, helst ska den ligga en generation efter och ha dubbel effektförbrukning jämfört med våra konkurrenter.
Raja: - Hold my beer!

Skickades från m.sweclockers.com

__________________
i5-4690K @ 4.5GHz | Gigabyte Z97X Gaming 3 | Crucial BallistixSport 16GB 1600MHz | HyperX Fury 240GB SSD | Crucial MX100 512GB SSD | EVGA GTX 970 SC ACX 2.0 4GB | EVGA Supernova G2 750W | Hyper Evo 212 | Windows 10 x64 Pro