Nvidia låter TSMC tillverka kretsar i 20 nanometer

Permalänk
Medlem
Skrivet av thereal_twisted:

Så 700 blir kepler refresh eller vad det var?

Nu har dom ju kört samma i två generationer, brukar va dags att byta då.

400 och 500 var Fermi, 600 och 700 är Kepler.

Visa signatur

Processor: AMD FX-8350 Grafikkort: AMD Radeon 290 Primärminne: 16 GB Corsair Vengeance Sekundärminne: 1x1TB WD Black 7200RPM, 4x2TB WD Green 5400 RPM

Permalänk
Skrivet av Coldfire2143:

400 och 500 var Fermi, 600 och 700 är Kepler.

Givetvis.. det visste jag ju eg. lol

Permalänk
Quizmaster Malmö 22

Bra det går framåt. Undrar ibland varför Nvidia inte köper en fabrik. Tippar på att det inte skulle löna sig :/

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Skrivet av Campaigner:

Bra det går framåt. Undrar ibland varför Nvidia inte köper en fabrik. Tippar på att det inte skulle löna sig :/

Hehe, köper en fabrik.

På blocket eller? Det är rätt avancerade prylar, och det kostar enorma summor att bygga upp allt helt nytt från grunden.

Permalänk
Medlem
Skrivet av tvelander:

Kör inte vattenkylda 680 nej alla är referens. och power är att bara sätta på Max. jag har adaptive hela tiden har inga problem mina klockar inte ner sig.

Du kan ställa in i Nvidia inspecter att den alltid ska gå i turbo.

Oj? Hur tacklas du med värmen? SLI gör ju korten varmare då de sitter klämda mot varandra.

Okej, nu har jag inte kört adaptive på ett tag men nyare drivrutiner kanske är smartare än dåvarande och inte klockar ned korten i onödan.

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Master of Overkill
Skrivet av Mocka:

Oj? Hur tacklas du med värmen? SLI gör ju korten varmare då de sitter klämda mot varandra.

Okej, nu har jag inte kört adaptive på ett tag men nyare drivrutiner kanske är smartare än dåvarande och inte klockar ned korten i onödan.

Ja översta kortet är på 88c i BF3 går i 99% GPU sen mittersta kortert runt 91c 99% GPU BF3 nedersta runt 75c BF3 80-99% GPU beroende på clock på CPUn.

Ställer bara in i Nvidia inspector så klockar dom alldrig ner sig.

Värmen är inget problem för korten.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av tvelander:

Ja översta kortet är på 88c i BF3 går i 99% GPU sen mittersta kortert runt 91c 99% GPU BF3 nedersta runt 75c BF3 80-99% GPU beroende på clock på CPUn.

Ställer bara in i Nvidia inspector så klockar dom alldrig ner sig.

Värmen är inget problem för korten.

Oj det var varmt Antar att du kör hörlurar så du slipper höra vrålet från fläktarna?

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem
Skrivet av thereal_twisted:

Hehe, köper en fabrik.

På blocket eller? Det är rätt avancerade prylar, och det kostar enorma summor att bygga upp allt helt nytt från grunden.

Lämpligt utrustade fabs är inte till salu. IBM, Samsung och GLOBALFOUNDRIES (Ja deras officiella namn är CAPS) delar teknik och plattform, maskiner osv så man designar mot samma process (och således samma verktyg/bibliotek man använder) på halvledarsidan. I dagsläget har inte jättar som AMD, Qualcomm, Broadcom, Marvell, LSI, PMC-Sierra och gänget egna fabriker utan de är är sk fabless manufacturers och tillverkar allt på kontrakt ute hos kontrakttillverkare (foundries). GloFo köpte också omgående upp CSM som var en annan Common Platform-medlem. Sen vill man inte direkt köpa de Japanska halvledaranläggningarna. Det är såklart en mycket specialiserad bransch.

Nvidia har knappt fler arbetare än vad som krävs för att driva en större halvledarfabrik. De största kontrakttillverkarna alltså fabs i branschen har själva mer eget folk, halvledardesigner osv än Nvidia har anställda totalt. De har ingen anledning att bygga anläggningar för flera miljarder dollar eller anställda ett par tusen för att driva en modern fab. Det är så stora risker och de är inget industrikonglomerat av gamla Europeiska, Japanska eller Koreanska mått. Vilket är en smått förlegad modell som kräver mycket mer diversifierad verksamhet. Företag tenderar att specialisera sig. Halvledarutvecklare idag tenderar inte att skaffa sig tillverkning, de vill ju bara utveckla sin produkt/idé. Hade Nvidia valt att designa för "Common platform" hade de kunnat flytta mellan Samsung, IBM och Globalfoundries rätt smärtfritt då det delar så mycket teknik och "plattform". Designar man för TSMC så är det TSMC som gäller. Nvidia har tidigare använt sig av bland annat IBM, bland annat under en period när de hade problem med massor DOA-kort. Common platform hade i praktiken betytt att de kan välja mellan upp till 6 olika fabs. Bland annat samma IBM-anläggning som de använt en gång tidigare, men det verkar det inte ha blivit nu. Andra alternativ hade t ex varit Fujitsu. Eller Taiwanesiska konkurrenten UMC, som bland annat ATI använde en gång i tiden. TSMC råkar vara ganska bleeding edge så.

Alternativ finns det och många av deras konkurrenter verkar sourca ganska brett numera. Nvidia tror jag dock håller kvar vid TSMC ett tag till bland GPU och SoCs.

Permalänk
Entusiast
Skrivet av Petterk:

Lämpligt utrustade fabs är inte till salu. IBM, Samsung och GLOBALFOUNDRIES (Ja deras officiella namn är CAPS) delar teknik och plattform, maskiner osv så man designar mot samma process (och således samma verktyg/bibliotek man använder) på halvledarsidan. I dagsläget har inte jättar som AMD, Qualcomm, Broadcom, Marvell, LSI, PMC-Sierra och gänget egna fabriker utan de är är sk fabless manufacturers och tillverkar allt på kontrakt ute hos kontrakttillverkare (foundries). GloFo köpte också omgående upp CSM som var en annan Common Platform-medlem. Sen vill man inte direkt köpa de Japanska halvledaranläggningarna. Det är såklart en mycket specialiserad bransch.

Nvidia har knappt fler arbetare än vad som krävs för att driva en större halvledarfabrik. De största kontrakttillverkarna alltså fabs i branschen har själva mer eget folk, halvledardesigner osv än Nvidia har anställda totalt. De har ingen anledning att bygga anläggningar för flera miljarder dollar eller anställda ett par tusen för att driva en modern fab. Det är så stora risker och de är inget industrikonglomerat av gamla Europeiska, Japanska eller Koreanska mått. Vilket är en smått förlegad modell som kräver mycket mer diversifierad verksamhet. Företag tenderar att specialisera sig. Halvledarutvecklare idag tenderar inte att skaffa sig tillverkning, de vill ju bara utveckla sin produkt/idé. Hade Nvidia valt att designa för "Common platform" hade de kunnat flytta mellan Samsung, IBM och Globalfoundries rätt smärtfritt då det delar så mycket teknik och "plattform". Designar man för TSMC så är det TSMC som gäller. Nvidia har tidigare använt sig av bland annat IBM, bland annat under en period när de hade problem med massor DOA-kort. Common platform hade i praktiken betytt att de kan välja mellan upp till 6 olika fabs. Bland annat samma IBM-anläggning som de använt en gång tidigare, men det verkar det inte ha blivit nu. Andra alternativ hade t ex varit Fujitsu. Eller Taiwanesiska konkurrenten UMC, som bland annat ATI använde en gång i tiden. TSMC råkar vara ganska bleeding edge så.

Alternativ finns det och många av deras konkurrenter verkar sourca ganska brett numera. Nvidia tror jag dock håller kvar vid TSMC ett tag till bland GPU och SoCs.

Bör väl även nämnas att det är rätt få fabriker i världen som är nere på tillverkning i 20 nm-klassen vilket stryper tillgången rätt mycket mer. Jag skulle till exempel inte bli ett dugg förvånad om avsaknaden av Ivy Bridge-E beror på att Intel de saknar produktionskapacitet. Det är dock bara spekulationer från min sida.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Master of Overkill
Skrivet av Mocka:

Oj det var varmt Antar att du kör hörlurar så du slipper höra vrålet från fläktarna?

Ja så klart spelar ju inte utan ljud lol

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av tvelander:

Ja så klart spelar ju inte utan ljud lol

Själv har jag kört högtalare tills för inte så längesedan
Och då hörs bakgrundsljud högre än med lurar.

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Master of Overkill
Skrivet av Mocka:

Själv har jag kört högtalare tills för inte så längesedan
Och då hörs bakgrundsljud högre än med lurar.

Jag kan inte använda högtalare ändå det låter i hela huset har ett gammalt hus så, just nu får jag spela med hörlurar då 99% av tiden e alltid någon hemma så får bli när man flyttar hemifrån.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av tvelander:

Jag kan inte använda högtalare ändå det låter i hela huset har ett gammalt hus så, just nu får jag spela med hörlurar då 99% av tiden e alltid någon hemma så får bli när man flyttar hemifrån.

Tycker faktiskt det låter bättre med lurar. Fast det hade vart skönt att ha 5.1 lurar så det kan användas i spel. Dock skriver folk att USB korten som 5.1 lurar kommer med är kassa. Har testat att simulera 7.1 ljud via mitt ljudkort men det blir inte speciellt bra tyvärr.

Nåja, vi är sjukt OT nu

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem
Skrivet av Zotamedu:

Bör väl även nämnas att det är rätt få fabriker i världen som är nere på tillverkning i 20 nm-klassen vilket stryper tillgången rätt mycket mer. Jag skulle till exempel inte bli ett dugg förvånad om avsaknaden av Ivy Bridge-E beror på att Intel de saknar produktionskapacitet. Det är dock bara spekulationer från min sida.

Precis min poäng. De som har öppet för foundryverksamhet och ligger på avancerade processer är få. Några Japanska som sagt något om 20 nm vet jag faktiskt inte t ex. Chartered och AMD (Dresden, och planerade smått påbörjade anläggningen i Malta, NY) är egentligen de enda avancerade foundry-orienterade anläggningarna som sålts de senaste åren.

Det hade nog varit möjligt att köpa någon av de japanska anläggningarna under de föregående åren t o m avancerade anläggningar med modern process och på modern nod/storlek eller bli delägare. Många Japanska bolag vill lämna att vara tillverkare, ekonomin är inget vidare så de accepterar kapitaltillskott i mängder branscher de genomgår fortfarande en kris som aldrig slutar, men sen ska man tänka på att t ex minnestillverkare som många av dem är kanske inte är bäst lämpade för att tillverka SoCs och GPUer. Sen kan det bli konstigt om man ska ha fler folk att driva en modern anläggning med forskning och utveckling för verksamheten än de har folk som utvecklar sitt huvudnummer – grafikprocessorer. Japan kanske behöver belåna sig mindre vid sådana affärer, men Nvidia hade behövt låna massvis och sätta hela sitt företag i risk. Nu har de ändå inte fått några nya partners i Japan för halvledartillverkning så de behåller nog sina fabs så länge de kan uppgradera dem.

Under här som blir på tok för långt inlägg så rantas det om Ivy-E.

Vad det gäller Ivy Bridge-E är jag övertygad om att de har kapacitet, det handlar om så få chip. Fast att lägga ner arbetet med nytt chipset (behövs vid det här laget för att göra det rätta) och ny processor/design/anpassning vid det här laget bara för att kunna överklocka en >4-kärnig processor känns inte helt rätt. Workstationanvändare kan köra ett par åtta kärnig Xeon under tiden. Det hela handlar bara om en small marknad entusiaster här. De behöver ju ingen skrytplattform för klockarna just nu tyvärr kanske. Hade de släppt det så hade det nog inte kommit nu. Trotts att det bara var ett år sedan X79 och Sandy Bridge-E kom ut, så ser t ex chipset lite utdaterat ut. Intel har fokuserat på bärbart och stationärt här och det är nog en bra idé, det har inte varit ovanligt att serverprodukter ligger en nod efter konsumentgrejerna så det gör det ganska naturligt att arkitekturer tar tid att komma dit. De ska väl vara snabbare att byta process i framtiden vad jag sett de utlova, speciellt på handhållna mobila chip.

Då det knappast är många tusen Ivy Bridge-E chip de hade behövt tillverka tror jag det snarare beror på plattformen och att de helt enkelt inte har serverchip på det redo. Vill de uppdatera t ex X79 som de gick från 6-serien till 7-seriern på LGA1155 tar ju det tid också. Enligt vad som läckt så verkar inte Ivy Bridge-EP komma fören 3Q13 De saknar nog inte kapacitet, men jag tror de tvekar att köra på jättestora chip innan de kört in allt och har flera fabs uppe i produktion. Sen stänger man ju inte ner 32nm produktion bara för att det är roligt. Haswell-EX kommer ju t ex inte fören 2014 och ersätter Westmere-EX från 2011. Förra "extreme edition" kom ju också nov 2008. SNB-E kom hela tre år senare. Verkar hur som helst finnas gott om Ivy Bridge i varianter för bärbara, stationära och enprocessor-servers numera, mer än efterfrågan. Vi är nog lite för snabba att vilja ha grejerna här tack vare vanan på konsumentprodukterna i bärbara och stationära mainstream-plattformen som i stort sett har uppdaterats var 12:e månad sedan några år tillbaka. Visst de hade kunnat släppa en quad-core Ivy tidigare för LGA2011 och Xeon-sockets (finns ett par, Ivy finns redan till LGA1155 servers). Nu lär det ta ett tag innan vi får se något hur som helst. De är hur som helst hyfsat redo och tillverkar redan sub-100 (nere på 75 redan) dollar Ivy Bridge-processorer nu.

Inser man att det tar lite tid här, så kanske det inte är så hopplöst för AMD att komma med något med ordentlig mainstreamprestanda och som presterar bra i 2P/4P servrar ändå. 2013 och 14 måste de ha bättre produkter. Men Haswell är snabbare än Ivy så de måste ändå upp bra mycket för att tävla. Under tiden utan Ivy Bridge-E (eller motsvarande) är verkligen (om du redan har) SNB-E, Ivy Bridge (LGA1155) och Haswell så tokigt? Ny Thunderbolt-kontroller kommer vi hur som helst se 2013 också. T ex DDR4 på desktop lär vi inte se fören 2015.

Permalänk
Entusiast
Skrivet av Petterk:

Precis min poäng. De som har öppet för foundryverksamhet och ligger på avancerade processer är få. Några Japanska som sagt något om 20 nm vet jag faktiskt inte t ex. Chartered och AMD (Dresden, och planerade smått påbörjade anläggningen i Malta, NY) är egentligen de enda avancerade foundry-orienterade anläggningarna som sålts de senaste åren.

Det hade nog varit möjligt att köpa någon av de japanska anläggningarna under de föregående åren t o m avancerade anläggningar med modern process och på modern nod/storlek eller bli delägare. Många Japanska bolag vill lämna att vara tillverkare, ekonomin är inget vidare så de accepterar kapitaltillskott i mängder branscher de genomgår fortfarande en kris som aldrig slutar, men sen ska man tänka på att t ex minnestillverkare som många av dem är kanske inte är bäst lämpade för att tillverka SoCs och GPUer. Sen kan det bli konstigt om man ska ha fler folk att driva en modern anläggning med forskning och utveckling för verksamheten än de har folk som utvecklar sitt huvudnummer – grafikprocessorer. Japan kanske behöver belåna sig mindre vid sådana affärer, men Nvidia hade behövt låna massvis och sätta hela sitt företag i risk. Nu har de ändå inte fått några nya partners i Japan för halvledartillverkning så de behåller nog sina fabs så länge de kan uppgradera dem.

Under här som blir på tok för långt inlägg så rantas det om Ivy-E.

Vad det gäller Ivy Bridge-E är jag övertygad om att de har kapacitet, det handlar om så få chip. Fast att lägga ner arbetet med nytt chipset (behövs vid det här laget för att göra det rätta) och ny processor/design/anpassning vid det här laget bara för att kunna överklocka en >4-kärnig processor känns inte helt rätt. Workstationanvändare kan köra ett par åtta kärnig Xeon under tiden. Det hela handlar bara om en small marknad entusiaster här. De behöver ju ingen skrytplattform för klockarna just nu tyvärr kanske. Hade de släppt det så hade det nog inte kommit nu. Trotts att det bara var ett år sedan X79 och Sandy Bridge-E kom ut, så ser t ex chipset lite utdaterat ut. Intel har fokuserat på bärbart och stationärt här och det är nog en bra idé, det har inte varit ovanligt att serverprodukter ligger en nod efter konsumentgrejerna så det gör det ganska naturligt att arkitekturer tar tid att komma dit. De ska väl vara snabbare att byta process i framtiden vad jag sett de utlova, speciellt på handhållna mobila chip.

Då det knappast är många tusen Ivy Bridge-E chip de hade behövt tillverka tror jag det snarare beror på plattformen och att de helt enkelt inte har serverchip på det redo. Vill de uppdatera t ex X79 som de gick från 6-serien till 7-seriern på LGA1155 tar ju det tid också. Enligt vad som läckt så verkar inte Ivy Bridge-EP komma fören 3Q13 De saknar nog inte kapacitet, men jag tror de tvekar att köra på jättestora chip innan de kört in allt och har flera fabs uppe i produktion. Sen stänger man ju inte ner 32nm produktion bara för att det är roligt. Haswell-EX kommer ju t ex inte fören 2014 och ersätter Westmere-EX från 2011. Förra "extreme edition" kom ju också nov 2008. SNB-E kom hela tre år senare. Verkar hur som helst finnas gott om Ivy Bridge i varianter för bärbara, stationära och enprocessor-servers numera, mer än efterfrågan. Vi är nog lite för snabba att vilja ha grejerna här tack vare vanan på konsumentprodukterna i bärbara och stationära mainstream-plattformen som i stort sett har uppdaterats var 12:e månad sedan några år tillbaka. Visst de hade kunnat släppa en quad-core Ivy tidigare för LGA2011 och Xeon-sockets (finns ett par, Ivy finns redan till LGA1155 servers). Nu lär det ta ett tag innan vi får se något hur som helst. De är hur som helst hyfsat redo och tillverkar redan sub-100 (nere på 75 redan) dollar Ivy Bridge-processorer nu.

Inser man att det tar lite tid här, så kanske det inte är så hopplöst för AMD att komma med något med ordentlig mainstreamprestanda och som presterar bra i 2P/4P servrar ändå. 2013 och 14 måste de ha bättre produkter. Men Haswell är snabbare än Ivy så de måste ändå upp bra mycket för att tävla. Under tiden utan Ivy Bridge-E (eller motsvarande) är verkligen (om du redan har) SNB-E, Ivy Bridge (LGA1155) och Haswell så tokigt? Ny Thunderbolt-kontroller kommer vi hur som helst se 2013 också. T ex DDR4 på desktop lär vi inte se fören 2015.

Fast det handlar om mycket mer än bara en smal plattform eftersom Sandy Bridge-E är Xeon. Det är enda anledningen till att plattformen finns, för att de kan dumpa av trasiga Xeon på konsumentmarknaden. Marknaden för Xeon är inte direkt smal eller liten och det är en marknad där prestanda per watt är väldigt mycket mer intressant än för oss vanliga dödliga. Att dra ner strömbehovet 10 % för processorn i datorn hemma märks knappt på elräkningen men i en större serveranläggning kan det bli mycket pengar eftersom det både sparar in elnotan på själva processorn och på kylningen.

Ny billig Thunderbolt är ju ett måste om Intel vill att den ska slå. Den är fortfarande på tok för dyr och ligger därför kvar som nischprodukt.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Zotamedu:

Fast det handlar om mycket mer än bara en smal plattform eftersom Sandy Bridge-E är Xeon. Det är enda anledningen till att plattformen finns, för att de kan dumpa av trasiga Xeon på konsumentmarknaden. Marknaden för Xeon är inte direkt smal eller liten och det är en marknad där prestanda per watt är väldigt mycket mer intressant än för oss vanliga dödliga. Att dra ner strömbehovet 10 % för processorn i datorn hemma märks knappt på elräkningen men i en större serveranläggning kan det bli mycket pengar eftersom det både sparar in elnotan på själva processorn och på kylningen.

Ny billig Thunderbolt är ju ett måste om Intel vill att den ska slå. Den är fortfarande på tok för dyr och ligger därför kvar som nischprodukt.

Ja och då måste Xeons vara på gång för att det ska hända, förra vevan så kom de ut innan Sandy Bridge-E/EN/EP. Sandy Bridge E3-Xeons var i princip ett år innan E5-14xxx/16xx/2xxx/4xxxx varianter. Det var hela 4-6 månader mellan Sandy Bridge-E för entusiaster och för servers. Kommer IvB-EP runt hösten nästa år borde IvB-E komma i början av året om det var på gång. De som fått kisel först förr. Jag vet inte om Intel är så intresserade nu. Det är en smal och ytterligare variant av halvledarkretsen även om det bara handlar om testning och binning och begränsningar genom att avaktivera delar.

Frågan är om det är intressant nog mot Haswell såklart. 2014 kommer ju Haswell-EP/EN/EX med två nya socklar också. 13 har du ju ännu mer uppsnabbade quad-cores (många vill ha single-core prestandan såklart, därför de köper upplåsta chip). Får se om workstationkunder (de drabbas inte) helt enkelt är refererade till samma Patsburgchipset och Ivy-Bridge Xeon. Jämfört med server och workstation är entusiastmarknaden smal och liten. Och ja det händer tom att de har revisioner som inte haft alla features fungerande till t ex första rundan (revisionen) av Sandy Bridge-E för entusiaster. De verkar inte få något nytt serverchipset fören Haswell-EN/EP/EX. Det är hur som helst inget som talar för den plattformen (X79). Thunderbolt är intressant, men det verkar vara ett tag innan man kan köra DP1.2 över Thunderboltprotokollet och inte bara passthrough även om det är ett framsteg här. Det förenklar det hela. Haswell just har däremot stöd för DP1.2 så två mDP på en bärbar blir ju intressant så sett. Priserna behöver de definitivt få ner och bara inte från Intels sida. Bara en kabel kostar ju lika mycket som en USB3-hdd. Sen kostar en Thunderboltvagga alltid lite mer för att de kör en ren PCIe-kontroller också. NVMe och liknande raderar ju så småning om det problemet för mindre prestandaenheter för lagring. Däremot inte vad det gäller mekaniska och raid. Men sen är ju Thunderbolts fördel att det är PCIe x4 2.0 externt. Hur som helst verkar Intel egna Z87-moderkort vara menade att inkludera Thunderbolt. Alltid något att Intel kan visa att det fungerar.

Permalänk
Entusiast
Skrivet av Petterk:

Ja och då måste Xeons vara på gång för att det ska hända, förra vevan så kom de ut innan Sandy Bridge-E/EN/EP. Sandy Bridge E3-Xeons var i princip ett år innan E5-14xxx/16xx/2xxx/4xxxx varianter. Det var hela 4-6 månader mellan Sandy Bridge-E för entusiaster och för servers. Kommer IvB-EP runt hösten nästa år borde IvB-E komma i början av året om det var på gång. De som fått kisel först förr. Jag vet inte om Intel är så intresserade nu. Det är en smal och ytterligare variant av halvledarkretsen även om det bara handlar om testning och binning och begränsningar genom att avaktivera delar.

Frågan är om det är intressant nog mot Haswell såklart. 2014 kommer ju Haswell-EP/EN/EX med två nya socklar också. 13 har du ju ännu mer uppsnabbade quad-cores (många vill ha single-core prestandan såklart, därför de köper upplåsta chip). Får se om workstationkunder (de drabbas inte) helt enkelt är refererade till samma Patsburgchipset och Ivy-Bridge Xeon. Jämfört med server och workstation är entusiastmarknaden smal och liten. Och ja det händer tom att de har revisioner som inte haft alla features fungerande till t ex första rundan (revisionen) av Sandy Bridge-E för entusiaster. De verkar inte få något nytt serverchipset fören Haswell-EN/EP/EX. Det är hur som helst inget som talar för den plattformen (X79). Thunderbolt är intressant, men det verkar vara ett tag innan man kan köra DP1.2 över Thunderboltprotokollet och inte bara passthrough även om det är ett framsteg här. Det förenklar det hela. Haswell just har däremot stöd för DP1.2 så två mDP på en bärbar blir ju intressant så sett. Priserna behöver de definitivt få ner och bara inte från Intels sida. Bara en kabel kostar ju lika mycket som en USB3-hdd. Sen kostar en Thunderboltvagga alltid lite mer för att de kör en ren PCIe-kontroller också. NVMe och liknande raderar ju så småning om det problemet för mindre prestandaenheter för lagring. Däremot inte vad det gäller mekaniska och raid. Men sen är ju Thunderbolts fördel att det är PCIe x4 2.0 externt. Hur som helst verkar Intel egna Z87-moderkort vara menade att inkludera Thunderbolt. Alltid något att Intel kan visa att det fungerar.

Sen tror jag personligen inte att det bara kommer vara kostnaden som får Thunderbolt att misslyckas utan:
1, Det faktum att det är en stängd standard och därför bara finns på Intels plattform. För att det ska slå hade de behövt få ut det till AMD och ARM också. Plus eventuellt andra servermiljöer med alla möjliga konstiga arkitekturer och OS.
2, En sladd löser allt är inte nödvändigtvis en bra lösning för det förvirrar för folk som inte har koll. Är det en ren videosignal eller är det data? Varför kan man inte koppla ihop en extern hårddisk med en skärm när det är samma kontakt? Eller varför fungerar inte hårddisken i grafikkortet?
3, Ännu värre blir det när de väl får ordning på det optiska interfacet för då är det ju en helt ny uppsättning kablar. Ska bli intressant att se hur de löser kompatibiliteten för hur de än gör blir det trassel. Ska de behålla kontaktdonet blir det ju jobbigt att förklara varför bara vissa sladdar fungerar och inte andra. Jag tror de sköt sig i foten när de släppte Thunderbolt på koppar.

Jag är helt klart för en extern PCI-e-standard men jag tycker att det borde vara PCI-SIG som låg bakom. Då hade alla kunnat köra på den vilket hade varit smidigt. Jag hade gärna byggt en mITX eller till och med köpt en skärmdator och sedan kört en DAS via Thunderbolt eller liknande. Ljudkort, grafikkort, mängder av industriella applikationer. Möjligheterna är oändliga.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Zotamedu:

Sen tror jag personligen inte att det bara kommer vara kostnaden som får Thunderbolt att misslyckas utan:
1, Det faktum att det är en stängd standard och därför bara finns på Intels plattform. För att det ska slå hade de behövt få ut det till AMD och ARM också. Plus eventuellt andra servermiljöer med alla möjliga konstiga arkitekturer och OS.
2, En sladd löser allt är inte nödvändigtvis en bra lösning för det förvirrar för folk som inte har koll. Är det en ren videosignal eller är det data? Varför kan man inte koppla ihop en extern hårddisk med en skärm när det är samma kontakt? Eller varför fungerar inte hårddisken i grafikkortet?
3, Ännu värre blir det när de väl får ordning på det optiska interfacet för då är det ju en helt ny uppsättning kablar. Ska bli intressant att se hur de löser kompatibiliteten för hur de än gör blir det trassel. Ska de behålla kontaktdonet blir det ju jobbigt att förklara varför bara vissa sladdar fungerar och inte andra. Jag tror de sköt sig i foten när de släppte Thunderbolt på koppar.

Jag är helt klart för en extern PCI-e-standard men jag tycker att det borde vara PCI-SIG som låg bakom. Då hade alla kunnat köra på den vilket hade varit smidigt. Jag hade gärna byggt en mITX eller till och med köpt en skärmdator och sedan kört en DAS via Thunderbolt eller liknande. Ljudkort, grafikkort, mängder av industriella applikationer. Möjligheterna är oändliga.

Vad hindrar dig att köra TB-kontrollern på AMD? Faktiskt inget, du kör den utan Intelprocessor i tillbehören du kopplar TB till. Är inga drivrutiner för TB-kontrollern utan det är bara ett PCI root complex som dyker upp.

TB har ju lyckats att expandera bärbara datorer till små arbetsstationer, och gjort professionell video-utrustning tillgänglig till dessa. Dessutom har du fibrechannel-adaptrar för Macarna. Hur ska du få 2x4Gbit/s interconnect i en bärbar utan? Något som Expresscard och liknande inte lyckas med. Inte lyckades de med ATIs XGP för den delen. PCI-SIG har en extern variant som inte används.

Visst är det ett problem om Intel ska äga och inte licensiera ut protokollet. Och man blir beroende av deras host/device-chip, men jag tror inte det på något sätt dödar det hela. Ett problem är snarare att så få använder bärbara som arbetsstationer. Behöver inte professionell hårdvara. Ett annat är att dockningsstationer i bärbara företagspcs redan kan bära PCIe såklart. Då blir det lite en kabel eller en dockningsstationen som ställs emot varandra.

Vi får se om de växlar över till optiskt utan kompatibilitetsproblem, först ska de gå över till PCIe 3.0 iaf. Det handlar om så många år att en bärbar man köper idag knappt berörs iaf. Har det blivit ett problem vid det laget så kan PCI-SIG komma ut med en egen variant, och man kan ju i teorin fortsätta använda TB-baserade grejer genom att bara sätta en TB-kontroller på den alternativa PCIe-bryggan. TB är ingen dålig idé i säg, men knappast allestädes tillgängligt som man kommer finna på alla datorer. De kan göra det till öppen standard, de kan låta PCI-SIG anta det. Det är helt upp till Intel. Sen måste kunderna såklart hålla isär Thunderbolt-kablar och DisplayPort-kablar. Precis som de hade behövt hållit isär Lightpeak-kablar och USB-kablar om de hade hållit sig till USB-kontakten. Ett alternativ till ExpressCard hade hur som helst kanske varit ett steg i rätt riktning för standard-grejer och tillbehör här? USB 2.0 och PCIe 1.0/2.0 x1 kommer man helt enkelt inte långt med, men där har du fortfarande ett problem att bara en mindre mängd datorer kommer ha portarna. Utbyggbara måste de vara hur som helst.

Permalänk
Entusiast
Skrivet av Petterk:

Vad hindrar dig att köra TB-kontrollern på AMD? Faktiskt inget, du kör den utan Intelprocessor i tillbehören du kopplar TB till. Är inga drivrutiner för TB-kontrollern utan det är bara ett PCI root complex som dyker upp.

TB har ju lyckats att expandera bärbara datorer till små arbetsstationer, och gjort professionell video-utrustning tillgänglig till dessa. Dessutom har du fibrechannel-adaptrar för Macarna. Hur ska du få 2x4Gbit/s interconnect i en bärbar utan? Något som Expresscard och liknande inte lyckas med. Inte lyckades de med ATIs XGP för den delen. PCI-SIG har en extern variant som inte används.

Visst är det ett problem om Intel ska äga och inte licensiera ut protokollet. Och man blir beroende av deras host/device-chip, men jag tror inte det på något sätt dödar det hela. Ett problem är snarare att så få använder bärbara som arbetsstationer. Behöver inte professionell hårdvara. Ett annat är att dockningsstationer i bärbara företagspcs redan kan bära PCIe såklart. Då blir det lite en kabel eller en dockningsstationen som ställs emot varandra.

Vi får se om de växlar över till optiskt utan kompatibilitetsproblem, först ska de gå över till PCIe 3.0 iaf. Det handlar om så många år att en bärbar man köper idag knappt berörs iaf. Har det blivit ett problem vid det laget så kan PCI-SIG komma ut med en egen variant, och man kan ju i teorin fortsätta använda TB-baserade grejer genom att bara sätta en TB-kontroller på den alternativa PCIe-bryggan. TB är ingen dålig idé i säg, men knappast allestädes tillgängligt som man kommer finna på alla datorer. De kan göra det till öppen standard, de kan låta PCI-SIG anta det. Det är helt upp till Intel. Sen måste kunderna såklart hålla isär Thunderbolt-kablar och DisplayPort-kablar. Precis som de hade behövt hållit isär Lightpeak-kablar och USB-kablar om de hade hållit sig till USB-kontakten. Ett alternativ till ExpressCard hade hur som helst kanske varit ett steg i rätt riktning för standard-grejer och tillbehör här? USB 2.0 och PCIe 1.0/2.0 x1 kommer man helt enkelt inte långt med, men där har du fortfarande ett problem att bara en mindre mängd datorer kommer ha portarna. Utbyggbara måste de vara hur som helst.

Konceptet höga kostnader har inte varit bra för diverse standarder. Se hur det gick för Firewire som rent tekniskt är bättre än USB med högre hastigheter och mer ström. Men chipen var dyrare och det skulle in licenspengar varpå alla inte fick det. Har inte alla det var intresset för hårdvara svalt. Finns det få saker som använder det är det ingen som vill betala extra för det. Hade det inte varit för DV-kameror hade Firewire dött ut mycket snabbare än det nu gjorde.

En annan parallell som inte är helt jämförbar men ändå intressant är antalet moderkort med SLI jämfört med Crossfire. AMD tar inga pengar för Crossfire så därför är det nästan omöjligt att hitta ett kort som inte har det. Nvidia har haft massa begränsningar med SLI och de tar ut licenspengar varpå bara de dyrare moderkorten har stöd för det.

Och varför skulle de ta ett befintligt kontaktdon egentligen? Hade det inte varit bättre med en ny kontakt och sedan en passiv adapter till Displayport så man kan koppla den till skärmar så hade det varit lite mindre förvirrande. Det känns som om de missade en av grunderna i produktdesign och det är att det inte ska gå att göra fel.

Vad driver skärmsignalen förresten? Är det bara den integrerade grafiken eller hur fungerar det?

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Zotamedu:

Konceptet höga kostnader har inte varit bra för diverse standarder. Se hur det gick för Firewire som rent tekniskt är bättre än USB med högre hastigheter och mer ström. Men chipen var dyrare och det skulle in licenspengar varpå alla inte fick det. Har inte alla det var intresset för hårdvara svalt. Finns det få saker som använder det är det ingen som vill betala extra för det. Hade det inte varit för DV-kameror hade Firewire dött ut mycket snabbare än det nu gjorde.

En annan parallell som inte är helt jämförbar men ändå intressant är antalet moderkort med SLI jämfört med Crossfire. AMD tar inga pengar för Crossfire så därför är det nästan omöjligt att hitta ett kort som inte har det. Nvidia har haft massa begränsningar med SLI och de tar ut licenspengar varpå bara de dyrare moderkorten har stöd för det.

Och varför skulle de ta ett befintligt kontaktdon egentligen? Hade det inte varit bättre med en ny kontakt och sedan en passiv adapter till Displayport så man kan koppla den till skärmar så hade det varit lite mindre förvirrande. Det känns som om de missade en av grunderna i produktdesign och det är att det inte ska gå att göra fel.

Vad driver skärmsignalen förresten? Är det bara den integrerade grafiken eller hur fungerar det?

Grafikkortet driver alltid skärmsignalen, normalt sett det integrerade om de inte har muxar eller enbart kör det dedikerade till mDP-portarna. Med Optimus/Enduro är det ju den dedikerade grafiken som driver (matar) den interna framebuffern dessutom. DP-signalen kan både bäras över Thunderbolt-protokollet till en annan Thunderbolt-kontroller (för att därifrån gå in i skärmar osv) eller så körs DP-signalen rent över mDP porten som DisplayPort via Thunderboltkontrollen i host-enheten rent internt. DP kör man via TB-kontrollern oavsett om den ska bäras över den eller inte.

TB är PCIe och PCIe-hårdvara kommer det även i framtiden finnas gott om så det är inte riktigt samma situation här. Med USB och FW måste man bygga specialanpassad hårdvara som pratar det och de protokollen man vill använda. Alla chip för lagring kommer inte stödja UASP via USB 3.0 t ex. Det är helt nytt kisel du behöver ta fram för det generellt sett. Det är mycket mer avancerat än att ta en PCIe-kontroller och sätta en TB-kontroller framför. Med NVMe kommer dessutom flashdiskar att prata PCIe native via generella NVMe-drivrutiner och man behöver varken SATA-kontroller eller drivrutiner till PCIe-kort med flash. PCIe-hårdvara får en större roll hur det än går med TB.

Visst kunde en ny kontakt ha varit en bättre idé, men det är fler företag än Intel inblandade här, fler än Apple. Passiv adapter får du inte till en optisk kabel hur som helst. En annan lösning hade ju varit för de att utveckla ett bättre alternativ till ExpressCard som sagt. Och via det utvecklat externa lösningar. Just en mDP-port är inte bara DisplayPort för den delen utan de stödjer ju TMDS (HDMI/DVI) via dual-mode DisplayPort-läget/stödet. Hur som helst valde Apple och Intel mDP, Sony valde en tidig lösning med USB plus strömkabel. Släpps tekniken fri hade du kanske kunnat sett en egen kontakt också. Men då ska du tänka på att du inte hade fått några bildutgångar alls på datorn eftersom de skulle sitta i TB-kontakten och kräva adaptrar. Eller att du måste tillägna massor plats åt muxar och andra kretsar för att kunna välja vilka utgångar bildsignalen ska gå. Helt klart en kompromiss, men bild måste du ha över TB om du ska lyckas köra en kabel till all hårdvara-varianten. Som du får med Apple Thunderbolt Display eller de kommande dockningsstationerna för TB.