Nvidia dementerar uppköpsrykten

Permalänk
Melding Plague

Nvidia dementerar uppköpsrykten

Sedan mars har det cirkulerar rykten om att Nvidia har planer på att köpa upp processortillverkaren VIA för att bättre kunna konkurrera med framtida Fusion och Nehalem. Nu går grafikkortsjätten ut och dementerar ryktena.

Läs nyheten

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk

Ahhh, KT400, det var tider det! lååååååååååångsamma men stabila tider.

Visa signatur

No one wants to die but some just love war.

Permalänk

Jag har inte riktigt hajjat vad dessa hybridprocessorer ska vara bra för. Vad jag ser är det bara ett sätt att flytta ett integrerat grafikkort från moderkortet till processorn... som sitter på moderkortet.

Kan man verkligen bygga in en grafikdel i processorer som konkurrerar med dedikerade "stand alone"-kort?

Tittar man på nVidias och ATI:s värstingar så verkar det omöjligt att klämma in något som bräcker det tillsammans med processorn. Eller är jag ute och seglar?

Permalänk

håller med xD

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Fluffster
Jag har inte riktigt hajjat vad dessa hybridprocessorer ska vara bra för. Vad jag ser är det bara ett sätt att flytta ett integrerat grafikkort från moderkortet till processorn... som sitter på moderkortet.

Kan man verkligen bygga in en grafikdel i processorer som konkurrerar med dedikerade "stand alone"-kort?

Tittar man på nVidias och ATI:s värstingar så verkar det omöjligt att klämma in något som bräcker det tillsammans med processorn. Eller är jag ute och seglar?

Du är inte ensam.

Visa signatur

i7-10700K + Corsair H90 | Z490 | 64GB | RTX3080 | SSD 3*512GB + 500GB + 128GB | HDD 3TB | Phanteks P400S | TUF 750W | 31.5"+27"+24" | Corsair K95 RGB | Logitech G902 | Sennheiser RS 175

Permalänk
Hjälpsam

Det är väl ett sätt att spara lite pengar för enklare datorer att ha den inbyggd i CPU:n i stället för att ha en separat krets på moderkortet.
Huang säger att Nvidias fokus alltid är grafikkort, varför köpte dom i så fall Ageia?

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Hallå sewc vakana ffs....

Ändmålen är väl oändliga.

För det första är fördelarna med GPU och CPU i ett att man får ett chip och en sockel och ett sätt med minne så man trollar näst intill bort det fysiska som rör grafikken. Man slipper expansionskort eller intergrerat chip på mobot som gör PCB:n större för moderkortet och även dyrare. Man kan bygga mycket mindre och billigare datorer med en kombinerad GPU/CPU.

Ändamål som det passar är rätt uppenbara. Laptops och andra små bärbara datorer. Billiga hemma datorer eller terminaler. HTPC maskiner! h264 avcodning inbyggd i GPU och CPU det du!

Fördelarna är rätt uppenbara men dom är som sagt primärt mindre datorer, billigare datorer.

Permalänk
Citat:

Ursprungligen inskrivet av kabex
Du är inte ensam.

Skönt, håll min hand i detta kalla, hemska mörker...

Pa1983: Kan inte förstå varför det skulle behövas i en laptop? När begränsar ett integrerat grafikchip prestandan föutom i spel? Är det i uppspelning av HD-film då isf? (Är kass på sånt, använder min DVD till film).

"För det första är fördelarna med GPU och CPU i ett att man får ett chip och en sockel och ett sätt med minne så man trollar näst intill bort det fysiska som rör grafikken."

Förstår inte riktigt vad du menar. Sätt med minne? Vilket sätt?
Det fysika som rör grafiken är väl en grafikprocessor som beräknar grafik, var det sitter är väl ganska irrelevant sånär som i utrymmesfrågan? Skulle en ihopsalgen lösning bli mycket effektivare pga att man slipper massa onödiga överföringsled? Då kan jag köpa det, men just nu fattar jag inte vitsen.

Permalänk
Medlem

jo det är nog mest för mindre billigare datorer känns som om det är tillräkligt svårt att kyla alt i datorn utan att man knökar ihop det XD

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Ratatosk
Det är väl ett sätt att spara lite pengar för enklare datorer att ha den inbyggd i CPU:n i stället för att ha en separat krets på moderkortet.
Huang säger att Nvidias fokus alltid är grafikkort, varför köpte dom i så fall Ageia?

De vill köra fysik på sina grafikkort. De ser gärna att användaren behöver köpa ett extra grafikkort för fysikberäkningar, som också kanske kan hjälpa till med grafiken på en ledig klockcykel eller två. Fysik kan man säga ingår i deras snack om "visal computing technology", det är ju en synlig del i högsta grad

Permalänk
Medlem

Tråkigt är allt man kan säga... VIA+Nvidia hade varit ett väldigt fint alternativ. Får hoppas att de åtminstonde hjälper varandra. Isiah + 9500gm hade varit skitnice.

Permalänk
Citat:

Ursprungligen inskrivet av Fluffster
Kan man verkligen bygga in en grafikdel i processorer som konkurrerar med dedikerade "stand alone"-kort?

Nej, inte än på 5 år i alla fall skulle jag tippa på. Inte till det jag använder mitt grafikkort till i alla fall, spela och spela bra samt snyggt.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Citat:

Ursprungligen inskrivet av Fluffster
Pa1983: Kan inte förstå varför det skulle behövas i en laptop?

Tänk dig energibesparningen i och med att ha både CPU och GPU på samma tillverkningsprocess, 45nm och mindre, än dagens 45/65nm för processor och 55/65/90nm för GPU/NB.

Visa signatur

That's just my opinion, I could be wrong...
> C2Q Q6700 > 8GB PC6400 > Gigabyte 965P-DQ6 > HD4870X2 & HD4650
> Lian Li PC-201B > Corsair HX620 > 10.46TB > HP LP3065 & 2x HP LP2065

Permalänk
Avstängd

Tror knappast VIA låter sig säljas till någon eftersom de har CoreFusion

Visa signatur

Knowledge is not achieved until shared.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Fluffster
Jag har inte riktigt hajjat vad dessa hybridprocessorer ska vara bra för. Vad jag ser är det bara ett sätt att flytta ett integrerat grafikkort från moderkortet till processorn... som sitter på moderkortet.

Kan man verkligen bygga in en grafikdel i processorer som konkurrerar med dedikerade "stand alone"-kort?

Tittar man på nVidias och ATI:s värstingar så verkar det omöjligt att klämma in något som bräcker det tillsammans med processorn. Eller är jag ute och seglar?

Visst, riktig high-end prestanda kommer troligen fortsätta existera som det gör nu dvs ett eller flera instickskort. De är på tok för stora chip för att integreras och sen blir de ju väldigt varma också.

Men GPU och CPU som smälter samman till en enda enhet vore inte så dumt tycker jag. Jag menar alltså nån sorts super-CPU liknande Cell. Säg att den har kanske 2 generella kärnor (långsamma, men mer flexibla) och kanske 64 enklare beräkningsenheter (snabba, men oflexibla precis som shaderprocessorer i GPU:er) som kan användes till grafik, fysik, AI, ljud, eller vad som helst som går att köra på dem. Det ska vara enkelt att programmera till alla dessa förstås. Sen behövs ju lite rasterizers, texturenheter, och AA-enheter också till grafiken som också integreras.

Visa signatur

AMD Ryzen 5 3600 | 4x8GiB 18-20-16-36-52-2T DDR4-3400 | MSI B450-A Pro Max AGESA 1.2.0.7 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | PNY CS900 2TB | Samsung 850 EVO 500GB | Samsung PM961 512GB | Scythe Kamariki 4 450W

Permalänk

Men finns det belägg för att bara för att man slår ihop enheterna blir det mindre förbrukning? Kan man få samma/bättre prestanda utan att krympa tillverkningsstorleken? Den kommer ju för övrigt krympa på både CPU- och GPU-fronterna ändå oavsett.

Strömsparning är fint visst och något vi alltid borde tänka på även (i synnerhet) också utanför datorn. Jag är dock inte övertygad om att ihopslagning är vägen att gå dock.
Jag gillade idén jag läste om nVidias, vad det nu var, teknik att stänga ner det som inte användes. När man var i Windowsmiljön stängde grafikkortet ner sig, för att startas igen om man t ex startade ett spel. Ser detta svårt om man klumpar ihop de olika enheterna.

Men jag kan segla fritt, har en tendens att göra det...

Permalänk
Medlem

.

Permalänk
Citat:

Ursprungligen inskrivet av Fluffster
Men finns det belägg för att bara för att man slår ihop enheterna blir det mindre förbrukning? Kan man få samma/bättre prestanda utan att krympa tillverkningsstorleken? Den kommer ju för övrigt krympa på både CPU- och GPU-fronterna ändå oavsett.

Strömsparning är fint visst och något vi alltid borde tänka på även (i synnerhet) också utanför datorn. Jag är dock inte övertygad om att ihopslagning är vägen att gå dock.
Jag gillade idén jag läste om nVidias, vad det nu var, teknik att stänga ner det som inte användes. När man var i Windowsmiljön stängde grafikkortet ner sig, för att startas igen om man t ex startade ett spel. Ser detta svårt om man klumpar ihop de olika enheterna.

Men jag kan segla fritt, har en tendens att göra det...

Tja, satsar både AMD och Intel på detta så har de nog något i kikaren och förhoppningsvis blir GPUn bra mycket bättre än de integrerade men kommer nog aldrig i klass med instickskort, denna lösning skulle nog vara fantastisk för bärbara datorer iaf, och dessa säljer ju mer än stationära nu för tiden.

nVidias teknik är inte enda vägen att gå, det går att stänga av delar av processorn också vid lätt arbete för att aktiveras vid högre belastning... och på så sätt sparar man väldigt mycket energi. Det skulle kunna göras på samma sätt ifall allt vore integrerat i en enhet...

Visa signatur

Bianconeri siamo noi, ma chi cazzo siete voi?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Fluffster
Men finns det belägg för att bara för att man slår ihop enheterna blir det mindre förbrukning? Kan man få samma/bättre prestanda utan att krympa tillverkningsstorleken? Den kommer ju för övrigt krympa på både CPU- och GPU-fronterna ändå oavsett.

Strömsparning är fint visst och något vi alltid borde tänka på även (i synnerhet) också utanför datorn. Jag är dock inte övertygad om att ihopslagning är vägen att gå dock.
Jag gillade idén jag läste om nVidias, vad det nu var, teknik att stänga ner det som inte användes. När man var i Windowsmiljön stängde grafikkortet ner sig, för att startas igen om man t ex startade ett spel. Ser detta svårt om man klumpar ihop de olika enheterna.

Men jag kan segla fritt, har en tendens att göra det...

Jag är ju inte heller helt säker på att det är rätt väg att gå (vi får väl se när om det blir nåt av det när Fusion och dess kloner är klara), men det där med strömsparningen borde kunna fixas någotsånär. Man kan ju låta processorerna klocka ner sig och minska spänningen beroende på belastning (som vanligt alltså iofs). Eller så skulle man kunna strypa spänningen helt till vissa delar som inte används som Juventino sa.

edit: Håller med Juventino.

Visa signatur

AMD Ryzen 5 3600 | 4x8GiB 18-20-16-36-52-2T DDR4-3400 | MSI B450-A Pro Max AGESA 1.2.0.7 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | PNY CS900 2TB | Samsung 850 EVO 500GB | Samsung PM961 512GB | Scythe Kamariki 4 450W

Permalänk
Citat:

Ursprungligen inskrivet av invztr
Tror knappast VIA låter sig säljas till någon eftersom de har CoreFusion

Vad får dig att tro att VIA själv skulle avgöra en sådan sak?
Det hänger nog mer på aktieägarna och anser dom att uppköpet är bra eller kommer leda till något bättre samt generera aktieägarna mer pengar så har inte VIA så mycket att säga till om förutsatt att Nvidia slänger upp rätt summa dineras.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk

Äntligen någon som lägger pengarna på annat än hybrider. Tycker inte att AMD ska lägga mer pengar på denna front eftersom dom har så klen och ostabil ekonomi för att klara att matcha Intel.

Permalänk
Medlem

Allt fler funktioner blir inbyggda på ett eller annat vis , se bara på ljudkorten. En GPU inbyggd i en processor skulle resultera i möjligheten att bygga mindre och säkerligen mer energisnåla datorer och det är ju åt det hållet utvecklingen går.

Visa signatur

| Errare humanum est |

Permalänk
Hjälpsam

Hybrider är intressant till mer än grafik, man kan tänka sig att parallella beräkningar läggs ut på sk GPU-delen och sekventiella på den vanliga CPU-delen, på så sätt får man en processor som är betydligt mer kraftfull än en vanlig.
GPU-delen kan användas till tex fysik.
Sen finns det inget som hindrar att man sätter in ett vanligt grafikkort vid sidan av, som får syssla med just grafiken och slipper annat skräp.

Jämför med flyttalsproccessorn, för ett antal år sen fanns det ju separata flyttalsprocessorer nu är flyttalsdelen alltid inbyggd.

Jag tror att VIA helt enkelt var för dyrt för Nvidia, dom brukar bara köpa företag som ligger på fallrepet och då för småsummor.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av AlbinNdoja
Vad får dig att tro att VIA själv skulle avgöra en sådan sak?
Det hänger nog mer på aktieägarna och anser dom att uppköpet är bra eller kommer leda till något bättre samt generera aktieägarna mer pengar så har inte VIA så mycket att säga till om förutsatt att Nvidia slänger upp rätt summa dineras.

Det är det inte alltid, du verkar inte hänga med i svängarna helt.

Visa signatur

Knowledge is not achieved until shared.

Permalänk
Citat:

Ursprungligen inskrivet av Fluffster
Men finns det belägg för att bara för att man slår ihop enheterna blir det mindre förbrukning? Kan man få samma/bättre prestanda utan att krympa tillverkningsstorleken? Den kommer ju för övrigt krympa på både CPU- och GPU-fronterna ändå oavsett.

Det gör det. I mobiltelefoner så har man försökt få allt i ett och samma chip för att det drar mindre ström.

Om man ska förklara det på ett sätt som de flesta förstår: Om du ska skjutsa 8 personer från punkt A till punkt B, så kan du antingen se till att ha två bilar men en chauför i varje och köra sträckan, eller så har du en minibuss och kör själv alla på en vända. Vilket förbrukar mest soppa totalt? Såklart två bilar.
Bara att hålla igång chippet behöver det dra ström. eller rättare sagt, det behöver inte dra ström, men eftersom vi inte har några superkomponenter så blir en viss förlust, som resulterar i en förbrukning. Sen ska funktionerna i chippet dra ström, för de gör det när de arbetar. Om vi har allt på samma chip så kan funktioner kombineras och sen är det bara ett chip som drar läckström.