AMD Opteron med fyra kärnor

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av EpaUlle
jo dedär X2 4800+ kommer man ju ingen vart med...sega som smör

va de ett ironiskt skämmt eller är du helt nollad vad gäller X2 4800+ ?

även om nu X4 kommer nästa år så kommer det inte behövas till annat än bechmarking och som server processor.

Visa signatur

Better a dead hero, then a living faliure

Permalänk
Medlem

Ni klagade på quad sli? Gör bättre kärnor istället för att slänga ihop dem! 2 GHz 80 kärnor nästa?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kramp
va de ett ironiskt skämmt eller är du helt nollad vad gäller X2 4800+ ?

även om nu X4 kommer nästa år så kommer det inte behövas till annat än bechmarking och som server processor.

"Kommer behövas"? Om de kostar mycket så blir de naturligtvis inte så prisvärda på en vanlig PC, men man kan ju aldrig ha för mycket processorkraft. Många program kan ju faktiskt (eller kommer kunna efter en väldigt liten modifiering) använda även quad cores, såsom 3D-renderings-program (Maya, 3DSMax, raytracing, ...), Bildbehandling (Photoshop-filter, ...), video-komprimering, osv osv.
Dessutom kan du ju multitaska flertrådade program mycket bättre (som att spela ett spel med två trådar samtidigt som du komprimerar en film => 4 cores maxas utan problem).

Sen pratade nån i tråden om att man utan problem kommer kunna göra (eller kanske köra) spel som drar nytta av alla 4 kärnorna ungefär lika lätt som man kan dra nytta av 2 kärnor, men det håller jag inte med om. Många spel kommer nog snarare att utnyttja två trådar för att göra två uppgifter samtidigt än att använda två trådar för att göra en uppgift. Jag menar alltså att man låter ena kärnan beräkna t ex fysiken samtidigt som den andra används till AI istället för att parallellisera fysik-beräkningarna och AI-beräkningarna var för sig. Och isf så kommer blir det svårt att utnyttja 4 kärnor effektivt.

Citat:

Ursprungligen inskrivet av MooDHooDs
Ni klagade på quad sli? Gör bättre kärnor istället för att slänga ihop dem! 2 GHz 80 kärnor nästa?

Tror du inte man tänkt på detta? Problemet är att man inte vet hur man ska kunna göra effektivare kärnor. Och det beror inte på brist på forskning...

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av MooDHooDs
Ni klagade på quad sli? Gör bättre kärnor istället för att slänga ihop dem! 2 GHz 80 kärnor nästa?

Dom gör kärnorna redan bättre så fort dom kan. Dom har bara lite yta över när dom går ner i tillverkningsprocess som dom använder på detta viset.

Permalänk
Medlem

Det är klart det gör.. dom där jävla tillverkarna av cpu är precis av samma skrot som gpu tillverkarna. Alltså dom kan göra det bättre, men dom väntar och släpper mindre förändrade cpuer som är snabbare, istället för att släppa det senaste dom har just nu i fråga om teknik. varför dom gör detta? för att tjäna mer pengar såklart.

Precis som Bubka stavhopparen gjorde förr i tiden, då han slog sitt rekord med 1 cm hela tiden istället för att slå det med 5 cm som han kunde!. För att han fick pengar för varje gång han slog världsrekordet. Samma gäller här, om dom skulle släppa det allra senaste och allra bästa idag så skulle dom inte kunna slå detta förrän i framtiden istället för nästa månad!

korkade jävlar som tror att dom inte kan/har kapacitet för detta. Ni vet fan ingeting om utveckling.

Visa signatur

AM2+ Gigabyte DS3 780 - AM2 5200+ X2 2.7 GHZ - 4096 MB DDR2 PC6400

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Milo
Det är klart det gör.. dom där jävla tillverkarna av cpu är precis av samma skrot som gpu tillverkarna. Alltså dom kan göra det bättre, men dom väntar och släpper mindre förändrade cpuer som är snabbare, istället för att släppa det senaste dom har just nu i fråga om teknik. varför dom gör detta? för att tjäna mer pengar såklart.

Precis som Bubka stavhopparen gjorde förr i tiden, då han slog sitt rekord med 1 cm hela tiden istället för att slå det med 5 cm som han kunde!. För att han fick pengar för varje gång han slog världsrekordet. Samma gäller här, om dom skulle släppa det allra senaste och allra bästa idag så skulle dom inte kunna slå detta förrän i framtiden istället för nästa månad!

korkade jävlar som tror att dom inte kan/har kapacitet för detta. Ni vet fan ingeting om utveckling.

Sen är det så att det är stenhård konkurans. Ingen kommer nog på efterkälken bara för att dom tycker det är kul.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Milo
Det är klart det gör.. dom där jävla tillverkarna av cpu är precis av samma skrot som gpu tillverkarna. Alltså dom kan göra det bättre, men dom väntar och släpper mindre förändrade cpuer som är snabbare, istället för att släppa det senaste dom har just nu i fråga om teknik. varför dom gör detta? för att tjäna mer pengar såklart.

Precis som Bubka stavhopparen gjorde förr i tiden, då han slog sitt rekord med 1 cm hela tiden istället för att slå det med 5 cm som han kunde!. För att han fick pengar för varje gång han slog världsrekordet. Samma gäller här, om dom skulle släppa det allra senaste och allra bästa idag så skulle dom inte kunna slå detta förrän i framtiden istället för nästa månad!

korkade jävlar som tror att dom inte kan/har kapacitet för detta. Ni vet fan ingeting om utveckling.

Jag är förvisso teknolog och inte ekonom, men jag misstänker ändå starkt att dina konspirationsteorier är lika felaktiga som alla andra konspirationsteorier. Men bara för att det är roligt att höra så kan du gärna förklara hur tillverkarna fått alla världens forskare (såväl anställda på företagen som oberoende på universitet etc) att hålla tyst om de här super-idéerna du tror det finns?

Permalänk
Medlem

med tanke på hur jämt det är i prestandan mellan intel och amd så lär dom inte låta nya lösningar vara olanserade, dom har inte råd med det i dagsläget, möjligtvis tidigare när intel inte hade nån konkurens, men det är inte så idag riktigt.

Visa signatur

A7N8XE-d, xp2500@3200, 1 GB twinmos ddr 400, radeon 9800pro, 2*120gb segate raid 0 +400 gb segate

Permalänk
Medlem

Det är inga super ideér. Det handlar bara om att fortsätta på samma riktning som man tidigare gjort, och ge mig kraft åt processorn helt enkelt eller grafikkorten. Att tex Nvidia kunde lansera 7800 GTX med 24 pipelines för 2 år sedan är inget nytt. Det är inga konspirationsteorier alls. Det är så det funkar på dagens marknad. Man släpper en uppdaterad version av hårdvaran som dock ska vara bättre men inte alltför bra!, annars hotar det företagens framtida utveckling. Om du studerar ekonomi/utveckling så förstår du att det är så det funkar inom datorbranschen. Om nu platformen har nått sin gräns, som 754 platformen redan gjort sedan länge, så är det bara att ta fram en ny platform. Nu ska jag inte säga bara, detta kostar pengar såklart, men pengar som företagen har, men inte vill lägga ut ännu därför får man aldrig några "stora" uppgraderingar på köpet.Visst 30-50%, men inte alls 300-400%. Ekonomi/Efterfrågan är vad som styr.

----

rikkard.
Intel platformen är fuckad sedan länge. Intel kommer med nya platformar och ny teknik var så säker. Men P4 kunde dom inte förbättra mycket mer än dom gjorde, för gränsen var nådd för dålig arktitektur.

Just konkurrans som gör att detta problemet finns. För släpper Ati för starka grafikkort, så kommer Nvidia göra detsamma.. vad händer då? Jo då har vi 2 företag som släppt värsting kort, och som inte kommer att kunna slå dessa på minst 1-2 år., Iaf om vi snackar minst 50% förbättring som nu är fallet för alla grafikkort. Alltså råder det ett slags muntligt inofficielltavtal som båda parterna förstår och följer. Såhär har det alltid varit, dags och vakna upp.

Visa signatur

AM2+ Gigabyte DS3 780 - AM2 5200+ X2 2.7 GHZ - 4096 MB DDR2 PC6400

Permalänk
Medlem

Rykte: Opteron blir upp till 51 procent billigare i februari

I februari kommer AMD att sänka priserna på sina serverprocessorer i Opteron 200-familjen med upp till 51 procent uppger källor för The Inquirer.

http://nok.idg.se/ArticlePages/200601/24/20060124154625_NOK92...

Någon som hört något om detta?

Visa signatur

XFX Radeon RX 7700 XT Speedster QICK 319 Black Edition | AMD Ryzen R7 5700X | Noctua NH-D15 | Asus TUF Gaming B550-Plus | Kingston Fury Beast DDR4 3600MHz 4x8GB | Samsung 990 Pro 1TB | Corsair HX1000i | Fractal Design Define S | LG 27GL83A | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair Void Elite Wireless

Permalänk
Medlem

Ohhh.. hoppas de stämmer skruvis.. då blir det en Opty 200... Kan man äntligen börja byta ut sin ålderstigna intel-serverpark här hemma

Permalänk
Medlem

ja klart ekonomin styr, men med nya ideer menar jag givetvis såna som är ekonomiskt försvarbara och lönsamma, andra ideer kommer ändå aldrig slå. Utvecklingen på cpu fronten är stakad långt in i framtiden, vad gäller förminskningar etc, tror faktiskt båda parterna (intel och amd) gör allt dom kan för att optimera sina plattformar, tror inte en sekund på att dom håller inne med lösningar i dagsläget. Att släppa nya plattformar var tredje månad skulle inte löna sig ekonomiskt och är följaktiligen irrelevant, när jag menar optimeringar menar jag givetvis såna som är möjliga att genomföra i stor skala (ekonomin som styr), inte som nån liten mupp suttit och knepat ihop på ett statligt finansierat lab nånstans.

Kan heller inte se riktigt hur ATIs och nvidias superkort skulle se ut? Dom har vissa krav på sina produkter, varav strömförbrukningen sätter gränser för dagens teknologi, vilket man allt som oftast påminns om, dom kan inte heller göra sina produkter totalt inkompatibla med den mjukvara och de plattformar som finns idag. Och det är heller inte möjligt att uppgradera hela datorn, man kan inte byta gränssnitt hela tiden, kommer leda till mindre försäljning bara, likaså kan man inte bara ändra alla gällande regler. Tror du missförstår mig, jag menar, att alla företag gör antagligen allt dom kan för att släppa produkter som är möjliga att släppa, dvs dom måste vara lönsamma.

Att ATI och Nvidia skulle kunna skapa grafikkort som inte går att slå på 2 år är totalt löjligt, skulle gärna se dig specificera hur dessa kort skulle se ut? Med tanke på hur långt teknologin kommit och hur mycket som används i dagens massindustri så är det snarare som så att det är o möjligt att skapa produkter idag som inte kommer kunna slås inom 2 år under förutsättning att dom har samma prislapp givetvis, utan den klausulen blir hela resonemanget totalt oväsentligt.

Visa signatur

A7N8XE-d, xp2500@3200, 1 GB twinmos ddr 400, radeon 9800pro, 2*120gb segate raid 0 +400 gb segate

Permalänk
Discokungen

MOrKiz: I agree. Ett billigt dual system med många hårddiskar.

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Milo
Det är inga super ideér. Det handlar bara om att fortsätta på samma riktning som man tidigare gjort, och ge mig kraft åt processorn helt enkelt eller grafikkorten. Att tex Nvidia kunde lansera 7800 GTX med 24 pipelines för 2 år sedan är inget nytt. Det är inga konspirationsteorier alls. Det är så det funkar på dagens marknad. Man släpper en uppdaterad version av hårdvaran som dock ska vara bättre men inte alltför bra!, annars hotar det företagens framtida utveckling. Om du studerar ekonomi/utveckling så förstår du att det är så det funkar inom datorbranschen. Om nu platformen har nått sin gräns, som 754 platformen redan gjort sedan länge, så är det bara att ta fram en ny platform. Nu ska jag inte säga bara, detta kostar pengar såklart, men pengar som företagen har, men inte vill lägga ut ännu därför får man aldrig några "stora" uppgraderingar på köpet.Visst 30-50%, men inte alls 300-400%. Ekonomi/Efterfrågan är vad som styr.

7800 GTX är egentligen inget revolutionerande jämfört med 6800-serien, det håller jag med dig om. "Mer av samma" beskriver det ganska bra. Men jag tror absolut inte de kunde släppt kortet tidigare än de gjort! De måste få "koll" på tillverkningstekniken (få bra yield) och det tar enorm tid att utveckla själva kretsen även om den bygger vidare på föregående generation. Dessutom går tillverkningskostnaderna ner över tiden vilket de inte har någon inverkan över eftersom de inte sköter tillverkningsn själv. Time-to-market är extremt viktigt och något alla inom dator- och halvledar-industrin försöker få en bra avvägning på och där motpolen är en "bra produkt (som i snabb, många features, energisnål osv osv)".

Med single core CPUer kan man inte göra "mer av samma". Att stoppa in fler exekveringsenheter, större cache osv är helt meningslöst eftersom dubbel chipyta som används till detta bara ger några fjuttiga procent extra. Med dual cores funkar "mer av samma" och det är precis det man gör nu. Man kunde ju släppa en quad core nästa månad om man ville men kostnaden skulle bli löjligt hög. Man brukar räkna med att priset för ett chip är proportionell mot arean i kubik, så quad cores skulle kosta 8 gånger mer att tillverka än dual cores och då är det bättre att använda sig av flera processorer istället.

Sen får du gärna specificera hur mycket du kan om ekonomi, skulle vara intressant att höra. Jag kan som sagt inte mycket inom det området själv, men att företagen "har pengar" men inte investerar dem låter löjligt i mina öron. Det finns väl inga orimligt stora vinster hos tillverkarna om man ser över lite längre sikt?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MooDHooDs
Ni klagade på quad sli? Gör bättre kärnor istället för att slänga ihop dem! 2 GHz 80 kärnor nästa?

de är ju effektivare... du har 4 kärnor i en cpu... inte fyra cpuer med en sladd i mellan (SLI)

Visa signatur

.: Learn the system, Play the system, Break the system :.

Permalänk
Hedersmedlem

Lugna er lite! AMD talar om quad core för opteron, inte Athlon 64. Och vad jag ser så menar de serveropteron. Så vi kan väl glömma priset på opterion 939-pin.
Tar vi en titt på billigaste dual core opteron på socket 940, Opteron 265 alltså, så ligger billigaste priset på ca 7000 kr med moms hos återförsäljarna. Tro inte att quad opteron för servers (som det initialt verkar vara avsett för) kommer bli billig.

Sen skulle det vara intressant att veta fakta om hur spelprogrammerarna gör multitrådning nu när det börjar komma i spel.
Gör de två trådar bara? Eller gör de flera (godtyckligt) som passar designen bäst (fler än 2), vilket försämrar prestandan lite pga context switching. Någon kanske är framsynt så de bygger spelet så det automatiskt max använder så många trådar (till en rimlig gräns) som det finns kärnor att använda?

Visa signatur

Forumregler | Feedbackforumet | Något som behöver modereras? Tryck på Anmäl inlägget och ge en anledning, någon moderator kommer granska inlägget och göra (egen) bedömning
"Fate. Protects fools, little children and ships named Enterprise." - Riker - ST:TNG

Permalänk
Citat:

Ursprungligen inskrivet av Peter_86
Gött hoppas dom utvecklar spelen så att man kan utnyttja alla kärnor i spelen

Som någon skrev så kommer det att komma i och med Xbox 360 och främst i och med Playstation 3. Den senare har fått utstå kritik från utvecklare som tycker den är krånglig att koda och det är väl inte så konstigt. Inte många spel utnyttjar de två kärnorna vissa pc-datorer har idag - att då vilja att utvecklare helt plötsligt ska dra nytta av 8 stycken är kanske att kräva mycket. Med en ribba högt uppe så kommer utvecklarna nog att hoppa närmre och närmre och den kompetens de bygger upp kommer de troligtvis att använda när de bygger spel för pcn. Jag vet att DICE satsar stort på dessa två konsoler och John Carmack på Id Software har för första gången förflyttat den primära utvecklingen av ett spel till en konsol - Xbox 360.

Citat:

Ursprungligen inskrivet av maglar
Sen pratade nån i tråden om att man utan problem kommer kunna göra (eller kanske köra) spel som drar nytta av alla 4 kärnorna ungefär lika lätt som man kan dra nytta av 2 kärnor, men det håller jag inte med om. Många spel kommer nog snarare att utnyttja två trådar för att göra två uppgifter samtidigt än att använda två trådar för att göra en uppgift. Jag menar alltså att man låter ena kärnan beräkna t ex fysiken samtidigt som den andra används till AI istället för att parallellisera fysik-beräkningarna och AI-beräkningarna var för sig. Och isf så kommer blir det svårt att utnyttja 4 kärnor effektivt.

Det där är precis den uppfattning jag fått av vad som kommer ske i PS3 utvecklingen. De 7 mindre starka processorerna kommer få ta hand om olika mindre uppgifter som AI, ljud, grafik etc och i PS3ans fall innebär det att processorerna bör kunna utnyttjas ganska så bra. I detta fallet kanske dte krävs att man kör ett antal trådar på samma kärna - men det finns väl ingen egentlig förlust med det jämfört med de tradiotionelal tillvägagångssätten?

Citat:

Ursprungligen inskrivet av MooDHooDs
Ni klagade på quad sli? Gör bättre kärnor istället för att slänga ihop dem! 2 GHz 80 kärnor nästa?

2 ghz 80 kärnor - gärna för mig. Det finns redan idag arbetsstationer med över 16 lågprestanda kärnor som ger en bra prestanda i applikationer lämpliga för att köra i flera trådar. Resultatet blir en enklare teknologisk lösning och enklare lösningar kan ofta vara effektiva lösningar. Tänk KISS - Keep It Simple Stupid. Om du vill ha den bästa lösningen tar du den kärna som ger största effekt för minsta kostnad. Kostnaden kan vara värme, kronor, el etc. Du tar sedan de och sätter ihop till en stor dator i princip. Sedan får man ju räkna med förlusten det för många program innebär att köra på flera trådar...

Man tjänar i längden på att samarbeta och det gäller nog processorkärnor också

Citat:

Ursprungligen inskrivet av maglar
Tror du inte man tänkt på detta? Problemet är att man inte vet hur man ska kunna göra effektivare kärnor. Och det beror inte på brist på forskning...

Precis, teknologin hindras att utvecklas vidare av fysikens lagar bl.a. och de lösningarna man lyckas lurka fram blir enormt avancerade och kanske inte särdeles kostnadseffektiva.

Citat:

Ursprungligen inskrivet av Milo
Nu ska jag inte säga bara, detta kostar pengar såklart, men pengar som företagen har, men inte vill lägga ut ännu därför får man aldrig några "stora" uppgraderingar på köpet.Visst 30-50%, men inte alls 300-400%. Ekonomi/Efterfrågan är vad som styr.

Vill och vill - det handlar nog snarare om lönsamhet. Har du utvecklat en plattform måste den tjäna in sig och bli lönsam innan du skickar ut en ny. Konsumenterna skulle nog inte helelr bli glada om deras nyköpta plattform blev omodern nästa sekund...

Citat:

Ursprungligen inskrivet av maglar
Jag är förvisso teknolog och inte ekonom, men jag misstänker ändå starkt att dina konspirationsteorier är lika felaktiga som alla andra konspirationsteorier. Men bara för att det är roligt att höra så kan du gärna förklara hur tillverkarna fått alla världens forskare (såväl anställda på företagen som oberoende på universitet etc) att hålla tyst om de här super-idéerna du tror det finns?

Det kan nog finnas visst befog för konspirationsteorier. Företagen måste värna om värdet för deras produkter. Precis som svenska elleverantörer inte vill producera mer el i sverige för att det skulle sänka värdet på den befintliga elen så vill väl inte chip-tillverkare producera för moderna chip för då sänks priset på deras redan moderna. Det gäller dock att företagen är relativt samspelta för den som bryter mönstret har en stor konkurrensfördel men har samtidigt fördärvat sin konkrrents förtroende och kan således bara förvänta sig samma behandling i fortsättningen.

Visa signatur

3dfx4life tycker jag - en bloggande och egenföretagande webbutvecklare.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Goblinkiller
Det där är precis den uppfattning jag fått av vad som kommer ske i PS3 utvecklingen. De 7 mindre starka processorerna kommer få ta hand om olika mindre uppgifter som AI, ljud, grafik etc och i PS3ans fall innebär det att processorerna bör kunna utnyttjas ganska så bra. I detta fallet kanske dte krävs att man kör ett antal trådar på samma kärna - men det finns väl ingen egentlig förlust med det jämfört med de tradiotionelal tillvägagångssätten?

Du kommer aldrig att kunna utnyttja flera kärnor effektivt genom att ge dem olika uppgifter på det sättet (att ha en tråd som tar hand om AI, en annan för fysik, en tredje för visibility-uträkningar osv). Anledningen är att det inte går att balansera kärnornas jobb. Ena studen är det nästan ingen fysik igång i spelet och nästa går 90% av alla uträkningar åt till detta. Enda sättet att få det balanserat är att parallellisera alla tunga uppgifter _var för sig_. Som sagt så misstänker jag starkt att detta inte sker i "första generationen" av flertrådade spel utan att det kommer först med quad cores. Iofs är det möjligt att just konsollerna gör att jag får fel här, eftersom de innehåller fler cores och därför motiverar en mer "ordentlig" parallellisering.

Citat:

Det kan nog finnas visst befog för konspirationsteorier. Företagen måste värna om värdet för deras produkter. Precis som svenska elleverantörer inte vill producera mer el i sverige för att det skulle sänka värdet på den befintliga elen så vill väl inte chip-tillverkare producera för moderna chip för då sänks priset på deras redan moderna. Det gäller dock att företagen är relativt samspelta för den som bryter mönstret har en stor konkurrensfördel men har samtidigt fördärvat sin konkrrents förtroende och kan således bara förvänta sig samma behandling i fortsättningen.

En produkt är egentligen gammal innan den ens släppts. Man använder ju den senaste forskningen när man tar fram produkten, men under tiden det tar innan den producerats och testats osv så har man naturligtvis kommit på nya idéer som man inte har någon chans att ta med. Så visst, teoretiskt kunde företagen släppa en ny, bättre processor/GPU/whatever varje månad om de hade velat, men det är ju inte ekonomiskt försvarbart. Och det var inte det som diskuterades riktigt, utan snarare att man lät bli att använda den senaste forskningen i sina nya produkter vilket jag inte tror på för fem öre.