Inlägg

Inlägg som anon100733 har skrivit i forumet
Av anon100733
Av anon100733
Citat:

Ursprungligen inskrivet av Greve_Peter
låter fint! men va fan kan Gigabyte nånsin göra ett "snyggt" kort nån gång?:)

Dårå? Har ett själv och jag måste säga att man får bara ett intryck av kvalitet rakt igenom.

Av anon100733
Citat:

Ursprungligen inskrivet av freefrag
Det ser ut som 2010 kan bli ett spännande år.

Jo men glöm inte priset bara XD

Av anon100733

Har tänkt på detta flera gånger förut. Är inte förvånad :]

Av anon100733
Citat:

Ursprungligen inskrivet av 2good4you ATI började med fysik för längesedan med Havok. Allt är i stora drag samma skit med olika namn. PhysX kommer inte vara av någon betydelse mycket snart iom med att allt blir en standard med OpenCL och DC5.0 i DX11. Bägge korten kan beräkna exakt samma kod. Samma sak gäller CUDA, det är bara ett namn. Marknadsföring är det nVidia försöker roffa åt sig pengar på.

Nu är det faktiskt så att OpenCL och DirectCompute är inte fysikbibliotek som PhysX faktiskt är. Konkurrenten här borde alltså istället vara Bullet Physics SOM använder sig utav OpenCL (vilket i sin tur alltså är tänkt för beräkningar, inte fysikberäkningar).

http://bulletphysics.org/wordpress/

Av anon100733

Får kväljningar när jag ser den andra bilden i nyheten.

Av anon100733

Jag ska ha någon av i5: 660,661 eller 670 till mitt nya bygge. Antagligen blir det priserna som avgör vilken.

Av anon100733
Citat:

Ursprungligen inskrivet av cheesen
jo det är första uppdateringen sen jag började köra Ubuntu (6.04) som jag vart besviken på.... nu snurrar då 9.04:an igen=/

6.06

Av anon100733
Av anon100733
Citat:

Ursprungligen inskrivet av Printscreen
DX11 i laptops... vem behöver det

Industrin

Av anon100733
Citat:

Ursprungligen inskrivet av xyllian
Exakt, ATI har gjort det vi vill ha, grafikkort, nVidia däremot, de har gjort physX (blää), CUDA (jaha?), C++ läsande grafikproccesorer (men vafan?) och massa annat roligt.

Med dagens programmerbara GPU arkitekturer är det väl bara bra att ha stöd för sådant som grädde på moset?

Av anon100733

Får kväljningar. :\

Av anon100733

Håller med med inlägget ovan. Och jag väntar för att jag behöver deras episka drivers i spelutvecklingen

Av anon100733
Citat:

Ursprungligen inskrivet av Mr_Lazy
jag vill se Winrar och dyl använda sej av OpenCL

+1 typ 7-zip och filkrypterare

Av anon100733

Det skulle ju vara en fördel om den faktiskt var ultratunn också.

Av anon100733
Citat:

Ursprungligen inskrivet av Kockski
vilka kassa svars alternativ slänger/kastar det borde vara ett alternativ för var o en av dina sk svars alternativ

Sälja eller slänga blev samma svar eftersom det är att man gör sig av med det helt enkelt.

Citat:

Ursprungligen inskrivet av Tommie_l
Tändare på baksidan. det kommer till 100% fungera..

värm kretskortet tills det luktar och ryker utav helvete.. sen vänder du uppochner på kortet och låter den falla av egen vikt, eller bänd snabbt loss den med en mejsel eller liknande. den ska lossna lätt.. det ska inte krävas något våld, då är det får dålig värme..

jag har lossat cpu-socklar på detta sättet med värmepicka utan problem.. en bra måttstock på hur länge man ska värma är när brandlarmet går... då är det dags

Okej det låter bra Borde fungera säkert med en sådan längre tändare och om man gör det utomhus!

Det kommer definitivt bli av kan jag säga, slänger upp ett galleri då! Frågan är när det blir, jag måste ha ett grafikkort som stöder OpenGL 3.2 och mitt AMD kort har inte drivrutiner för det, så det får vänta till december eller så tror jag...

Av anon100733
Citat:

Ursprungligen inskrivet av loi
Antingen värma loss den eller såga ut den och sedan slipa lite på undersidan.

Okej. Hur sitter GPU:n fast i själva kretskortet? Lödning,lim, tryck? (har väldigt liten erfarenhet av sådant här) Behöver mer info här vill inte paja den, då kan jag lika gärna sälja kortet!

Av anon100733
Citat:

Ursprungligen inskrivet av nollad
du ska inte sälja den då?

Nej, jag vill ha kvar GPU:n som ett symboliskt minne.

Av anon100733

lossa G80

Okej snart dags att byta upp sig mot nya grejor. Som spelprogrammerare vill man ju ha något kvar av "gamla bettan"!

Jag undrar kortfattat hur man kan lossa GPU:n på ett GeForce 8800 enklast, har inga brännare eller så kan jag tillägga. Svensson verktyg har jag dock.

Inspiration (åter i lager kan jag tillägga)
Illustrering av kortet
GPU:n
Framsida
Baksida

Edit: And here we go! http://www.sweclockers.com/album/?id=4619

{{ Gå till inlägget för att se omröstningen }}

Av anon100733
Citat:

Ursprungligen inskrivet av TeKGubben
Fy för intel grafik! Usch

Det var det första jag tänkte också