| 
					
							
        
    
        
						
			 | 
			
			
					    
					
        
         
          
         
	
            | Nytænkning på grafikkort Fra : Hans | 
  Dato :  06-07-02 17:12 |  
  |   
            Jeg har prøvet at rette henvendelse til et par af de store producenter af
 grafikkort med en idé jeg garanteret ikke er ene om, men har ingen respons
 fået overhovedet, så derfor kunne jeg godt tænke mig at få nogle
 tilkendegivelser fra jer brugere af dagens grafikkort.
 
 Efter min mening er producenterne med til at fastholde os alle med
 problematikken omkring effektiv køling af de hurtige grafikkort, da de
 vedbliver med at montere GSP'en på den "forkerte" side af printet.
 
 Komponenterne på et AGP-kort vender som bekendt nedaf i et mini- midi eller
 maxi towerkabinet, og derved bliver varmen fra GSP'en hængende under kortet,
 hvilket stiller yderligere krav til køling af chippen. Ydermere er der meget
 lidt plads mellem AGP og PCI-slot 1, hvis dette skal bruges, så problemet er
 reelt nok.
 
 Kigger vi ind i vores maskine må vi konstatere at der er masser af ubenyttet
 plads på oversiden af AGP-kortet, da der er langt over til cpu-køleren.
 Flyttes GSP'en om på oversiden af grafikkortet får vi langt mere plads til
 en effektiv, ikke støjende køling, men fordelen er også at varmen vil blive
 bortledt i en naturlig opadgående retning. Bortledning af denne varme er
 ikke noget problem i et moderne kabinet, da der er mulighed for at montere
 en kabinetblæser eller flere under strømforsyningen.
 
 Er det bare mig som undres over denne indlysende fejlplacering, eller er vi
 mange?
 
 mvh, Hans
 
 
 
 
 
  
            
             |   |   
            
        
 
            
         
           Thomas Worm Madsen (06-07-2002) 
         
	
            | Kommentar Fra : Thomas Worm Madsen | 
  Dato :  06-07-02 18:33 |  
  |  
 
            > Er det bare mig som undres over denne indlysende fejlplacering, eller er
 vi
 > mange?
 Nej du har ganske ret.. men der må da være en god grund til at de ikke har
 gjort det. Jeg kan bare ikke lige komme på hvad det skulle være..?
 Måske grafikken så bliver på hovedet ? (    )
 /Thomas
            
              |   |   
            
        
 
            
         
           Hans (06-07-2002) 
         
	
            | Kommentar Fra : Hans | 
  Dato :  06-07-02 18:37 |  
  |  
 
            "Thomas Worm Madsen" <ormen@ormens.dk> skrev i en meddelelse
 news:ag79jl$iij$1@sunsite.dk...
 > Måske grafikken så bliver på hovedet ? (    )
 Det vil da være fint - Så sparer vi også skærmen.   
mvh, Hans
            
              |   |   
            
        
 
            
         
            Villy Jensen (06-07-2002) 
         
	
            | Kommentar Fra : Villy Jensen | 
  Dato :  06-07-02 19:10 |  
  |  
 
            "Hans" <fast@2night.d.k> skrev i en meddelelse
 news:3d272ab2$0$16820$edfadb0f@dspool01.news.tele.dk...
 > "Thomas Worm Madsen" <ormen@ormens.dk> skrev i en meddelelse
 > news:ag79jl$iij$1@sunsite.dk...
 >
 > > Måske grafikken så bliver på hovedet ? (    )
 >
 > Det vil da være fint - Så sparer vi også skærmen.   
Fedt input ...
 Meen tror du garantien dækker, hvis du flytter GPU'en om bag på PCB?
 Mvh Villy
 http://hjem.get2net.dk/villy
            
             |   |   
            
        
 
            
         
           Herbert (06-07-2002) 
         
	
            | Kommentar Fra : Herbert | 
  Dato :  06-07-02 18:37 |  
  |   
            
 > Jeg har prøvet at rette henvendelse til et par af de store producenter af
 > grafikkort med en idé jeg garanteret ikke er ene om, men har ingen respons
 > fået overhovedet, så derfor kunne jeg godt tænke mig at få nogle
 > tilkendegivelser fra jer brugere af dagens grafikkort.
 >
 > Efter min mening er producenterne med til at fastholde os alle med
 > problematikken omkring effektiv køling af de hurtige grafikkort, da de
 > vedbliver med at montere GSP'en på den "forkerte" side af printet.
 >
 > Komponenterne på et AGP-kort vender som bekendt nedaf i et mini- midi
 eller
 > maxi towerkabinet, og derved bliver varmen fra GSP'en hængende under
 kortet,
 > hvilket stiller yderligere krav til køling af chippen. Ydermere er der
 meget
 > lidt plads mellem AGP og PCI-slot 1, hvis dette skal bruges, så problemet
 er
 > reelt nok.
 >
 > Kigger vi ind i vores maskine må vi konstatere at der er masser af
 ubenyttet
 > plads på oversiden af AGP-kortet, da der er langt over til cpu-køleren.
 > Flyttes GSP'en om på oversiden af grafikkortet får vi langt mere plads til
 > en effektiv, ikke støjende køling, men fordelen er også at varmen vil
 blive
 > bortledt i en naturlig opadgående retning. Bortledning af denne varme er
 > ikke noget problem i et moderne kabinet, da der er mulighed for at montere
 > en kabinetblæser eller flere under strømforsyningen.
 >
 > Er det bare mig som undres over denne indlysende fejlplacering, eller er
 vi
 > mange?
 >
 > mvh, Hans
 
 Hej Hans
 
 Jeg kan kun sigde HØRT!
 
 /Erik
 
 
  
            
             |   |   
            
        
 
            
         
           Steffen (06-07-2002) 
         
	
            | Kommentar Fra : Steffen | 
  Dato :  06-07-02 19:13 |  
  |   
            For at tænke på noget helt andet. Så synes jeg også man burde gøre at man
 kunne opgradere RAM på et grafikkort. Det vil selvfølgelig først være en god
 idé når RAM'en kommer på på fx 512. Så kunne man starte med at købe en
 skrabet udgave af kortet, og så købe flere RAM og montere dem nemt når
 nødvendigt. Det burde vel ikke være så svært at lave?
 
 --
 Sincerly / Mvh.Steffen
 
 "To start press any key........ Where's the any key?"
  - Homer Simpson
 
 1.4 Ghz. AMD Thunderbird
 512 DDR RAM Kingston ECC
 Soltek 75-DRV2 motherboard
 64 MB ATi Radeon 8500 graphic-card
 20 GB Seagate Harddisc
 SoundBlaster Audigy soundcard
 5.1 Inspire 5300 speakers
 16x AOpen DVD Rom
 Windows XP
 256/128 ADSL
 "Herbert" <Herbert007@hotmail.com_Remove> skrev i en meddelelse
 news:ag79ri$qvs$1@news.cybercity.dk...
 >
 > > Jeg har prøvet at rette henvendelse til et par af de store producenter
 af
 > > grafikkort med en idé jeg garanteret ikke er ene om, men har ingen
 respons
 > > fået overhovedet, så derfor kunne jeg godt tænke mig at få nogle
 > > tilkendegivelser fra jer brugere af dagens grafikkort.
 > >
 > > Efter min mening er producenterne med til at fastholde os alle med
 > > problematikken omkring effektiv køling af de hurtige grafikkort, da de
 > > vedbliver med at montere GSP'en på den "forkerte" side af printet.
 > >
 > > Komponenterne på et AGP-kort vender som bekendt nedaf i et mini- midi
 > eller
 > > maxi towerkabinet, og derved bliver varmen fra GSP'en hængende under
 > kortet,
 > > hvilket stiller yderligere krav til køling af chippen. Ydermere er der
 > meget
 > > lidt plads mellem AGP og PCI-slot 1, hvis dette skal bruges, så
 problemet
 > er
 > > reelt nok.
 > >
 > > Kigger vi ind i vores maskine må vi konstatere at der er masser af
 > ubenyttet
 > > plads på oversiden af AGP-kortet, da der er langt over til cpu-køleren.
 > > Flyttes GSP'en om på oversiden af grafikkortet får vi langt mere plads
 til
 > > en effektiv, ikke støjende køling, men fordelen er også at varmen vil
 > blive
 > > bortledt i en naturlig opadgående retning. Bortledning af denne varme er
 > > ikke noget problem i et moderne kabinet, da der er mulighed for at
 montere
 > > en kabinetblæser eller flere under strømforsyningen.
 > >
 > > Er det bare mig som undres over denne indlysende fejlplacering, eller er
 > vi
 > > mange?
 > >
 > > mvh, Hans
 >
 > Hej Hans
 >
 > Jeg kan kun sigde HØRT!
 >
 > /Erik
 >
 >
 
 
  
            
             |   |   
            
        
 
            
         
            Karsten Feddersen (06-07-2002) 
         
	
            | Kommentar Fra : Karsten Feddersen | 
  Dato :  06-07-02 20:09 |  
  |  
 
            Hej
 Steffen wrote:
 > For at tænke på noget helt andet. Så synes jeg også man burde gøre at man
 > kunne opgradere RAM på et grafikkort. Det vil selvfølgelig først være en god
 > idé når RAM'en kommer på på fx 512. Så kunne man starte med at købe en
 > skrabet udgave af kortet, og så købe flere RAM og montere dem nemt når
 > nødvendigt. Det burde vel ikke være så svært at lave?
 Gammel idé. Matrox Millenium kortene havde 4Mb og de kunne opgraderes 
 til 8Mb, men stort set ingen benyttede denne mulighed. Ram sokler er 
 relativt dyre at sætte på et ramkort. Der skal også specialram til og 
 sansynligvis skal kortene tilpasses så de får autodetect af hukommelsen. 
 Så det kræver ekstra i udviklingen af kortene. Den udgift det medfører 
 vil kun være til gavn for ganske få brugere og det er de 99,9% af 
 køberne næppe tilfreds med.
 -- 
 Med venlig hilsen / Best regards / Mit freundlichen Grüßen
 Karsten Feddersen
 http://www.feddersen.dk
            
             |   |   
            
        
 
            
         
            Søren (07-07-2002) 
         
	
            | Kommentar Fra : Søren | 
  Dato :  07-07-02 05:39 |  
  |   
            Hvorfor ikke helt skippe grafikkortet med den form det har i dag?. Med de
 hurtigere cpu der vælter frem for tiden til næsten ingen penge, var det
 måske en ide at bruge selve cpu'en som GPU.
 Det mest simple ville være at køre alt grafik software emuleret, så er det
 kun et program man skal opdatere hver gang de finder på noget nyt, og det
 sker jo tit.
 
 Søren.
 
 
 
  
            
             |   |   
            
        
 
            
         
             Karsten Feddersen (07-07-2002) 
         
	
            | Kommentar Fra : Karsten Feddersen | 
  Dato :  07-07-02 07:24 |  
  |  
 
            Hej
 Søren wrote:
 > Det mest simple ville være at køre alt grafik software emuleret, så er det
 > kun et program man skal opdatere hver gang de finder på noget nyt, og det
 > sker jo tit.
 Det er jo det Direct X gør. Hvis dit grafikkort ikke har den indbyggede 
 3D funktion i hardware, så laver softwaren grafikken til dit.
 Det kan sagten lade sig gøre at spille de nye 3D-spil på ældre 
 grafikkort uden 3D-acceleration, men det går pokkers langsomt, selvom 
 kortet sad i en P4 2,5Ghz.
 Måden at få rigtig hurtige maskiner er ved at lave en række 
 specialiserede chips og fordele opgaverne.
 -- 
 Med venlig hilsen / Best regards / Mit freundlichen Grüßen
 Karsten Feddersen
 http://www.feddersen.dk
            
             |   |   
            
        
 
            
         
              Mogens (07-07-2002) 
         
	
            | Kommentar Fra : Mogens | 
  Dato :  07-07-02 09:26 |  
  |  
 
            On Sun, 07 Jul 2002 08:24:01 +0200, Karsten Feddersen
 <karsten@feddersen.dk> wrote:
 >Måden at få rigtig hurtige maskiner er ved at lave en række 
 >specialiserede chips og fordele opgaverne.
 Ja, PC'er kommer sgu til at lige de gamle Amiga'er mere og mere.    
            
             |   |   
            
        
 
            
         
               H3nrik V! [2670] (07-07-2002) 
         
	
            | Kommentar Fra : H3nrik V! [2670] | 
  Dato :  07-07-02 12:39 |  
  |   
            
"Mogens" <moveng@portalen.no> wrote in message
 news:cnufiuc2c4pibr3cd65ge5lbmqdh1oqsj0@4ax.com...
 > On Sun, 07 Jul 2002 08:24:01 +0200, Karsten Feddersen
 > <karsten@feddersen.dk> wrote:
 >
 > >Måden at få rigtig hurtige maskiner er ved at lave en række
 > >specialiserede chips og fordele opgaverne.
 >
 > Ja, PC'er kommer sgu til at lige de gamle Amiga'er mere og mere.    
Ja... Lige min tanke...!
 /H3nrik - med 3 adskilte Amiga'er og en indbygget i et AT-mnitower...
            
              |   |   
            
        
 
            
         
             Dennis Jakobsen (07-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  07-07-02 16:32 |  
  |   
            Søren wrote:
 > Hvorfor ikke helt skippe grafikkortet med den form det har i dag?. Med de
 > hurtigere cpu der vælter frem for tiden til næsten ingen penge, var det
 > måske en ide at bruge selve cpu'en som GPU.
 
 tror du selv?!?
 
 > Det mest simple ville være at køre alt grafik software emuleret, så er det
 > kun et program man skal opdatere hver gang de finder på noget nyt, og det
 > sker jo tit.
 
 ja, og du tror en 5Ghz CPU ville være nok til at software emulere 
 hardwired grafik rutiner?  NOT..  du ville få 1 frame hvert 10. sekund i 
 Quake2..
 
  
            
             |   |   
            
        
 
            
         
              Søren (07-07-2002) 
         
	
            | Kommentar Fra : Søren | 
  Dato :  07-07-02 19:40 |  
  |   
            
 "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
 news:ag9ms2$c28$2@phys-news1.kolumbus.fi...
 > Søren wrote:
 > > Hvorfor ikke helt skippe grafikkortet med den form det har i dag?. Med
 de
 > > hurtigere cpu der vælter frem for tiden til næsten ingen penge, var det
 > > måske en ide at bruge selve cpu'en som GPU.
 >
 > tror du selv?!?
 >
 > > Det mest simple ville være at køre alt grafik software emuleret, så er
 det
 > > kun et program man skal opdatere hver gang de finder på noget nyt, og
 det
 > > sker jo tit.
 >
 > ja, og du tror en 5Ghz CPU ville være nok til at software emulere
 > hardwired grafik rutiner?  NOT..  du ville få 1 frame hvert 10. sekund i
 > Quake2..
 >
 
 Jeg er ret sikker på at 5 ghz software emulering skrevet  i
 maskinkode/assembler er nok til at slå et geforce4 ti 4600 med flere gange.
 Hvis windows xp var skrevet i maskinkode kunne det køre på en commodore64
 !!!
 
 Søren.
 
 
 
 
 
  
            
             |   |   
            
        
 
            
         
               Dennis Jakobsen (07-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  07-07-02 21:01 |  
  |   
            Søren wrote:
 > Jeg er ret sikker på at 5 ghz software emulering skrevet  i
 > maskinkode/assembler er nok til at slå et geforce4 ti 4600 med flere gange.
 
 ja, så forstår du jo knapt så meget om emulering kontra hardwired 
 løsninger..
 
 > Hvis windows xp var skrevet i maskinkode kunne det køre på en commodore64
 > !!!
 
 lol..  NOT..  det ville måske fylde det halve, men det er jo stadig 
 200mb for meget!! hehe..  :)
 
 og med 64kb ram..  I DONT THINK SO!!!  :)
 
 boot logoet alene ville være for stort!!
 
  
            
             |   |   
            
        
 
            
         
                Søren (07-07-2002) 
         
	
            | Kommentar Fra : Søren | 
  Dato :  07-07-02 22:51 |  
  |   
            
 > lol..  NOT..  det ville måske fylde det halve, men det er jo stadig
 > 200mb for meget!! hehe..  :)
 >
 > og med 64kb ram..  I DONT THINK SO!!!  :)
 >
 
 Prøv at tale med en programmør så kan han fortælle dig lidt om maskinkode
 kontra objekorienteret højniveu sprog.
 En hver der har lidt kendskab til programmering, ved at høj niveusprog
 programmer fylder mange gange mere kører meget langsommere end lav niveu
 sprog. Hvorfor tror du NASA er ude efter 8086 processorer ???, fordi deres
 programmer skal køre i maskinkode !!!, hvis man i 69 have brugt windows som
 styre system var man aldrig kommet til månen.
 
 Søren
 
 
 
  
            
             |   |   
            
        
 
            
         
                 Dennis Jakobsen (08-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  08-07-02 12:13 |  
  |   
            Søren wrote:
 >>lol..  NOT..  det ville måske fylde det halve, men det er jo stadig
 >>200mb for meget!! hehe..  :)
 >>
 >>og med 64kb ram..  I DONT THINK SO!!!  :)
 >>
 > 
 > 
 > Prøv at tale med en programmør så kan han fortælle dig lidt om maskinkode
 > kontra objekorienteret højniveu sprog.
 
 jeg ER programmør..   så jeg fortæller lige mig selv en historie.. 
 imens kan du jo bede din programmør kammerat om at fortælle dig 
 sandheden nu istedet for det bavl han lukker ud..
 
 > En hver der har lidt kendskab til programmering, ved at høj niveusprog
 > programmer fylder mange gange mere kører meget langsommere end lav niveu
 
 mange gange mere?.. njaaa..  i besynderlige omstændigheder kunne det 
 godt fylde 2-3 gange mere..   men det kører under ingen omstændigheder 
 mange gange langsommere..
 
 jeg kan se fordelene i fx. et spil, du har en eller anden processor 
 slugende t&l funktion der skal beregnes (fordi grafik kortet ikke lige 
 havde det :)..  så giver det selvf. et performance boost..   men 
 maskinkode er ikke generelt 3-4 gange hurtigere..
 
 nu afhænger det jo også af hvilken compiler du bruger osv.
 
 > sprog. Hvorfor tror du NASA er ude efter 8086 processorer ???, fordi deres
 > programmer skal køre i maskinkode !!!, hvis man i 69 have brugt windows som
 > styre system var man aldrig kommet til månen.
 
 nej, men havde man brugt AmigaOS istedet for Windows så havde vi nok kun 
 200Mhz 68080 processorer fra Motorola og 16mb ram..  fordi Windows ikke 
 var der til at sluge alle vores resourcer.
 
 så NASA's medarbejdere kører laptops på 8086, med deres eget Assembler 
 baserede OS ?  ;)
 
 hvad er det for nogle besynderlige ting du slynger ud?
 
 hvor har du fundet disse 'facts' ?
 
  
            
             |   |   
            
        
 
            
         
                  Søren (08-07-2002) 
         
	
            | Kommentar Fra : Søren | 
  Dato :  08-07-02 16:12 |  
  |   
            
 "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
 news:agbs3q$n00$1@phys-news1.kolumbus.fi...
 >
 > jeg ER programmør..   så jeg fortæller lige mig selv en historie..
 > imens kan du jo bede din programmør kammerat om at fortælle dig
 > sandheden nu istedet for det bavl han lukker ud..
 >
 
 Hvis du er programmør så må du bruge en fandens masse NOP instruktioner hvis
 det du sagde tidligere skal være sandt:
 
 > ja, og du tror en 5Ghz CPU ville være nok til at software emulere
 > hardwired grafik rutiner?  NOT..  du ville få 1 frame hvert 10. sekund i
 > Quake2..
 
 Må jeg gætte på du er ansat ved microsoft ?, de prøver også at lave
 programmer/rutiner der er så store og resource krævende som overhovedet
 muligt.
 
 Et program der udskriver dit navn vil jeg tror vil se sådan her ud på dit
 tegne brædt (men sikkert mere kompliceret):
 
 For t=1 to 40^10 do
  For t2=1to t
   Do nothing at all 10^10 times
  Next t
 Next t2
 Dumbass=Dennis
 Write Dumbass
 
 
 
 
 
 
  
            
             |   |   
            
        
 
            
         
                   Dennis Jakobsen (08-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  08-07-02 18:13 |  
  |   
            Søren wrote:
 > "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
 > news:agbs3q$n00$1@phys-news1.kolumbus.fi...
 > 
 >>jeg ER programmør..   så jeg fortæller lige mig selv en historie..
 >>imens kan du jo bede din programmør kammerat om at fortælle dig
 >>sandheden nu istedet for det bavl han lukker ud..
 > 
 > Hvis du er programmør så må du bruge en fandens masse NOP instruktioner hvis
 > det du sagde tidligere skal være sandt:
 
 ja, NOP er min favorit instruktion! :)
 
 og du må være en fucking hardcore programmør hvis du tror du kan 
 erstatte et grafikkort med assembler programmering og en lidt hurtigere 
 processor..
 
 >>ja, og du tror en 5Ghz CPU ville være nok til at software emulere
 >>hardwired grafik rutiner?  NOT..  du ville få 1 frame hvert 10. sekund i
 >>Quake2..
 > 
 > Må jeg gætte på du er ansat ved microsoft ?, de prøver også at lave
 > programmer/rutiner der er så store og resource krævende som overhovedet
 > muligt.
 
 ja, det må du godt gætte på..
 
 > Et program der udskriver dit navn vil jeg tror vil se sådan her ud på dit
 > tegne brædt (men sikkert mere kompliceret):
 > 
 > For t=1 to 40^10 do
 >  For t2=1to t
 >   Do nothing at all 10^10 times
 >  Next t
 > Next t2
 > Dumbass=Dennis
 > Write Dumbass
 
 ej, hvor skægt!   men fattede du det selv?  hehe..  dumbass!
 
  
            
             |   |   
            
        
 
            
         
                 Peter Jespersen (08-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  08-07-02 16:37 |  
  |  
 
            On Sun, 7 Jul 2002 23:50:47 +0200, S ren wrote:
 >
 >> lol..  NOT..  det ville måske fylde det halve, men det er jo stadig
 >> 200mb for meget!! hehe..  :)
 >>
 >> og med 64kb ram..  I DONT THINK SO!!!  :)
 >Prøv at tale med en programmør så kan han fortælle dig lidt om maskinkode
 >kontra objekorienteret højniveu sprog.
 >En hver der har lidt kendskab til programmering, ved at høj niveusprog
 >programmer fylder mange gange mere kører meget langsommere end lav niveu
 >sprog. Hvorfor tror du NASA er ude efter 8086 processorer ???, fordi deres
 >programmer skal køre i maskinkode !!!, hvis man i 69 have brugt windows som
 >styre system var man aldrig kommet til månen.
 8086'eren var ganske velegnet til brug i embedded systems på det
 tidspunkt hvor systemet blev slynget sammen. NASA er ved at tage
 sig sammen til at skifte systemet ud (De nye SA er ganske
 nuttede), det koster bare af helvede til - indtil bevillingerne
 ankommer er de kort sagt tvunget til at benytte den billige vej.
 Siden systemet stadig kører som det skal, har de valgt ikke at
 rokke for meget med båden og foretage halvhjertede og
 halvhjernede småopgraderinger og lappeløsning af systemet som de
 kan falde over ved forhandlingerne.
 Umiddelbart vil jeg tro at softwaren er fremstillet i Assembler
 og ikke maskinkode (Jeg kan godt huske da Columbia landede og
 det er netop til styring af rumfærgens løfteraketter de
 benyttes) , det er så noget andet - men det hinderer ej NASA i
 at skifte 8086 processorene ud med fx i486 processorer eller
 RISE mP6 processorer pga bagudkompatibiliteten...så er det at
 modificere koden til de nye følere.
 Og ja abstraktioner koster plads og ofte ydelsesmæssigt.....
 BTW: x86 ASM er noget djævlen har skabt...
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
I am as bored as a pacifists pistol!
            
              |   |   
            
        
 
            
         
                  H3nrik V! [2670] (09-07-2002) 
         
	
            | Kommentar Fra : H3nrik V! [2670] | 
  Dato :  09-07-02 16:04 |  
  |   
            
 "Peter Jespersen" <flywheel@illogical.dk> wrote in message
 news:syljurryvyybtvpnyqx.gyy3ua3.pminews@news.tele.dk...
 On Sun, 7 Jul 2002 23:50:47 +0200, S ren wrote:
 
 Umiddelbart vil jeg tro at softwaren er fremstillet i Assembler
 og ikke maskinkode (Jeg kan godt huske da Columbia landede og
 
 Og forskellen er??? Enhver assembler instruktion kan da svjv omsættes
 direkte til en maskinkode... Jeg havde faktisk en lærer, der fandt en fejl i
 et stykke assemblerprogram ud fra maskinkoderne... Hardcore... :)
 
 /H3nrik!
 
 
  
            
             |   |   
            
        
 
            
         
                   Peter Jespersen (11-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  11-07-02 19:24 |  
  |  
 
            On Tue, 9 Jul 2002 17:03:34 +0200, H3nrik V! [2670] wrote:
 >
 >"Peter Jespersen" <flywheel@illogical.dk> wrote in message
 >news:syljurryvyybtvpnyqx.gyy3ua3.pminews@news.tele.dk...
 >On Sun, 7 Jul 2002 23:50:47 +0200, S ren wrote:
 >
 >Umiddelbart vil jeg tro at softwaren er fremstillet i Assembler
 >og ikke maskinkode (Jeg kan godt huske da Columbia landede og
 >
 >Og forskellen er??? Enhver assembler instruktion kan da svjv omsættes
 >direkte til en maskinkode... Jeg havde faktisk en lærer, der fandt en fejl i
 >et stykke assemblerprogram ud fra maskinkoderne... Hardcore... :)
 Jeg ville lige pointere at maskinkode og ASM ikke er det
 samme....det at man kan oversætte C++ kode til maskinkode gør
 det ej heller til det samme....der er stadig en mellemstation
 imellem ASM og maskinkode/binær kode!
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
Roses are Red, Violets are Blue, I'm Schizophrenic and so am I!
            
              |   |   
            
        
 
            
         
                    H3nrik V! [2670] (12-07-2002) 
         
	
            | Kommentar Fra : H3nrik V! [2670] | 
  Dato :  12-07-02 08:20 |  
  |   
            
 "Peter Jespersen" <flywheel@illogical.dk> wrote in message
 news:syljurryvyybtvpnyqx.gz3vjh1.pminews@news.tele.dk...
 >On Tue, 9 Jul 2002 17:03:34 +0200, H3nrik V! [2670] wrote:
 
 
 >Jeg ville lige pointere at maskinkode og ASM ikke er det
 >samme....det at man kan oversætte C++ kode til maskinkode gør
 >det ej heller til det samme....der er stadig en mellemstation
 >imellem ASM og maskinkode/binær kode!
 
 Altså... Enhver assemblerkode har en maskinkode (eks. MOV = 0x1000 - kun
 eksempel) hvorimod højere niveau sprog som C++ kompileres til Assembler, der
 derefter oversættes til maskinkode. For eksempel en for løkke i C++ kan
 oversættes til assembler på flere måder, hvorimod en assembler instruktion
 KUN kan oversættes til maskinkode på én måde. Derfor: Assembler=Maskinkode!
 
 /H3nrik!
 
 
  
            
             |   |   
            
        
 
            
         
                     Peter Jespersen (12-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  12-07-02 12:15 |  
  |  
 
            On Fri, 12 Jul 2002 09:20:19 +0200, H3nrik V! [2670] wrote:
 >
 >"Peter Jespersen" <flywheel@illogical.dk> wrote in message
 >news:syljurryvyybtvpnyqx.gz3vjh1.pminews@news.tele.dk...
 >>On Tue, 9 Jul 2002 17:03:34 +0200, H3nrik V! [2670] wrote:
 >
 >
 >>Jeg ville lige pointere at maskinkode og ASM ikke er det
 >>samme....det at man kan oversætte C++ kode til maskinkode gør
 >>det ej heller til det samme....der er stadig en mellemstation
 >>imellem ASM og maskinkode/binær kode!
 >
 >Altså... Enhver assemblerkode har en maskinkode (eks. MOV = 0x1000 - kun
 >eksempel) hvorimod højere niveau sprog som C++ kompileres til Assembler, der
 >derefter oversættes til maskinkode. For eksempel en for løkke i C++ kan
 I nogle tilfælde oversættes det en ekstra gang, via et platformsuafhængigt
 sprog - for større portabilitet.
 >oversættes til assembler på flere måder, hvorimod en assembler instruktion
 >KUN kan oversættes til maskinkode på én måde. Derfor: Assembler=Maskinkode!
 Det skal stadig oversættes... Assembler er stadig er symbolsk sprog.
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
Whatever you do, take care of your shoes.
            
              |   |   
            
        
 
            
         
                 H3nrik V! [2670] (09-07-2002) 
         
	
            | Kommentar Fra : H3nrik V! [2670] | 
  Dato :  09-07-02 16:00 |  
  |   
            
 "Søren" <pc@tdcspace.dk> wrote in message
 news:3d28bb61$0$16782$edfadb0f@dspool01.news.tele.dk...
 >
 > sprog. Hvorfor tror du NASA er ude efter 8086 processorer ???, fordi deres
 > programmer skal køre i maskinkode !!!, hvis man i 69 have brugt windows
 som
 > styre system var man aldrig kommet til månen.
 
 Tjah... Fordi de bli'r antikke engang...? For assembler/maskinkode kan
 såmænd sagtens køre på en P4 CPU, der er bare flere opcodes at ta' af...!
 
 /H3nrik!
 
 
  
            
             |   |   
            
        
 
            
         
               H3nrik V! [2670] (09-07-2002) 
         
	
            | Kommentar Fra : H3nrik V! [2670] | 
  Dato :  09-07-02 15:58 |  
  |   
            
 "Søren" <pc@tdcspace.dk> wrote in message
 news:3d288af0$0$16825$edfadb0f@dspool01.news.tele.dk...
 
 > Jeg er ret sikker på at 5 ghz software emulering skrevet  i
 > maskinkode/assembler er nok til at slå et geforce4 ti 4600 med flere
 gange.
 > Hvis windows xp var skrevet i maskinkode kunne det køre på en commodore64
 
 Ja, og ville komme på gaden januar 2135...! :)
 
 /H3nrik!
 
 
  
            
             |   |   
            
        
 
            
         
           Michael Lund Sørense~ (06-07-2002) 
         
	
            | Kommentar Fra : Michael Lund Sørense~ | 
  Dato :  06-07-02 19:19 |  
  |  
 
            Hans wrote:
 :: Jeg har prøvet at rette henvendelse til et par af de store
 :: producenter af grafikkort med en idé jeg garanteret ikke er ene om,
 :: men har ingen respons fået overhovedet, så derfor kunne jeg godt
 :: tænke mig at få nogle tilkendegivelser fra jer brugere af dagens
 :: grafikkort.
 ::
 :: Efter min mening er producenterne med til at fastholde os alle med
 :: problematikken omkring effektiv køling af de hurtige grafikkort, da
 :: de vedbliver med at montere GSP'en på den "forkerte" side af printet.
 ::
 :: Komponenterne på et AGP-kort vender som bekendt nedaf i et mini-
 :: midi eller maxi towerkabinet, og derved bliver varmen fra GSP'en
 :: hængende under kortet, hvilket stiller yderligere krav til køling af
 :: chippen. Ydermere er der meget lidt plads mellem AGP og PCI-slot 1,
 :: hvis dette skal bruges, så problemet er reelt nok.
 ::
 :: Kigger vi ind i vores maskine må vi konstatere at der er masser af
 :: ubenyttet plads på oversiden af AGP-kortet, da der er langt over til
 :: cpu-køleren. Flyttes GSP'en om på oversiden af grafikkortet får vi
 :: langt mere plads til en effektiv, ikke støjende køling, men fordelen
 :: er også at varmen vil blive bortledt i en naturlig opadgående
 :: retning. Bortledning af denne varme er ikke noget problem i et
 :: moderne kabinet, da der er mulighed for at montere en kabinetblæser
 :: eller flere under strømforsyningen.
 ::
 :: Er det bare mig som undres over denne indlysende fejlplacering,
 :: eller er vi mange?
 ::
 Jeg havde en diskussion med Kim Larsen "Mythos" for et stykke tid siden
 <j6bE8.2579$4f4.211592@news000.worldonline.dk> 14-05-02
 da Kim viste link til nogle grafikkort der fyldte to pladser for at få
 plads til blæseren.  På den anden side af printpladen er der masser af
 plads og som du nævner vender den side op af.
 Jo vi er enige, men jeg tror vi ikke er enige med gældende normer for
 AGP kort. Men så må de laves om! Eller der kan komme en bemærkning på
 æsken - Kræver ekstra plads.
 Hvis linket er blevet for gammelt, så find det i Google news groups
 eller Mailgate.org
 --
 Hilsen
 Michael Lund Sørensen
 www.milux.dk.sletdette
            
             |   |   
            
        
 
            
         
           Hans (06-07-2002) 
         
	
            | Kommentar Fra : Hans | 
  Dato :  06-07-02 19:34 |  
  |   
            "Michael Lund Sørensen" <hold-diskussionen-i@nyhedsgruppen-tak.dk> skrev i
 en meddelelse news:8wGV8.7567$I52.214978@news010.worldonline.dk...
 
 > Jo vi er enige, men jeg tror vi ikke er enige med gældende normer for
 > AGP kort. Men så må de laves om! Eller der kan komme en bemærkning på
 > æsken - Kræver ekstra plads.
 
 Det er præcis den argumentation som fastholder de gældende normer uden
 mulighed for innovation og forbedring af perfomance på markedets
 topprodukter.
 
 Det er ganske givet at grænsen for grafikkorts ydeevne ligger i en
 begrænsning af bortskaffelse af varme fra kortet. Du nævner selv en helt
 uacceptabel løsning hvor køleren er så stor at kortet fylder flere slots.
 
 Hvis man brugte indersiden af hovedet ville det være indlysende at flytte
 problemet, og udnytte pladsen hvor den har været hele tiden med ATX normen.
 Det gør det endnu mere uforståeligt da de fleste store producenter af
 skærmkort, samtidig har egenudvikling og produktion af de tilhørende
 bundkort. Hermed sikres at pudsige mekaniske bi-effekter opstår.
 
 Det er fuldstændigt absurd at bremse udviklingen af nye generationer
 grafikkort, som har alle forudsætninger for at kunne fungere optimalt rent
 termisk, men ikke har de nuværende korts ulemper i form af støj.
 
 mvh, Hans
 
 
 
  
            
             |   |   
            
        
 
            
         
            Michael Lund Sørense~ (06-07-2002) 
         
	
            | Kommentar Fra : Michael Lund Sørense~ | 
  Dato :  06-07-02 22:19 |  
  |  
 
            Hans wrote:
 :: "Michael Lund Sørensen" <hold-diskussionen-i@nyhedsgruppen-tak.dk>
 skrev i
 :: en meddelelse news:8wGV8.7567$I52.214978@news010.worldonline.dk...
 ::
 ::: Jo vi er enige, men jeg tror vi ikke er enige med gældende normer
 ::: for AGP kort. Men så må de laves om! Eller der kan komme en
 ::: bemærkning på æsken - Kræver ekstra plads.
 ::
 :: Det er præcis den argumentation som fastholder de gældende normer
 :: uden mulighed for innovation og forbedring af perfomance på markedets
 :: topprodukter.
 ::
 :: Det er ganske givet at grænsen for grafikkorts ydeevne ligger i en
 :: begrænsning af bortskaffelse af varme fra kortet. Du nævner selv en
 :: helt uacceptabel løsning hvor køleren er så stor at kortet fylder
 :: flere slots.
 ::
 :: Hvis man brugte indersiden af hovedet ville det være indlysende at
 :: flytte problemet, og udnytte pladsen hvor den har været hele tiden
 :: med ATX normen. Det gør det endnu mere uforståeligt da de fleste
 :: store producenter af skærmkort, samtidig har egenudvikling og
 :: produktion af de tilhørende bundkort. Hermed sikres at pudsige
 :: mekaniske bi-effekter opstår.
 ::
 :: Det er fuldstændigt absurd at bremse udviklingen af nye generationer
 :: grafikkort, som har alle forudsætninger for at kunne fungere
 :: optimalt rent termisk, men ikke har de nuværende korts ulemper i
 :: form af støj.
 ::
 Vi er så enige som vi kan blive!
 Jeg kan tilføje at mit Happengut tv-kort blokker fuldstændigt for
 blæseren på mit GF2MX400 kort. Hvordan den får suget luft ind ved jeg
 ikke for blæseren rør tv-kortet.
 Luften finder nok en smutvej   
--
 Hilsen
 Michael Lund Sørensen
 www.milux.dk.sletdette
            
             |   |   
            
        
 
            
         
            Dennis Jakobsen (07-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  07-07-02 16:38 |  
  |   
            Hans wrote:
 > "Michael Lund Sørensen" <hold-diskussionen-i@nyhedsgruppen-tak.dk> skrev i
 > en meddelelse news:8wGV8.7567$I52.214978@news010.worldonline.dk...
 > 
 > 
 >>Jo vi er enige, men jeg tror vi ikke er enige med gældende normer for
 >>AGP kort. Men så må de laves om! Eller der kan komme en bemærkning på
 >>æsken - Kræver ekstra plads.
 > 
 > 
 > Det er præcis den argumentation som fastholder de gældende normer uden
 > mulighed for innovation og forbedring af perfomance på markedets
 > topprodukter.
 > 
 > Det er ganske givet at grænsen for grafikkorts ydeevne ligger i en
 > begrænsning af bortskaffelse af varme fra kortet. Du nævner selv en helt
 > uacceptabel løsning hvor køleren er så stor at kortet fylder flere slots.
 > 
 > Hvis man brugte indersiden af hovedet ville det være indlysende at flytte
 > problemet, og udnytte pladsen hvor den har været hele tiden med ATX normen.
 
 og hvor er det på mit P2B-DS ATX bundkort?  kan du ikke lige kigge i 
 manualen og så pege på hvor pladsen er?
 
 bare fordi du har et SocketX bundkort betyder det ikke alle andre har!
 
 jeg synes i skulle stoppe denne fjollede tråd før i rent faktisk får 
 stablet et forslag på benene og sender det til en eller anden grafik 
 kort fabrikant..
 
 der er nok en grund til at det ikke er blevet gjort endnu..  :)
 
  
            
             |   |   
            
        
 
            
         
             Michael Lund Sørense~ (07-07-2002) 
         
	
            | Kommentar Fra : Michael Lund Sørense~ | 
  Dato :  07-07-02 16:54 |  
  |   
            
>>> Jo vi er enige, men jeg tror vi ikke er enige med gældende normer
 >>> for AGP kort. Men så må de laves om! Eller der kan komme en
 >>> bemærkning på æsken - Kræver ekstra plads.
 >>
 >>
 >> Det er præcis den argumentation som fastholder de gældende normer
 >> uden mulighed for innovation og forbedring af perfomance på markedets
 >> topprodukter.
 >>
 >> Det er ganske givet at grænsen for grafikkorts ydeevne ligger i en
 >> begrænsning af bortskaffelse af varme fra kortet. Du nævner selv en
 >> helt uacceptabel løsning hvor køleren er så stor at kortet fylder
 >> flere slots.
 >>
 >> Hvis man brugte indersiden af hovedet ville det være indlysende at
 >> flytte problemet, og udnytte pladsen hvor den har været hele tiden
 >> med ATX normen.
 >
 > og hvor er det på mit P2B-DS ATX bundkort?  kan du ikke lige kigge i
 > manualen og så pege på hvor pladsen er?
 >
 > bare fordi du har et SocketX bundkort betyder det ikke alle andre har!
 >
 > jeg synes i skulle stoppe denne fjollede tråd før i rent faktisk får
 > stablet et forslag på benene og sender det til en eller anden grafik
 > kort fabrikant..
 Helt ærligt du er langt ude!
 Der kan være forside monterede graffikkort og bagside monterede kort.
 >
 > der er nok en grund til at det ikke er blevet gjort endnu..  :)
 Og det står i øverste linie: Gældende NORMER, men det betyder ikke at vi
 kan _ønske_ os en udvikling.
 --
 Hilsen
 Michael Lund Sørensen
 www.milux.dk.sletdette
            
             |   |   
            
        
 
            
         
              Dennis Jakobsen (07-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  07-07-02 18:49 |  
  |   
            Michael Lund Sørensen wrote:
 >>>>Jo vi er enige, men jeg tror vi ikke er enige med gældende normer
 >>>>for AGP kort. Men så må de laves om! Eller der kan komme en
 >>>>bemærkning på æsken - Kræver ekstra plads.
 >>>
 >>>
 >>>Det er præcis den argumentation som fastholder de gældende normer
 >>>uden mulighed for innovation og forbedring af perfomance på markedets
 >>>topprodukter.
 >>>
 >>>Det er ganske givet at grænsen for grafikkorts ydeevne ligger i en
 >>>begrænsning af bortskaffelse af varme fra kortet. Du nævner selv en
 >>>helt uacceptabel løsning hvor køleren er så stor at kortet fylder
 >>>flere slots.
 >>>
 >>>Hvis man brugte indersiden af hovedet ville det være indlysende at
 >>>flytte problemet, og udnytte pladsen hvor den har været hele tiden
 >>>med ATX normen.
 >>
 >>og hvor er det på mit P2B-DS ATX bundkort?  kan du ikke lige kigge i
 >>manualen og så pege på hvor pladsen er?
 >>
 >>bare fordi du har et SocketX bundkort betyder det ikke alle andre har!
 >>
 >>jeg synes i skulle stoppe denne fjollede tråd før i rent faktisk får
 >>stablet et forslag på benene og sender det til en eller anden grafik
 >>kort fabrikant..
 > 
 > 
 > Helt ærligt du er langt ude!
 > 
 > Der kan være forside monterede graffikkort og bagside monterede kort.
 
 nå undskyld, jeg troede rent faktisk i mente det..  kan i så ikke 
 markere beskederne [APRIL FOOLS] så os seriøse idioter ikke bliver 
 forvirret..
 
 >>der er nok en grund til at det ikke er blevet gjort endnu..  :)
 > 
 > Og det står i øverste linie: Gældende NORMER, men det betyder ikke at vi
 > kan _ønske_ os en udvikling.
 
 nåerh nej.. (prøver sarkastisk at lyde som en total idiot! :)  i snakker 
 vel bare om det for sjov skyld..
 
  
            
             |   |   
            
        
 
            
         
               Michael Lund Sørense~ (07-07-2002) 
         
	
            | Kommentar Fra : Michael Lund Sørense~ | 
  Dato :  07-07-02 19:18 |  
  |  
 
            Dennis Jakobsen <brunis@[REM-SPAM]kolumbus.fi> skrev:
 :::: bare fordi du har et SocketX bundkort betyder det ikke alle andre
 :::: har!
 ::::
 :::: jeg synes i skulle stoppe denne fjollede tråd før i rent faktisk
 :::: får stablet et forslag på benene og sender det til en eller anden
 :::: grafik kort fabrikant..
 :::
 :::
 ::: Helt ærligt du er langt ude!
 :::
 ::: Der kan være forside monterede graffikkort og bagside monterede
 ::: kort.
 ::
 :: nå undskyld, jeg troede rent faktisk i mente det..  kan i så ikke
 :: markere beskederne [APRIL FOOLS] så os seriøse idioter ikke bliver
 :: forvirret..
 ::
 :::: der er nok en grund til at det ikke er blevet gjort endnu..  :)
 :::
 ::: Og det står i øverste linie: Gældende NORMER, men det betyder ikke
 ::: at vi kan _ønske_ os en udvikling.
 ::
 :: nåerh nej.. (prøver sarkastisk at lyde som en total idiot! :)  i
 :: snakker vel bare om det for sjov skyld..
 Jeg forstår dig ikke.
 Vi mener ganske seriøst at nogle grafikkort fabrikanterne bør overveje
 at sætte GPU'en med blæser på bagsiden af grafikkortet for bedre
 kølingsmulighed.
 Helt seriøst !
 For nogen vil det være en løsning på et kølings problem.
 For andre vil det være noget de ikke køber pga de har et bundkort /
 lille kabinet, hvor der ikke er plads til det.
 Iøvrigt findes det faktisk allerede:
 http://www.tech-report.com/onearticle.x/3688
http://akiba.ascii24.com/akiba/news/2002/06/06/imageview/images686825.jp
g.html
 --
 Hilsen
 Michael Lund Sørensen
 www.milux.dk.sletdette
            
             |   |   
            
        
 
            
         
                Dennis Jakobsen (07-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  07-07-02 19:34 |  
  |  
 
            Michael Lund Sørensen wrote:
 > 
 > Jeg forstår dig ikke.
 > Vi mener ganske seriøst at nogle grafikkort fabrikanterne bør overveje
 > at sætte GPU'en med blæser på bagsiden af grafikkortet for bedre
 > kølingsmulighed.
 > 
 > Helt seriøst !
 ja, det var det indtryk jeg fik i første omgang..  det var netop derfor 
 jeg gav råd imod det.. for det har ikke noget med ATX at gøre at du har 
 lidt plads OVER AGP slottet..  (i et vertikalt kabinet)
 > For nogen vil det være en løsning på et kølings problem
  >
 > For andre vil det være noget de ikke køber pga de har et bundkort /
 > lille kabinet, hvor der ikke er plads til det.
 så køber de vel et ATI kort istedet for..  som kører 300mhz uden aktiv 
 køling?  :)
 det synes jeg jo er en positiv udvikling..
 > Iøvrigt findes det faktisk allerede:
 > 
 >  http://www.tech-report.com/onearticle.x/3688
jeg kan ikke huske hvor jeg fandt det link til den reviderede R200 chip 
 (RV250?) som ikke kræver en blæser..   ret imponerende ved 300mhz..
 det burde være sådan varmen blev fjernet..  ikke hvor du putter chippen 
 i kabinettet..
 Dennis
            
              |   |   
            
        
 
            
         
                 Dennis Jakobsen (07-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  07-07-02 21:02 |  
  |   |   |   
            
        
 
            
         
                  Michael Lund Sørense~ (07-07-2002) 
         
	
            | Kommentar Fra : Michael Lund Sørense~ | 
  Dato :  07-07-02 22:23 |  
  |  
 
            Dennis Jakobsen <brunis@[REM-SPAM]kolumbus.fi> skrev:
 > Dennis Jakobsen wrote:
 >
 >> jeg kan ikke huske hvor jeg fandt det link til den reviderede R200
 >> chip (RV250?) som ikke kræver en blæser..   ret imponerende ved
 >> 300mhz..
 >
 >  http://www.pcpop.com.cn/view.asp?type=news&id=7391
>
 > der var den!
 Ja det forstår man jo meget af, hvis man er skide god til kinesisk !
 Men der _ER_ blæser på de 3 øverste billeder !!!
 Åben øjnene og se det og de piller den åbenbart af på de nederste
 billeder og sætter en passiv køleplade på.  Med de viser jo ikke kortet
 i brug uden blæser.  Og hvad det er for en chip kan jeg ikke se.
 Prøv at antage en seriøs holdning og forstå at ikke alle er interesseret
 i ATI
 Mit gamle Matrox Marvel G450 eTV havde i øvrigt ingen blæser på!
 --
 Hilsen
 Michael Lund Sørensen
 www.milux.dk.sletdette
            
             |   |   
            
        
 
            
         
                   Dennis Jakobsen (07-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  07-07-02 22:51 |  
  |  
 
            Michael Lund Sørensen wrote:
 > Dennis Jakobsen <brunis@[REM-SPAM]kolumbus.fi> skrev:
 > 
 > 
 >>Dennis Jakobsen wrote:
 >>
 >>
 >>>jeg kan ikke huske hvor jeg fandt det link til den reviderede R200
 >>>chip (RV250?) som ikke kræver en blæser..   ret imponerende ved
 >>>300mhz..
 >>
 >> http://www.pcpop.com.cn/view.asp?type=news&id=7391
>>
 >>der var den!
 > 
 > 
 > Ja det forstår man jo meget af, hvis man er skide god til kinesisk !
 > 
 > Men der _ER_ blæser på de 3 øverste billeder !!!
 ja, det er det R300 baserede kort..
 > Åben øjnene og se det og de piller den åbenbart af på de nederste
 > billeder og sætter en passiv køleplade på.  Med de viser jo ikke kortet
 > i brug uden blæser.  Og hvad det er for en chip kan jeg ikke se.
 RV250.. den reviderede Radeon8500 udgave..
 > Prøv at antage en seriøs holdning og forstå at ikke alle er interesseret
 > i ATI
 det var vist den forkerte tråd..  (det var tråden under denne)  sorry..
 jeg troede det var en grafikkort tråd ?
 men åbenlyst kun velkommen for gamle Matrox evangelister der kan leve af 
 deres 2D kvalitet til deres PC rådner..
 > Mit gamle Matrox Marvel G450 eTV havde i øvrigt ingen blæser på!
 wow..  det havde heller ingen features der kunne kræve en blæser..
 Mit Voodoo3 kørte også uden blæser..  jaja, jeg ved det godt, du er 
 heller ikke interesseret i 3dfx..
            
              |   |   
            
        
 
            
         
                    Peter Jespersen (08-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  08-07-02 16:19 |  
  |  
 
            On Mon, 08 Jul 2002 00:50:52 +0300, Dennis Jakobsen wrote:
 <snip>
 >
 >det var vist den forkerte tråd..  (det var tråden under denne)  sorry..
 >
 >jeg troede det var en grafikkort tråd ?
 >
 >men åbenlyst kun velkommen for gamle Matrox evangelister der kan leve af 
 >deres 2D kvalitet til deres PC rådner..
 Drop det pis!!!
 >> Mit gamle Matrox Marvel G450 eTV havde i øvrigt ingen blæser på!
 >
 >wow..  det havde heller ingen features der kunne kræve en blæser..
 Drop det pis!!!
 Der kan sgu være mange gode grunde til at mange stadig benytter
 Matrox-kort, især på ikke-Redmond platforme.
 En af grundene til at jeg selv benytter et G400 DH er at både
 ATi's og nVidia's SplitScreen implementationer er så
 himmelråbende og elendige at man helt får det dårligt. Det er
 først med R300 at ATi vil være istand til at vise noget der
 kommer tilnærmelsesvis i nærheden. Dernæst har Matrox en gammel
 tradition med at have drivere for andet end det nyeste
 Fisher-Price fra Redmond.
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
I'm outta sick days; I think I'll call in dead.
            
              |   |   
            
        
 
            
         
                     Dennis Jakobsen (08-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  08-07-02 17:55 |  
  |   
            Peter Jespersen wrote:
 > On Mon, 08 Jul 2002 00:50:52 +0300, Dennis Jakobsen wrote:
 > 
 > <snip>
 > 
 >>det var vist den forkerte tråd..  (det var tråden under denne)  sorry..
 >>
 >>jeg troede det var en grafikkort tråd ?
 >>
 >>men åbenlyst kun velkommen for gamle Matrox evangelister der kan leve af 
 >>deres 2D kvalitet til deres PC rådner..
 > 
 > 
 > Drop det pis!!!
 > 
 > 
 >>>Mit gamle Matrox Marvel G450 eTV havde i øvrigt ingen blæser på!
 >>
 >>wow..  det havde heller ingen features der kunne kræve en blæser..
 > 
 > 
 > Drop det pis!!!
 
 hvad for noget pis?
 
 for satan i matrox er 'touchy'..  i ærgrer jer så vildt over de usle 3d 
 features.. eller mangel på samme at ligeså snart man nævner det, bliver 
 der sat en hård linie, som hvis vover at overtræde..  uuuhh.. fear the 
 consequences..  hehe..    i pity you..
 
 hold dog op med at hæng i fortiden og jeres 'wanna-be 2D superiority'
 
 > Der kan sgu være mange gode grunde til at mange stadig benytter
 > Matrox-kort, især på ikke-Redmond platforme.
 > En af grundene til at jeg selv benytter et G400 DH er at både
 > ATi's og nVidia's SplitScreen implementationer er så
 > himmelråbende og elendige at man helt får det dårligt. Det er
 
 mit virker fint..  har du prøvet at ty til manualen?  bare fordi det 
 ikke lige virkede første gang du famlede i blinde, kan det jo stadig 
 fungere fortræffeligt ikke?  nå nej.. ikke hvis det ikke er gjort på 
 Matrox måden..  som jo er end-all be-all løsningen..  riiight..
 
 > først med R300 at ATi vil være istand til at vise noget der
 > kommer tilnærmelsesvis i nærheden. Dernæst har Matrox en gammel
 > tradition med at have drivere for andet end det nyeste
 > Fisher-Price fra Redmond.
 
 hvordan ser en 1024x768x32 ud på dit TV?
 
 ooops..  get with the program..  køb et Radeon8500 i dag..
 
  
            
             |   |   
            
        
 
            
         
                      Peter Jespersen (08-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  08-07-02 23:14 |  
  |  
 
            On Mon, 08 Jul 2002 19:54:33 +0300, Dennis Jakobsen wrote:
 <snip>
 >hvad for noget pis?
 >
 >for satan i matrox er 'touchy'..  i ærgrer jer så vildt over de usle 3d 
 >features.. eller mangel på samme at ligeså snart man nævner det, bliver 
 >der sat en hård linie, som hvis vover at overtræde..  uuuhh.. fear the 
 >consequences..  hehe..    i pity you..
 Rent faktisk er Matrox ikke så langt bagefter mht features,
 deres nyeste processor er gerne en meter foran konkurrenterne.
 >hold dog op med at hæng i fortiden og jeres 'wanna-be 2D superiority'
 Hmmm...så du bruger aldrig kortets 2D del ??
 >> Der kan sgu være mange gode grunde til at mange stadig benytter
 >> Matrox-kort, især på ikke-Redmond platforme.
 >> En af grundene til at jeg selv benytter et G400 DH er at både
 >> ATi's og nVidia's SplitScreen implementationer er så
 >> himmelråbende og elendige at man helt får det dårligt. Det er
 >
 >mit virker fint..  har du prøvet at ty til manualen?  bare fordi det 
 >ikke lige virkede første gang du famlede i blinde, kan det jo stadig 
 >fungere fortræffeligt ikke?  nå nej.. ikke hvis det ikke er gjort på 
 >Matrox måden..  som jo er end-all be-all løsningen..  riiight..
 Heh der har du ganske ret, men selv en blind høne.......
 >> først med R300 at ATi vil være istand til at vise noget der
 >> kommer tilnærmelsesvis i nærheden. Dernæst har Matrox en gammel
 >> tradition med at have drivere for andet end det nyeste
 >> Fisher-Price fra Redmond.
 >
 >hvordan ser en 1024x768x32 ud på dit TV?
 >
 >ooops..  get with the program..  køb et Radeon8500 i dag..
 Aldrig i livet, jeg har overvejet det flere gang men hver gang
 er der en hjernedød nar der fået mig fra det....du er den
 seneste - jeg kan nu annoncere at det næste grafikkort bliver et
 Matrox Parhelia.... Nu ved du hvor du kan parkere både ATi R200,
 250 og 300....nemlig et sted hvor solen forhåbentlig aldrig
 skinner.
 Desværre har jeg ikke i øjeblikket råd til en tredje
 Trinitron-skærm, så der bliver ingen TrippleHead for mig indtil
 videre.....
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
Yoda am I, of Borg.  Assimilated will you be.
            
              |   |   
            
        
 
            
         
                       Dennis Jakobsen (08-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  08-07-02 23:42 |  
  |   
            Peter Jespersen wrote:
 > On Mon, 08 Jul 2002 19:54:33 +0300, Dennis Jakobsen wrote:
 > 
 > <snip>
 > 
 >>hvad for noget pis?
 >>
 >>for satan i matrox er 'touchy'..  i ærgrer jer så vildt over de usle 3d 
 >>features.. eller mangel på samme at ligeså snart man nævner det, bliver 
 >>der sat en hård linie, som hvis vover at overtræde..  uuuhh.. fear the 
 >>consequences..  hehe..    i pity you..
 > 
 > 
 > Rent faktisk er Matrox ikke så langt bagefter mht features,
 > deres nyeste processor er gerne en meter foran konkurrenterne.
 > 
 > 
 >>hold dog op med at hæng i fortiden og jeres 'wanna-be 2D superiority'
 > 
 > 
 > Hmmm...så du bruger aldrig kortets 2D del ??
 > 
 > 
 >>>Der kan sgu være mange gode grunde til at mange stadig benytter
 >>>Matrox-kort, især på ikke-Redmond platforme.
 >>>En af grundene til at jeg selv benytter et G400 DH er at både
 >>>ATi's og nVidia's SplitScreen implementationer er så
 >>>himmelråbende og elendige at man helt får det dårligt. Det er
 >>
 >>mit virker fint..  har du prøvet at ty til manualen?  bare fordi det 
 >>ikke lige virkede første gang du famlede i blinde, kan det jo stadig 
 >>fungere fortræffeligt ikke?  nå nej.. ikke hvis det ikke er gjort på 
 >>Matrox måden..  som jo er end-all be-all løsningen..  riiight..
 > 
 > Heh der har du ganske ret, men selv en blind høne.......
 > 
 > 
 >>>først med R300 at ATi vil være istand til at vise noget der
 >>>kommer tilnærmelsesvis i nærheden. Dernæst har Matrox en gammel
 >>>tradition med at have drivere for andet end det nyeste
 >>>Fisher-Price fra Redmond.
 >>
 >>hvordan ser en 1024x768x32 ud på dit TV?
 >>
 >>ooops..  get with the program..  køb et Radeon8500 i dag..
 > 
 > Aldrig i livet, jeg har overvejet det flere gang men hver gang
 > er der en hjernedød nar der fået mig fra det....du er den
 > seneste - jeg kan nu annoncere at det næste grafikkort bliver et
 > Matrox Parhelia.... Nu ved du hvor du kan parkere både ATi R200,
 > 250 og 300....nemlig et sted hvor solen forhåbentlig aldrig
 > skinner.
 
 jeg har da planer om at beholde det..  hver gang jeg opgraderer går det 
 'gamle' kort over i den sekundære maskine..
 
 så må du jo græde ved din mors skulder når du indser alle de penge du 
 spildte på dit gårsdagens tech kort til morgendagens pris..  enjoy..
 
 > Desværre har jeg ikke i øjeblikket råd til en tredje
 > Trinitron-skærm, så der bliver ingen TrippleHead for mig indtil
 > videre.....
 
 årrrhh..  jeg kan da sende dig et billede af mit Radeon8500 setup! :)
 
  
            
             |   |   
            
        
 
            
         
                        Peter Jespersen (09-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  09-07-02 02:15 |  
  |  
 
            On Tue, 09 Jul 2002 01:42:13 +0300, Dennis Jakobsen wrote:
 >Peter Jespersen wrote:
 >> On Mon, 08 Jul 2002 19:54:33 +0300, Dennis Jakobsen wrote:
 >> 
 >> <snip>
 >> 
 >>>hvad for noget pis?
 >>>
 >>>for satan i matrox er 'touchy'..  i ærgrer jer så vildt over de usle 3d 
 >>>features.. eller mangel på samme at ligeså snart man nævner det, bliver 
 >>>der sat en hård linie, som hvis vover at overtræde..  uuuhh.. fear the 
 >>>consequences..  hehe..    i pity you..
 >> 
 >> 
 >> Rent faktisk er Matrox ikke så langt bagefter mht features,
 >> deres nyeste processor er gerne en meter foran konkurrenterne.
 >> 
 >> 
 >>>hold dog op med at hæng i fortiden og jeres 'wanna-be 2D superiority'
 >> 
 >> 
 >> Hmmm...så du bruger aldrig kortets 2D del ??
 Åbenbart ikke....
 >>>>Der kan sgu være mange gode grunde til at mange stadig benytter
 >>>>Matrox-kort, især på ikke-Redmond platforme.
 >>>>En af grundene til at jeg selv benytter et G400 DH er at både
 >>>>ATi's og nVidia's SplitScreen implementationer er så
 >>>>himmelråbende og elendige at man helt får det dårligt. Det er
 >>>
 >>>mit virker fint..  har du prøvet at ty til manualen?  bare fordi det 
 >>>ikke lige virkede første gang du famlede i blinde, kan det jo stadig 
 >>>fungere fortræffeligt ikke?  nå nej.. ikke hvis det ikke er gjort på 
 >>>Matrox måden..  som jo er end-all be-all løsningen..  riiight..
 >> 
 >> Heh der har du ganske ret, men selv en blind høne.......
 >> 
 >> 
 >>>>først med R300 at ATi vil være istand til at vise noget der
 >>>>kommer tilnærmelsesvis i nærheden. Dernæst har Matrox en gammel
 >>>>tradition med at have drivere for andet end det nyeste
 >>>>Fisher-Price fra Redmond.
 >>>
 >>>hvordan ser en 1024x768x32 ud på dit TV?
 >>>
 >>>ooops..  get with the program..  køb et Radeon8500 i dag..
 >> 
 >> Aldrig i livet, jeg har overvejet det flere gang men hver gang
 >> er der en hjernedød nar der fået mig fra det....du er den
 >> seneste - jeg kan nu annoncere at det næste grafikkort bliver et
 >> Matrox Parhelia.... Nu ved du hvor du kan parkere både ATi R200,
 >> 250 og 300....nemlig et sted hvor solen forhåbentlig aldrig
 >> skinner.
 >
 >jeg har da planer om at beholde det..  hver gang jeg opgraderer går det 
 >'gamle' kort over i den sekundære maskine..
 >
 >så må du jo græde ved din mors skulder når du indser alle de penge du 
 >spildte på dit gårsdagens tech kort til morgendagens pris..  enjoy...
 Skægt nok vil R250 ikke fange P teknologisk....R300 har
 chancen...
 Jeg har ikke grædt siden jeg indkøbte mit første Matrox-kort,
 der 5 år efter stadig er i brug, ligesom mit Millenium2...mit
 G400-DH derimod vil jeg nok indramme og hænge op  på væggen.....
 Så pak du bare dine lego-klodser sammen...
 >> Desværre har jeg ikke i øjeblikket råd til en tredje
 >> Trinitron-skærm, så der bliver ingen TrippleHead for mig indtil
 >> videre.....
 >
 >årrrhh..  jeg kan da sende dig et billede af mit Radeon8500 setup! :)
 Næh hvor kært....men hvad Dualhead er vil også godt nok for mig
 i øjeblikket....
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
Where am I? And why am I in this HANDBASKET??
            
              |   |   
            
        
 
            
         
                         Dennis Jakobsen (09-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  09-07-02 01:47 |  
  |   
            Peter Jespersen wrote:
 
 > Skægt nok vil R250 ikke fange P teknologisk....R300 har
 > chancen...
 
 vil du være sød at uddybe?  at have flere features end et GF4 fanger 
 ikke teknologisk?
 
 jeg ved godt 3D ikke fanger dig overhovedet, for du har jo stadig et 
 Matrox kort..  (og lad nu vær at bliv fornærmet, vi kan vel være enige 
 om at det ikke just har den store 3D performance..)
 
 og ja.. R300 bliver spændende..  lad os se om de kan finde ud af at 
 udnytte en 256mbit mem bus.. Matrox ser jo ikke ud til at kunne gøre 
 noget med deres ~20gb/sec.
 
 dem der har et siger jo det tørrer røv med alt andet på markedet.. 
 hvilket Matrox kortet også burde have gjort med de spec's det har.. 
 måske en driver løser det i den nærmeste fremtid?!?  hvem ved..
 
 > Jeg har ikke grædt siden jeg indkøbte mit første Matrox-kort,
 > der 5 år efter stadig er i brug, ligesom mit Millenium2...mit
 > G400-DH derimod vil jeg nok indramme og hænge op  på væggen.....
 > Så pak du bare dine lego-klodser sammen...
 
 hmm.. jeg overvejede det der Mindstorm sæt, men havde aldrig penge til 
 det..    mine lomme penge rækker ikke..  ;)
 
  
            
             |   |   
            
        
 
            
         
                          Peter Jespersen (09-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  09-07-02 12:10 |  
  |  
 
            On Tue, 09 Jul 2002 03:46:50 +0300, Dennis Jakobsen wrote:
 >Peter Jespersen wrote:
 >
 >> Skægt nok vil R250 ikke fange P teknologisk....R300 har
 >> chancen...
 >
 >vil du være sød at uddybe?  at have flere features end et GF4 fanger 
 >ikke teknologisk?
 Hvem blandet nVidia-skramlet ind her ??
 >jeg ved godt 3D ikke fanger dig overhovedet, for du har jo stadig et 
 >Matrox kort..  (og lad nu vær at bliv fornærmet, vi kan vel være enige 
 >om at det ikke just har den store 3D performance..)
 Nej, 3D ydelsesmæssigt har Matrox altid været en halv generation
 bagefter - featuremæssigt og kvalitetsmæssigt har de altid være
 foran. Det er det de ligger vægt på og det er det der i den grad
 forsinker kortene. Men nej min maskiner er i det hele taget ikke
 en spillemaskine - en indikation er fx at den er drevet af en
 1000Mhz Morgan. 
 Men nu er verden sådan at det ikker er alle der er 3D FPS
 fixerede .... har kun ganske få spille-svagheder men her slår
 min nuværende konfiguration faktisk stadig til. Der er rent
 faktisk nogle brugere der ligge mere vægt på billedkvalitet,
 fremragende SplitScreen kapabiliteter og en alsidig
 driverunderstøttelse.
 >og ja.. R300 bliver spændende..  lad os se om de kan finde ud af at 
 >udnytte en 256mbit mem bus.. Matrox ser jo ikke ud til at kunne gøre 
 >noget med deres ~20gb/sec.
 >
 >dem der har et siger jo det tørrer røv med alt andet på markedet... 
 >hvilket Matrox kortet også burde have gjort med de spec's det har.. 
 >måske en driver løser det i den nærmeste fremtid?!?  hvem ved..
 Nej - P har flaskehalse og er flere steder underbemandet. Det
 store problem er dog hvad Matrox har gjort ved P, eller ikke har
 gjort ved P.
 Den lave core-clock er det største problem, konkurrenterne er
 tæt på at have et forspring på 100Mhz....tager man det med i
 overvejelserne - klarer P sig rent faktisk ikke helt dårligt.
 Forhåbentlig kommer der er .13my udgave senere i år- hvilket vil
 gøre dte muligt at skrue op for taktfrekvensen.
 <snip>
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
Finagle's First Law: If an experiment works, something has gone wrong.
            
              |   |   
            
        
 
            
         
                           Dennis Jakobsen (09-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  09-07-02 14:51 |  
  |   
            Peter Jespersen wrote:
 > On Tue, 09 Jul 2002 03:46:50 +0300, Dennis Jakobsen wrote:
 > 
 > 
 >>Peter Jespersen wrote:
 >>
 >>
 >>>Skægt nok vil R250 ikke fange P teknologisk....R300 har
 >>>chancen...
 >>
 >>vil du være sød at uddybe?  at have flere features end et GF4 fanger 
 >>ikke teknologisk?
 > 
 > Hvem blandet nVidia-skramlet ind her ??
 
 det gjorde jeg ...  det hentydede jo ikke til noget, så jeg valgte at 
 tage det navn folk normalt associerer med det bedste grafikkort..
 
 nu ville det jo nok have været Matrox Parhelia i dit tilfælde.
 
 >>jeg ved godt 3D ikke fanger dig overhovedet, for du har jo stadig et 
 >>Matrox kort..  (og lad nu vær at bliv fornærmet, vi kan vel være enige 
 >>om at det ikke just har den store 3D performance..)
 > 
 > Nej, 3D ydelsesmæssigt har Matrox altid været en halv generation
 
 tjaa..  indtil Parhelia, var det jo nok mere 2-3 hele generationer
 
 > bagefter - featuremæssigt og kvalitetsmæssigt har de altid være
 
 feature mæssigt?  hvilke features snakker du om?  (jeg tænker jo straks 
 3D når du nævner features)
 
 > foran. Det er det de ligger vægt på og det er det der i den grad
 > forsinker kortene. Men nej min maskiner er i det hele taget ikke
 > en spillemaskine - en indikation er fx at den er drevet af en
 > 1000Mhz Morgan.
 
 ja..  det var da overdrevet meget hvis du ikke skal spille! ;)
 
 (men så er der jo mp3 encoding, divx osv. osv. )
 
 > Men nu er verden sådan at det ikker er alle der er 3D FPS
 > fixerede .... har kun ganske få spille-svagheder men her slår
 > min nuværende konfiguration faktisk stadig til. Der er rent
 > faktisk nogle brugere der ligge mere vægt på billedkvalitet,
 > fremragende SplitScreen kapabiliteter og en alsidig
 > driverunderstøttelse.
 
 ja, jeg lægger fx. vægt på det hele..
 
 > Nej - P har flaskehalse og er flere steder underbemandet. Det
 > store problem er dog hvad Matrox har gjort ved P, eller ikke har
 > gjort ved P.
 > Den lave core-clock er det største problem, konkurrenterne er
 > tæt på at have et forspring på 100Mhz....tager man det med i
 > overvejelserne - klarer P sig rent faktisk ikke helt dårligt.
 > Forhåbentlig kommer der er .13my udgave senere i år- hvilket vil
 > gøre dte muligt at skrue op for taktfrekvensen.
 
 njaa.. jeg er ikke helt enig..  det med klok frekvensen har selvf. noget 
 at sige..  men i memory båndbredde tests har den det halve af et Radeon 
 (som har det halve af et GF4)..   selvom den har det teoretisk dobbelte 
 til rådighed..  det er ikke GPU klokfrekvensen der begrænser din memory 
 båndbredde, så er der i hvert fald et kæmpe design flaw og den 256bit 
 mem bus er spildt..
 
 ja, lad os håbe de får oppet frekvensen..  men det hjælper jo ikke 
 meget, når de kun udnytter 1/4 af deres båndbredde..
 
  
            
             |   |   
            
        
 
            
         
                            Peter Jespersen (11-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  11-07-02 19:25 |  
  |  
 
            On Tue, 09 Jul 2002 16:51:06 +0300, Dennis Jakobsen wrote:
 >Peter Jespersen wrote:
 >> On Tue, 09 Jul 2002 03:46:50 +0300, Dennis Jakobsen wrote:
 >> 
 >>>Peter Jespersen wrote:
 >>>
 >>>>Skægt nok vil R250 ikke fange P teknologisk....R300 har
 >>>>chancen...
 >>>
 >>>vil du være sød at uddybe?  at have flere features end et GF4 fanger 
 >>>ikke teknologisk?
 >> 
 >> Hvem blandet nVidia-skramlet ind her ??
 >
 >det gjorde jeg ...  det hentydede jo ikke til noget, så jeg valgte at 
 >tage det navn folk normalt associerer med det bedste grafikkort..
 >
 >nu ville det jo nok have været Matrox Parhelia i dit tilfælde.
 Ikke nødvendigvis, vi kan jo ikke alle være lige fixerede...
 Men med P mente jeg rent faktisk Parhelia...og bare fordi en
 bestemt GPU skyder flest FPS ud behøver det ikke at være den
 bedste GPU, til alle opgaver.
 En af grundende til at jeg holder så meget af Matrox-kortene er
 at de ikke har små obskure fabrikanter til at strikke dem
 sammen, uden kontrol. Jeg var dybt skuffet da ATi skubbede hele
 produktionen fra sig.
 >>>jeg ved godt 3D ikke fanger dig overhovedet, for du har jo stadig et 
 >>>Matrox kort..  (og lad nu vær at bliv fornærmet, vi kan vel være enige 
 >>>om at det ikke just har den store 3D performance..)
 >> 
 >> Nej, 3D ydelsesmæssigt har Matrox altid været en halv generation
 >
 >tjaa..  indtil Parhelia, var det jo nok mere 2-3 hele generationer
 At seneste generation processor, kørende på minimum 3
 generationsdrivere kan slå en første udgave af en konkurrerende
 processor kørende på førsteudgave drivprogrammer er vel ikke
 sentationelt....
 >> bagefter - featuremæssigt og kvalitetsmæssigt har de altid være
 >
 >feature mæssigt?  hvilke features snakker du om?  (jeg tænker jo straks 
 >3D når du nævner features)
 AFAIR mangler Parhelia kun en enkelt feature, så er den DirectX9
 kompatibel....selv ikke ATi, der har været medkonspirator kan på
 nuværende tidspunkt fremvise noget sådan. 16xFAA er også en
 herlig genvej....Surround Gaming...
 >> foran. Det er det de ligger vægt på og det er det der i den grad
 >> forsinker kortene. Men nej min maskiner er i det hele taget ikke
 >> en spillemaskine - en indikation er fx at den er drevet af en
 >> 1000Mhz Morgan.
 >
 >ja..  det var da overdrevet meget hvis du ikke skal spille! ;)
 Har stadig svagheder...syysh   
>(men så er der jo mp3 encoding, divx osv. osv. )
 Yep...der er forskel på om det er procesoren der står og venter
 på CD-ROM drevet eller om det er CD-ROM drevet der venter på at
 processoren får nosset sig færdig..... hvis det tager over et
 døgn at grabbe en DVD-film, begynder det også at blive lidt
 kedeligt.
 Bruger min maskine til alt multimedia i øjeblikket, har ikke
 højtalere til min forstærker.....fx ved afspilning af DVD....Det
 er her at DualHead virkelig skinner   
>> Men nu er verden sådan at det ikker er alle der er 3D FPS
 >> fixerede .... har kun ganske få spille-svagheder men her slår
 >> min nuværende konfiguration faktisk stadig til. Der er rent
 >> faktisk nogle brugere der ligge mere vægt på billedkvalitet,
 >> fremragende SplitScreen kapabiliteter og en alsidig
 >> driverunderstøttelse.
 >
 >ja, jeg lægger fx. vægt på det hele..
 Så du vælger det kort der bedst opfylder dine krav....det gør så
 ikke et G450MMS til  dårligt kort - hvilket der klart blev lagt
 op til i starten.
 Det at Parhelia ikke 100% er designet til malstrømmen af mere
 eller mindre tåbelige 3D-spil, gør det ej heller til en dårlig
 dims.
 >> Nej - P har flaskehalse og er flere steder underbemandet. Det
 >> store problem er dog hvad Matrox har gjort ved P, eller ikke har
 >> gjort ved P.
 >> Den lave core-clock er det største problem, konkurrenterne er
 >> tæt på at have et forspring på 100Mhz....tager man det med i
 >> overvejelserne - klarer P sig rent faktisk ikke helt dårligt.
 >> Forhåbentlig kommer der er .13my udgave senere i år- hvilket vil
 >> gøre dte muligt at skrue op for taktfrekvensen.
 >
 >njaa.. jeg er ikke helt enig..  det med klok frekvensen har selvf. noget 
 >at sige..  men i memory båndbredde tests har den det halve af et Radeon 
 >(som har det halve af et GF4)..   selvom den har det teoretisk dobbelte 
 >til rådighed..  det er ikke GPU klokfrekvensen der begrænser din memory 
 >båndbredde, så er der i hvert fald et kæmpe design flaw og den 256bit 
 >mem bus er spildt..
 >
 >ja, lad os håbe de får oppet frekvensen..  men det hjælper jo ikke 
 >meget, når de kun udnytter 1/4 af deres båndbredde..
 De mangler lidt Band-saving......men det meste ligger på det de
 gør med Parhelia...
 Men på den anden side, hvis man ved at GPU'en i kamp aldrig vil
 komme op i nærheden af at udnytte båndbredden (Det er stadig den
 der roder og regerer ved data'en + de hukommelseskredse der
 bliver brugt er ikke ligefrem nogle der skaber nyheder), kan man
 skære et hjørne og komme ud med kortet nogle måneder før.....
 senere kan man så komme med et kort der udnytter
 båndbredden.....syntetiske benchmarks viser kun en lille del af
 sandheden....
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
No one can hear when you're Screaming in Digital!
            
              |   |   
            
        
 
            
         
                             Dennis Jakobsen (12-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  12-07-02 01:10 |  
  |  
 
            Peter Jespersen wrote:
 > Ikke nødvendigvis, vi kan jo ikke alle være lige fixerede...
 jeg er fixeret på det kort der tilfredstiller de fleste af mine behov..
 (god 3D, god TV-ud og en billig pris)
 det er et Radeon8500 lige nu..
 > Men med P mente jeg rent faktisk Parhelia...og bare fordi en
 > bestemt GPU skyder flest FPS ud behøver det ikke at være den
 > bedste GPU, til alle opgaver.
 nej, R200 chippen har fx. flere features end nogen Nvidia GPU, men ikke 
 den samme rå power..  så derfor betragter jeg den som bedre (altså R200)
 :)
 > En af grundende til at jeg holder så meget af Matrox-kortene er
 > at de ikke har små obskure fabrikanter til at strikke dem
 > sammen, uden kontrol. Jeg var dybt skuffet da ATi skubbede hele
 > produktionen fra sig.
 øhh. har de gjort det?   og hvornår?   mit er et ATI kort.. (ikke bare 
 chippen.:))
 >>tjaa..  indtil Parhelia, var det jo nok mere 2-3 hele generationer
 > 
 > At seneste generation processor, kørende på minimum 3
 > generationsdrivere kan slå en første udgave af en konkurrerende
 > processor kørende på førsteudgave drivprogrammer er vel ikke
 > sentationelt....
 kunne du ikke give nogle navne her.. hvilke CPU'er tænker du på? (og 
 mente du ikke GPU'er?)
 og hvad er et drivprogram?   en driver?
 Det jeg mente var, at FØR Parhelia kom, var Matrox's bedste tilbud på 3D 
 kronen 2-3 generationer bagud i både features og performance..
 >>>bagefter - featuremæssigt og kvalitetsmæssigt har de altid være
 >>
 >>feature mæssigt?  hvilke features snakker du om?  (jeg tænker jo straks 
 >>3D når du nævner features)
 > 
 > AFAIR mangler Parhelia kun en enkelt feature, så er den DirectX9
  > kompatibel..
 hvilken feature var det?
 > ..selv ikke ATi, der har været medkonspirator kan på
 > nuværende tidspunkt fremvise noget sådan.
 nææh, men de lancerer det som sædvanlig måneder før softwaren er 
 tilrådighed..  :)   ligesom de gjorde med dx8
 jeg tror de tager sig god tid..  de får sig en kanon anden halvdel af 
 året hvis nVidia ikke får deres NV30 ud til Jul..
 men så igen.. der bliver jo også lige 3DLabs' P10.. det lyder som et 
 heftigt kort..  og det bliver prisen da også uden tvivl..  jeg ved bare 
 3DLabs kan FANDME lave ordentlige OpenGL drivere..
 jeg læste også et sted at det vist kun bliver OpenGL2..  de har droppet 
 bagud kompatibilitet.. så en fixed T&L er ingen steder at blive fundet.. 
 så DX7 spil kan ikke spilles..  :-/
 men med de cpu'er vi har i dag.. kan det vel emuleres uden for meget 
 besvær..
 >>ja..  det var da overdrevet meget hvis du ikke skal spille! ;)
 > 
 > Har stadig svagheder...syysh   
(visker: hvilke?)
 >>(men så er der jo mp3 encoding, divx osv. osv. )
 > 
 > Yep...der er forskel på om det er procesoren der står og venter
 > på CD-ROM drevet eller om det er CD-ROM drevet der venter på at
 > processoren får nosset sig færdig..... hvis det tager over et
 > døgn at grabbe en DVD-film, begynder det også at blive lidt
 > kedeligt.
 ja, men hvor gammelt er dit CDROM drev? (jeg tænker på DMA transfers)
 og du skal vist langt under 100Mhz hvis CDROM'en venter på processoren.
 >>ja, jeg lægger fx. vægt på det hele..
 > 
 > Så du vælger det kort der bedst opfylder dine krav....det gør så
 > ikke et G450MMS til  dårligt kort - hvilket der klart blev lagt
 > op til i starten.
 tjoo.. 3D spil er en del af DET HELE..  så G450 er stadig ubrugeligt for 
 mig..  men ingen tvivl om at det kort tjener sit formål perfekt!
 > Det at Parhelia ikke 100% er designet til malstrømmen af mere
 > eller mindre tåbelige 3D-spil, gør det ej heller til en dårlig
 > dims.
 nej, måske ikke 100%..  men der er lagt STOR vægt på 3D delen i denne 
 omgang..  det blev så stort at de mistede overblikket..
 jeg sidder stadig og venter på der kommer en driver update til at fixe 
 den dårlige brug af båndbredden..  det kan virkelig ikke passe at det 
 ikke klarer sig bedre..
 > De mangler lidt Band-saving......men det meste ligger på det de
 > gør med Parhelia...
 > Men på den anden side, hvis man ved at GPU'en i kamp aldrig vil
 > komme op i nærheden af at udnytte båndbredden (Det er stadig den
 > der roder og regerer ved data'en + de hukommelseskredse der
 > bliver brugt er ikke ligefrem nogle der skaber nyheder), kan man
 > skære et hjørne og komme ud med kortet nogle måneder før.....
 > senere kan man så komme med et kort der udnytter
 > båndbredden.....syntetiske benchmarks viser kun en lille del af
 > sandheden....
 tjaa.. hvis du har en syntetisk benchmark og du vil vurdere hele kortet, 
 så ja..
 men i dette tilfælde snakker vi om ren memory båndbredde.. der kan en 
 test fortælle hele sandheden..  hvilket den også gør i dette tilfælde!
 men som sagt håber jeg der kommer et driver fix..  det kunne seriøst 
 booste performance..
            
              |   |   
            
        
 
            
         
                              Peter Jespersen (12-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  12-07-02 12:57 |  
  |  
 
            On Fri, 12 Jul 2002 03:10:17 +0300, Dennis Jakobsen wrote:
 >Peter Jespersen wrote:
 >> Ikke nødvendigvis, vi kan jo ikke alle være lige fixerede...
 >
 >jeg er fixeret på det kort der tilfredstiller de fleste af mine behov...
 >(god 3D, god TV-ud og en billig pris)
 >
 >det er et Radeon8500 lige nu..
 >
 >> Men med P mente jeg rent faktisk Parhelia...og bare fordi en
 >> bestemt GPU skyder flest FPS ud behøver det ikke at være den
 >> bedste GPU, til alle opgaver.
 >
 >nej, R200 chippen har fx. flere features end nogen Nvidia GPU, men ikke 
 >den samme rå power..  så derfor betragter jeg den som bedre (altså R200)
 >:)
 >> En af grundende til at jeg holder så meget af Matrox-kortene er
 >> at de ikke har små obskure fabrikanter til at strikke dem
 >> sammen, uden kontrol. Jeg var dybt skuffet da ATi skubbede hele
 >> produktionen fra sig.
 >
 >øhh. har de gjort det?   og hvornår?   mit er et ATI kort.. (ikke bare 
 >chippen.:))
 Idag er det ASUS der fremstiller kortene for ATi.....der var vild panik nogle
 steder da ATi lukkede for originale kort til europa...mange forhandlere kunne
 så ikke se forskel på "Made by ATi" og "Powered by ATi" og solgte en del kort
 af inferiør kvalitet fra obskure fabrikanter.
 >>>tjaa..  indtil Parhelia, var det jo nok mere 2-3 hele generationer
 >> 
 >> At seneste generation processor, kørende på minimum 3
 >> generationsdrivere kan slå en første udgave af en konkurrerende
 >> processor kørende på førsteudgave drivprogrammer er vel ikke
 >> sentationelt....
 >
 >kunne du ikke give nogle navne her.. hvilke CPU'er tænker du på? (og 
 >mente du ikke GPU'er?)
 En GPU er også en processor, du må lære at skelne den fra hovedprocessoren
 (På amerikansk Central Processing Unit)
 >og hvad er et drivprogram?   en driver?
 Ja...på god gammel dansk kaldes det blandt andet et drivprogram.
 >Det jeg mente var, at FØR Parhelia kom, var Matrox's bedste tilbud på 3D 
 >kronen 2-3 generationer bagud i både features og performance..
 Jeg taler om lanceringstidspunktet...her er Matrox 3D ydelsesmæssigt gerne en
 halv generation bagud.
 At det eneste de har gjort ved G'en er at smide en ekstra pipeline og noget
 Face-animation på i løbet af de sidste 3 år er kedeligt.
 >>>>bagefter - featuremæssigt og kvalitetsmæssigt har de altid være
 >>>
 >>>feature mæssigt?  hvilke features snakker du om?  (jeg tænker jo straks 
 >>>3D når du nævner features)
 >> 
 >> AFAIR mangler Parhelia kun en enkelt feature, så er den DirectX9
 > > kompatibel..
 >
 >hvilken feature var det?
 Det kan jeg ikke huske lige nu....den står dog på Matrox' roadmap - så det
 ser ud som om at PR-gutterne en kold og stromfuld nat har raidet
 udviklingslaboratoriet og har givet udviklingsholdet 3 timer til at producere
 en prototype...eller også er der en nyuddannet slipsefætter der har ment at
 det var smart at tilføre en ny funktion til hver ny version af P de næste 12
 år....
 Det er ikke til at vide hvad en bi tænker....
 >> ..selv ikke ATi, der har været medkonspirator kan på
 >> nuværende tidspunkt fremvise noget sådan.
 >
 >nææh, men de lancerer det som sædvanlig måneder før softwaren er 
 >tilrådighed..  :)   ligesom de gjorde med dx8
 De har timingsmæssigt lært en del af deres første fejl....
 >jeg tror de tager sig god tid..  de får sig en kanon anden halvdel af 
 >året hvis nVidia ikke får deres NV30 ud til Jul..
 Sidst jeg hørte skulle der være alvorlige problemer med at nå det, så jeg vil
 da håbe at ATi formår at udnytte fordelen denne gang.
 >men så igen.. der bliver jo også lige 3DLabs' P10.. det lyder som et 
 >heftigt kort..  og det bliver prisen da også uden tvivl..  jeg ved bare 
 >3DLabs kan FANDME lave ordentlige OpenGL drivere..
 >
 >jeg læste også et sted at det vist kun bliver OpenGL2..  de har droppet 
 >bagud kompatibilitet.. så en fixed T&L er ingen steder at blive fundet.. 
 >så DX7 spil kan ikke spilles..  :-/
 >
 >men med de cpu'er vi har i dag.. kan det vel emuleres uden for meget 
 >besvær..
 Det er generel purpose processorer, der kort sagt kan beskrives som, kan alt,
 bare ikke noget af det særligt godt .... en didikeret processor er altid at
 foretrække
 >>>ja..  det var da overdrevet meget hvis du ikke skal spille! ;)
 >> 
 >> Har stadig svagheder...syysh   
>
 >(visker: hvilke?)
 Lad mig bare sige at jeg er uønsket i 5 forskellige stater, bare i EU   
>>>(men så er der jo mp3 encoding, divx osv. osv. )
 >> 
 >> Yep...der er forskel på om det er procesoren der står og venter
 >> på CD-ROM drevet eller om det er CD-ROM drevet der venter på at
 >> processoren får nosset sig færdig..... hvis det tager over et
 >> døgn at grabbe en DVD-film, begynder det også at blive lidt
 >> kedeligt.
 >
 >ja, men hvor gammelt er dit CDROM drev? (jeg tænker på DMA transfers)
 Det er et Pioneer S106......med visse værktøjer på visse styresystemer
 (Mpeg3, fast bitrate) står processoren rent faktisk og venter på drevet....
 >og du skal vist langt under 100Mhz hvis CDROM'en venter på processoren.
 Den sidste maskine var drevet af en K6-2 450Mhz   
>>>ja, jeg lægger fx. vægt på det hele..
 >> 
 >> Så du vælger det kort der bedst opfylder dine krav....det gør så
 >> ikke et G450MMS til  dårligt kort - hvilket der klart blev lagt
 >> op til i starten.
 >
 >tjoo.. 3D spil er en del af DET HELE..  så G450 er stadig ubrugeligt for 
 >mig..  men ingen tvivl om at det kort tjener sit formål perfekt!
 Men stadig kun en del....
 Jeg synes at mange har en tendens til at fokusere på kun en enkelt ting..og
 den enkelte ting er som regl ydelsen, at cirklerne så er ovale har ikke noget
 at sige.
 >> Det at Parhelia ikke 100% er designet til malstrømmen af mere
 >> eller mindre tåbelige 3D-spil, gør det ej heller til en dårlig
 >> dims.
 >
 >nej, måske ikke 100%..  men der er lagt STOR vægt på 3D delen i denne 
 >omgang..  det blev så stort at de mistede overblikket..
 De prøver for det meste at kapre gamle kunder med første udgave af P....
 Jeg tror simpelthen at udviklingen igen har taget for lang tid, i modsætning
 til de andre gange har PR-folkene så i nattens mulm og mørke bortranet den
 lille nyfødte....ellers var det ej heller til at sige om Matrox i det hele
 taget eksisterede på lanceringstidspunktet.
 >jeg sidder stadig og venter på der kommer en driver update til at fixe 
 >den dårlige brug af båndbredden..  det kan virkelig ikke passe at det 
 >ikke klarer sig bedre..
 >tjaa.. hvis du har en syntetisk benchmark og du vil vurdere hele kortet, 
 >så ja..
 >
 >men i dette tilfælde snakker vi om ren memory båndbredde.. der kan en 
 >test fortælle hele sandheden..  hvilket den også gør i dette tilfælde!
 >
 >men som sagt håber jeg der kommer et driver fix..  det kunne seriøst 
 >booste performance..
 Der var også stabilitetsproblemer med nogle af de testede kort, jeg tror
 absolut at de har lejet med prototyperne i frikvarteret....
 Det ser også ud til at de har lært både af egne og ATi's fejltalelser mht
 driverne, de har koncentreret sig om 2K/XP og Linux driverne (OS/2 driverne
 har de folk til) ... forhåbentlig giver det bedre drivere end tidligere da de
 selv understøttede alt med halve drivere.....Linux-driverne til G400 er
 stadig på beta-stadiet.....
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
If you do not succeed, redefine success.
            
              |   |   
            
        
 
            
         
                               Dennis Jakobsen (12-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  12-07-02 12:56 |  
  |  
 
            Peter Jespersen wrote:
 > Idag er det ASUS der fremstiller kortene for ATi.....der var vild panik nogle
 > steder da ATi lukkede for originale kort til europa...mange forhandlere kunne
 > så ikke se forskel på "Made by ATi" og "Powered by ATi" og solgte en del kort
 > af inferiør kvalitet fra obskure fabrikanter.
 Asus?..  så mener du nVidia's chips ikke?
 Herqules står for ATI kort i Europa..  og det står stadig frit for 
 enhver anden at lave kort på deres chips..
 >>kunne du ikke give nogle navne her.. hvilke CPU'er tænker du på? (og 
 >>mente du ikke GPU'er?)
 > 
 > 
 > En GPU er også en processor, du må lære at skelne den fra hovedprocessoren
 > (På amerikansk Central Processing Unit)
 tjaa.. det er det vel..  den er bare ikke general purpose..
 men når du bare siger processor, bliver jeg jo nødt til at vælge en af 
 dem...  hvis vi så kunne holde os til CPU og GPU i det mindste, så 
 forvirrer du ikke nogen.. (mig) :)
 >>>AFAIR mangler Parhelia kun en enkelt feature, så er den DirectX9
 >>>kompatibel..
 >>
 >>hvilken feature var det?
 > 
 > Det kan jeg ikke huske lige nu....den står dog på Matrox' roadmap - så det
 > ser ud som om at PR-gutterne en kold og stromfuld nat har raidet
 er det 'publicly available'  ?  Matrox har altid haft deres læber syet 
 sammen med sejlgarn hvad angår fremtidige produkter..
 nu er jeg ikke selv klar over alle kravene for 'DX9 Compliance' men det 
 kunne jo være mangel på AGP8x ..jeg ved i hvert fald at deres 
 farvepræcision er alt for lav..  så det er da en af dem..
 > udviklingslaboratoriet og har givet udviklingsholdet 3 timer til at producere
 > en prototype...eller også er der en nyuddannet slipsefætter der har ment at
 > det var smart at tilføre en ny funktion til hver ny version af P de næste 12
 > år....
 aahh yes..  same old tactics..  så det er nok den gamle slipsefætter..
 > Det er ikke til at vide hvad en bi tænker....
 i det tilfælde er du også en bi for mig lige nu..  :)
 >>nææh, men de lancerer det som sædvanlig måneder før softwaren er 
 >>tilrådighed..  :)   ligesom de gjorde med dx8
 > 
 > De har timingsmæssigt lært en del af deres første fejl....
 så vidt jeg kan forstå er R300 chippen klar.. og har solide drivere.. 
 det er bare begrænset hvor længe de gider vente på Microsoft bliver 
 færdig med DX9..
 >>men med de cpu'er vi har i dag.. kan det vel emuleres uden for meget 
 >>besvær..
 > 
 > Det er generel purpose processorer, der kort sagt kan beskrives som, kan alt,
 > bare ikke noget af det særligt godt .... en didikeret processor er altid at
 > foretrække
 ja, tak for detaljerne, jeg ved godt hvordan det fungerer..  :)
 og med "ikke særlig godt" mener du selvf. "ikke særlig hurtigt"
 >>(visker: hvilke?)
 > 
 > Lad mig bare sige at jeg er uønsket i 5 forskellige stater, bare i EU   
øh, ok..  det er ikke noget jeg spi.. øh.. tester..
 >>nej, måske ikke 100%..  men der er lagt STOR vægt på 3D delen i denne 
 >>omgang..  det blev så stort at de mistede overblikket..
 > 
 > De prøver for det meste at kapre gamle kunder med første udgave af P...
 > Jeg tror simpelthen at udviklingen igen har taget for lang tid, i modsætning
 > til de andre gange har PR-folkene så i nattens mulm og mørke bortranet den
 > lille nyfødte....ellers var det ej heller til at sige om Matrox i det hele
 > taget eksisterede på lanceringstidspunktet.
 for lang tid? ...tjaa.. men de skulle dog have brugt noget mere..  for 
 der er noget i vejen et eller andet sted..
 >>men som sagt håber jeg der kommer et driver fix..  det kunne seriøst 
 >>booste performance..
 > 
 > Der var også stabilitetsproblemer med nogle af de testede kort, jeg tror
 > absolut at de har lejet med prototyperne i frikvarteret....
 > Det ser også ud til at de har lært både af egne og ATi's fejltalelser mht
 > driverne, de har koncentreret sig om 2K/XP og Linux driverne (OS/2 driverne
 > har de folk til) ... forhåbentlig giver det bedre drivere end tidligere da de
 > selv understøttede alt med halve drivere.....Linux-driverne til G400 er
 > stadig på beta-stadiet.....
 Matrox kortet var blandt de mest eftertragtede til BeOS, fordi det havde 
 den bedste understøttelse (video overlay support osv.)  driveren var 
 ikke skrevet af Matrox, men det kræver jo at de er rundhåndede med 
 udlevering af spec's for at sådan en driver bliver til..    et punkt 
 hvor nVidia skulle dreje 180 grader..
 nu skal jeg ikke kunne udtale mig om ATI's drivere før Radeon 
 produkterne..  men både mit Radeon og Radeon8500 har virket upåklageligt..
            
              |   |   
            
        
 
            
         
                  Peter Jespersen (08-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  08-07-02 16:13 |  
  |  
 
            On Sun, 07 Jul 2002 23:02:12 +0300, Dennis Jakobsen wrote:
 > http://www.pcpop.com.cn/view.asp?type=news&id=7391
Ahh du fandt den   
Husker da 3DFX lavede nummeret...
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
How do you spell relief? OS/2!
            
              |   |   
            
        
 
            
         
                 Peter Jespersen (08-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  08-07-02 16:10 |  
  |  
 
            On Sun, 07 Jul 2002 21:34:23 +0300, Dennis Jakobsen wrote:
 <snip>
 >jeg kan ikke huske hvor jeg fandt det link til den reviderede R200 chip 
 >(RV250?) som ikke kræver en blæser..   ret imponerende ved 300mhz..
 Hmmm, LeInq har lige afsløret at ATi R300 (9700) kommer med en
 ekstern strømforsyning, da PCI 2 ikke kan levere nok saft til
 GPU'en....
 Og det kunne jo være rart hvis man var istand til at benytte det
 første PCI slot også....
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
OS/2: Bill Gates' worst nightmare!
            
              |   |   
            
        
 
            
         
                  Dennis Jakobsen (08-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  08-07-02 17:57 |  
  |   
            Peter Jespersen wrote:
 > On Sun, 07 Jul 2002 21:34:23 +0300, Dennis Jakobsen wrote:
 > 
 > <snip>
 > 
 >>jeg kan ikke huske hvor jeg fandt det link til den reviderede R200 chip 
 >>(RV250?) som ikke kræver en blæser..   ret imponerende ved 300mhz..
 > 
 > 
 > Hmmm, LeInq har lige afsløret at ATi R300 (9700) kommer med en
 > ekstern strømforsyning, da PCI 2 ikke kan levere nok saft til
 > GPU'en....
 
 nej, det kommer med en floppy strøm connector på boardet, fordi AGP2.0 
 spec'et ikke leverer særlig meget strøm..   bl.a. derfor der var så 
 mange problemer med GeForce kortene på de først (og de næste) athlon 
 bundkort..
 
 > Og det kunne jo være rart hvis man var istand til at benytte det
 > første PCI slot også....
 
 ja selvf. kan man det.. er der noget i vejen med dit bundkort?
 
  
            
             |   |   
            
        
 
            
         
                   Peter Jespersen (08-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  08-07-02 23:28 |  
  |  
 
            On Mon, 08 Jul 2002 19:57:02 +0300, Dennis Jakobsen wrote:
 >Peter Jespersen wrote:
 >> On Sun, 07 Jul 2002 21:34:23 +0300, Dennis Jakobsen wrote:
 >>
 >> <snip>
 >> 
 >>>jeg kan ikke huske hvor jeg fandt det link til den reviderede R200 chip 
 >>>(RV250?) som ikke kræver en blæser..   ret imponerende ved 300mhz...
 >> 
 >> Hmmm, LeInq har lige afsløret at ATi R300 (9700) kommer med en
 >> ekstern strømforsyning, da PCI 2 ikke kan levere nok saft til
 >> GPU'en....
 >
 >nej, det kommer med en floppy strøm connector på boardet, fordi AGP2.0 
 >spec'et ikke leverer særlig meget strøm..   bl.a. derfor der var så 
 >mange problemer med GeForce kortene på de først (og de næste) athlon 
 >bundkort..
 Sorry mente AGP2 ikke PCI2..... og dette er ikke en ekstra
 strømtilførsel ??
 Det er ikke i stil med monsteret fra 3DFX, men det er stadig
 ikke regulatorene på bundkortet der benyttes.....
 Er det den rigtige vej ??
 >> Og det kunne jo være rart hvis man var istand til at benytte det
 >> første PCI slot også....
 >
 >ja selvf. kan man det.. er der noget i vejen med dit bundkort?
 En del bundkort har en meget lille plads imellem APG og PCI-0
 slottet.... En stor aktiv køler eller endda en endnu større
 passiv køler gør sit bedste for at æde den plads...
 Men det lyder som om at dit bundkort er specialbygget..uha!
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
Oxymoron: Alone Together
            
              |   |   
            
        
 
            
         
                    Dennis Jakobsen (09-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  09-07-02 00:05 |  
  |   
            Peter Jespersen wrote:
 > On Mon, 08 Jul 2002 19:57:02 +0300, Dennis Jakobsen wrote:
 > 
 > 
 >>Peter Jespersen wrote:
 >>
 >>>On Sun, 07 Jul 2002 21:34:23 +0300, Dennis Jakobsen wrote:
 >>>
 >>><snip>
 >>>
 >>>>jeg kan ikke huske hvor jeg fandt det link til den reviderede R200 chip 
 >>>>(RV250?) som ikke kræver en blæser..   ret imponerende ved 300mhz..
 >>>
 >>>Hmmm, LeInq har lige afsløret at ATi R300 (9700) kommer med en
 >>>ekstern strømforsyning, da PCI 2 ikke kan levere nok saft til
 >>>GPU'en....
 >>
 >>nej, det kommer med en floppy strøm connector på boardet, fordi AGP2.0 
 >>spec'et ikke leverer særlig meget strøm..   bl.a. derfor der var så 
 >>mange problemer med GeForce kortene på de først (og de næste) athlon 
 >>bundkort..
 > 
 > 
 > Sorry mente AGP2 ikke PCI2..... og dette er ikke en ekstra
 > strømtilførsel ??
 > 
 > Det er ikke i stil med monsteret fra 3DFX, men det er stadig
 > ikke regulatorene på bundkortet der benyttes.....
 > 
 > Er det den rigtige vej ??
 
 det er bedre end at lade det crashe som nVidia gjorde..  indtil AGP 
 spec'et kompenserer for deres fejl..
 
 Asus skal vel heller ikke bebrejdes for at lave de samme connectore 
 indtil folk får opgraderet deres PowerSupply's..
 
 >>>Og det kunne jo være rart hvis man var istand til at benytte det
 >>>første PCI slot også....
 >>
 >>ja selvf. kan man det.. er der noget i vejen med dit bundkort?
 > 
 > En del bundkort har en meget lille plads imellem APG og PCI-0
 > slottet.... En stor aktiv køler eller endda en endnu større
 > passiv køler gør sit bedste for at æde den plads...
 
 ja, det gælder jo alle steder for 'en stor aktiv køler'
 
 > Men det lyder som om at dit bundkort er specialbygget..uha!
 
 næh, der er såmænd et PCI slot lige ved siden af..  og mine kort har 
 ikke pladsmangel..
 
  
            
             |   |   
            
        
 
            
         
                     Peter Jespersen (09-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  09-07-02 02:20 |  
  |  
 
            On Tue, 09 Jul 2002 02:04:32 +0300, Dennis Jakobsen wrote:
 >Peter Jespersen wrote:
 >> On Mon, 08 Jul 2002 19:57:02 +0300, Dennis Jakobsen wrote:
 >> 
 >> 
 >>>Peter Jespersen wrote:
 >>>
 >>>>On Sun, 07 Jul 2002 21:34:23 +0300, Dennis Jakobsen wrote:
 >>>>
 >>>><snip>
 >>>>
 >>>>>jeg kan ikke huske hvor jeg fandt det link til den reviderede R200 chip 
 >>>>>(RV250?) som ikke kræver en blæser..   ret imponerende ved 300mhz..
 >>>>
 >>>>Hmmm, LeInq har lige afsløret at ATi R300 (9700) kommer med en
 >>>>ekstern strømforsyning, da PCI 2 ikke kan levere nok saft til
 >>>>GPU'en....
 >>>
 >>>nej, det kommer med en floppy strøm connector på boardet, fordi AGP2.0 
 >>>spec'et ikke leverer særlig meget strøm..   bl.a. derfor der var så 
 >>>mange problemer med GeForce kortene på de først (og de næste) athlon 
 >>>bundkort..
 >> 
 >> 
 >> Sorry mente AGP2 ikke PCI2..... og dette er ikke en ekstra
 >> strømtilførsel ??
 >> 
 >> Det er ikke i stil med monsteret fra 3DFX, men det er stadig
 >> ikke regulatorene på bundkortet der benyttes.....
 >> 
 >> Er det den rigtige vej ??
 >
 >det er bedre end at lade det crashe som nVidia gjorde..  indtil AGP 
 >spec'et kompenserer for deres fejl..
 Vel jeg er ikke meget for nVidia, hverken deres produkter og
 slet ikke deres herregårdsmanerer...
 Hvis processoren trækker mere end hvad bundkortet leverer er en
 lappeløsning jo på sin plads....hvad jeg mente var : er en
 stigende forslugenhed vejen frem ?
 >Asus skal vel heller ikke bebrejdes for at lave de samme connectore 
 >indtil folk får opgraderet deres PowerSupply's..
 >
 >>>>Og det kunne jo være rart hvis man var istand til at benytte det
 >>>>første PCI slot også....
 >>>
 >>>ja selvf. kan man det.. er der noget i vejen med dit bundkort?
 >> 
 >> En del bundkort har en meget lille plads imellem APG og PCI-0
 >> slottet.... En stor aktiv køler eller endda en endnu større
 >> passiv køler gør sit bedste for at æde den plads...
 >
 >ja, det gælder jo alle steder for 'en stor aktiv køler'
 >
 >> Men det lyder som om at dit bundkort er specialbygget..uha!
 >
 >næh, der er såmænd et PCI slot lige ved siden af..  og mine kort har 
 >ikke pladsmangel..
 Vel nu yder et R8500 jo ej heller så meget at det kræver den
 store køling...
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
Lursa/B'etor '96.  Why waste time on an election???
            
              |   |   
            
        
 
            
         
                      Dennis Jakobsen (09-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  09-07-02 01:57 |  
  |   
            Peter Jespersen wrote:
 > 
 > Vel jeg er ikke meget for nVidia, hverken deres produkter og
 > slet ikke deres herregårdsmanerer...
 
 heller ikke her..  men hvis de laver et overlegent grafik kort til gode 
 penge, så er jeg ikke sky for at købe og supporte det!
 
 hvad end der er bedst til pengene har min support og pengepung!
 
 > Hvis processoren trækker mere end hvad bundkortet leverer er en
 > lappeløsning jo på sin plads....hvad jeg mente var : er en
 > stigende forslugenhed vejen frem ?
 
 tjaa.. eller så skal bundkortet byttes til et andet.. for det er da en 
 design fejl så..
 
 og nej til strøm slugning..  men med dobbelt så mange transistorer som 
 en Hammer + de 128MB 700Mhz DDR RAM, skal der jo noget strøm til..   nu 
 kan jeg ikke lave en samlet sammenligning for jeg ved ikke hvor mange 
 transistorer der er i 128MB RAM..  men det er jo ikke få..
 
 >>
 >>næh, der er såmænd et PCI slot lige ved siden af..  og mine kort har 
 >>ikke pladsmangel..
 > 
 > 
 > Vel nu yder et R8500 jo ej heller så meget at det kræver den
 > store køling...
 
 det sagde jeg tidligere om et Matrox kort og blev verbalt angrebet.
 
 det er det næst hurtigste på markedet.. den kan vel ikke være helt 
 skidt..   chippen kører 275Mhz..
 
 der kommer vist også en revideret udgave der kan køre med passiv 
 køling..  jeg så gerne nVidia følge trop, men  nVidia-ATI er lidt 
 ligesom AMD-Intel..
 
  
            
             |   |   
            
        
 
            
         
                       Peter Jespersen (11-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  11-07-02 19:25 |  
  |  
 
            On Tue, 09 Jul 2002 03:56:40 +0300, Dennis Jakobsen wrote:
 >Peter Jespersen wrote:
 >> 
 >> Vel jeg er ikke meget for nVidia, hverken deres produkter og
 >> slet ikke deres herregårdsmanerer...
 >
 >heller ikke her..  men hvis de laver et overlegent grafik kort til gode 
 >penge, så er jeg ikke sky for at købe og supporte det!
 >
 >hvad end der er bedst til pengene har min support og pengepung!
 Uanset hvad - Hvorfor har du så ikke kastet dig over et GF4 ??
 >> Hvis processoren trækker mere end hvad bundkortet leverer er en
 >> lappeløsning jo på sin plads....hvad jeg mente var : er en
 >> stigende forslugenhed vejen frem ?
 >
 >tjaa.. eller så skal bundkortet byttes til et andet.. for det er da en 
 >design fejl så..
 Og alligevel ser du ikke noget galt i en ekstern strømtilførsel.
 >og nej til strøm slugning..  men med dobbelt så mange transistorer som 
 >en Hammer + de 128MB 700Mhz DDR RAM, skal der jo noget strøm til..   nu 
 >kan jeg ikke lave en samlet sammenligning for jeg ved ikke hvor mange 
 >transistorer der er i 128MB RAM..  men det er jo ikke få..
 Hammer hører ej heller til i Superligaen....det gør dne
 latterlige PIV ej heller....
 >>>næh, der er såmænd et PCI slot lige ved siden af..  og mine kort har 
 >>>ikke pladsmangel..
 >> 
 >> 
 >> Vel nu yder et R8500 jo ej heller så meget at det kræver den
 >> store køling...
 >
 >det sagde jeg tidligere om et Matrox kort og blev verbalt angrebet.
 Vel - du foretog en tilsvining af alle Matrox-ejere...
 >det er det næst hurtigste på markedet.. den kan vel ikke være helt 
 >skidt..   chippen kører 275Mhz..
 >
 >der kommer vist også en revideret udgave der kan køre med passiv 
 >køling..  jeg så gerne nVidia følge trop, men  nVidia-ATI er lidt 
 >ligesom AMD-Intel..
 Du mener at nVidia i øjeblikket er ved at forsøge at true
 kortfabrikanterne til at droppe tanken om ATi drevne kort ??
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
To err is Human.  To blame someone else is politics.
            
              |   |   
            
        
 
            
         
                        Dennis Jakobsen (12-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  12-07-02 01:28 |  
  |   
            Peter Jespersen wrote:
 >>hvad end der er bedst til pengene har min support og pengepung!
 > 
 > Uanset hvad - Hvorfor har du så ikke kastet dig over et GF4 ??
 
 som sagt er lav pris også en prioritet..  hvis valget skulle have været 
 i dag.. kunne det nok være blevet til et Ti4200..  hvis jeg kunne finde 
 et der ikke havde elendig 2D, Tv-Ud og en blæser med indbygget tordenvejr..
 
 men dengang var der ikke nogen billig Ti4200 konkurrent..  der var 
 konkurrenten en næsten dobbelt så dyr GF3 chip..
 
 måske GF3 Ti200 var ude deromkring.. er ikke helt sikker..
 
 >>tjaa.. eller så skal bundkortet byttes til et andet.. for det er da en 
 >>design fejl så..
 > 
 > Og alligevel ser du ikke noget galt i en ekstern strømtilførsel.
 
 den er for det første ikke ekstern..  og nej, jeg ser ikke noget galt i 
 at shippe et produkt der omgår design fejl i den bus/socket den skal 
 sidde i..   og jeg fattede heller ikke da Nvidia hovederne gjorde grin 
 med Voodoo5 kortene..  AGP var ikke designet til at klare det strøm 
 forbrug.. (bl.a. derfor shipper Asus deres bundkort med AGP Pro)
 
 >>og nej til strøm slugning..  men med dobbelt så mange transistorer som 
 >>en Hammer + de 128MB 700Mhz DDR RAM, skal der jo noget strøm til..   nu 
 >>kan jeg ikke lave en samlet sammenligning for jeg ved ikke hvor mange 
 >>transistorer der er i 128MB RAM..  men det er jo ikke få..
 > 
 > Hammer hører ej heller til i Superligaen....det gør dne
 > latterlige PIV ej heller....
 
 kan vi ikke nøjes med de tekniske udtryk.. jeg er ikke den store fodbold 
 fan..
 
 dne PIV ej heller?   hvad betyder det?  (jeg var da rar at udelade 
 latterlige! :) )
 
 >>>Vel nu yder et R8500 jo ej heller så meget at det kræver den
 >>>store køling...
 >>
 >>det sagde jeg tidligere om et Matrox kort og blev verbalt angrebet.
 >  
 > Vel - du foretog en tilsvining af alle Matrox-ejere...
 
 kunne du så ikke quote min tilsvining?   så vidt jeg kan se skriver jeg 
 bare de simple facts..
 
 jeg skrev at med de få features et Matrox kort havde, kunne der knapt 
 være brug for køling..
 
 ingen features = få transistorer..
 få transistorer = lille chip..
 
 lille chip der kører ved lav frekvens skal ikke bruge aktiv køling.. 
 alt dette skrev jeg ikke, fordi jeg var overbevist om at når man 
 supporter et produkt er man også klar til at indse dets mangler..
 
 men den måde man bliver buet ud på her i gruppen for at nævne at Matrox 
 ikke har nogle 3D features.. eller at det er logisk at det ikke kræver 
 aktiv køling..  det er da fanatisme..
 
 >>det er det næst hurtigste på markedet.. den kan vel ikke være helt 
 >>skidt..   chippen kører 275Mhz..
 >>
 >>der kommer vist også en revideret udgave der kan køre med passiv 
 >>køling..  jeg så gerne nVidia følge trop, men  nVidia-ATI er lidt 
 >>ligesom AMD-Intel..
 > 
 > Du mener at nVidia i øjeblikket er ved at forsøge at true
 > kortfabrikanterne til at droppe tanken om ATi drevne kort ??
 
 øøh nej..  jeg tænkte på deres strøm forbrug..  Intel brænder meget få 
 watt af sammenlignet med AMD..
 
 jeg skal ikke kunne kommentere på det du hentyder til..   der var nogle 
 rygter og nogle powerpoint slides om hvor lamme konkurrentens produkter 
 er osv. men så vidt jeg har forstået er det ganske alm. business 
 practise.  nVidia's blev bare leaket..  :)
 
  
            
             |   |   
            
        
 
            
         
                         Peter Jespersen (12-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  12-07-02 12:35 |  
  |  
 
            On Fri, 12 Jul 2002 03:27:34 +0300, Dennis Jakobsen wrote:
 >Peter Jespersen wrote:
 >>>hvad end der er bedst til pengene har min support og pengepung!
 >> 
 >> Uanset hvad - Hvorfor har du så ikke kastet dig over et GF4 ??
 >
 >som sagt er lav pris også en prioritet..  hvis valget skulle have været 
 >i dag.. kunne det nok være blevet til et Ti4200..  hvis jeg kunne finde 
 >et der ikke havde elendig 2D, Tv-Ud og en blæser med indbygget tordenvejr..
 >
 >men dengang var der ikke nogen billig Ti4200 konkurrent..  der var 
 >konkurrenten en næsten dobbelt så dyr GF3 chip..
 >
 >måske GF3 Ti200 var ude deromkring.. er ikke helt sikker..
 >
 >>>tjaa.. eller så skal bundkortet byttes til et andet.. for det er da en 
 >>>design fejl så..
 >> 
 >> Og alligevel ser du ikke noget galt i en ekstern strømtilførsel.
 >
 >den er for det første ikke ekstern..  og nej, jeg ser ikke noget galt i 
 >at shippe et produkt der omgår design fejl i den bus/socket den skal 
 >sidde i..   og jeg fattede heller ikke da Nvidia hovederne gjorde grin 
 >med Voodoo5 kortene..  AGP var ikke designet til at klare det strøm 
 >forbrug.. (bl.a. derfor shipper Asus deres bundkort med AGP Pro)
 Det er en ekstern strømtilførsel, at du så kan fodre den med fødeledningen
 til floppy-drevet er noget andet. Den får ikke foderet via AGP-sokklen..
 Mange mobo fabrikanter har skippet AGP-Pro, hvilket nok er grunden....
 Jeg kunne godt lide monster Voodoo-kortet, med 4 processorer og en fysisk
 ekstern strømforsyning.
 >>>og nej til strøm slugning..  men med dobbelt så mange transistorer som 
 >>>en Hammer + de 128MB 700Mhz DDR RAM, skal der jo noget strøm til..   nu 
 >>>kan jeg ikke lave en samlet sammenligning for jeg ved ikke hvor mange 
 >>>transistorer der er i 128MB RAM..  men det er jo ikke få..
 >> 
 >> Hammer hører ej heller til i Superligaen....det gør dne
 >> latterlige PIV ej heller....
 >
 >kan vi ikke nøjes med de tekniske udtryk.. jeg er ikke den store fodbold 
 >fan..
 >
 >dne PIV ej heller?   hvad betyder det?  (jeg var da rar at udelade 
 >latterlige! :) )
 latterlige måtte du ellers godt have taget med...
 Hammer, Athlon (x86-32) og PIV er alle nogle latterlige små pjevsede gnomer,
 hvis man sammenligner med for eksempel PA-RISC, der for år siden rundede de
 120mio transistorer (16Mb cache hjælper en del på dette   
>>>>Vel nu yder et R8500 jo ej heller så meget at det kræver den
 >>>>store køling...
 >>>
 >>>det sagde jeg tidligere om et Matrox kort og blev verbalt angrebet.
 >>  
 >> Vel - du foretog en tilsvining af alle Matrox-ejere...
 >
 >kunne du så ikke quote min tilsvining?   så vidt jeg kan se skriver jeg 
 >bare de simple facts..
 >
 >jeg skrev at med de få features et Matrox kort havde, kunne der knapt 
 >være brug for køling..
 >
 >ingen features = få transistorer..
 Ikke nødvendigvis....en del kan fuskes med software (ex via mikrokoder)
 >få transistorer = lille chip..
 Nok ikke helt ved siden af...
 >lille chip der kører ved lav frekvens skal ikke bruge aktiv køling... 
 >alt dette skrev jeg ikke, fordi jeg var overbevist om at når man 
 >supporter et produkt er man også klar til at indse dets mangler..
 >
 >men den måde man bliver buet ud på her i gruppen for at nævne at Matrox 
 >ikke har nogle 3D features.. eller at det er logisk at det ikke kræver 
 >aktiv køling..  det er da fanatisme..
 Om den kræver heftig køling er også afhængig af fremstillingsprocessen.....og
 G400 har rent faktisk en del 3D features, der i et stykke tid noget nær
 dannede skole - ydelsen var bare den sædvanlige halve generation bagefter og
 de ser ud til at lave lidt det samme nummer med P.
 G400 og P var/er ganske rigt 3D feature udstyret.....det er dog klar at hvis
 du holder et 5 år gammelt G400 kort op ved siden af et GF4 er der en kæmpe
 forskel, da udviklingen ikke har stået stille.
 >>>det er det næst hurtigste på markedet.. den kan vel ikke være helt 
 >>>skidt..   chippen kører 275Mhz..
 >>>
 >>>der kommer vist også en revideret udgave der kan køre med passiv 
 >>>køling..  jeg så gerne nVidia følge trop, men  nVidia-ATI er lidt 
 >>>ligesom AMD-Intel..
 >> 
 >> Du mener at nVidia i øjeblikket er ved at forsøge at true
 >> kortfabrikanterne til at droppe tanken om ATi drevne kort ??
 >
 >øøh nej..  jeg tænkte på deres strøm forbrug..  Intel brænder meget få 
 >watt af sammenlignet med AMD..
 Øhhhh nej, med XP'en blev det faktisk vendt...PIV'en et marginalt højere
 forbrug (2Ghz PIV=74W, XP2000+=40W), den store forskel er PIV'ens
 heatspreader - det er denne der fuldstændig tager røven på folk og det er
 noget af det jeg glæder mig mest til med Hammer.
 >jeg skal ikke kunne kommentere på det du hentyder til..   der var nogle 
 >rygter og nogle powerpoint slides om hvor lamme konkurrentens produkter 
 >er osv. men så vidt jeg har forstået er det ganske alm. business 
 >practise.  nVidia's blev bare leaket..  :)
 Det jeg rent faktisk hentyder til er Intel's regulære skræmmekampagne,
 couldn't resist    ....derudover har nVidia's forsøg på FUD krige, været
 barnligt amartøragtige, de burde ansætte nogle af de gamle Redmond gutter -
 se de vidste hvorledes man skræmte bukserne og vred armene om på de største i
 brancen.....
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
Dou you mind if I don't smoke? - (G. Marx)
            
              |   |   
            
        
 
            
         
                          Dennis Jakobsen (12-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  12-07-02 13:16 |  
  |  
 
            Peter Jespersen wrote:
 >>>Og alligevel ser du ikke noget galt i en ekstern strømtilførsel.
 >>
 >>den er for det første ikke ekstern..  og nej, jeg ser ikke noget galt i 
 >>at shippe et produkt der omgår design fejl i den bus/socket den skal 
 >>sidde i..   og jeg fattede heller ikke da Nvidia hovederne gjorde grin 
 >>med Voodoo5 kortene..  AGP var ikke designet til at klare det strøm 
 >>forbrug.. (bl.a. derfor shipper Asus deres bundkort med AGP Pro)
 > 
 > Det er en ekstern strømtilførsel, at du så kan fodre den med fødeledningen
 > til floppy-drevet er noget andet. Den får ikke foderet via AGP-sokklen.
 > Mange mobo fabrikanter har skippet AGP-Pro, hvilket nok er grunden....
 > Jeg kunne godt lide monster Voodoo-kortet, med 4 processorer og en fysisk
 > ekstern strømforsyning.
 når du siger ekstern hvad mener du så?  at der sidder et stik på den 
 metal plade hvor monitoren også bliver forbundet ikke?
 alle stik på selve printet (inde i kabinettet) er internt, enig?
 der var kun 2 gpu'er på.. og et internt stik..  min kammerat har stadig 
 sit kort, som jeg i øvrigt proppede 2 blue orbs på..  :)
 det kort du snakker om blev aldrig lanceret..
 >>kan vi ikke nøjes med de tekniske udtryk.. jeg er ikke den store fodbold 
 >>fan..
 >>
 >>dne PIV ej heller?   hvad betyder det?  (jeg var da rar at udelade 
 >>latterlige! :) )
 > 
 > latterlige måtte du ellers godt have taget med...
 > 
 > Hammer, Athlon (x86-32) og PIV er alle nogle latterlige små pjevsede gnomer,
 > hvis man sammenligner med for eksempel PA-RISC, der for år siden rundede de
 > 120mio transistorer (16Mb cache hjælper en del på dette   
ja, og det er jo også den rigtige retning..  hvis man kan lave en ligeså 
 hurtig chip med den halve mængde transistorer og 1/8 cache..  så har du 
 en chip der koster 1/20 at producere og du kan ramme alle markeder med 
 næsten hvilken som helst pris..    derfor bliver hammer også god til 
 notebooks..  den kræver ikke en northbrigde og den har kun ~50 millioner 
 transistorer..  det bliver den perfekte notebook processor..  :)
 og ja.. størrelses mæssigt er de nogle pjevsede gnomer..  men i 
 processor verdenen er det faktisk en rigtig god ting!
 >>>Vel - du foretog en tilsvining af alle Matrox-ejere...
 >>
 >>kunne du så ikke quote min tilsvining?   så vidt jeg kan se skriver jeg 
 >>bare de simple facts..
 >>
 >>jeg skrev at med de få features et Matrox kort havde, kunne der knapt 
 >>være brug for køling..
 >>
 >>ingen features = få transistorer..
 > 
 > Ikke nødvendigvis....en del kan fuskes med software (ex via mikrokoder)
 ja, men det bliver chippen jo endnu mindre af, så hvor er dit argument?
 >>få transistorer = lille chip..
 > 
 > Nok ikke helt ved siden af...
 det afhænger jo også af hvad process den bliver lavet på og hvad man 
 betragter som lille..  :)
 >>lille chip der kører ved lav frekvens skal ikke bruge aktiv køling.. 
 >>alt dette skrev jeg ikke, fordi jeg var overbevist om at når man 
 >>supporter et produkt er man også klar til at indse dets mangler..
 >>
 >>men den måde man bliver buet ud på her i gruppen for at nævne at Matrox 
 >>ikke har nogle 3D features.. eller at det er logisk at det ikke kræver 
 >>aktiv køling..  det er da fanatisme..
 > 
 > Om den kræver heftig køling er også afhængig af fremstillingsprocessen.....og
 > G400 har rent faktisk en del 3D features, der i et stykke tid noget nær
 > dannede skole - ydelsen var bare den sædvanlige halve generation bagefter og
 > de ser ud til at lave lidt det samme nummer med P.
 ja, det er lidt sørgeligt..
 > G400 og P var/er ganske rigt 3D feature udstyret.....det er dog klar at hvis
 > du holder et 5 år gammelt G400 kort op ved siden af et GF4 er der en kæmpe
 > forskel, da udviklingen ikke har stået stille.
 ja, men sådan sammenligner jeg ikke..  jeg sammenligner med de kort som 
 G400 skulle konkurrere med da det blev lanceret.. (gf1 og voodoo3?)  og 
 det kunne jo slet ikke følge med..  og ogl driveren blev vist aldrig til 
 noget..  det trak i hvert fald ud i laaaaaaang tid..
 >>øøh nej..  jeg tænkte på deres strøm forbrug..  Intel brænder meget få 
 >>watt af sammenlignet med AMD..
 > 
 > Øhhhh nej, med XP'en blev det faktisk vendt...PIV'en et marginalt højere
 > forbrug (2Ghz PIV=74W, XP2000+=40W), den store forskel er PIV'ens
 > heatspreader - det er denne der fuldstændig tager røven på folk og det er
 > noget af det jeg glæder mig mest til med Hammer.
 wow.. var ikke klar over at PIV'en slugte så meget..  det er vel derfor 
 den skal have den extra PowerConnector og ny strømforsyning.. ;)
 (som jeg nævnte andetsteds har Asus sat samme metoder på deres bundkort 
 som ATI har gjort med deres grafikkort (eller vice versa), for at folk 
 ikke skal rende ud og opgradere hele systemet for at kunne køre et 
 enkelt nyt komponent!)
 >>jeg skal ikke kunne kommentere på det du hentyder til..   der var nogle 
 >>rygter og nogle powerpoint slides om hvor lamme konkurrentens produkter 
 >>er osv. men så vidt jeg har forstået er det ganske alm. business 
 >>practise.  nVidia's blev bare leaket..  :)
 > 
 > Det jeg rent faktisk hentyder til er Intel's regulære skræmmekampagne,
 > couldn't resist    ....derudover har nVidia's forsøg på FUD krige, været
 > barnligt amartøragtige, de burde ansætte nogle af de gamle Redmond gutter -
 > se de vidste hvorledes man skræmte bukserne og vred armene om på de største i
 > brancen.....
 ja, og det eneste der kan overbevise mig om at det ikke foregår mere er 
 at nogle OEM's lancerer win/linux/beos/whatever dualboot fra fabrikken..
            
              |   |   
            
        
 
            
         
                           Peter Jespersen (13-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  13-07-02 00:30 |  
  |  
 
            On Fri, 12 Jul 2002 15:15:51 +0300, Dennis Jakobsen wrote:
 <snip>
 >når du siger ekstern hvad mener du så?  at der sidder et stik på den 
 >metal plade hvor monitoren også bliver forbundet ikke?
 >
 >alle stik på selve printet (inde i kabinettet) er internt, enig?
 Ikke nødvendigvis......mener at have læst st sted at ATi rent faktisk skriver
 at det kan bruges med strømlinien til floppy-drevet.....det er absolut
 semantik..... ganske afgjort foranlediget af LeInq's overskrift da nyheden om
 kortet blev lanceret.
 >der var kun 2 gpu'er på.. og et internt stik..  min kammerat har stadig 
 >sit kort, som jeg i øvrigt proppede 2 blue orbs på..  :)
 >
 >
 >det kort du snakker om blev aldrig lanceret..
 Det blev produceret i et begrænset antal, mener at det var 28 styk (Vel
 prototyper)...der var for nyligt et til aution på eBay...
 >>>kan vi ikke nøjes med de tekniske udtryk.. jeg er ikke den store fodbold 
 >>>fan..
 >>>
 >>>dne PIV ej heller?   hvad betyder det?  (jeg var da rar at udelade 
 >>>latterlige! :) )
 >> 
 >> latterlige måtte du ellers godt have taget med...
 >> 
 >> Hammer, Athlon (x86-32) og PIV er alle nogle latterlige små pjevsede gnomer,
 >> hvis man sammenligner med for eksempel PA-RISC, der for år siden rundede de
 >> 120mio transistorer (16Mb cache hjælper en del på dette   
>
 >ja, og det er jo også den rigtige retning..  hvis man kan lave en ligeså 
 >hurtig chip med den halve mængde transistorer og 1/8 cache..  så har du 
 >en chip der koster 1/20 at producere og du kan ramme alle markeder med 
 >næsten hvilken som helst pris..    derfor bliver hammer også god til 
 >notebooks..  den kræver ikke en northbrigde og den har kun ~50 millioner 
 >transistorer..  det bliver den perfekte notebook processor..  :)
 Og Itanium har taget livet af to og forkrøblet en tredje konkurrent, så der
 er plads til Hammer....
 PA-RISC er jo den ene der er blevet aflivet så vi har lige mistet den
 hurtigste processor....Hammer kommer ikke rigtigt i nærheden....ligesom
 Itanium (IA64) ej heller gør...
 >og ja.. størrelses mæssigt er de nogle pjevsede gnomer..  men i 
 >processor verdenen er det faktisk en rigtig god ting!
 Det kommer an på...hvis du førte det helt ud ville du sidde med en VIA C3...
 >>>>Vel - du foretog en tilsvining af alle Matrox-ejere...
 >>>
 >>>kunne du så ikke quote min tilsvining?   så vidt jeg kan se skriver jeg 
 >>>bare de simple facts..
 >>>
 >>>jeg skrev at med de få features et Matrox kort havde, kunne der knapt 
 >>>være brug for køling..
 >>>
 >>>ingen features = få transistorer..
 >> 
 >> Ikke nødvendigvis....en del kan fuskes med software (ex via mikrokoder)
 >
 >ja, men det bliver chippen jo endnu mindre af, så hvor er dit argument?
 du sagde reelt "få features"="lille chip", med dagens GPU/VPU'er kan man lave
 en del sjov med mikrokoder, dvs at dette udsagn lidt falder til jorden.
 >>>få transistorer = lille chip..
 >> 
 >> Nok ikke helt ved siden af...
 >
 >det afhænger jo også af hvad process den bliver lavet på og hvad man 
 >betragter som lille..  :)
 Husk det er ikke størrelsen....hmmmm
 >> Om den kræver heftig køling er også afhængig af fremstillingsprocessen.....og
 >> G400 har rent faktisk en del 3D features, der i et stykke tid noget nær
 >> dannede skole - ydelsen var bare den sædvanlige halve generation bagefter og
 >> de ser ud til at lave lidt det samme nummer med P.
 >
 >ja, det er lidt sørgeligt..
 >
 >> G400 og P var/er ganske rigt 3D feature udstyret.....det er dog klar at hvis
 >> du holder et 5 år gammelt G400 kort op ved siden af et GF4 er der en kæmpe
 >> forskel, da udviklingen ikke har stået stille.
 >
 >ja, men sådan sammenligner jeg ikke..  jeg sammenligner med de kort som 
 >G400 skulle konkurrere med da det blev lanceret.. (gf1 og voodoo3?)  og 
 >det kunne jo slet ikke følge med..  og ogl driveren blev vist aldrig til 
 >noget..  det trak i hvert fald ud i laaaaaaang tid..
 Nej OpenGL driveren blev aldrig til noget.....og nej AFAIR var det TNT2 fra
 nVidia som ver hovedkonkurrenten.
 >>>øøh nej..  jeg tænkte på deres strøm forbrug..  Intel brænder meget få 
 >>>watt af sammenlignet med AMD..
 >> 
 >> Øhhhh nej, med XP'en blev det faktisk vendt...PIV'en et marginalt højere
 >> forbrug (2Ghz PIV=74W, XP2000+=40W), den store forskel er PIV'ens
 >> heatspreader - det er denne der fuldstændig tager røven på folk og det er
 >> noget af det jeg glæder mig mest til med Hammer.
 >
 >wow.. var ikke klar over at PIV'en slugte så meget..  det er vel derfor 
 >den skal have den extra PowerConnector og ny strømforsyning.. ;)
 Æv, gjorde det igen (2Ghz PIV=74W, XP2000+=70W) - med den nye TB er
 strømforbruget så endnu endgang sænket....
 >(som jeg nævnte andetsteds har Asus sat samme metoder på deres bundkort 
 >som ATI har gjort med deres grafikkort (eller vice versa), for at folk 
 >ikke skal rende ud og opgradere hele systemet for at kunne køre et 
 >enkelt nyt komponent!)
 >>>jeg skal ikke kunne kommentere på det du hentyder til..   der var nogle 
 >>>rygter og nogle powerpoint slides om hvor lamme konkurrentens produkter 
 >>>er osv. men så vidt jeg har forstået er det ganske alm. business 
 >>>practise.  nVidia's blev bare leaket..  :)
 >> 
 >> Det jeg rent faktisk hentyder til er Intel's regulære skræmmekampagne,
 >> couldn't resist    ....derudover har nVidia's forsøg på FUD krige, været
 >> barnligt amartøragtige, de burde ansætte nogle af de gamle Redmond gutter -
 >> se de vidste hvorledes man skræmte bukserne og vred armene om på de største i
 >> brancen.....
 >
 >ja, og det eneste der kan overbevise mig om at det ikke foregår mere er 
 >at nogle OEM's lancerer win/linux/beos/whatever dualboot fra fabrikken...
 Wallmart er begyndt at sælge styresystemløse PC'ere, man kan så købe et OS
 ved siden af...det er lidt dyere hvis man i forvejen ville vælge det samme
 system som Redmond forsøger at tvinge ned i halsen på dig (Det er AFAIK en
 regulær licens ikke en OEM licens, ergo er der ikke rabatter på), men for
 alle andre er det billigere.
 Den Windows skat er virkelig noget der for det til at olme i mig.....
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
Who needs sex, I have adult access.
            
              |   |   
            
        
 
            
         
                            H3nrik V! [2670] (14-07-2002) 
         
	
            | Kommentar Fra : H3nrik V! [2670] | 
  Dato :  14-07-02 12:08 |  
  |   
            
 "Peter Jespersen" <flywheel@illogical.dk> wrote in message
 news:syljurryvyybtvpnyqx.gz64dt0.pminews@news.tele.dk...
 
 >>ja, men sådan sammenligner jeg ikke..  jeg sammenligner med de kort som
 >>G400 skulle konkurrere med da det blev lanceret.. (gf1 og voodoo3?)  og
 >>det kunne jo slet ikke følge med..  og ogl driveren blev vist aldrig til
 ><noget..  det trak i hvert fald ud i laaaaaaang tid..
 
 >Nej OpenGL driveren blev aldrig til noget.....og nej AFAIR var det TNT2 fra
 >nVidia som ver hovedkonkurrenten.
 
 Lige præcis sådan jeg også husker det...!
 
 /H3nrik!
 
 
  
            
             |   |   
            
        
 
            
         
                             Dennis Jakobsen (14-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  14-07-02 13:45 |  
  |   
            H3nrik V! [2670] wrote:
 > "Peter Jespersen" <flywheel@illogical.dk> wrote in message
 > news:syljurryvyybtvpnyqx.gz64dt0.pminews@news.tele.dk...
 > 
 > 
 >>>ja, men sådan sammenligner jeg ikke..  jeg sammenligner med de kort som
 >>>G400 skulle konkurrere med da det blev lanceret.. (gf1 og voodoo3?)  og
 >>>det kunne jo slet ikke følge med..  og ogl driveren blev vist aldrig til
 >>
 >><noget..  det trak i hvert fald ud i laaaaaaang tid..
 > 
 > 
 >>Nej OpenGL driveren blev aldrig til noget.....og nej AFAIR var det TNT2 fra
 >>nVidia som ver hovedkonkurrenten.
 > 
 > 
 > Lige præcis sådan jeg også husker det...!
 
 ok, så det var G400, TNT2 og Voodoo3 på det tidspunkt..  så må TNT2'en 
 have haft noget 32bit 3d stuff, for jeg kan i hvert fald huske den store 
 16bit mod 32bit kamp..  :)
 
  
            
             |   |   
            
        
 
            
         
                            Dennis Jakobsen (14-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  14-07-02 13:43 |  
  |  
 
            Peter Jespersen wrote:
 > On Fri, 12 Jul 2002 15:15:51 +0300, Dennis Jakobsen wrote:
 > 
 > <snip>
 > 
 >>når du siger ekstern hvad mener du så?  at der sidder et stik på den 
 >>metal plade hvor monitoren også bliver forbundet ikke?
 >>
 >>alle stik på selve printet (inde i kabinettet) er internt, enig?
 > 
 > 
 > Ikke nødvendigvis......mener at have læst st sted at ATi rent faktisk skriver
 > at det kan bruges med strømlinien til floppy-drevet.....det er absolut
 > semantik..... ganske afgjort foranlediget af LeInq's overskrift da nyheden om
 > kortet blev lanceret.
 men det afhænger vel også af hvordan du kigger på det..   det at 
 strømmen kommer fra en anden kilde end AGP slottet kunne jo også 
 betragtes som externt..
 men i mit hoved er en extern strøm forsyning en ledning med en extra psu 
 tilsluttet!
 >>der var kun 2 gpu'er på.. og et internt stik..  min kammerat har stadig 
 >>sit kort, som jeg i øvrigt proppede 2 blue orbs på..  :)
 >>
 >>
 >>det kort du snakker om blev aldrig lanceret..
 > 
 > Det blev produceret i et begrænset antal, mener at det var 28 styk (Vel
 > prototyper)...der var for nyligt et til aution på eBay...
 tjaa ok..  der var nogle prototyper som folk rippede da de skred fra 
 3dfx..  det er vel næppe et lanceret/kommercielt ledit produkt!
 >>>Hammer, Athlon (x86-32) og PIV er alle nogle latterlige små pjevsede gnomer,
 >>>hvis man sammenligner med for eksempel PA-RISC, der for år siden rundede de
 >>>120mio transistorer (16Mb cache hjælper en del på dette   
>>
 >>ja, og det er jo også den rigtige retning..  hvis man kan lave en ligeså 
 >>hurtig chip med den halve mængde transistorer og 1/8 cache..  så har du 
 >>en chip der koster 1/20 at producere og du kan ramme alle markeder med 
 >>næsten hvilken som helst pris..    derfor bliver hammer også god til 
 >>notebooks..  den kræver ikke en northbrigde og den har kun ~50 millioner 
 >>transistorer..  det bliver den perfekte notebook processor..  :)
 > 
 > Og Itanium har taget livet af to og forkrøblet en tredje konkurrent, så der
 > er plads til Hammer....
 > PA-RISC er jo den ene der er blevet aflivet så vi har lige mistet den
 > hurtigste processor....Hammer kommer ikke rigtigt i nærheden....ligesom
 > Itanium (IA64) ej heller gør...
 så sandt..  det er jo også en mainstream processor..   men vendt nu til 
 du ser SledgeHammer før du kaster dig ud i konklusioner..
 >>og ja.. størrelses mæssigt er de nogle pjevsede gnomer..  men i 
 >>processor verdenen er det faktisk en rigtig god ting!
 > 
 > Det kommer an på...hvis du førte det helt ud ville du sidde med en VIA C3...
 eller en Transmeta..   men nu snakker du vist strømforbrug og ikke 
 størrelse i kombination med ydelse..   for C3'en har kun 1 af de sidste..
 >>ja, men det bliver chippen jo endnu mindre af, så hvor er dit argument?
 > 
 > du sagde reelt "få features"="lille chip", med dagens GPU/VPU'er kan man lave
 > en del sjov med mikrokoder, dvs at dette udsagn lidt falder til jorden.
 mener du at du kan opnå flere features og stadig vedligeholde en lille chip?
 >>det afhænger jo også af hvad process den bliver lavet på og hvad man 
 >>betragter som lille..  :)
 > 
 > Husk det er ikke størrelsen....hmmmm
 nemlig!
 >>ja, men sådan sammenligner jeg ikke..  jeg sammenligner med de kort som 
 >>G400 skulle konkurrere med da det blev lanceret.. (gf1 og voodoo3?)  og 
 >>det kunne jo slet ikke følge med..  og ogl driveren blev vist aldrig til 
 >>noget..  det trak i hvert fald ud i laaaaaaang tid..
 > 
 > Nej OpenGL driveren blev aldrig til noget.....og nej AFAIR var det TNT2 fra
 > nVidia som ver hovedkonkurrenten.
 ok..
 >>>Øhhhh nej, med XP'en blev det faktisk vendt...PIV'en et marginalt højere
 >>>forbrug (2Ghz PIV=74W, XP2000+=40W), den store forskel er PIV'ens
 >>>heatspreader - det er denne der fuldstændig tager røven på folk og det er
 >>>noget af det jeg glæder mig mest til med Hammer.
 >>
 >>wow.. var ikke klar over at PIV'en slugte så meget..  det er vel derfor 
 >>den skal have den extra PowerConnector og ny strømforsyning.. ;)
 > 
 > Æv, gjorde det igen (2Ghz PIV=74W, XP2000+=70W) - med den nye TB er
 > strømforbruget så endnu endgang sænket....
 hvorfor gik XP2000 fra 40W >70W ?
 og i samme sætning siger du den er sænket?
 >>ja, og det eneste der kan overbevise mig om at det ikke foregår mere er 
 >>at nogle OEM's lancerer win/linux/beos/whatever dualboot fra fabrikken..
 > 
 > Wallmart er begyndt at sælge styresystemløse PC'ere, man kan så købe et OS
 > ved siden af...det er lidt dyere hvis man i forvejen ville vælge det samme
 > system som Redmond forsøger at tvinge ned i halsen på dig (Det er AFAIK en
 > regulær licens ikke en OEM licens, ergo er der ikke rabatter på), men for
 > alle andre er det billigere.
 ja, men hvis du IKKE har en aftale med microsoft er der jo ingen der 
 stopper dig fra at sælge en pc med linux eller uden...  eller en dual 
 boot kombo med linux/beos..  det er hvis du har et MS OS i en dual boot 
 konfig, at MS kommer efter dig og river dine bonusser væk..
  > Den Windows skat er virkelig noget der for det til at olme i mig.....
 også her..  det at kunne vælge dit eget OS er en frihed vi alle burde 
 have..  men når man nu har så dårlige produkter som microsoft er de jo 
 nødt til at tvinge det ned i halsen på folk for at tjene penge..
 og sætte monopol/diktator agtige klausuler på plads for at vedligeholde 
 det..
            
              |   |   
            
        
 
            
         
                             Peter Jespersen (14-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  14-07-02 16:15 |  
  |  
 
            Dennis Jakobsen wrote:
 <snip>
 >> Og Itanium har taget livet af to og forkrøblet en tredje konkurrent, så
 >> der er plads til Hammer....
 >> PA-RISC er jo den ene der er blevet aflivet så vi har lige mistet den
 >> hurtigste processor....Hammer kommer ikke rigtigt i nærheden....ligesom
 >> Itanium (IA64) ej heller gør...
 > 
 > så sandt..  det er jo også en mainstream processor..   men vendt nu til
 > du ser SledgeHammer før du kaster dig ud i konklusioner..
 Via de prototyper vi har set har vi fået løfter om en fremragende ydelse, 
 meget lavt strømforbrug.....men der er også mange usikre punkter og 
 potentielle problemer, hvor jeg lidt har en fornemmelse af at de her i 
 løbet af foråret har måtte kæmpe for i det hele at holde Opteron projektet 
 i live.
 Men de har på det sidste fået stillet et par stærke alliancer op...nu 
 mangler vi så bare tyren selv.
 
 >>>og ja.. størrelses mæssigt er de nogle pjevsede gnomer..  men i
 >>>processor verdenen er det faktisk en rigtig god ting!
 >> 
 >> Det kommer an på...hvis du førte det helt ud ville du sidde med en VIA
 >> C3...
 > 
 > eller en Transmeta..   men nu snakker du vist strømforbrug og ikke
 > størrelse i kombination med ydelse..   for C3'en har kun 1 af de sidste..
 12Watt wed 1Ghz, full load er ikke at kimse af   
Men ja, small die og alt det der, ville bare føre det over i den anden 
 grøft for effektens skyld.
 
 >>>ja, men det bliver chippen jo endnu mindre af, så hvor er dit argument?
 >> 
 >> du sagde reelt "få features"="lille chip", med dagens GPU/VPU'er kan man
 >> lave en del sjov med mikrokoder, dvs at dette udsagn lidt falder til
 >> jorden.
 > 
 > mener du at du kan opnå flere features og stadig vedligeholde en lille
 > chip?
 Ja....men det går så også udover ydelsen, som al emulering gør.
 >>>det afhænger jo også af hvad process den bliver lavet på og hvad man
 >>>betragter som lille..  :)
 >> 
 >> Husk det er ikke størrelsen....hmmmm
 > 
 > nemlig!
 > 
 >>>ja, men sådan sammenligner jeg ikke..  jeg sammenligner med de kort som
 >>>G400 skulle konkurrere med da det blev lanceret.. (gf1 og voodoo3?)  og
 >>>det kunne jo slet ikke følge med..  og ogl driveren blev vist aldrig til
 >>>noget..  det trak i hvert fald ud i laaaaaaang tid..
 >> 
 >> Nej OpenGL driveren blev aldrig til noget.....og nej AFAIR var det TNT2
 >> fra nVidia som ver hovedkonkurrenten.
 > 
 > ok..
 > 
 >>>>Øhhhh nej, med XP'en blev det faktisk vendt...PIV'en et marginalt højere
 >>>>forbrug (2Ghz PIV=74W, XP2000+=40W), den store forskel er PIV'ens
 >>>>heatspreader - det er denne der fuldstændig tager røven på folk og det
 >>>>er noget af det jeg glæder mig mest til med Hammer.
 >>>
 >>>wow.. var ikke klar over at PIV'en slugte så meget..  det er vel derfor
 >>>den skal have den extra PowerConnector og ny strømforsyning.. ;)
 >> 
 >> Æv, gjorde det igen (2Ghz PIV=74W, XP2000+=70W) - med den nye TB er
 >> strømforbruget så endnu endgang sænket....
 > 
 > hvorfor gik XP2000 fra 40W >70W ?
 > 
 > og i samme sætning siger du den er sænket?
 Det var en trykfejl, der skulle have stået 70Watt fra begyndelsen ... det 
 var for lige at hamre en pæl igennem den opfattelse som mange har nemlig at 
 Intel processorer bruger meget mindre strøm end AMD processorer.
 Det passer rent faktisk ikke mere, det er en frontlinie der flytter sig 
 generation for generation. Og nyheden i ThouroughBread er strømbesparende i 
 forhold til XP'en.
 Så er det strømforbruget man tænker på er en XP/TB vejen frem   
>>>ja, og det eneste der kan overbevise mig om at det ikke foregår mere er
 >>>at nogle OEM's lancerer win/linux/beos/whatever dualboot fra fabrikken..
 >> 
 >> Wallmart er begyndt at sælge styresystemløse PC'ere, man kan så købe et
 >> OS ved siden af...det er lidt dyere hvis man i forvejen ville vælge det
 >> samme system som Redmond forsøger at tvinge ned i halsen på dig (Det er
 >> AFAIK en regulær licens ikke en OEM licens, ergo er der ikke rabatter
 >> på), men for alle andre er det billigere.
 > 
 > ja, men hvis du IKKE har en aftale med microsoft er der jo ingen der
 > stopper dig fra at sælge en pc med linux eller uden...  eller en dual
 > boot kombo med linux/beos..  det er hvis du har et MS OS i en dual boot
 > konfig, at MS kommer efter dig og river dine bonusser væk..
 De herlig Loyalitetsrabatter.... 
 
 >  > Den Windows skat er virkelig noget der for det til at olme i mig.....
 > 
 > også her..  det at kunne vælge dit eget OS er en frihed vi alle burde
 > have..  men når man nu har så dårlige produkter som microsoft er de jo
 > nødt til at tvinge det ned i halsen på folk for at tjene penge..
 > 
 > og sætte monopol/diktator agtige klausuler på plads for at vedligeholde
 > det..
 Man får gerne at vide, "jamen så kan du jo bare installere noget andet" 
 ...... feeedt tænker man så, jeg har lige givet 500kr for en Windows jeg 
 ikke kommer til at bruge og hvis licens jeg ikke må sælge videre (Ved ikke 
 om man må det idag).
 -- 
  Live long and prosper...
 ____________________________________________________________
  Peter Jespersen, Linux User # 148303
  flywheel@illogical.dk
  http://www.illogical.dk
 Where have all the nice taglines gone?
            
              |   |   
            
        
 
            
         
                           Peter Jespersen (14-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  14-07-02 16:39 |  
  |   |   |   
            
        
 
            
         
                Hans (07-07-2002) 
         
	
            | Kommentar Fra : Hans | 
  Dato :  07-07-02 20:44 |  
  |  
 
            "Michael Lund Sørensen" <hold-diskussionen-i@nyhedsgruppen-tak.dk> skrev i
 en meddelelse news:7B%V8.9865$I52.341774@news010.worldonline.dk...
 > Iøvrigt findes det faktisk allerede:
 >
 Jeg har fundet et bedre billede hos producenten:
 http://www.zalman.co.kr/english/product/zm50-hp.htm
Elegant løsning forøvrigt med et godt gammelt gennemprøvet princip -
 Heat-pipes.
 mvh, Hans
            
              |   |   
            
        
 
            
         
           Madsen (08-07-2002) 
         
	
            | Kommentar Fra : Madsen | 
  Dato :  08-07-02 19:46 |  
  |   
            Dennis Jakobsen skrev:
 
 > for satan i matrox er 'touchy'..  i ærgrer jer så vildt over de
 > usle 3d features.. eller mangel på samme...
 
 Hvem andre end dig snakker om 3D-features?
 
 Helt ærligt Dennis. Hvor gammel er du?
 Hver gang et andet grafikkort end Ati's bliver nævnt er du inde og
 snakke om dine 3D-features og den kommende R300-chip, eller hvad hulen
 den nu hedder. Du er ikke selv bleg for at bruge et ret nedsættende
 sprog mod dem som ikke lige vægter 3D-ydelse højest, eller ikke har den
 samme mening som dig, men hvis der så endelig er en der svarer igen, så
 går du straks i forsvarsposition med ovenstående ævl, som minder lidt
 om en 5-årigs opførsel når han føler sig uretfærdigt behandlet.
 Det er da for latterligt.
 
 Der er lidt for meget troll i dig til at jeg gider at spilde harddisk-
 plads på dine indlæg, så plonk herfra. Velkommen i mit killfilter. :)
 
 (Min smiley er misvisende, men det plejer dine jo også at være).
 
 -- 
 Med venlig hilsen
 Madsen.
  
            
             |   |   
            
        
 
            
         
            Hans (08-07-2002) 
         
	
            | Kommentar Fra : Hans | 
  Dato :  08-07-02 21:02 |  
  |  
 
            "Madsen" <nospam@madsen.tdcadsl.dk> skrev i en meddelelse
 news:Xns9245D347D8BA9copy.if.you.wish@madsen.tdcadsl.dk...
 > Der er lidt for meget troll i dig til at jeg gider at spilde harddisk-
 > plads på dine indlæg, så plonk herfra. Velkommen i mit killfilter. :)
 Det vil da (næsten) være synd - Jeg synes han er mægtig fornøjelig, nærmest
 pudsig.   
mvh, Hans
            
              |   |   
            
        
 
            
         
             Dennis Jakobsen (08-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  08-07-02 21:25 |  
  |  
 
            Hans wrote:
 > "Madsen" <nospam@madsen.tdcadsl.dk> skrev i en meddelelse
 > news:Xns9245D347D8BA9copy.if.you.wish@madsen.tdcadsl.dk...
 > 
 > 
 >>Der er lidt for meget troll i dig til at jeg gider at spilde harddisk-
 >>plads på dine indlæg, så plonk herfra. Velkommen i mit killfilter. :)
 > 
 > 
 > Det vil da (næsten) være synd - Jeg synes han er mægtig fornøjelig, nærmest
 > pudsig.   
jubiii..  nogen der kan nyde en god (måske på forhånd 'biased') diskussion!
 jeg ryger ikke i dit killfilter for at have et ATI kort vel Hans? :)
            
              |   |   
            
        
 
            
         
              Hans (08-07-2002) 
         
	
            | Kommentar Fra : Hans | 
  Dato :  08-07-02 21:48 |  
  |   
            "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
 news:agcsea$204$2@phys-news1.kolumbus.fi...
 
 > jeg ryger ikke i dit killfilter for at have et ATI kort vel Hans? :)
 
 Jeg har ingen i filteret, da det standser al kommunikation, brugbar eller
 ej.
 
 Hvis du er tilfreds med dit ATI, og det dækker dit behov vil jeg da ikke
 overtale dig til at investere i nyt.
 
 Jeg ser på: Egnethed, kvalitet, ydeevne, omkostniger og er omhyggelig med at
 kombinere de enkelte enheder for at opnå et helstøbt system, men det betyder
 absolut ikke at jeg vælger den nyeste generation af hardware. Jeg har intet
 imod at vente på ændringer i hardwarerevisioner som fjerner børnesygdomme.
 
 Hardware for mig er udvalgte redskaber til at udføre opgaver - Ikke hvad der
 står på æsken, eller hvor revolutionerende det er. Om der står AMD eller
 Intel på mine maskiner er irrelevant, bare de udfører de opgaver som de er
 egnet bedst til. Af samme grund sidder der Intel i min server og AMD i min
 arbejdsstation.
 
 mvh, Hans
 
 
 
 
  
            
             |   |   
            
        
 
            
         
               Dennis Jakobsen (08-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  08-07-02 23:36 |  
  |   
            Hans wrote:
 > "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
 > news:agcsea$204$2@phys-news1.kolumbus.fi...
 > 
 > 
 >>jeg ryger ikke i dit killfilter for at have et ATI kort vel Hans? :)
 > 
 > 
 > Jeg har ingen i filteret, da det standser al kommunikation, brugbar eller
 > ej.
 > 
 > Hvis du er tilfreds med dit ATI, og det dækker dit behov vil jeg da ikke
 > overtale dig til at investere i nyt.
 > 
 > Jeg ser på: Egnethed, kvalitet, ydeevne, omkostniger og er omhyggelig med at
 > kombinere de enkelte enheder for at opnå et helstøbt system, men det betyder
 > absolut ikke at jeg vælger den nyeste generation af hardware. Jeg har intet
 > imod at vente på ændringer i hardwarerevisioner som fjerner børnesygdomme.
 
 jeg kigger på 3D features, 3D kvalitet og 3D ydelse..  hvad angår 2D 
 kvalitet, er det nok for mig at vide der sidder 2x400Mhz RAMDAC's til at 
 styre selv de største svine dyre skærme og DVI output til et evt. 
 flatpanel hvis jeg skulle vinde i lotto..  jeg mener 2D kvaliteten er 
 mere overladt til den skærm du vælger..
 
 > Hardware for mig er udvalgte redskaber til at udføre opgaver - Ikke hvad der
 > står på æsken, eller hvor revolutionerende det er. Om der står AMD eller
 > Intel på mine maskiner er irrelevant, bare de udfører de opgaver som de er
 > egnet bedst til. Af samme grund sidder der Intel i min server og AMD i min
 > arbejdsstation.
 
 jeg er også fuldstændig ligeglad hvad produktet hedder..  jeg har nemlig 
 samme setup..  dual intel til linux/bsd/beos (hobby os) og AMD til min 
 AMDTel (ikke Wintel) spillekonsol!
 
 grunden til jeg valgte ATI var at det havde flere features og suveræn 
 overlegen hardware DVD dekodning og god TV-Out i 1024x768..  og så var 
 det langt billigere end tilsvarende geforce kort på det tidspunkt..  du 
 kan få mere rå ydelse med et geforce (hvis du slår kvaliteten fra) men 
 det koster også dyrt..
 
  
            
             |   |   
            
        
 
            
         
                H3nrik V! [2670] (09-07-2002) 
         
	
            | Kommentar Fra : H3nrik V! [2670] | 
  Dato :  09-07-02 17:53 |  
  |   
            
 "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
 news:agd43c$ih1$1@phys-news1.kolumbus.fi...
 
 > jeg kigger på 3D features, 3D kvalitet og 3D ydelse..  hvad angår 2D
 > kvalitet, er det nok for mig at vide der sidder 2x400Mhz RAMDAC's til at
 > styre selv de største svine dyre skærme og DVI output til et evt.
 > flatpanel hvis jeg skulle vinde i lotto..  jeg mener 2D kvaliteten er
 > mere overladt til den skærm du vælger..
 
 Jeg er altså ked af at skuffe dig, men billedkvalitet fra kortets side er
 andet og meget mere end hastigheden på RAMDAC. Så længe dine øjne er analoge
 (og det er de nok længe endnu) er de et af de bedste måleinstrumenter, der
 findes, og "fejl" eller ringe kvalitet på et analogt filter på udgangen af
 grafikkortet afsløres ubarmhjertigt af dine øjne...!
 
 Min spillemaskine hængr stadig på et GF2MX kort, hvor min WorkStation kører
 med et G400 - og når jeg opgraderer spillemaskinen (med et Parhelia) ryger
 GF2MX kortet ikke i den anden... For h** der er forskel på hovedpinen efter
 8 timer foran skærmen om der står Matrox eller nVidia på chippen---!
 
 /H3nrik!
 
 
  
            
             |   |   
            
        
 
            
         
            Dennis Jakobsen (08-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  08-07-02 21:22 |  
  |   
            Madsen wrote:
 > Dennis Jakobsen skrev:
 > 
 > 
 >>for satan i matrox er 'touchy'..  i ærgrer jer så vildt over de
 >>usle 3d features.. eller mangel på samme...
 > 
 > Hvem andre end dig snakker om 3D-features?
 
 det ved jeg ikke.. jeg har ikke checket.. men det er jo en generel 
 grafik korts tråd..  jeg skal vel ikke ind i d.e.h.g.3d vel?
 
 > Helt ærligt Dennis. Hvor gammel er du?
 
 ældre end dig hvis du rent faktisk smed mig i dit killfilter fordi du 
 ikke kun forsvare dig, med andet end: "drop det pis!"
 
 > Hver gang et andet grafikkort end Ati's bliver nævnt er du inde og
 > snakke om dine 3D-features og den kommende R300-chip, eller hvad hulen
 > den nu hedder. Du er ikke selv bleg for at bruge et ret nedsættende
 > sprog mod dem som ikke lige vægter 3D-ydelse højest, eller ikke har den
 > samme mening som dig, men hvis der så endelig er en der svarer igen, så
 > går du straks i forsvarsposition med ovenstående ævl, som minder lidt
 > om en 5-årigs opførsel når han føler sig uretfærdigt behandlet.
 > Det er da for latterligt.
 
 giv mig lige et godt eksempel.. bare et der gør mig til ligeså stor 
 trold som dig med den opførsel du lige har vist!
 
 du fortsatte jo bare dit..  jeg vil ikke høre om 3D for jeg har Matrox 
 og det har ingen 3D, så jeg er misundelig..  og jeg kan ikke forsvare 
 det, så jeg siger bare drop det pis og forsvind i mit killfilter!
 
 det er vel et diskussions forum..  hvis der hver gang der var noget jeg 
 ikke brød mig om smed folk i mit killfilter, så var der jo ingen tilbage 
 at diskutere med..   og du har vel kun dine matrox venner tilbage som du 
 glædeligt stadig priser jeres G200 med ..
 
 > Der er lidt for meget troll i dig til at jeg gider at spilde harddisk-
 > plads på dine indlæg, så plonk herfra. Velkommen i mit killfilter. :)
 
 tak, så slipper jeg for din barnlige respons..
 
 > (Min smiley er misvisende, men det plejer dine jo også at være).
 
 tak for flere fornærmelser..    du staver rimelig godt for en 5 årig!
 
  
            
             |   |   
            
        
 
            
         
             H3nrik V! [2670] (09-07-2002) 
         
	
            | Kommentar Fra : H3nrik V! [2670] | 
  Dato :  09-07-02 17:55 |  
  |   
            
 "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
 news:agcs9g$204$1@phys-news1.kolumbus.fi...
 
 > at diskutere med..   og du har vel kun dine matrox venner tilbage som du
 > glædeligt stadig priser jeres G200 med ..
 
 Har du nogensinde set G200 PCI kort i markedsgrupperne eller på netauktioner
 for den sags skyld? De sælges jo til skyhøje priser... Det må der da være en
 grund til - jeg kender grunden - jeg smed gerne et G200 i et af mine
 PCI-slots...!
 
 /H3nrik!
 
 
  
            
             |   |   
            
        
 
            
         
              Dennis Jakobsen (09-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  09-07-02 19:35 |  
  |   
            H3nrik V! [2670] wrote:
 > "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
 > news:agcs9g$204$1@phys-news1.kolumbus.fi...
 > 
 > 
 >>at diskutere med..   og du har vel kun dine matrox venner tilbage som du
 >>glædeligt stadig priser jeres G200 med ..
 > 
 > 
 > Har du nogensinde set G200 PCI kort i markedsgrupperne eller på netauktioner
 > for den sags skyld? De sælges jo til skyhøje priser... Det må der da være en
 > grund til - jeg kender grunden - jeg smed gerne et G200 i et af mine
 > PCI-slots...!
 
 måske du skulle have købt et nyt så.. de er i hvert fald billige.. :)
 
  
            
             |   |   
            
        
 
            
         
               Peter Jespersen (12-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  12-07-02 13:00 |  
  |  
 
            On Tue, 09 Jul 2002 21:34:32 +0300, Dennis Jakobsen wrote:
 >H3nrik V! [2670] wrote:
 >> "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
 >> news:agcs9g$204$1@phys-news1.kolumbus.fi...
 >> 
 >> 
 >>>at diskutere med..   og du har vel kun dine matrox venner tilbage som du
 >>>glædeligt stadig priser jeres G200 med ..
 >> 
 >> 
 >> Har du nogensinde set G200 PCI kort i markedsgrupperne eller på netauktioner
 >> for den sags skyld? De sælges jo til skyhøje priser... Det må der da være en
 >> grund til - jeg kender grunden - jeg smed gerne et G200 i et af mine
 >> PCI-slots...!
 >
 >måske du skulle have købt et nyt så.. de er i hvert fald billige... :)
 Ikke alle G200 modeller, deres MMS er lidt halvpebret, men mulighed for at
 tilslutte 8 DVI skærme er måske ikke aktuelt for alle privatpersoner   
Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
Remember, the paper is always strongest at the perforations.
            
              |   |   
            
        
 
            
         
           Madsen (08-07-2002) 
         
	
            | Kommentar Fra : Madsen | 
  Dato :  08-07-02 21:12 |  
  |  
 
            Hans skrev:
 > Det vil da (næsten) være synd - Jeg synes han er mægtig
 > fornøjelig, nærmest pudsig.   
Jamen så beholder du ham da bare udenfor dit killfilter. :)
 -- 
 Med venlig hilsen
 Madsen.
            
              |   |   
            
        
 
            
         
           Jens Christensen (07-07-2002) 
         
	
            | Kommentar Fra : Jens Christensen | 
  Dato :  07-07-02 08:51 |  
  |   
            Hvis du bare har den mindste smule luftgennemstrømning i dit kabinet tvivler
 jeg på at der er nogen praktisk forskel på om kortet sidder 'på hovedet'
 eller ej.
 
 JC
 
 "Hans" <fast@2night.d.k> wrote in message
 news:3d2716c2$0$16805$edfadb0f@dspool01.news.tele.dk...
 > Jeg har prøvet at rette henvendelse til et par af de store producenter af
 > grafikkort med en idé jeg garanteret ikke er ene om, men har ingen respons
 > fået overhovedet, så derfor kunne jeg godt tænke mig at få nogle
 > tilkendegivelser fra jer brugere af dagens grafikkort.
 >
 > Efter min mening er producenterne med til at fastholde os alle med
 > problematikken omkring effektiv køling af de hurtige grafikkort, da de
 > vedbliver med at montere GSP'en på den "forkerte" side af printet.
 >
 > Komponenterne på et AGP-kort vender som bekendt nedaf i et mini- midi
 eller
 > maxi towerkabinet, og derved bliver varmen fra GSP'en hængende under
 kortet,
 > hvilket stiller yderligere krav til køling af chippen. Ydermere er der
 meget
 > lidt plads mellem AGP og PCI-slot 1, hvis dette skal bruges, så problemet
 er
 > reelt nok.
 >
 > Kigger vi ind i vores maskine må vi konstatere at der er masser af
 ubenyttet
 > plads på oversiden af AGP-kortet, da der er langt over til cpu-køleren.
 > Flyttes GSP'en om på oversiden af grafikkortet får vi langt mere plads til
 > en effektiv, ikke støjende køling, men fordelen er også at varmen vil
 blive
 > bortledt i en naturlig opadgående retning. Bortledning af denne varme er
 > ikke noget problem i et moderne kabinet, da der er mulighed for at montere
 > en kabinetblæser eller flere under strømforsyningen.
 >
 > Er det bare mig som undres over denne indlysende fejlplacering, eller er
 vi
 > mange?
 >
 > mvh, Hans
 >
 >
 >
 >
 >
 
 
  
            
             |   |   
            
        
 
            
         
           Thomas Pedersen (07-07-2002) 
         
	
            | Kommentar Fra : Thomas Pedersen | 
  Dato :  07-07-02 10:26 |  
  |   
            Jeg tror sku at det er grundt rent økonomiske årsager. Mange benytter idag
 EDBpriser for at finde det biligste af det billigste. Ved printomontage på 2
 sider vil prisen sikkert stige og antallet af sogle kort vil da falde.
 
 Som nævnt før, så tror jeg at en let gennemstrømning af luft i ens kabinet,
 kan virke lige så godt.
 
 Mvh
 Thomas Pedersen
 
 
  
            
             |   |   
            
        
 
            
         
           Dennis Jakobsen (07-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  07-07-02 16:28 |  
  |   
            Hans wrote:
 > Jeg har prøvet at rette henvendelse til et par af de store producenter af
 > grafikkort med en idé jeg garanteret ikke er ene om, men har ingen respons
 > fået overhovedet, så derfor kunne jeg godt tænke mig at få nogle
 > tilkendegivelser fra jer brugere af dagens grafikkort.
 > 
 > Efter min mening er producenterne med til at fastholde os alle med
 > problematikken omkring effektiv køling af de hurtige grafikkort, da de
 > vedbliver med at montere GSP'en på den "forkerte" side af printet.
 > 
 > Komponenterne på et AGP-kort vender som bekendt nedaf i et mini- midi eller
 > maxi towerkabinet, og derved bliver varmen fra GSP'en hængende under kortet,
 > hvilket stiller yderligere krav til køling af chippen. Ydermere er der meget
 > lidt plads mellem AGP og PCI-slot 1, hvis dette skal bruges, så problemet er
 > reelt nok.
 
 ja, men problemet bliver større for mit vedkommende hvis du putter 
 chippen på den anden side..
 
 > Kigger vi ind i vores maskine må vi konstatere at der er masser af ubenyttet
 > plads på oversiden af AGP-kortet, da der er langt over til cpu-køleren.
 
 nej, der er faktisk endnu mindre plads..  ikke engang nok til en passiv 
 køler..
 
 > Flyttes GSP'en om på oversiden af grafikkortet får vi langt mere plads til
 > en effektiv, ikke støjende køling, men fordelen er også at varmen vil blive
 > bortledt i en naturlig opadgående retning. Bortledning af denne varme er
 
 naturlig opadgående?  det kommer vel an på hvordan dit kabinet vender?
 
 > ikke noget problem i et moderne kabinet, da der er mulighed for at montere
 > en kabinetblæser eller flere under strømforsyningen.
 
 moderne?  du tænker på de der pis billige skod pc kabinetter?
 
 > Er det bare mig som undres over denne indlysende fejlplacering, eller er vi
 > mange?
 
 for mit vedkommende står du helt alene..
 
 få dig en af de der kølere der hiver luften ud af de åbne slots..  men 
 det løser stadig ikke dit problem hvis du SKAL have et PCI kort der. :(
 
 Dennis
 
  
            
             |   |   
            
        
 
            
         
           Hans (07-07-2002) 
         
	
            | Kommentar Fra : Hans | 
  Dato :  07-07-02 19:52 |  
  |   
            "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
 news:ag9mm0$c28$1@phys-news1.kolumbus.fi...
 
 > ja, men problemet bliver større for mit vedkommende hvis du putter
 > chippen på den anden side..
 
 Jeg kan se i dit tidligere indlæg i denne tråd at du kører med et Asus P2B i
 Dual Slot-1, og dette kort kan vel næppe kaldes for dagens standard, og er
 ikke den første indlysende kombination af velegnede bundkort til et moderne
 grafikkort.
 
 Det første ord jeg kommer til at tænke på når vi taler om Dual Slot-1 er
 server, så det må siges at være skudt helt forbi.
 
 > naturlig opadgående?  det kommer vel an på hvordan dit kabinet vender?
 
 Jeg kan garantere dig for at på 99.999% af markedets towerkabineter vender
 AGP-kortets blæser ned mod bunden af kabinettet. Igen - Vi snakker ikke om
 specielle serverkabinetter der ikke hører hjemme i denne sammenhæng.
 
 Jeg tænker udelukkende på tidssvarende maskiner i S-A og S-478 som stort set
 er ene på markedet i dag, og som kan yde de hurtige skærmkort retfærdighed.
 
 > moderne?  du tænker på de der pis billige skod pc kabinetter?
 
 Ja - Ja, de der billige Chieftec kabinetter. :o\
 
 Gider du godt og kravle ned til os andre, eller bidrage med med noget
 konstruktivt, for du lyder faktisk som et rigtigt surt opstød i denne
 sammenhæng.
 
 > for mit vedkommende står du helt alene..
 
 Nope, men du kan meget vel komme til det hvis du fastholder dine holdninger.
 
 mvh, Hans
 
 
  
            
             |   |   
            
        
 
            
         
            Dennis Jakobsen (07-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  07-07-02 21:18 |  
  |   
            Hans wrote:
 
 > Jeg kan se i dit tidligere indlæg i denne tråd at du kører med et Asus P2B i
 > Dual Slot-1, og dette kort kan vel næppe kaldes for dagens standard, og er
 
 tjoo.. det følger da den samme ATX standard som dit board.. du er ikke 
 flyttet til WTX endnu vel?  for så er du lidt foran..
 
 > ikke den første indlysende kombination af velegnede bundkort til et moderne
 > grafikkort.
 
 nå, undskyld jeg ikke valgte det samme som dig..   nu har jeg interesse 
 i alternative os'er der kan finde ud af at bruge 2 processorer, så det 
 var et yderst indlysende valg for mig..
 
 men da jeg 'kun' har AGP2x er jeg jo nok gammeldags.. ikke at jeg kender 
 et eneste spil der bruger det til noget..  eller kunne bruge det til 
 noget fornuftigt så langsomt som AGP4x er..
 
 > Det første ord jeg kommer til at tænke på når vi taler om Dual Slot-1 er
 > server, så det må siges at være skudt helt forbi.
 
 det første jeg tænker på når jeg kører Quake3 i Windows er Spille Maskine!
 
 har ikke brug for mere end en 100mhz pentium1 med linux/bsd på hvis jeg 
 skal bruge en server til privat brug..
 
 >>naturlig opadgående?  det kommer vel an på hvordan dit kabinet vender?
 > 
 > Jeg kan garantere dig for at på 99.999% af markedets towerkabineter vender
 > AGP-kortets blæser ned mod bunden af kabinettet. Igen - Vi snakker ikke om
 > specielle serverkabinetter der ikke hører hjemme i denne sammenhæng.
 
 hmm.. towerkabinetter ja..  der er det nok 100%.. men det er også 
 ligemeget..
 
 > Jeg tænker udelukkende på tidssvarende maskiner i S-A og S-478 som stort set
 > er ene på markedet i dag, og som kan yde de hurtige skærmkort retfærdighed.
 
 hmmm..  så 2x1.4Ghz Pentium3 chips som tører røv med p4'eren er ikke 
 hurtig nok?
 
 >>moderne?  du tænker på de der pis billige skod pc kabinetter?
 > 
 > Ja - Ja, de der billige Chieftec kabinetter. :o\
 
 jep, jeg har et..  måtte dog slippe en halv tusse for en ordentlig PSU
 
 > Gider du godt og kravle ned til os andre, eller bidrage med med noget
 > konstruktivt, for du lyder faktisk som et rigtigt surt opstød i denne
 > sammenhæng.
 
 jeg tror faktisk jeg skulle kravle op ad.. jeg ligger ret langt nede..
 
 og undskyld jeg ikke kommer med skulderklap til jeres revolutionære 
 forslag..  *sigh*
 
 >>for mit vedkommende står du helt alene..
 > 
 > Nope, men du kan meget vel komme til det hvis du fastholder dine holdninger.
 
 måske det er mig der står helt alene?
 
 det er fint nok du vil have ny smart overclocking tech. men det er ikke 
 ligefrem det der driver industrien..  og at flytte chippen om på den 
 anden side bliver vel bare værrer for din processor..  og for 
 forbrugerne at skulle vælge det rigtige kort..  :)
 
 og undskyld jeg virker som et surt opstød og prikkede hul i din bobbel, 
 jeg prøver bare at være realistisk..
 
 Dennis
 
  
            
             |   |   
            
        
 
            
         
             Hans (07-07-2002) 
         
	
            | Kommentar Fra : Hans | 
  Dato :  07-07-02 22:45 |  
  |   
            "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
 news:aga7lg$p6e$1@phys-news1.kolumbus.fi...
 
 > og undskyld jeg virker som et surt opstød og prikkede hul i din bobbel,
 > jeg prøver bare at være realistisk..
 
 Realistisk? Jeg vil nærmere kalde det konservativt og meget lidt udviklende,
 men hvis du har det fint med forgårs teknologi, så fred være med det. Der
 skal noget mere til at prikke hul i min ganske transparante bobbel.
 
 Vi andre har ikke noget imod at tænke i anderledes termer, og skulle
 forbrugerne få endnu et valg og nye overvejelser ved køb af fremtidens
 hardware, så er det nok ikke første gang det sker. Prøv dog at fokuser på
 fordele og muligheder frem for spørgsmålstegn og tvivl som din første
 indskydelse.
 
 Iøvrigt er det den private forbruger som investerer i de hurtige grafikkort,
 nærmere betegnet alle dem som holder af at spille, og dem er der rigtig
 mange af skal jeg lige hilse og sige.
 
 Bortset fra det, så har det været interessant at få tilkendegivelser omkring
 denne tråd, både de positive, negative og "janteindlæggene". Der er
 alligevel håb for at vi kan se frem til nogle endnu mere spændende produkter
 i fremtiden, selv om der er en del som vedbliver med at trække den anden
 vej.
 
 EOD
 
 mvh, Hans
 
 
 
 
 
 
  
            
             |   |   
            
        
 
            
         
              Dennis Jakobsen (08-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  08-07-02 12:03 |  
  |   
            Hans wrote:
 > "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
 > news:aga7lg$p6e$1@phys-news1.kolumbus.fi...
 > 
 > 
 >>og undskyld jeg virker som et surt opstød og prikkede hul i din bobbel,
 >>jeg prøver bare at være realistisk..
 > 
 > 
 > Realistisk? Jeg vil nærmere kalde det konservativt og meget lidt udviklende,
 > men hvis du har det fint med forgårs teknologi, så fred være med det. Der
 > skal noget mere til at prikke hul i min ganske transparante bobbel.
 
 tjaa.. nogen gange må du træde et skridt tilbage i udviklingen hvis du 
 skal være realistisk..   og af samme grund får du ikke et AGP kort med 
 GPU'en på bagsiden af kortet..    endnu..
 
 > Vi andre har ikke noget imod at tænke i anderledes termer, og skulle
 > forbrugerne få endnu et valg og nye overvejelser ved køb af fremtidens
 > hardware, så er det nok ikke første gang det sker. Prøv dog at fokuser på
 > fordele og muligheder frem for spørgsmålstegn og tvivl som din første
 > indskydelse.
 
 ja, det vil jeg da også gerne, men når det ender med at være fysisk 
 umuligt for folk at sætte kortet i, bliver det altså aldrig til noget!!
 
 måske med kølere hvor man sigter efter et hardcore oc marked..  men med 
 grafikkort..  nej..   du kunne jo også sætte en køleprofil på bagsiden 
 af kortet!  du har jo så meget plads der..  :)
 
 > Iøvrigt er det den private forbruger som investerer i de hurtige grafikkort,
 > nærmere betegnet alle dem som holder af at spille, og dem er der rigtig
 > mange af skal jeg lige hilse og sige.
 
 aha..  og Dell, IBM, Fujitsu osv. laver ikke highend maskiner med 
 GeForce og ATI kort i ?   nej, det kan vist kun være ca. 100 maskiner 
 solgt samlet om året..   minimalt marked..
 
 det kan virke overvældende for dig at der måske er 100 mennesker i den 
 her newsgroup..  men jeg kan garantere dig at 'enthusiast' markedet er i 
 den mindste ende af skalaen..   jeg vil dog tro vandkøling, flydende 
 kvælstof og andre former for overclocking kan samles til en gruppe og så 
   stadig være mindre..
 
 > Bortset fra det, så har det været interessant at få tilkendegivelser omkring
 > denne tråd, både de positive, negative og "janteindlæggene". Der er
 > alligevel håb for at vi kan se frem til nogle endnu mere spændende produkter
 > i fremtiden, selv om der er en del som vedbliver med at trække den anden
 > vej.
 
 tak for de næsten usynlige hentydninger.. :)
 
 jeg skal jo lige indrømme at jeg sagtens kan se hvilken gavn det giver 
 dig..  og hvilken gavn det ville gøre mig i en fremtidig maskine med et 
 Socket baseret bundkort og et vertikalt tower kabinet.
 
 men lige nu finder jeg det bare ikke realistisk for nogen som helst 
 grafikkort fabrikant at efterfølge sådan et produkt.
 
 jeg så hellere ATI/Nvidia fixede deres varme problemer, så de kunne 
 sælge kølige grafikkort, måske enddda uden passiv køle profil..
 
 var det den udvikling du mente var at trække baglæns?
 
 og du vil flytte chips rundt og putte heatpipes og endnu større kølere 
 på, fordi chipsene bliver varmere og varmere?
 
 det er vist dig der trækker i den forkerte retning..
 
 Dennis
 
  
            
             |   |   
            
        
 
            
         
               Thomas Worm Madsen (08-07-2002) 
         
	
            | Kommentar Fra : Thomas Worm Madsen | 
  Dato :  08-07-02 12:18 |  
  |   
            
 > det er vist dig der trækker i den forkerte retning..
 
 Ja det må man sige med alt den støtte du får til dine synspunkter!
 
 Hvis du vil af med dit varmeproblem, så må du nok skifte til nogle ældre
 GFX, for det bliver da ikke mindre og det bliver da næppe uden køleprofil.
 Idag er det jo sådan et for at GFX'ene skal kunne følge med, så skal de have
 flere transistorer osv. Dette vil unægteligt medfølge at der vil udvikles
 mere varme og dermed skal der større profiler på.
 Måden at undgå dette er at bruge mindre baner i GPU'en hvilket kunne ses
 hjalp da man sprang fra T-bird til XP.
 At du sidder med et bundkort fra før årtusindskiftet (endda godt før) det er
 jo så dit problem og du må så lade være med at hoppe med på vognen, men
 blive med at sidde og mæske dig med nostalgiteknologi. Jeg bruger selv
 nostalgiteknologi, men jeg begræder f.eks. ikke at mit BP6 ikke kan udnytte
 et GF4 fuldt ud. Det giver jeg derimod et 1 mb PCI grafikkort som det kun
 skal have, for ellers vil den ikke starte (hint: den er server, ligesom det
 blev foreslået at du skulle lave din til)
 
 Og så tror jeg egentlig nok et Hans har skrevet et EOD til dig, men da du
 ikke reagerede på det kan jeg lige oversætte:
 
 EOD = End Of Discussion!
 
 /Thomas
 
 
  
            
             |   |   
            
        
 
            
         
                Dennis Jakobsen (08-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  08-07-02 18:07 |  
  |   
            Thomas Worm Madsen wrote:
 >>det er vist dig der trækker i den forkerte retning..
 > 
 > 
 > Ja det må man sige med alt den støtte du får til dine synspunkter!
 
 yeah, og som flertallet har ret..  hmm..  lad os se..  så må Windows jo 
 være den perfekte platform og Islam den bedste religion..  og nVidia 
 laver de bedste grafikkort.. hahah.. yeah right..
 
 > Hvis du vil af med dit varmeproblem, så må du nok skifte til nogle ældre
 > GFX, for det bliver da ikke mindre og det bliver da næppe uden køleprofil.
 
 tjoo.. at gå fra et R200 til R250 kort skaffer jeg mig af med min blæser..
 
 men i fatter stadig ikke at det er den rigtige retning..  jo større 
 blæser jo bedre teknologi.. tsk tsk..
 
 > Idag er det jo sådan et for at GFX'ene skal kunne følge med, så skal de have
 > flere transistorer osv. Dette vil unægteligt medfølge at der vil udvikles
 > mere varme og dermed skal der større profiler på.
 
 typisk flere transistorer ja, men ikke nødvendigvis..
 
 > Måden at undgå dette er at bruge mindre baner i GPU'en hvilket kunne ses
 > hjalp da man sprang fra T-bird til XP.
 > At du sidder med et bundkort fra før årtusindskiftet (endda godt før) det er
 > jo så dit problem og du må så lade være med at hoppe med på vognen, men
 > blive med at sidde og mæske dig med nostalgiteknologi. Jeg bruger selv
 
 aahh.. nostalgi..  nej, det ville være at købe en 64'er..  hvis jeg 
 putter et par hurtige p3'er i mit bundkort tørrer jeg jo røv med din 
 maskine..  så hvad gør det så din teknologi til?
 
 > nostalgiteknologi, men jeg begræder f.eks. ikke at mit BP6 ikke kan udnytte
 > et GF4 fuldt ud. Det giver jeg derimod et 1 mb PCI grafikkort som det kun
 > skal have, for ellers vil den ikke starte (hint: den er server, ligesom det
 > blev foreslået at du skulle lave din til)
 
 så kunne du jo have valgt et mere stabilt bundkort der ikke bukker under 
 for lidt pres..  og hvis du tror at AGP4x bliver brugt til en flyvende 
 skid for at vise det grafik du sidder og ser på, tager du grueligt fejl.
 
 > Og så tror jeg egentlig nok et Hans har skrevet et EOD til dig, men da du
 > ikke reagerede på det kan jeg lige oversætte:
 
 så det betyder jeg ikke må svare på hans fornærmelser eller?!?
 
 så kan jeg jo passende kalde dig tech idiot wanna-be og skrive EOD, 
 fordi så må du ikke svare..  nej, hvor smart.. hvis man er et 5 årigt barn..
 
 > EOD = End Of Discussion!
 
 det var vist ikke en oversættelse var?
 
 men EOD så!   narrøv..  :)
 
  
            
             |   |   
            
        
 
            
         
               H3nrik V! [2670] (09-07-2002) 
         
	
            | Kommentar Fra : H3nrik V! [2670] | 
  Dato :  09-07-02 18:39 |  
  |   
            
 "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
 news:agbrfp$m1s$1@phys-news1.kolumbus.fi...
 
 > ja, det vil jeg da også gerne, men når det ender med at være fysisk
 > umuligt for folk at sætte kortet i, bliver det altså aldrig til noget!!
 
 Hmmm... Det er også fysisk umuligt at ploppe en P4 i et S370 kort - folk
 opgraderer - sådan er det bare - vil man ha' den nyeste må man betale... Og
 så kan du smide nok så hurtige P!!!'ere i dit dualboard, så kan de vente
 endnu længere på data fra din PC133 (eller er det PC100) RAM...!
 
 Så skru ned for det "fysisk umulige" etc. Folk der gider gi' 4000 kr for et
 grafikkort køber også gerne et nyt bundkort for at passe det sammen...!
 
 /H3nrik - der skal ud og købe nyt MoBo for at kunne bruge nyere
 Detonator's...!
 
 
  
            
             |   |   
            
        
 
            
         
                Dennis Jakobsen (09-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  09-07-02 19:43 |  
  |   
            H3nrik V! [2670] wrote:
 > "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
 > news:agbrfp$m1s$1@phys-news1.kolumbus.fi...
 > 
 > 
 >>ja, det vil jeg da også gerne, men når det ender med at være fysisk
 >>umuligt for folk at sætte kortet i, bliver det altså aldrig til noget!!
 > 
 > 
 > Hmmm... Det er også fysisk umuligt at ploppe en P4 i et S370 kort - folk
 > opgraderer - sådan er det bare - vil man ha' den nyeste må man betale... Og
 
 ja, så kunne du jo have valgt en smartere platform..  at Intel skifter 
 socket næsten for hver ny processor revision er jo også fuldstændig 
 vanvittigt..
 
 > så kan du smide nok så hurtige P!!!'ere i dit dualboard, så kan de vente
 > endnu længere på data fra din PC133 (eller er det PC100) RAM...!
 
 tjaa.. det skal jo ikke vente så længe som en Rambus controller.. 
 hvilket er grunden til dual p3 tørrer røv med dual p4 xeon..
 
 > Så skru ned for det "fysisk umulige" etc. Folk der gider gi' 4000 kr for et
 > grafikkort køber også gerne et nyt bundkort for at passe det sammen...!
 
 jamen jeg kan da ikke skrue ned for det fysisk umulige...  skal jeg gå 
 ud og erstatte alle folks slot 1/A bundkort ?
 
 når det eneste de får er en hurtige AGP der stadig ikke bliver brugt til 
   noget i spil og en P4 der er halvt så hurtig ved samme frekvens?   jeg 
 ser ikke formålet udover at smide penge ud af vinduet..
 
 når Hammer kommer og bitchslapper p4'eren, opgraderer jeg gerne..  fordi 
 jeg ved med AMD, kan jeg opgradere min CPU mange år frem i tiden..
 
 hvis man køber Intel skal du skifte bundkort, ram og PSU hver gang du 
 vil oppe den 500mhz..   sørgeligt..
 
 > /H3nrik - der skal ud og købe nyt MoBo for at kunne bruge nyere
 > Detonator's...!
 
  
            
             |   |   
            
        
 
            
         
                 H3nrik V! [2670] (09-07-2002) 
         
	
            | Kommentar Fra : H3nrik V! [2670] | 
  Dato :  09-07-02 21:36 |  
  |   
            
 "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
 news:agfaqp$9m4$1@phys-news1.kolumbus.fi...
 
 > ja, så kunne du jo have valgt en smartere platform..  at Intel skifter
 > socket næsten for hver ny processor revision er jo også fuldstændig
 > vanvittigt..
 
 Ja, for AMD skiftede nemlig ikke Super socket 7 -> Slot A -> Socket A...!
 Jeg kan godt se hvor platformstabiliteten ligger...!
 
 > > så kan du smide nok så hurtige P!!!'ere i dit dualboard, så kan de vente
 > > endnu længere på data fra din PC133 (eller er det PC100) RAM...!
 >
 > tjaa.. det skal jo ikke vente så længe som en Rambus controller..
 > hvilket er grunden til dual p3 tørrer røv med dual p4 xeon..
 
 Lad den da vente den smule længere på 3.2GB/s frem for 1GB/s og mon dog
 2xP!!! 1400 kører rundt i manegen med 2XPIV Xeon 2.2?
 
 > jamen jeg kan da ikke skrue ned for det fysisk umulige...  skal jeg gå
 > ud og erstatte alle folks slot 1/A bundkort ?
 
 Nej... Dem har folk såmænd selv skiftet... Og jeg er sikker på mange ville
 opgradere deres bundkort for at få plads til noget hurtigere...!
 
 > når det eneste de får er en hurtige AGP der stadig ikke bliver brugt til
 
 Nej - jeg tænker ikke AGPx4 (eller 8) men plads til hurtigere GFX kort...!
 
 >   noget i spil og en P4 der er halvt så hurtig ved samme frekvens?   jeg
 
 Effektiviteten pr clockcycle i PIV er en anden diskussion - men personligt
 køber jeg gerne noget, der laver det halve pr. clock, hvis det så kører 3
 gange så stærkt. Det er så bundlinjen, der skal læses, og hvis den gi'r + er
 jeg på...!
 
 > når Hammer kommer og bitchslapper p4'eren, opgraderer jeg gerne..  fordi
 > jeg ved med AMD, kan jeg opgradere min CPU mange år frem i tiden..
 
 Hmm... Bli'r Hammer ikke lanceret med forskellige sockets afhængig af
 sledge- claw- osv.?
 
 > hvis man køber Intel skal du skifte bundkort, ram og PSU hver gang du
 > vil oppe den 500mhz..   sørgeligt..
 
 Jeg tænker igen Slot/Socket A... Slot One kunne dog bruges med S370
 adapters...! Mit gamle BH6 fik da 4 forskellige CPU'er... Havde den gået med
 et Slot A MoBo?
 
 /H3nrik...!
 
 
 
  
            
             |   |   
            
        
 
            
         
                  Dennis Jakobsen (10-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  10-07-02 14:22 |  
  |   
            H3nrik V! [2670] wrote:
 > "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
 > news:agfaqp$9m4$1@phys-news1.kolumbus.fi...
 > 
 > 
 >>ja, så kunne du jo have valgt en smartere platform..  at Intel skifter
 >>socket næsten for hver ny processor revision er jo også fuldstændig
 >>vanvittigt..
 > 
 > 
 > Ja, for AMD skiftede nemlig ikke Super socket 7 -> Slot A -> Socket A...!
 > Jeg kan godt se hvor platformstabiliteten ligger...!
 
 ja, det var fjollet at følge Intel der.. de skulle have startet med 
 SocketA med det samme..  men nu går de jo forhåbentlig egne veje i 
 fremtiden med Hammer..  (SocketB ? ;)
 
 >>>så kan du smide nok så hurtige P!!!'ere i dit dualboard, så kan de vente
 >>>endnu længere på data fra din PC133 (eller er det PC100) RAM...!
 >>
 >>tjaa.. det skal jo ikke vente så længe som en Rambus controller..
 >>hvilket er grunden til dual p3 tørrer røv med dual p4 xeon..
 > 
 > Lad den da vente den smule længere på 3.2GB/s frem for 1GB/s og mon dog
 
 tjaa, den har større båndbredde, men det hjælper åbenbart ikke noget når 
 den skal vente næsten 50ns på det..
 
 > 2xP!!! 1400 kører rundt i manegen med 2XPIV Xeon 2.2?
 
 måske du skulle checke nogle benchmarks..
 
 ok, vi snakker ikke 3 dobbelt performance..  men den er hurtigere!!
 
 >>jamen jeg kan da ikke skrue ned for det fysisk umulige...  skal jeg gå
 >>ud og erstatte alle folks slot 1/A bundkort ?
 > 
 > Nej... Dem har folk såmænd selv skiftet... Og jeg er sikker på mange ville
 > opgradere deres bundkort for at få plads til noget hurtigere...!
 
 jaja, men nu er vi jo tilbage ved minoritet's grupperne igen..   givet 
 at de fleste efterhånden har købt ny computer og de er socket baseret, 
 men der er stadig en stor gruppe mennesker tilbage med slot baserede 
 bundkort der ikke føler sig nødsaget til en bundkort+ram+psu+cpu for at 
 opgradere sit grafik kort..
 
 >>når det eneste de får er en hurtige AGP der stadig ikke bliver brugt til
 > 
 > Nej - jeg tænker ikke AGPx4 (eller 8) men plads til hurtigere GFX kort...!
 
 øhh..  plads?
 
 >>  noget i spil og en P4 der er halvt så hurtig ved samme frekvens?   jeg
 > 
 > Effektiviteten pr clockcycle i PIV er en anden diskussion - men personligt
 > køber jeg gerne noget, der laver det halve pr. clock, hvis det så kører 3
 > gange så stærkt. Det er så bundlinjen, der skal læses, og hvis den gi'r + er
 > jeg på...!
 
 ja..  og bundlinjen siger at en P4 har den dobbelte frekvens, men giver 
 ca. den samme ydelse..
 
 >>når Hammer kommer og bitchslapper p4'eren, opgraderer jeg gerne..  fordi
 >>jeg ved med AMD, kan jeg opgradere min CPU mange år frem i tiden..
 > 
 > Hmm... Bli'r Hammer ikke lanceret med forskellige sockets afhængig af
 > sledge- claw- osv.?
 
 jo, fordi SledgeHammer er en server chip med en anden onboard memory 
 controller..  dual 64bit DDR kontra single channel DDR mem controller på 
 Claw Hammeren..    der skal pins til en 64bit DDR mem controller.. og 
 dobbelt så mange til en 2x64bit DDR mem controller..
 
 >>hvis man køber Intel skal du skifte bundkort, ram og PSU hver gang du
 >>vil oppe den 500mhz..   sørgeligt..
 > 
 > Jeg tænker igen Slot/Socket A... Slot One kunne dog bruges med S370
 > adapters...! Mit gamle BH6 fik da 4 forskellige CPU'er... Havde den gået med
 > et Slot A MoBo?
 
 korrekt..  gudskelov..  og jeg savnede også en Slocket til mit gamle 
 K7M..  men Athlon markedet var ikke særlig stort på det tidspunkt og det 
 blev vist kun til snak hos div. fabrikanter..
 
 som jeg sagde tidligere..  det var fjollet af AMD at følge Intel i Slot 
 arkitekturen..
 
  
            
             |   |   
            
        
 
            
         
                   Peter Jespersen (11-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  11-07-02 19:24 |  
  |  
 
            On Wed, 10 Jul 2002 16:21:58 +0300, Dennis Jakobsen wrote:
 >> Ja, for AMD skiftede nemlig ikke Super socket 7 -> Slot A -> Socket A....!
 >> Jeg kan godt se hvor platformstabiliteten ligger...!
 >
 >ja, det var fjollet at følge Intel der.. de skulle have startet med 
 >SocketA med det samme..  men nu går de jo forhåbentlig egne veje i 
 >fremtiden med Hammer..  (SocketB ? ;)
 Hvis de havde startet med sokkelA havde der været problemer med
 at få plads til cachen ... og de har ikke helt fulgt intel i
 nyere tid, der indtil videre har taget denne rute (Xeon ikke
 taget med)
 Sokkel5->Sokkel7->Super
 sokkel7->Sokkel8(PPro)->Slot1->Sokkel370->Sokkel423->Sokkel478
 Allerede på forhånd blev det annonceret at Sokkel423 var
 midlertidigt....
 (Hvis jeg har glemt nogle så lad mig det vide....mener at der
 var en ekstra i forlængelse ag sokkel370).
 >>>>så kan du smide nok så hurtige P!!!'ere i dit dualboard, så kan de vente
 >>>>endnu længere på data fra din PC133 (eller er det PC100) RAM...!
 >>>
 >>>tjaa.. det skal jo ikke vente så længe som en Rambus controller..
 >>>hvilket er grunden til dual p3 tørrer røv med dual p4 xeon..
 >> 
 >> Lad den da vente den smule længere på 3.2GB/s frem for 1GB/s og mon dog
 >
 >tjaa, den har større båndbredde, men det hjælper åbenbart ikke noget når 
 >den skal vente næsten 50ns på det..
 >
 >> 2xP!!! 1400 kører rundt i manegen med 2XPIV Xeon 2.2?
 >
 >måske du skulle checke nogle benchmarks..
 >
 >ok, vi snakker ikke 3 dobbelt performance..  men den er hurtigere!!
 >
 >>>jamen jeg kan da ikke skrue ned for det fysisk umulige...  skal jeg gå
 >>>ud og erstatte alle folks slot 1/A bundkort ?
 >> 
 >> Nej... Dem har folk såmænd selv skiftet... Og jeg er sikker på mange ville
 >> opgradere deres bundkort for at få plads til noget hurtigere...!
 >
 >jaja, men nu er vi jo tilbage ved minoritet's grupperne igen..   givet 
 >at de fleste efterhånden har købt ny computer og de er socket baseret, 
 >men der er stadig en stor gruppe mennesker tilbage med slot baserede 
 >bundkort der ikke føler sig nødsaget til en bundkort+ram+psu+cpu for at 
 >opgradere sit grafik kort..
 Ved det....det er fx Pentium og Pentium-klasse processorer der
 er mest anvendt af OS/2 brugerne, for omkring to år siden var
 det i486'ere, har stadig både en IBM 6x86MX-300 og en K6-2
 450Mhz i aktion. Men det betyder ikke at fabrikanterne skal
 smide alt de har i hænderne og fremstille enhder der er
 problematiske når de bliver sat i en "moderne" maskine.
 Nogle af de nye grafikkort kræver i forvejen direkte en BIOS
 opdatering....hvilket med en del af de gamle bundkort
 efterhånden kan blive et problem.
 >>>når det eneste de får er en hurtige AGP der stadig ikke bliver brugt til
 >> 
 >> Nej - jeg tænker ikke AGPx4 (eller 8) men plads til hurtigere GFX kort...!
 >
 >øhh..  plads?
 Ja plads...jeg roder rundt med et ECS K7S6A og et Matrox G400,
 der er passivt kølet, det er lige med nød og næppe at det første
 PCI slot kan bruges, havde et stykke tid en Blue Orb på hvilket
 direkte afskar mig fra at bruge PCI-slottet.
 Og det er en udbredt tendens på markedet.....
 >> Hmm... Bli'r Hammer ikke lanceret med forskellige sockets afhængig af
 >> sledge- claw- osv.?
 >
 >jo, fordi SledgeHammer er en server chip med en anden onboard memory 
 >controller..  dual 64bit DDR kontra single channel DDR mem controller på 
 >Claw Hammeren..    der skal pins til en 64bit DDR mem controller.. og 
 >dobbelt så mange til en 2x64bit DDR mem controller..
 Absolut....Intel har gjort nogenlunde det samme med Xeon....
 >korrekt..  gudskelov..  og jeg savnede også en Slocket til mit gamle 
 >K7M..  men Athlon markedet var ikke særlig stort på det tidspunkt og det 
 >blev vist kun til snak hos div. fabrikanter..
 >
 >som jeg sagde tidligere..  det var fjollet af AMD at følge Intel i Slot 
 >arkitekturen..
 Yep dumt, men det var en nem løsning på cache problemet og
 backside cache var meget udbredt på det tidspunkt.
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
The only difference between a rut and a grave is the depth.
            
              |   |   
            
        
 
            
         
                    Dennis Jakobsen (12-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  12-07-02 01:42 |  
  |   
            Peter Jespersen wrote:
 > On Wed, 10 Jul 2002 16:21:58 +0300, Dennis Jakobsen wrote:
 >>ja, det var fjollet at følge Intel der.. de skulle have startet med 
 >>SocketA med det samme..  men nu går de jo forhåbentlig egne veje i 
 >>fremtiden med Hammer..  (SocketB ? ;)
 > 
 > Hvis de havde startet med sokkelA havde der været problemer med
 > at få plads til cachen ... og de har ikke helt fulgt intel i
 
 det har ikke været et problem førhen at placere den på bundkortet.. 
 endda i nogle tilfælde i sokler, så du kunne opgradere din cache.. den 
 trend så jeg gerne udnyttet igen..  så du kan opgradere til 2mb 2ns 
 cache, hvis du havde råd!! :)    MMMMmmmmmm...
 
 > nyere tid, der indtil videre har taget denne rute (Xeon ikke
 > taget med)
 
 nej, gudskelov skifter de ikke antal pin numre for t-bird - palo - t-bred..
 
 > Sokkel5->Sokkel7->Super
 > sokkel7->Sokkel8(PPro)->Slot1->Sokkel370->Sokkel423->Sokkel478
 
 noget i den stil..
 
 > Allerede på forhånd blev det annonceret at Sokkel423 var
 > midlertidigt....
 
 ja, det var vel nok sødt af dem..  står det på skiltene i den lokale PC 
 butik?
 
 > (Hvis jeg har glemt nogle så lad mig det vide....mener at der
 > var en ekstra i forlængelse ag sokkel370).
 
 jeg ville ikke være overrasket..
 
 >>jaja, men nu er vi jo tilbage ved minoritet's grupperne igen..   givet 
 >>at de fleste efterhånden har købt ny computer og de er socket baseret, 
 >>men der er stadig en stor gruppe mennesker tilbage med slot baserede 
 >>bundkort der ikke føler sig nødsaget til en bundkort+ram+psu+cpu for at 
 >>opgradere sit grafik kort..
 > 
 > Ved det....det er fx Pentium og Pentium-klasse processorer der
 > er mest anvendt af OS/2 brugerne, for omkring to år siden var
 > det i486'ere, har stadig både en IBM 6x86MX-300 og en K6-2
 > 450Mhz i aktion. Men det betyder ikke at fabrikanterne skal
 > smide alt de har i hænderne og fremstille enhder der er
 > problematiske når de bliver sat i en "moderne" maskine.
 > Nogle af de nye grafikkort kræver i forvejen direkte en BIOS
 > opdatering....hvilket med en del af de gamle bundkort
 > efterhånden kan blive et problem.
 
 hmm.. jeg har ikke hørt om grafikkort der kræver en BIOS update..  men 
 nye cpu revisioner har jeg..
 
 >>>>når det eneste de får er en hurtige AGP der stadig ikke bliver brugt til
 >>>
 >>>Nej - jeg tænker ikke AGPx4 (eller 8) men plads til hurtigere GFX kort...!
 >>
 >>øhh..  plads?
 > 
 > Ja plads...jeg roder rundt med et ECS K7S6A og et Matrox G400,
 > der er passivt kølet, det er lige med nød og næppe at det første
 > PCI slot kan bruges, havde et stykke tid en Blue Orb på hvilket
 > direkte afskar mig fra at bruge PCI-slottet.
 > Og det er en udbredt tendens på markedet.....
 
 ja, men der er plads?  der er også trængt mellem mit TVkort og det ved 
 siden af..  fordi den store fede Tuner sidder derpå..  hvornår laver de 
 en digital tuner i en lille chip istedet for den store metal box?
 
 >>>Hmm... Bli'r Hammer ikke lanceret med forskellige sockets afhængig af
 >>>sledge- claw- osv.?
 >>
 >>jo, fordi SledgeHammer er en server chip med en anden onboard memory 
 >>controller..  dual 64bit DDR kontra single channel DDR mem controller på 
 >>Claw Hammeren..    der skal pins til en 64bit DDR mem controller.. og 
 >>dobbelt så mange til en 2x64bit DDR mem controller..
 > 
 > Absolut....Intel har gjort nogenlunde det samme med Xeon....
 
 næh.. de har deres mem controller i deres northbridge..  de har stadig 
 deres GTL+ bus fra det forrige århundrede..  sjovt de skifter sockets 
 hele tiden..  men den bus kan de sku ikke finde ud af at forbedre..
 
 ok ok.. de har oppet den til 133Mhz QuadPumped.. det er jo givetvis et 
 firdobbelt spring..  men det er stadig et usselt design der skal deles 
 mellem alle processore forbundet til den northbridge..
 
 >>korrekt..  gudskelov..  og jeg savnede også en Slocket til mit gamle 
 >>K7M..  men Athlon markedet var ikke særlig stort på det tidspunkt og det 
 >>blev vist kun til snak hos div. fabrikanter..
 >>
 >>som jeg sagde tidligere..  det var fjollet af AMD at følge Intel i Slot 
 >>arkitekturen..
 > 
 > Yep dumt, men det var en nem løsning på cache problemet og
 > backside cache var meget udbredt på det tidspunkt.
 
 jep.. det havde også nogle andre bagdele med Dual bundkort..  at have en 
 processor til at stå lodret foran den anden, skaber et kæmpe varme 
 problem..  jeg havde på det tidspunkt 2x366mhz celeron's der hver kunne 
 køre 550mhz for sig selv..  køleren var knap lunken..  men når jeg satte 
 den anden i foran, så blev den bagerste brændvarm med det samme og crash 
 før jeg kunne starte windows..
 
 der har socket arkitekturen frihed!!  :)
 
 men jeg tvivler på du begynder at se PCI slots vendt 90 grader!! ;)
 
  
            
             |   |   
            
        
 
            
         
                     H3nrik V! [2670] (12-07-2002) 
         
	
            | Kommentar Fra : H3nrik V! [2670] | 
  Dato :  12-07-02 09:47 |  
  |   
            
 "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
 news:agl8kj$f4j$1@phys-news1.kolumbus.fi...
 > Peter Jespersen wrote:
 
 > > Hvis de havde startet med sokkelA havde der været problemer med
 > > at få plads til cachen ... og de har ikke helt fulgt intel i
 >
 > det har ikke været et problem førhen at placere den på bundkortet..
 > endda i nogle tilfælde i sokler, så du kunne opgradere din cache.. den
 > trend så jeg gerne udnyttet igen..  så du kan opgradere til 2mb 2ns
 > cache, hvis du havde råd!! :)    MMMMmmmmmm...
 
 Hmm... Har cachen på MoBo nogensinde kørt hurtigere end FSB? Don't think
 so... Og det var bl.a. derfor at Intel (og AMD) gik over til slot designet -
 der kunne cachen monteres og køre ½ hastighed af processoren i stedet for 66
 el. 100 MHz. Og så kan cahcen være 2 eller for den sags skyld 1ns. Sålænge
 der kun overføres data til og fra den ved hjælp af FSB, såeh... Men dengang
 var det jo 70ns RAM, så de 66MHz var knald-hamrende hurtigt...!
 PPro var den første med hurtigere cache...!
 
 > >>jaja, men nu er vi jo tilbage ved minoritet's grupperne igen..   givet
 > >>at de fleste efterhånden har købt ny computer og de er socket baseret,
 > >>men der er stadig en stor gruppe mennesker tilbage med slot baserede
 > >>bundkort der ikke føler sig nødsaget til en bundkort+ram+psu+cpu for at
 > >>opgradere sit grafik kort..
 
 > >>>Nej - jeg tænker ikke AGPx4 (eller 8) men plads til hurtigere GFX
 kort...!
 > >>
 > >>øhh..  plads?
 > >
 > > Ja plads...jeg roder rundt med et ECS K7S6A og et Matrox G400,
 > > der er passivt kølet, det er lige med nød og næppe at det første
 > > PCI slot kan bruges, havde et stykke tid en Blue Orb på hvilket
 > > direkte afskar mig fra at bruge PCI-slottet.
 > > Og det er en udbredt tendens på markedet.....
 >
 > ja, men der er plads?  der er også trængt mellem mit TVkort og det ved
 > siden af..  fordi den store fede Tuner sidder derpå..  hvornår laver de
 > en digital tuner i en lille chip istedet for den store metal box?
 
 Ligeså snart folk får leveret deres TV-signal digitalt... :)
 Hvis du tænker på metalboksen, er den nok dikteret af telestyrelsen, P&T,
 AT&T, you name it... En TV-tuner vil ALTID udsende og være modtagelig for
 højfrekvent støj. Prøv at skille dit TV ad (på eget ansvar) og se dér... Der
 sidder tuneren skam også i en metalboks... Kodeordet er EMI
 (ElectroMotoricInterference)
 
 > næh.. de har deres mem controller i deres northbridge..  de har stadig
 > deres GTL+ bus fra det forrige århundrede..  sjovt de skifter sockets
 > hele tiden..  men den bus kan de sku ikke finde ud af at forbedre..
 
 Hmmm... Uden at skal spille alt for klog, så er der da ændret i bussen (i
 hvert fald ht. spænding) i springet fra CuMine til Tualatin. Desuden er
 AMD's EV6 bus da også fra forrige århundrede..!
 
 > ok ok.. de har oppet den til 133Mhz QuadPumped.. det er jo givetvis et
 > firdobbelt spring..  men det er stadig et usselt design der skal deles
 > mellem alle processore forbundet til den northbridge..
 
 Tror IKKE at den quadpumpede bus kører på GTL+ standarden. Der er trods alt
 en helt anden form for timingproblemer...!
 
 /H3nrik - som mener vi måske skulle ta' diskussionen i en anden gruppe?
 
 
  
            
             |   |   
            
        
 
            
         
                     Peter Jespersen (13-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  13-07-02 01:05 |  
  |  
 
            On Fri, 12 Jul 2002 03:42:10 +0300, Dennis Jakobsen wrote:
 >Peter Jespersen wrote:
 >> On Wed, 10 Jul 2002 16:21:58 +0300, Dennis Jakobsen wrote:
 >>>ja, det var fjollet at følge Intel der.. de skulle have startet med 
 >>>SocketA med det samme..  men nu går de jo forhåbentlig egne veje i 
 >>>fremtiden med Hammer..  (SocketB ? ;)
 >> 
 >> Hvis de havde startet med sokkelA havde der været problemer med
 >> at få plads til cachen ... og de har ikke helt fulgt intel i
 >
 >det har ikke været et problem førhen at placere den på bundkortet... 
 >endda i nogle tilfælde i sokler, så du kunne opgradere din cache.. den 
 >trend så jeg gerne udnyttet igen..  så du kan opgradere til 2mb 2ns 
 >cache, hvis du havde råd!! :)    MMMMmmmmmm...
 Fordelen ved onchip cache er at den kører med samme frekvens som processorens
 kerne.
 Ffordelen ved backside cache er at den oftest kører enten 1/2 eller 1/3 af
 processorkernens frekvens og der er nærmest ubegrænset plads et udemærket
 kompromis.
 On mobo cache (Aner ikke hvad det hedder) fordelen er at det er billigt,
 ydelsen er elendig.
 >> nyere tid, der indtil videre har taget denne rute (Xeon ikke
 >> taget med)
 >
 >nej, gudskelov skifter de ikke antal pin numre for t-bird - palo - t-bred..
 >
 >> Sokkel5->Sokkel7->Super
 >> sokkel7->Sokkel8(PPro)->Slot1->Sokkel370->Sokkel423->Sokkel478
 >
 >noget i den stil..
 >
 >> Allerede på forhånd blev det annonceret at Sokkel423 var
 >> midlertidigt....
 >
 >ja, det var vel nok sødt af dem..  står det på skiltene i den lokale PC 
 >butik?
 Hmmm sarkasme...neeh-nej det har vi ikke brugt her siden 1982...
 Pointen var at de allerede på forhånd havde annonceret at de bundkort som
 folk købte ikke ville kunne bruges med næste generation af
 processoren.....det er ganske uhørt.....
 <snip>
 >hmm.. jeg har ikke hørt om grafikkort der kræver en BIOS update..  men 
 >nye cpu revisioner har jeg..
 GF4 er vist en af dem......
 >>>>>når det eneste de får er en hurtige AGP der stadig ikke bliver brugt til
 >>>>
 >>>>Nej - jeg tænker ikke AGPx4 (eller 8) men plads til hurtigere GFX kort...!
 >>>
 >>>øhh..  plads?
 >> 
 >> Ja plads...jeg roder rundt med et ECS K7S6A og et Matrox G400,
 >> der er passivt kølet, det er lige med nød og næppe at det første
 >> PCI slot kan bruges, havde et stykke tid en Blue Orb på hvilket
 >> direkte afskar mig fra at bruge PCI-slottet.
 >> Og det er en udbredt tendens på markedet.....
 >
 >ja, men der er plads?  der er også trængt mellem mit TVkort og det ved 
 >siden af..  fordi den store fede Tuner sidder derpå..  hvornår laver de 
 >en digital tuner i en lille chip istedet for den store metal box?
 Ja, der er lige plads, når jeg benytter mit G400 med passiv køling.....hvis
 jeg smed et G400MAX i, der har aktiv køling ville jeg ikke kunne bruge
 soklen.
 Støj vs metalæske er vist taget op andetsteds i tråden...
 <snip>
 >> Absolut....Intel har gjort nogenlunde det samme med Xeon....
 >
 >næh.. de har deres mem controller i deres northbridge..  de har stadig 
 >deres GTL+ bus fra det forrige århundrede..  sjovt de skifter sockets 
 >hele tiden..  men den bus kan de sku ikke finde ud af at forbedre..
 >
 >ok ok.. de har oppet den til 133Mhz QuadPumped.. det er jo givetvis et 
 >firdobbelt spring..  men det er stadig et usselt design der skal deles 
 >mellem alle processore forbundet til den northbridge..
 AFAIR lagde de ud med Slot2 til Xeon og derefter var Sokkel423, som PIV'en
 brugte ikke fin nok......det var den del jeg mente....server processoren
 benytter egen sokkel, grunden til at den benytter soklen blev ikke
 nævnt....eller skulle ikke være nævnt.
 <snip>
 >jep.. det havde også nogle andre bagdele med Dual bundkort..  at have en 
 >processor til at stå lodret foran den anden, skaber et kæmpe varme 
 >problem..  jeg havde på det tidspunkt 2x366mhz celeron's der hver kunne 
 >køre 550mhz for sig selv..  køleren var knap lunken..  men når jeg satte 
 >den anden i foran, så blev den bagerste brændvarm med det samme og crash 
 >før jeg kunne starte windows..
 >
 >der har socket arkitekturen frihed!!  :)
 Vel SUN benytter også slot-princippet i nogle af deres maskiner, AFAIR
 placeres begge processorer på det samme print....
 >men jeg tvivler på du begynder at se PCI slots vendt 90 grader!! ;)
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
Programming is like sex: one mistake and you support it for life.
            
              |   |   
            
        
 
            
         
                      H3nrik V! [2670] (14-07-2002) 
         
	
            | Kommentar Fra : H3nrik V! [2670] | 
  Dato :  14-07-02 12:18 |  
  |   
            
 "Peter Jespersen" <flywheel@illogical.dk> wrote in message
 news:syljurryvyybtvpnyqx.gz66123.pminews@news.tele.dk...
 
 >>det har ikke været et problem førhen at placere den på bundkortet..
 >>endda i nogle tilfælde i sokler, så du kunne opgradere din cache.. den
 >>trend så jeg gerne udnyttet igen..  så du kan opgradere til 2mb 2ns
 >>cache, hvis du havde råd!! :)    MMMMmmmmmm...
 
 >Fordelen ved onchip cache er at den kører med samme frekvens som
 processorens
 >kerne.
 >Ffordelen ved backside cache er at den oftest kører enten 1/2 eller 1/3 af
 >processorkernens frekvens og der er nærmest ubegrænset plads et udemærket
 >kompromis.
 
 Ja - hvis de laver større cache når den bliver langsommere... Jeg husker jo
 SlotA Athlon'erne... Mener at det var ved 800 MHz at L2 cache multiplieren
 skiftede fra 1/2 til 2/5, så en 800 faktsik performede ringere end en
 750'er...
 
 >On mobo cache (Aner ikke hvad det hedder) fordelen er at det er billigt,
 >ydelsen er elendig.
 
 Hedder vel frontside cache - kører på frontside bussen, men er egentlig ikke
 interessant i dag---!
 
 /H3nrik!
 
 
  
            
             |   |   
            
        
 
            
         
           Lars B. Jensen (08-07-2002) 
         
	
            | Kommentar Fra : Lars B. Jensen | 
  Dato :  08-07-02 13:42 |  
  |  
 
            "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
 news:ag9mm0$c28$1@phys-news1.kolumbus.fi...
 > Hans wrote:
 > > Flyttes GSP'en om på oversiden af grafikkortet får vi langt mere plads
 til
 > > en effektiv, ikke støjende køling, men fordelen er også at varmen vil
 blive
 > > bortledt i en naturlig opadgående retning. Bortledning af denne varme er
 >
 > naturlig opadgående?  det kommer vel an på hvordan dit kabinet vender?
 > Dennis
 Ja, varm luft stiger til vejrs... og så kan du vende dit kabinet som du
 vil...
 --
 Mvh
 Lars B. Jensen
 http://www.zulfo.dk   http://www.sheewaklub.dk
            
             |   |   
            
        
 
            
         
            Dennis Jakobsen (08-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  08-07-02 18:09 |  
  |   
            Lars B. Jensen wrote:
 >>>bortledt i en naturlig opadgående retning. Bortledning af denne varme er
 >>
 >>naturlig opadgående?  det kommer vel an på hvordan dit kabinet vender?
 > 
 > 
 > Ja, varm luft stiger til vejrs... og så kan du vende dit kabinet som du
 > vil...
 
 lol..  sorry..  det var en forkert beskrivelse af problemet..  det jeg 
 mente var at hvis du har et horizontalt kabinet (et der ligger ned) så 
 nytter det jo ikke meget at putte chippen på den anden side..  :)
 
 men du vidste jo godt hvad jeg mente!! :)
 
  
            
             |   |   
            
        
 
            
         
             Lars B. Jensen (09-07-2002) 
         
	
            | Kommentar Fra : Lars B. Jensen | 
  Dato :  09-07-02 11:57 |  
  |  
 
            "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
 news:agcguf$375$2@phys-news1.kolumbus.fi...
 > Lars B. Jensen wrote:
 > >>>bortledt i en naturlig opadgående retning. Bortledning af denne varme
 er
 > >>
 > >>naturlig opadgående?  det kommer vel an på hvordan dit kabinet vender?
 > >
 > > Ja, varm luft stiger til vejrs... og så kan du vende dit kabinet som du
 > > vil...
 >
 > lol..  sorry..  det var en forkert beskrivelse af problemet..  det jeg
 > mente var at hvis du har et horizontalt kabinet (et der ligger ned) så
 > nytter det jo ikke meget at putte chippen på den anden side..  :)
 >
 > men du vidste jo godt hvad jeg mente!! :)
 Jada, men det er nemmere at forstå folk når de skriver hvad de mener :)
 --
 Mvh
 Lars B. Jensen
 http://www.zulfo.dk   http://www.sheewaklub.dk
            
             |   |   
            
        
 
            
         
              Peter Jespersen (11-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  11-07-02 19:24 |  
  |  
 
            On Tue, 9 Jul 2002 12:57:08 +0200, Lars B. Jensen wrote:
 >"Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
 >news:agcguf$375$2@phys-news1.kolumbus.fi...
 >> Lars B. Jensen wrote:
 >> >>>bortledt i en naturlig opadgående retning. Bortledning af denne varme
 >er
 >> >>
 >> >>naturlig opadgående?  det kommer vel an på hvordan dit kabinet vender?
 >> >
 >> > Ja, varm luft stiger til vejrs... og så kan du vende dit kabinet som du
 >> > vil...
 >>
 >> lol..  sorry..  det var en forkert beskrivelse af problemet..  det jeg
 >> mente var at hvis du har et horizontalt kabinet (et der ligger ned) så
 >> nytter det jo ikke meget at putte chippen på den anden side..  :)
 >>
 >> men du vidste jo godt hvad jeg mente!! :)
 >
 >Jada, men det er nemmere at forstå folk når de skriver hvad de mener :)
 Er der ikke stadig nogle harddiske der har problem med at stå op
 ??
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
(A)bort, (R)etry, (P)retend this never happened.
            
              |   |   
            
        
 
            
         
               Dennis Jakobsen (12-07-2002) 
         
	
            | Kommentar Fra : Dennis Jakobsen | 
  Dato :  12-07-02 01:43 |  
  |   
            Peter Jespersen wrote:
 > On Tue, 9 Jul 2002 12:57:08 +0200, Lars B. Jensen wrote:
 > 
 > 
 >>"Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
 >>news:agcguf$375$2@phys-news1.kolumbus.fi...
 >>
 >>>Lars B. Jensen wrote:
 >>>
 >>>>>>bortledt i en naturlig opadgående retning. Bortledning af denne varme
 >>>>>
 >>er
 >>
 >>>>>naturlig opadgående?  det kommer vel an på hvordan dit kabinet vender?
 >>>>
 >>>>Ja, varm luft stiger til vejrs... og så kan du vende dit kabinet som du
 >>>>vil...
 >>>
 >>>lol..  sorry..  det var en forkert beskrivelse af problemet..  det jeg
 >>>mente var at hvis du har et horizontalt kabinet (et der ligger ned) så
 >>>nytter det jo ikke meget at putte chippen på den anden side..  :)
 >>>
 >>>men du vidste jo godt hvad jeg mente!! :)
 >>
 >>Jada, men det er nemmere at forstå folk når de skriver hvad de mener :)
 > 
 > Er der ikke stadig nogle harddiske der har problem med at stå op
 > ??
 
 ved ikke, men vi har 3-4 diskussioner kørende i den samme tråd..  :)
 
  
            
             |   |   
            
        
 
            
         
                Peter Jespersen (13-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  13-07-02 00:51 |  
  |  
 
            On Fri, 12 Jul 2002 03:43:00 +0300, Dennis Jakobsen wrote:
 >Peter Jespersen wrote:
 >> On Tue, 9 Jul 2002 12:57:08 +0200, Lars B. Jensen wrote:
 >> 
 >> 
 >>>"Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
 >>>news:agcguf$375$2@phys-news1.kolumbus.fi...
 >>>
 >>>>Lars B. Jensen wrote:
 >>>>
 >>>>>>>bortledt i en naturlig opadgående retning. Bortledning af denne varme
 >>>>>>
 >>>er
 >>>
 >>>>>>naturlig opadgående?  det kommer vel an på hvordan dit kabinet vender?
 >>>>>
 >>>>>Ja, varm luft stiger til vejrs... og så kan du vende dit kabinet som du
 >>>>>vil...
 >>>>
 >>>>lol..  sorry..  det var en forkert beskrivelse af problemet..  det jeg
 >>>>mente var at hvis du har et horizontalt kabinet (et der ligger ned) så
 >>>>nytter det jo ikke meget at putte chippen på den anden side..  :)
 >>>>
 >>>>men du vidste jo godt hvad jeg mente!! :)
 >>>
 >>>Jada, men det er nemmere at forstå folk når de skriver hvad de mener :)
 >> 
 >> Er der ikke stadig nogle harddiske der har problem med at stå op
 >> ??
 >
 >ved ikke, men vi har 3-4 diskussioner kørende i den samme tråd..  :)
 Ja ret godt   
Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
Bang on the LEFT side of your computer to restart Windows.
            
              |   |   
            
        
 
            
         
           Peter Jespersen (07-07-2002) 
         
	
            | Kommentar Fra : Peter Jespersen | 
  Dato :  07-07-02 20:28 |  
  |  
 
            On Sat, 6 Jul 2002 18:11:46 +0200, Hans wrote:
 <snip>
 >Er det bare mig som undres over denne indlysende fejlplacering, eller er vi
 >mange?
 Nej, det er ikke bare dig - især nu hvor det efterhånden er
 ganske almindeligt at montere hukommelseskreds på bagsiden af
 printet, på de dyre kort.
 Live long and prosper...
 _________________________________________________________________
 Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
 flywheel@illogical.dk
 http://www.illogical.dk
Actually, it is my ovn hair. - (G. Jones)
            
              |   |   
            
        
 
            
         
           123qwe (11-07-2002) 
         
	
            | Kommentar Fra : 123qwe | 
  Dato :  11-07-02 20:33 |  
  |   
            HØRT MANDEN HAR SQ RET :)
 
 "Hans" <fast@2night.d.k> wrote in message
 news:3d2716c2$0$16805$edfadb0f@dspool01.news.tele.dk...
 > Jeg har prøvet at rette henvendelse til et par af de store producenter af
 > grafikkort med en idé jeg garanteret ikke er ene om, men har ingen respons
 > fået overhovedet, så derfor kunne jeg godt tænke mig at få nogle
 > tilkendegivelser fra jer brugere af dagens grafikkort.
 >
 > Efter min mening er producenterne med til at fastholde os alle med
 > problematikken omkring effektiv køling af de hurtige grafikkort, da de
 > vedbliver med at montere GSP'en på den "forkerte" side af printet.
 >
 > Komponenterne på et AGP-kort vender som bekendt nedaf i et mini- midi
 eller
 > maxi towerkabinet, og derved bliver varmen fra GSP'en hængende under
 kortet,
 > hvilket stiller yderligere krav til køling af chippen. Ydermere er der
 meget
 > lidt plads mellem AGP og PCI-slot 1, hvis dette skal bruges, så problemet
 er
 > reelt nok.
 >
 > Kigger vi ind i vores maskine må vi konstatere at der er masser af
 ubenyttet
 > plads på oversiden af AGP-kortet, da der er langt over til cpu-køleren.
 > Flyttes GSP'en om på oversiden af grafikkortet får vi langt mere plads til
 > en effektiv, ikke støjende køling, men fordelen er også at varmen vil
 blive
 > bortledt i en naturlig opadgående retning. Bortledning af denne varme er
 > ikke noget problem i et moderne kabinet, da der er mulighed for at montere
 > en kabinetblæser eller flere under strømforsyningen.
 >
 > Er det bare mig som undres over denne indlysende fejlplacering, eller er
 vi
 > mange?
 >
 > mvh, Hans
 >
 >
 >
 >
 >
 
 
  
            
             |   |   
            
        
 
    
 
					
					 
			 | 
			
				
        
			 |