Har i forbindelse med køb af et nyt grafikkort bemærket at max opløsning for
DVI-udgangen ofte er væsentlig lavere end for CRT udgangen.
Umiddelbart synes GeforceFX hvad angår DVI at være foran Radeon, mens det
modsatte er gældende for CRT ved 32 bit og opløsning > 1280x1024. GeforceFX
5600 og 5900 Ultra har for DVI-udgangen max 1600x1200, mens Radeon 9600 og
9800 Pro har max 1280x1024.
Eksempler:
Sapphire ATI Ultimate Radeon 9800 Pro, 256 MB:
CRT: Max: 2048x1536 (32 bit : 85 Hz)
1024x768 : 16/32 bit : 200/200 Hz
1280x1024: 16/32 bit : 160/160 Hz
1600x1200: 16/32 bit : 120/120 Hz
DVI: Max. 1280x1024
Sapphire ATI Ultimate Radeon 9600 Pro, 128MB:
CRT: Max: 2048x1536 (32 bit : 85 Hz)
DVI: Max. 1280x1024
MSI N5900 Ultra-VTD256 med GeforceFX 5900 Ultra, 256MB:
CRT: Max: 2048x1536 (32 bit : 60 Hz)
1024x768 : 16/32 bit : 240/200 Hz
1280x1024: 16/32 bit : 170/150 Hz
1600x1200: 16/32 bit : 120/100 Hz
DVI: Max. 1600x1200
Asus V9560Ultra med GeforceFX 5600 Ultra, 128MB:
CRT: Max: 2048x1536 (32 bit : 60 Hz)
DVI: Max. 1600x1200
Ovenstående data er sakset fra
http://www.shg.dk/ , hvor der også er
dagsaktuelle priser.
Spørgsmålet som følger er derfor: Anvender jeg DVI-udgangen til min 20" TFT
skærm, og vil anvende opløsning 1600x1200, skal jeg så købe GeforceFX eller
er der nogen alternativer? Tilsyneladende kan jeg ikke bruge ATI Radeon....!
Er det korrekt opfattet?