/ Forside / Teknologi / Hardware / Grafikkort / Nyhedsindlæg
Login
Glemt dit kodeord?
Brugernavn

Kodeord


Reklame
Top 10 brugere
Grafikkort
#NavnPoint
tedd 11444
Manse9933 3657
Fijala 2911
peet49 2571
refi 2390
pallebhan.. 1955
strarup 1945
phg1 1758
Klaudi 1571
10  transor 1240
det nye fra ATI
Fra : Saitek


Dato : 04-05-04 10:26

Så lige en test af det nye XT800 fra ATI, en test der skulle være "leaked"
dra toms hardware.

Hvis det holder kan ATI knap være med når vi snakker nvidia 6800xt, men det
er da tæt på. Kunne da godt holde et sådant kort ud et stykke tid.

ved da ikke lige om jeg kan bringe et link, prøver da

http://www.theinquirer.net/?article=15686



 
 
Nikolaj W. (04-05-2004)
Kommentar
Fra : Nikolaj W.


Dato : 04-05-04 15:27


"Saitek" <wicbdk@Jubi.com> wrote in message
news:409761cd$0$215$edfadb0f@dread16.news.tele.dk...
>
> Hvis det holder kan ATI knap være med når vi snakker nvidia 6800xt, men
det
> er da tæt på. Kunne da godt holde et sådant kort ud et stykke tid.

>
Tak for linket

Man må da sige nvidia op gjort noget ved deres AA, hvor ATI nærmest ikke har
forbedret sig. Men synes nu at hastingheden er udemærket, hvis den bruger
væsentligt mindre strøm end 6800XT, for det er jo helt hen i vejret at bruge
100watt, jeg er lidt spændt på en de ekstra FPS retfærdige gøre det ekstra
strømforbrug.



Henrik Stavnshøj (04-05-2004)
Kommentar
Fra : Henrik Stavnshøj


Dato : 04-05-04 17:05

"Saitek" <wicbdk@Jubi.com> skrev i en meddelelse
news:409761cd$0$215$edfadb0f@dread16.news.tele.dk...
> Så lige en test af det nye XT800 fra ATI, en test der skulle være "leaked"
> dra toms hardware.
>
> Hvis det holder kan ATI knap være med når vi snakker nvidia 6800xt, men
det
> er da tæt på. Kunne da godt holde et sådant kort ud et stykke tid.

Hvis du kigger på dette link (som jeg i øvrigt tiltror langt mere autoritet
end TheInq), så er det vist mere end knap, det kan følge med:
http://www.techreport.com/reviews/2004q2/radeon-x800/index.x?pg=1

Faktisk slår det bukserne af 6800U i Far Cry.

Kort ridset op, ser det ud til at X800 kører DirectX9 bedst, og 6800 kører
OpenGL bedst.

Derudover ser det ud til at ATI har en bedre billedkvalitet end nVidia (igen
).
Det ses ikke nemt, men på dette link, kan man se screenshots i høj
opløsning:
http://www.meristation.com/sc/articulos/articulo.asp?c=HARD&cr=5218&pag=24

Hvis man henter begge to (jeg har kun kigget på dem med højeste settings) og
skifter mellem dem, kan man se at især skarpheden er en smule bedre hos ATI.
Kig f.eks på uret og digitaltallene foran bilen, eller på grusvejen.

I øvrigt er der da en detalje ved X800 kontra 6800 der skal med: X800 Pro
bruger faktisk _mindre_ strøm end et R9800XT, hvorimod 6800 bruger en del
mere.
Det ses også ved at X800 kun har én strømconnector, mod to på 6800.

Derudover er X800 så lille at de faktisk mener det vil kunne bruges i en
microATX-pc.

Det er tæt løb denne gang

Godt for os, for hård konkurrence presser producenterne til bedre produkter
til billigere priser

Venlig hilsen
Henrik


For resten her er linket til Toms:
http://www.tomshardware.com/graphic/20040504/index.html



Martin Johansson (04-05-2004)
Kommentar
Fra : Martin Johansson


Dato : 04-05-04 19:27


"Henrik Stavnshøj" <hesta@nospam.dk> skrev i en meddelelse
news:4097bf29$0$297$edfadb0f@dread12.news.tele.dk...
> "Saitek" <wicbdk@Jubi.com> skrev i en meddelelse
> news:409761cd$0$215$edfadb0f@dread16.news.tele.dk...
> > Så lige en test af det nye XT800 fra ATI, en test der skulle være
"leaked"
> > dra toms hardware.
> >
> > Hvis det holder kan ATI knap være med når vi snakker nvidia 6800xt, men
> det
> > er da tæt på. Kunne da godt holde et sådant kort ud et stykke tid.
>
> Hvis du kigger på dette link (som jeg i øvrigt tiltror langt mere
autoritet
> end TheInq), så er det vist mere end knap, det kan følge med:
> http://www.techreport.com/reviews/2004q2/radeon-x800/index.x?pg=1
>
> Faktisk slår det bukserne af 6800U i Far Cry.
>
> Kort ridset op, ser det ud til at X800 kører DirectX9 bedst, og 6800 kører
> OpenGL bedst.

Ja, det er jo ikke noget nyt.
Sådan er det også med de nuværende og tidligere kort.

> Derudover ser det ud til at ATI har en bedre billedkvalitet end nVidia
(igen
> ).
> Det ses ikke nemt, men på dette link, kan man se screenshots i høj
> opløsning:
> http://www.meristation.com/sc/articulos/articulo.asp?c=HARD&cr=5218&pag=24
>
> Hvis man henter begge to (jeg har kun kigget på dem med højeste settings)
og
> skifter mellem dem, kan man se at især skarpheden er en smule bedre hos
ATI.
> Kig f.eks på uret og digitaltallene foran bilen, eller på grusvejen.

Gentager lige min tidligere udtalelse:
Ja, det er jo ikke noget nyt.
Sådan er det også med de nuværende og tidligere kort.

> I øvrigt er der da en detalje ved X800 kontra 6800 der skal med: X800 Pro
> bruger faktisk _mindre_ strøm end et R9800XT, hvorimod 6800 bruger en del
> mere.
> Det ses også ved at X800 kun har én strømconnector, mod to på 6800.
>
> Derudover er X800 så lille at de faktisk mener det vil kunne bruges i en
> microATX-pc.

Det er da klart en fordel.

> Det er tæt løb denne gang

Det var det også sidst, men Ati blev vinderen pga. bedst billede kvalitet.
IMHO

> Godt for os, for hård konkurrence presser producenterne til bedre
produkter
> til billigere priser

Forhåbentligt passer det, dog har der været rygter ud om at Ati og nVidia
vil til at sætte farten ned på udviklingen.
De synes åbenbart begge at det går lige hurtigt nok, og har for store
omkostningner.



Dr.Ralph (04-05-2004)
Kommentar
Fra : Dr.Ralph


Dato : 04-05-04 19:55

> Derudover ser det ud til at ATI har en bedre billedkvalitet end nVidia (igen
> ).

igen igen :)

> I øvrigt er der da en detalje ved X800 kontra 6800 der skal med: X800 Pro
> bruger faktisk _mindre_ strøm end et R9800XT, hvorimod 6800 bruger en del
> mere.
> Det ses også ved at X800 kun har én strømconnector, mod to på 6800.

Afgjort en klar fordel - så må et sgu' gerne være lidt sløvere.

> Derudover er X800 så lille at de faktisk mener det vil kunne bruges i en
> microATX-pc.

Igen kanon. Overvejer selv at bygge en Micro atx pc, som jeg vil anvende
som spille pc. Vil så have Matrox Parhlia i min "seriøse" pc - men ved ikke
om de nye kort her kan levere 2D kvalitet i 1600X1200 DVI, der matcher 2D
kongen, matrox ?

Håber rigtigt meget, at ATI vælger også at lave en dual DVI udgave af deres
800XT kort - ligesom Nvidia gør det med deres 6800 ultra.'
Jeg har 2 stk. 20" TFT i 1600X1200, jeg skal have til at køre med et af
disse nye kort - håber for satan at ATI laver deres med dual DVI
udgange...håber.......håber


--
Kind Regards/Venlig hilsen
Dr. Ralph
Mail: dr.ralph@removesol.dk

Bjarke Andersen (04-05-2004)
Kommentar
Fra : Bjarke Andersen


Dato : 04-05-04 20:05

"Dr.Ralph" <dr.ralph@removesol.dk> crashed Echelon writing
news:owwt1mcp7fgf$.1lham0t2l3cbl.dlg@40tude.net:

> Håber rigtigt meget, at ATI vælger også at lave en dual DVI udgave af
> deres 800XT kort - ligesom Nvidia gør det med deres 6800 ultra.'
> Jeg har 2 stk. 20" TFT i 1600X1200, jeg skal have til at køre med et
> af disse nye kort - håber for satan at ATI laver deres med dual DVI
> udgange...håber.......håber

Rolig nu Ralph.

Der er jo allerede Dual-DVI på vej af dit R9800 kort.

--
Bjarke Andersen
Wanna reply by email? Remove the spammer in address

Dr.Ralph (04-05-2004)
Kommentar
Fra : Dr.Ralph


Dato : 04-05-04 20:22

> Rolig nu Ralph.
>
> Der er jo allerede Dual-DVI på vej af dit R9800 kort.

Hvem, hvad, hvor HVORNÅR - dette har jeg ikke set ?
Please giv mig et link :)

Vil du så ikke _gætte_ på, at Radeon 800XT vil komme med dual DVI ??

--
Kind Regards/Venlig hilsen
Dr. Ralph
Mail: dr.ralph@removesol.dk

Bjarke Andersen (04-05-2004)
Kommentar
Fra : Bjarke Andersen


Dato : 04-05-04 20:34

"Dr.Ralph" <dr.ralph@removesol.dk> crashed Echelon writing
news:lp1vyzj8eh8k$.yfov3toh8dqn.dlg@40tude.net:

> Hvem, hvad, hvor HVORNÅR - dette har jeg ikke set ?
> Please giv mig et link :)

Sapphire kommer, Abit kommer, Asus kommer, HIS kommer på Nvidia chip siden
er der så lidt flere navne.

Tyan kommer dog ikke da de har trukket deres lancering tilbage.

Link=Google

--
Bjarke Andersen
Wanna reply by email? Remove the spammer in address

Bjarke Andersen (04-05-2004)
Kommentar
Fra : Bjarke Andersen


Dato : 04-05-04 20:35

"Dr.Ralph" <dr.ralph@removesol.dk> crashed Echelon writing
news:lp1vyzj8eh8k$.yfov3toh8dqn.dlg@40tude.net:

> Hvem, hvad, hvor HVORNÅR - dette har jeg ikke set ?
> Please giv mig et link :)

Glemte at sige at Reviews siger de skulle komme her i Maj, så nok i DK i
løbet af Juni/Juli.

--
Bjarke Andersen
Wanna reply by email? Remove the spammer in address

Dr.Ralph (04-05-2004)
Kommentar
Fra : Dr.Ralph


Dato : 04-05-04 21:56

> Glemte at sige at Reviews siger de skulle komme her i Maj, så nok i DK i
> løbet af Juni/Juli.

Jamen de link, jeg kan finde siger intet om, at der kommer ATI kort med
dual DVI udgange ???
Kun Nvidia ved jeg kommer med dual DVI - men selvom jeg har nok verdens
kraftigste PSU, Enermax 851 660watt, så er jeg mere til ATI og deres indtil
nu bedre 2D kvalitet og det mindre vilde strømforbrug.

--
Kind Regards/Venlig hilsen
Dr. Ralph
Mail: dr.ralph@removesol.dk

Bjarke Andersen (04-05-2004)
Kommentar
Fra : Bjarke Andersen


Dato : 04-05-04 22:01

"Dr.Ralph" <dr.ralph@removesol.dk> crashed Echelon writing
news:i1ytw67p1a83.khg6sgczdybq.dlg@40tude.net:

> Jamen de link, jeg kan finde siger intet om, at der kommer ATI kort
> med dual DVI udgange ???
> Kun Nvidia ved jeg kommer med dual DVI - men selvom jeg har nok
> verdens kraftigste PSU, Enermax 851 660watt, så er jeg mere til ATI og
> deres indtil nu bedre 2D kvalitet og det mindre vilde strømforbrug.

Kære rare Dr. Ralph :)

Overordnet link:
http://www.google.com/search?sourceid=navclient&hl=da&ie=UTF-8&oe=UTF-
8&q=dual%2Ddvi+radeon

Resulterende links:
http://www.tweaknews.net/reviews/dualdvi/
http://www.bit-tech.net/review/305/
http://www.ati-news.de/HTML/Berichte/Sapphire/R9800-DVI/Sapphire-R9800-DVI-
Seite1.shtml
http://www.viperlair.com/reviews/video_graph/his/9600dvi/
http://www.pcinpact.com/actu/news/13854.htm
http://www.sapphiretech.com/awards/reviews.asp

Osv.

Så faktum der er noget på vej, markedet rører på sig ;)

--
Bjarke Andersen
Wanna reply by email? Remove the spammer in address

Dr.Ralph (04-05-2004)
Kommentar
Fra : Dr.Ralph


Dato : 04-05-04 22:10

> Kære rare Dr. Ralph :)

Oh tak for din hjælp - men jeg misforstod.
Jeg mente om der var link til de nye ati 800xt med dual dvi ?
Men OK, når der kommer dual dvi til radeon 9800, så må det vel være på vej
til de nyere 800xt også.

--
Kind Regards/Venlig hilsen
Dr. Ralph
Mail: dr.ralph@removesol.dk

Bjarke Andersen (04-05-2004)
Kommentar
Fra : Bjarke Andersen


Dato : 04-05-04 22:24

"Dr.Ralph" <dr.ralph@removesol.dk> crashed Echelon writing
news:o5l00ann39av$.1ld8cu17ur0fq$.dlg@40tude.net:

> Oh tak for din hjælp - men jeg misforstod.
> Jeg mente om der var link til de nye ati 800xt med dual dvi ?
> Men OK, når der kommer dual dvi til radeon 9800, så må det vel være på
> vej til de nyere 800xt også.

Rolig nu Ralphie (hmm minder mig om simpsons), Dual-DVI boardsene blev
fremvist som nyheder på CeBIT så det skal lige blive modent, før alt bliver
til Dual-DVI.

--
Bjarke Andersen
Wanna reply by email? Remove the spammer in address

Dr.Ralph (05-05-2004)
Kommentar
Fra : Dr.Ralph


Dato : 05-05-04 00:30

> Rolig nu Ralphie (hmm minder mig om simpsons), Dual-DVI boardsene blev
> fremvist som nyheder på CeBIT så det skal lige blive modent, før alt bliver
> til Dual-DVI.

OK, Bjarkie

Jeg er som mange andre også Simpson fan.

Kender du ikke det med at man vil have det NU og ikke nu eller senere, men
NU ?

Dual DVI ATI 800XT AGP kom til Daddy :)

--
Kind Regards/Venlig hilsen
Dr. Ralph
Mail: dr.ralph@removesol.dk

Bjarke Andersen (05-05-2004)
Kommentar
Fra : Bjarke Andersen


Dato : 05-05-04 00:37

"Dr.Ralph" <dr.ralph@removesol.dk> crashed Echelon writing
news:irulad5dfzzk.1xta594ix2upm.dlg@40tude.net:

> Kender du ikke det med at man vil have det NU og ikke nu eller senere,
> men NU ?

Kender jeg udemærket, men du har lige ofret penge på skærmene, nu vil du
have det nyeste gfx kort og Dual 64bit Intel maskine.

Hmmm tror du ikke lige du strækker den lidt langt.....? (sagt ud af
misundelighed). Og er der ikke en bedre halvdel som hellere vil i IKEA og
købe nyt spisebordssæt?

Anyways, du kan få det nyeste, bare ikke det de alle siger er på vej. Men
det var derfor jeg spurgte igår i skaerm gruppen om det ikke var bedre med
dongle fordi det ser ud til Dual-DVI på de rigtige hurtige (nuværende) kort
kommer på markedet i løbet af denne måned.

--
Bjarke Andersen
Wanna reply by email? Remove the spammer in address

Dr.Ralph (05-05-2004)
Kommentar
Fra : Dr.Ralph


Dato : 05-05-04 00:53

> Kender jeg udemærket, men du har lige ofret penge på skærmene, nu vil du
> have det nyeste gfx kort og Dual 64bit Intel maskine.

Rolig nu - jeg køber ikke nyt dual 64bit, vil blot lige høre hvor langt vi
er kommet - og hvor tæt det var på at være her - det må vel være det
ideelle at have, når programmerne bliver skrevet til 64 bit :)

> Hmmm tror du ikke lige du strækker den lidt langt.....? (sagt ud af
> misundelighed). Og er der ikke en bedre halvdel som hellere vil i IKEA og
> købe nyt spisebordssæt?

Vi har faktisk lige købt nyt sofasæt, og vores spisestue er stadig i
topform - jeg arvede de fedeste designer spisestue stole for 4 år siden -
de holder hele vejen :)

Køkkenet er nyt - en forsikringssag :)

> Anyways, du kan få det nyeste, bare ikke det de alle siger er på vej. Men
> det var derfor jeg spurgte igår i skaerm gruppen om det ikke var bedre med
> dongle fordi det ser ud til Dual-DVI på de rigtige hurtige (nuværende) kort
> kommer på markedet i løbet af denne måned.

Det var egenligt også et fornuftigt forslag af dig - jeg var bare helt
opppe at køre over, at mine 20" TFT skærme ikke kan få optimale betingelser
:)

Men nu bliver det som du foreslog - 1 på DVI og 1 på VGA.

--
Kind Regards/Venlig hilsen
Dr. Ralph
Mail: dr.ralph@removesol.dk

Jan Dahl (05-05-2004)
Kommentar
Fra : Jan Dahl


Dato : 05-05-04 14:18

Men de koster jo også derefter hvis de er bedre. For hvis folk primært køber
ati fordi de er en lille smule bedre, bliver prisen bare den samme i længere
tid, så selvom de små forskellige fordele er til direkte at få øje på,
bliver prisen bare lidt dyrere hvis folk feks. køber for lidt gforce.

Mvh Jan
Dr.Ralph" <dr.ralph@removesol.dk> skrev i en meddelelse
news:owwt1mcp7fgf$.1lham0t2l3cbl.dlg@40tude.net...
> > Derudover ser det ud til at ATI har en bedre billedkvalitet end nVidia
(igen
> > ).
>
> igen igen :)
>
> > I øvrigt er der da en detalje ved X800 kontra 6800 der skal med: X800
Pro
> > bruger faktisk _mindre_ strøm end et R9800XT, hvorimod 6800 bruger en
del
> > mere.
> > Det ses også ved at X800 kun har én strømconnector, mod to på 6800.
>
> Afgjort en klar fordel - så må et sgu' gerne være lidt sløvere.
>
> > Derudover er X800 så lille at de faktisk mener det vil kunne bruges i en
> > microATX-pc.
>
> Igen kanon. Overvejer selv at bygge en Micro atx pc, som jeg vil anvende
> som spille pc. Vil så have Matrox Parhlia i min "seriøse" pc - men ved
ikke
> om de nye kort her kan levere 2D kvalitet i 1600X1200 DVI, der matcher 2D
> kongen, matrox ?
>
> Håber rigtigt meget, at ATI vælger også at lave en dual DVI udgave af
deres
> 800XT kort - ligesom Nvidia gør det med deres 6800 ultra.'
> Jeg har 2 stk. 20" TFT i 1600X1200, jeg skal have til at køre med et af
> disse nye kort - håber for satan at ATI laver deres med dual DVI
> udgange...håber.......håber
>
>
> --
> Kind Regards/Venlig hilsen
> Dr. Ralph
> Mail: dr.ralph@removesol.dk



Ukendt (05-05-2004)
Kommentar
Fra : Ukendt


Dato : 05-05-04 11:31

"Henrik Stavnshøj" <hesta@nospam.dk> skrev i en meddelelse
news:4097bf29$0$297$edfadb0f@dread12.news.tele.dk...
> "Saitek" <wicbdk@Jubi.com> skrev i en meddelelse
> news:409761cd$0$215$edfadb0f@dread16.news.tele.dk...
> > Så lige en test af det nye XT800 fra ATI, en test der skulle være
"leaked"
> > dra toms hardware.
> >
> > Hvis det holder kan ATI knap være med når vi snakker nvidia 6800xt, men
> det
> > er da tæt på. Kunne da godt holde et sådant kort ud et stykke tid.
>
> Hvis du kigger på dette link (som jeg i øvrigt tiltror langt mere
autoritet
> end TheInq), så er det vist mere end knap, det kan følge med:
> http://www.techreport.com/reviews/2004q2/radeon-x800/index.x?pg=1
>
> Faktisk slår det bukserne af 6800U i Far Cry.
>
> Kort ridset op, ser det ud til at X800 kører DirectX9 bedst, og 6800 kører
> OpenGL bedst.

For mig er sagen klar!

Jeg skal have et GeForce 6800 Ultra. Så vidt jeg kunne se på nVidias Launch
video, er der en hel del udviklere,
her i blandt Crytek og EA, som vil lave spil der understøtter Shader 3.0, og
hvad jeg kunne se på den
fremviste FarCry demo, moddet med et 3.0 mod, er der ingen tvivl, det ser
utrolig fedt ud...

> Det er tæt løb denne gang

Det er jeg helt enig med dig i... jeg har længe haft øje til Radeon, men har
altid købt nVidia, og det bliver det
også denne gang... jeg kan alligevel ikke spille spil i mere end 1280x1024,
og der ligner de 2 kort hinanden, og
så får jeg altså også understøttelse for Pixel Shaders 3.0 (+2.0)...

> Godt for os, for hård konkurrence presser producenterne til bedre
produkter
> til billigere priser

Forhåbentligt... jeg håber ikke at et GeForce 6800 Ultra kommer over de
5000,- fra start... så må jeg vente
lidt længere :)

> Venlig hilsen
> Henrik

Lars B



iddqd (05-05-2004)
Kommentar
Fra : iddqd


Dato : 05-05-04 15:47

Lars Jensen wrote:
> Jeg skal have et GeForce 6800 Ultra. Så vidt jeg kunne se på nVidias Launch
> video, er der en hel del udviklere,
> her i blandt Crytek og EA, som vil lave spil der understøtter Shader 3.0, og
> hvad jeg kunne se på den
> fremviste FarCry demo, moddet med et 3.0 mod, er der ingen tvivl, det ser
> utrolig fedt ud...
>

Inden du hænger dig i alt for meget omkring PS3.0 så bør du nok lige
vente og se hvordan det udvikler sig.

http://www.theinquirer.net/?article=15502

Der er jo også lige den med hvor hurtigt de seneste features bliver
brugt, bare tænk på hvor lang tid der gik fra at de første T&L kort
(Geforce256) og så til at det betød noget i spil. I realiteten var det
første 2 år senere!

Selv hælder jeg mest til ATI fordi det virker som om deres løsning har
mindst behov for køling og min PC har bare at være lydløs. Lige nu har
jeg et ATI 9700 Pro, men jeg har også haft både Nvidia og STM teknologi
i mine grafikkort (plus andre hvis vi går tilbage til før 3D kort) så
det er ikke fordi jeg er fanatisk. Men hvis de to kort performede præcis
ens, brugte samme mængde strøm osv. ville jeg nok alligevel foretrække
ATI, det er ligesom at Nvidia har lavet lidt for mange svinestreger
efterhånden.

Om Nvidia forøvrigt er færdige med at være lidt for smarte er vist
forresten op til diskussion:

http://www.driverheaven.net/articles/driverIQ/

Mvh

Bruno


--
To mail me write to iddqdATworldonline.dk (U know what 2 do)

More of these http://www.westocykler.dk would mean less cars and less
polution.

Ukendt (05-05-2004)
Kommentar
Fra : Ukendt


Dato : 05-05-04 21:26

"iddqd" <DontUse@ThisAdress.Ever> skrev i en meddelelse
news:c7aupo$1bpa$1@news.cybercity.dk...
> Lars Jensen wrote:
> > Jeg skal have et GeForce 6800 Ultra. Så vidt jeg kunne se på nVidias
Launch
> > video, er der en hel del udviklere,
> > her i blandt Crytek og EA, som vil lave spil der understøtter Shader
3.0, og
> > hvad jeg kunne se på den
> > fremviste FarCry demo, moddet med et 3.0 mod, er der ingen tvivl, det
ser
> > utrolig fedt ud...
> >
>
> Inden du hænger dig i alt for meget omkring PS3.0 så bør du nok lige
> vente og se hvordan det udvikler sig.
>
> http://www.theinquirer.net/?article=15502

Jeg har læst artikler om forskellen på PS2.0 og PS3.0

Problemet er, at jeg gerne vil have et nyt kort rimelig hurtigt.

Køber jeg et X800, og det i løbet af 3 måneder viser sig, at de udviklere
der udgiver spil jeg gerne vil købe, begynder at benytte PS3.0
instruktioner, så vil jeg være meget ærgeligt over at jeg ikke købte et GF
6800 U, og jeg vil ikke være meget for at skulle sælge et 1/2 år gammelt
grafikkort, som jeg gave 5000,- for, for 3500,- og bagefter skulle give 5000
igen fordi jeg valgte forkert.

Som jeg har skrevet i en anden tråd, vil jeg hellere være sikker, og så
undvære de 10 frames ekstra i 1600x1200, en opløsning min skærm alligevel
ikke kan køre.

> Der er jo også lige den med hvor hurtigt de seneste features bliver
> brugt, bare tænk på hvor lang tid der gik fra at de første T&L kort
> (Geforce256) og så til at det betød noget i spil. I realiteten var det
> første 2 år senere!

Der kom faktisk et par spil lige efter der benyttede T&L, men det var ikke
mange.

Måske har de lært det denne gang ?! :)

> Selv hælder jeg mest til ATI fordi det virker som om deres løsning har
> mindst behov for køling og min PC har bare at være lydløs.

Min siger allerede så meget at det ikke betyder så meget....

> Lige nu har
> jeg et ATI 9700 Pro, men jeg har også haft både Nvidia og STM teknologi
> i mine grafikkort (plus andre hvis vi går tilbage til før 3D kort) så
> det er ikke fordi jeg er fanatisk. Men hvis de to kort performede præcis
> ens, brugte samme mængde strøm osv. ville jeg nok alligevel foretrække
> ATI, det er ligesom at Nvidia har lavet lidt for mange svinestreger
> efterhånden.

Jeg ved ikke hvilke svinestreger du mener, eller måske gøre jeg. Du tænker
nok på optimering til benchmark programmer, men dem har jeg ALDRIG gået op
i. Det eneste jeg går op i er, om min spiloplevelse er som den skal være, så
er jeg altså ligeglad med om naboeb får 8700, og jeg får 7900, om han får
110 FPS. og jeg får 95 FPS, jeg er ikke benchmark rytter....

> Om Nvidia forøvrigt er færdige med at være lidt for smarte er vist
> forresten op til diskussion:
>
> http://www.driverheaven.net/articles/driverIQ/

Det går vist igen mest ud på benchmark-rytteri? Og så noget med Max Payne 2,
men det er jo et gammelt spil :)

> Mvh
>
> Bruno

Lars B



iddqd (06-05-2004)
Kommentar
Fra : iddqd


Dato : 06-05-04 09:54

Lars Jensen wrote:
> Problemet er, at jeg gerne vil have et nyt kort rimelig hurtigt.
>
> Køber jeg et X800, og det i løbet af 3 måneder viser sig, at de udviklere
> der udgiver spil jeg gerne vil købe, begynder at benytte PS3.0
> instruktioner, så vil jeg være meget ærgeligt over at jeg ikke købte et GF
> 6800 U, og jeg vil ikke være meget for at skulle sælge et 1/2 år gammelt
> grafikkort, som jeg gave 5000,- for, for 3500,- og bagefter skulle give 5000
> igen fordi jeg valgte forkert.
>
Klart nok.


> Som jeg har skrevet i en anden tråd, vil jeg hellere være sikker, og så
> undvære de 10 frames ekstra i 1600x1200, en opløsning min skærm alligevel
> ikke kan køre.
>
Tjoh, men det handler jo også om hvilket kort der kører bedst ved max
billedkvalitet. FSAA og AF gør ondt på begge, dog synes ATI bedst at
kunne håndtere AF.

> Der kom faktisk et par spil lige efter der benyttede T&L, men det var ikke
> mange.
>
Nej, og for dem som kom så betød det stort set nul da de performede fint
uden og det var endog meget svært at se forskel.


> Måske har de lært det denne gang ?! :)
>
Tvivlsomt


> Min siger allerede så meget at det ikke betyder så meget....
>
Av, det burde du kigge lidt på. Min kan man faktisk kun køre når der er
helt stille, det er altså rart.



> Jeg ved ikke hvilke svinestreger du mener, eller måske gøre jeg. Du tænker
> nok på optimering til benchmark programmer, men dem har jeg ALDRIG gået op
> i. Det eneste jeg går op i er, om min spiloplevelse er som den skal være, så
> er jeg altså ligeglad med om naboeb får 8700, og jeg får 7900, om han får
> 110 FPS. og jeg får 95 FPS, jeg er ikke benchmark rytter....
>
I princippet synes jeg Benchmark optimeringer er ok, problemet kommer
når optimeringerne ikke består i rekompileringer af shader og den slags,
men ren faktisk fjernelse at dting der ville blive regnet på hvos man
ikke på forhånd vidste hvordan "kamera" forløbet var. Så får man nemlig
et falsk billed af hvor mange muskler et kort har, det handler
selvfølgelig om framerate lige nu og her - blot så siger det jo også
noget om hvordan man kan forvente det kort vil være i fremtiden.

ATI har også engang været lidt for kreative med benchmarks blot så var
de store nok til at indrømme det, dengang kunne man så forøvrigt læse
Nvidia sige de aldrig kunne finde på så meget som at optimere til en
benchmark.

Men Nvidia har også andre ting på samvittigheden, her tænker jeg på
løgnhistorier omkring en lille ny konkurent(Kyro/Kyro2) som Nvidia gav
til deres partnere, uigennemsigtig navngivning af produkter (Bare spørg
en GF4MX ejer, der en del som troede de var bedre end GF3) og det link
jeg gav dig du mener er benchmark rytteri fortæller jo faktisk at der
igen er problemer med hvordan Nvidia afvikler en benchmark.

Mvh

Bruno

--
To mail me write to iddqdATworldonline.dk (U know what 2 do)

More of these http://www.westocykler.dk would mean less cars and less
polution.

Henrik Stavnshøj (05-05-2004)
Kommentar
Fra : Henrik Stavnshøj


Dato : 05-05-04 16:59

"Lars Jensen" <lars [at] zulfo [dot] dk> skrev i en meddelelse
news:4098c296$0$11545$ba624c82@nntp02.dk.telia.net...

> For mig er sagen klar!
>
> Jeg skal have et GeForce 6800 Ultra. Så vidt jeg kunne se på nVidias
Launch
> video, er der en hel del udviklere,
> her i blandt Crytek og EA, som vil lave spil der understøtter Shader 3.0,
og
> hvad jeg kunne se på den
> fremviste FarCry demo, moddet med et 3.0 mod, er der ingen tvivl, det ser
> utrolig fedt ud...

Jo, men..
Er du egentlig klar over hvor lidt forskel der er på muligheden for effekter
fra shader 2.0 til shader 3.0?

Ifølge en anden artikel fra HardOCP, er der faktisk kun en enkelt effekt til
forskel, resten er optimeringer af koden i forhold til shader 2.
Den effekt shader 3 har, er muligheden for at variere højden af en texture,
så man kan lave overflader mere realistiske.
Det knytter de så to kommentarer til:
Den ene er, at det en ressourcekrævende effekt, så de er ikke engang sikre
på at 6800 kan bruge den til andet end demoer.
Den anden er, at alt så afhænger både af _om_ udviklerne så vil bruge den,
og i så fald hvilken tidsramme der er på udgivelser af spil med denne effekt
indbygget.

Med andre ord:kan 6800 overhovedet bruge den i virkeligheden, og dukker den
overhovedet op tids nok til at der ikke er kommet endnu en generation af
kort?

Det rigtig søde er så deres updates af artiklen til sidst: nVidia bekræfter
at Far Cry shader 3 demoen udelukkende indeholder optimeringerne.
Der er altså _ingen_ forskel på de visuelle effekter i forhold til shader
2.. :-/

Artiklen er hér: http://www.hardocp.com/article.html?art=NjA5LDE=

> > Det er tæt løb denne gang
>
> Det er jeg helt enig med dig i... jeg har længe haft øje til Radeon, men
har
> altid købt nVidia, og det bliver det
> også denne gang... jeg kan alligevel ikke spille spil i mere end
1280x1024,
> og der ligner de 2 kort hinanden, og
> så får jeg altså også understøttelse for Pixel Shaders 3.0 (+2.0)...

Jeps, men igen: tag det ovenstående i betragtning.

> > Godt for os, for hård konkurrence presser producenterne til bedre
> produkter
> > til billigere priser
>
> Forhåbentligt... jeg håber ikke at et GeForce 6800 Ultra kommer over de
> 5000,- fra start... så må jeg vente
> lidt længere :)

Der er da håb: Der er citeret priser omkring 599 $ for det dyreste, og hvis
man så lægger 25% moms til, så hedder det ca. 4500 kr.

Men lad os nu se. Det er svært at spå, især om fremtiden

Venlig hilsen
Henrik



Ukendt (05-05-2004)
Kommentar
Fra : Ukendt


Dato : 05-05-04 21:35

"Henrik Stavnshøj" <hesta@nospam.dk> skrev i en meddelelse
news:40990f44$0$285$edfadb0f@dread12.news.tele.dk...
> "Lars Jensen" <lars [at] zulfo [dot] dk> skrev i en meddelelse
> news:4098c296$0$11545$ba624c82@nntp02.dk.telia.net...
>
> > For mig er sagen klar!
> >
> > Jeg skal have et GeForce 6800 Ultra. Så vidt jeg kunne se på nVidias
> Launch
> > video, er der en hel del udviklere,
> > her i blandt Crytek og EA, som vil lave spil der understøtter Shader
3.0,
> og
> > hvad jeg kunne se på den
> > fremviste FarCry demo, moddet med et 3.0 mod, er der ingen tvivl, det
ser
> > utrolig fedt ud...
>
> Jo, men..
> Er du egentlig klar over hvor lidt forskel der er på muligheden for
effekter
> fra shader 2.0 til shader 3.0?

Ja, jeg har læst 2-3 artikler efter håden. 2-3 artikler der alle
sammenligner eller prøver at drage konklusioner om hvorvidt 3.0 er noget
værd, men det er jo set med de nuværende udgivne spil...

> Ifølge en anden artikel fra HardOCP, er der faktisk kun en enkelt effekt
til
> forskel, resten er optimeringer af koden i forhold til shader 2.

Der var displacement mapping, som er den der har med IQ at gøre, men der er
optimerings routiner i 3.0 der kan få stor betydning, det står vist i
selvsamme artikel.

> Den effekt shader 3 har, er muligheden for at variere højden af en
texture,
> så man kan lave overflader mere realistiske.

Netop....

> Det knytter de så to kommentarer til:
> Den ene er, at det en ressourcekrævende effekt, så de er ikke engang sikre
> på at 6800 kan bruge den til andet end demoer.
> Den anden er, at alt så afhænger både af _om_ udviklerne så vil bruge den,
> og i så fald hvilken tidsramme der er på udgivelser af spil med denne
effekt
> indbygget.

Nu har jeg læst at Crytek efter launch har udtalt at det ikke er PS3.0 der
er brugt som demonstration, men det var faktisk ikke hvad der blev sagt i
den video jeg så :)

> Med andre ord:kan 6800 overhovedet bruge den i virkeligheden, og dukker
den
> overhovedet op tids nok til at der ikke er kommet endnu en generation af
> kort?

Jeg tror på at der vil kommer PS3.0 spil i løbet af de næste år, og jeg har
ikke tænkt mig at skifte et grafikkort til 5000,- ud i løbet af et år :)

> Det rigtig søde er så deres updates af artiklen til sidst: nVidia
bekræfter
> at Far Cry shader 3 demoen udelukkende indeholder optimeringerne.
> Der er altså _ingen_ forskel på de visuelle effekter i forhold til shader
> 2.. :-/

Det var, som tidligere skrevet, CryTek der selv til lauchen fint fremviste
FarCry med en PS3.0 mod, ikke nVidia, så måske har CryTek været for smarte?!
:)

> Artiklen er hér: http://www.hardocp.com/article.html?art=NjA5LDE=

Jeps, den artikel har jeg læst et par gange... Og det er ikke rigtigt at der
ikke er forskel i shaderne. De skriver selv i artiklen at der vil være stor
forskel hvis PS3.0 anvendes over P2.0, især hvis der anvendes displacement
mapping...

> > > Det er tæt løb denne gang
> >
> > Det er jeg helt enig med dig i... jeg har længe haft øje til Radeon, men
> har
> > altid købt nVidia, og det bliver det
> > også denne gang... jeg kan alligevel ikke spille spil i mere end
> 1280x1024,
> > og der ligner de 2 kort hinanden, og
> > så får jeg altså også understøttelse for Pixel Shaders 3.0 (+2.0)...
>
> Jeps, men igen: tag det ovenstående i betragtning.

Det har jeg gjort. Jeg har vent og drejet det, det er jo alligevel en del
penge til et grafik kort.

Som jeg har skrevet et par gange nu: jeg vil hellere være sikker på at mit
kommende grafikkort kan udnyttede features som kan blive brugt i fremtiden,
og så undvære 10 fps i 1600x1200...

> > > Godt for os, for hård konkurrence presser producenterne til bedre
> > produkter
> > > til billigere priser
> >
> > Forhåbentligt... jeg håber ikke at et GeForce 6800 Ultra kommer over de
> > 5000,- fra start... så må jeg vente
> > lidt længere :)
>
> Der er da håb: Der er citeret priser omkring 599 $ for det dyreste, og
hvis
> man så lægger 25% moms til, så hedder det ca. 4500 kr.

Så skal der told på osv. :)


> Men lad os nu se. Det er svært at spå, især om fremtiden

Nemli' ja :)

Jeg glæder mig i hvert tilfælde... mit TI4400 gør det pænt endnu, men det er
snart et par år gammelt :)

> Venlig hilsen
> Henrik

Lars B



Fox (06-05-2004)
Kommentar
Fra : Fox


Dato : 06-05-04 13:13


"Saitek" <wicbdk@Jubi.com> skrev i en meddelelse
news:409761cd$0$215$edfadb0f@dread16.news.tele.dk...
> Så lige en test af det nye XT800 fra ATI, en test der skulle være "leaked"
> dra toms hardware.
>
> Hvis det holder kan ATI knap være med når vi snakker nvidia 6800xt, men
det
> er da tæt på. Kunne da godt holde et sådant kort ud et stykke tid.
>
> ved da ikke lige om jeg kan bringe et link, prøver da
>
> http://www.theinquirer.net/?article=15686
>
>

There will be two RADEON X800 products, the RADEON X800 XT Platinum Edition
and the RADEON X800 PRO, at $499 and $399 SRP respectively.

The former will ship later this month with the 16 pipe chip clocked at
520MHz, coupled to 1.12GHz GDDR3 memory and a 256-bit memory interface. The
latter is cut back to 12 pipes running at 475MHz with a 256-bit memory
interface and 900MHz GDDR3 memory. It is available immediately.


http://www.pcpro.co.uk/?news/news_story.php?id=57160



jacob




Søg
Reklame
Statistik
Spørgsmål : 177560
Tips : 31968
Nyheder : 719565
Indlæg : 6408941
Brugere : 218888

Månedens bedste
Årets bedste
Sidste års bedste