Marek Wyszomirski  Dołączył: 18.04.2006
Cytuj
Podejrzewam, że ja nie widziałem dzięki temu, ze jakość monitora skutecznie maskowała różnice. Gdy wymieniłem na lepszy - braki G-Force ujawniły siuę z całą okazałością...
 
klimecki  Dołączył: 21.04.2006
Cytuj
Cytat
Myślisz że różnica na crt będzie bardzo widoczna ? tzn czy warto zamienić gf420mx na tego matroxa ? teraz po 15pln chodzą na Allegro ..

na crt (nawet niespecjalnym) beda roznice miedzy nvidia a ati/matrox (na plus tych ostatnich), sam bylem zdziwiony ze porzadna elsa na nvidii 'odjechala z koksem' w porownaniu do saphira na radku7000 (taki najprostszy radeon). Przy budzetowym lcd te roznice widac mniej, na lepszym plaskim eizo itp znow je zobaczysz. tak czy owak polecam albo ati albo matroxa (przy czym z uniwersalnoscia/ bezkonfliktowoscia matroxa to mam mieszane uczucia, niektore aplikacje 'jadace' na opengl moga go przerastac) zwlaszcza ze fajna karte mozna za bezcen kupic (ati by ati, saphire, his - na tych sie nigdy nie zawiodlem). Nvidia rozwija sie pod katem fps, do grafiki jest imho srednia.
Bronek napisał/a:
ja mam tez Matroxa - najtanszy model Parchelii, tak naprawde nazywa się Millenium P650.

mialem cos takiego w dual head w poprzedniej firmie, i jakkolwiek droga wowczas karta byla raczej niewypalem w rzeczach typu inventor, eplan, to do grafiki na dwoch crt neca naprawde cieszyla oko, konfiguracja kilku ekranow prosta jak konstrukcja dzidy (jak sobie wspomne tandemy pci+agp elsy pod starym nt to...). Po podlaczeniu tanich/duzych belinei lcd przestala cieszyc:), ale z dobrym monitorem daje niezly uklad.
pozdrawiam
kp
 

bEEf  Dołączył: 28.12.2006
Cytuj
Cytat
Przy budzetowym lcd te roznice widac mniej, na lepszym plaskim eizo itp znow je zobaczysz.


Ekhm, no nie wiem. Jeśli mówimy o zestawie karta + monitor LCD przez DVI, to nie istnieje coś takiego jak karta dająca lepszy/gorszy obraz. To jest po prostu niemożliwe. Tam idzie cyfrowo wartość koloru w RGB, którą monitor interpretuje po swojemu. A ta wartość zależy od tego, co do pamięci wpisze program, nie karta. Karta może czasem oszukać w driverach "cyfrowo" podkręcając nasycenie - np w GForce'ach w sterownikach taką opcję można włączyć, ale obiektywnie jakości nie da się poprawić poza limit wyznaczony starą dobrą matematyką :-)

Ja mam w laptopie Geforce 7200GO i daje radę, bo co ma nie dawać. To panel jest piętą ahillesową, jak we wszystkich laptopach :-/
 

Marek Wyszomirski  Dołączył: 18.04.2006
Cytuj
To jak wytłumaczysz, że po podłączeniu tego samego monitora LCD do dwóch kart graficznych - G-Force 6200 i Matrox G450 - w obu przypadkach przez DVI - na G-Force obraz nie zawierał płynnych przejść tonalnych (wygladał tak, jakby go poddano posteryzacji) a na Matroksie wszystko jest w porządku?
 

bEEf  Dołączył: 28.12.2006
Cytuj
Hm, ciekawostka. Jedyne, co mi przychodzi na myśl, to to, że GForce miał z jakiś powodów ustawioną głębie koloru 16bit/pixel - wtedy jest dokładnie taki efekt, o jakim piszesz (a'la posteryzacja), bo takie dane są w pamięci. Albo - mógł mieć mocno podkręconą programowo gammę/kontrast - wtedy po prostu generuje przekłamania - tej opcji po prostu lepiej nie tykać. Jeśli możesz to sprawdzić, to zagadka by się wyjaśniła :-) Tak czy inaczej, to nie jest różnica jakości matrox<->nvidia. Nawet przez D-SUB, gdzie różnice występują, nie są one aż takie, by obraz wyglądał jak po posteryzacji, dotyczą soczystości kolorów, ostrości itp. W przypadku dvi - przy tej samej liczbie bit/pixel różnic fizycznie być nie może. howgh.

Ponieważ mam gorączkę i moje google skils dramatycznie spadły, znalazłem tylko coś takiego:
http://forum.idg.pl/index.php?showtopic=11871
ale sądzę, że przy bardziej skoordynowanych poszukiwaniach dało by się znaleźć bardziej wyczerpujący artykuł na temat.
 

Marek Wyszomirski  Dołączył: 18.04.2006
Cytuj
Kolor w obu przypadkach był ustawiony na 32 bity/pixel - przestawiona głębia koloru to było pierwsze co mi przyszło do głowy gdy zobaczyłem tę posteryzację - zatem od razu sprawdziłem te ustawienia. Z konrastem i gammą próbowałem najróżniejszych ustawień, ale skutku nie było. Nie wykluczam, że być może miałem zwaloną kartę - nie miałem innego egzeplarza do sparwdzenia - ale na normalnym wyjściu analogowym po podłączeniu monitora kablem analogowym z przejściówka na DVI efekt był ten sam.
 

bEEf  Dołączył: 28.12.2006
Cytuj
Obstawiam jednak zwaloną kartę... dziwna sprawa.
 

Bronek  Dołączył: 04.09.2006
Cytuj
Stawiam na wyjście analogowe w DVI (ten "krzyżak" obok pinów cyfrowych), albo "oszczędność" gdzieś w części generującej sygnał cyfrowy (to byłby chyba sam GPU). nVidia jest znana z tego że do wierności kolorów podchodzi bardzo liberalnie.
 
dan  Dołączył: 11.08.2006
Cytuj
Marek Wyszomirski napisał/a:
Z konrastem i gammą próbowałem najróżniejszych ustawień, ale skutku nie było.

Gdzies czytalem (pewnie forum MVA.pl), ze programowa zmiana gammy wplywa na pogorszenie przejsc tonalnych (mniejsz plynnosc).
 

bEEf  Dołączył: 28.12.2006
Cytuj
Cytat
Stawiam na wyjście analogowe w DVI (ten "krzyżak" obok pinów cyfrowych), albo "oszczędność" gdzieś w części generującej sygnał cyfrowy (to byłby chyba sam GPU). nVidia jest znana z tego że do wierności kolorów podchodzi bardzo liberalnie.

Nie przesadzajmy - na czym miała by polegać ta oszczędność? Na obcięciu najmiej znaczącego bitu? GPU, które nie ma prawdziwych 24bitów/pixel? Nie żartujmy. Uwierz mi Bronku, gdyby nVidia zrobiła coś takiego, internet aż trząsł by się z oburzenia (i ze śmiechu). Jest jakaś możliwość, że karta miała po prostu zwalone DVI, nie dogadała się z monitorem i poszło przez analoga, tak jak piszesz. Albo sterownikom coś się pokiełbasiło i pokazywał 32, a w rzeczywistości było 16 bitów. Tak czy inaczej nie jest to normalna sytuacja, coś się popsuło.

Natomiast apeluję jeszcze raz o niewiązanie jakości obrazu 2d z marką karty w przypadku DVI - to po prostu nieprawda. Gdyby ktoś mnie pytał, 1000x bardziej polecałbym nVidię czy ATI niż Matroxa, który swój czas świetności ma daleko za sobą, no chyba, że do CRT+D-SUB. Do DVI nie i jeszcze raz nie! Kiedyś Matrox miał jeszce jedną przewagę - DualHead. Teraz mają takie wersje mają wszystkie karty, również nVidii i ATI - od 100 do 2000zł, więc nawet to odpada.

[ Dodano: 2007-01-14, 22:18 ]
Cytat
Gdzies czytalem (pewnie forum MVA.pl), ze programowa zmiana gammy wplywa na pogorszenie przejsc tonalnych (mniejsz plynnosc).


Dokładnie tak. Karta wyświetla dane z pamięci, które mają 256 poziomów na kanał, więc jeśli spowodujemy, że krzywa gammy idzie bardziej stromo w górę w jakimś odcinku (a przy dowolnej zmianie tak się stanie, że odważnie zarymuję), to pojawiają się przeskoki - nie ma rady.

To jest dokładnie taka sama sytuacja jak w przypadku obrabiania zdjęcia programem graficznym w zwykłym RGB - co można zaobserwować na histogramie, w którym robią się "dziury".
 

Bronek  Dołączył: 04.09.2006
Cytuj
bEEf, nie zapomniej że DVI to również wyjście analogowe. Co do oszczędności którą zasugerowałem - Marek zauważył że "coś jest nie tak" a ja tylko próbuję to wytłumaczyć. Oszczędność może być gdziekolwiek gdzie zamiast wypuszczenia dwóch minimalnie różnych sąsiadujących pixeli szybciej będzie wypuścic dwa identyczne. Przypuszczam że zawodowcy orientujący się w kolorze i z dobrym okiem nie korzystają z kart nVidia (bo fps to dla nich zupełnie nieistotny parametr), więc nic nie zauważą.
 

bEEf  Dołączył: 28.12.2006
Cytuj
Cytat
Oszczędność może być gdziekolwiek gdzie zamiast wypuszczenia dwóch minimalnie różnych sąsiadujących pixeli szybciej będzie wypuścic dwa identyczne.

Nie, nie będzie szybciej, dlaczego miało by być? :-) Puszczanie bitów z pamięci "w kanał" DVI to naprostsza i "najgłupsza" część procesu generowania obrazu, nic się nie da tu zaoszczędzić. Sieciowe portale sprzętowe nie pozostawiły by suchej nitki na produkcie za taki babol, nawet, jeśli "zwykli" użytkownicy teoretycznie mmogliby tego nie zauważyć. Choć, chyba nie wiesz, co potrafią "zwykli" użytkownicy pasjonujący się sprzętem i jaka jest siła internetu :-)
Cytat
Przypuszczam że zawodowcy orientujący się w kolorze i z dobrym okiem nie korzystają z kart nVidia (bo fps to dla nich zupełnie nieistotny parametr), więc nic nie zauważą.

Niestety, źle przypuszczasz. Cała seria Quadro jest dla zawodowców, i chętnie z niej korzystają. A te karty różnią się od zwykłych jedynie biosem, nie elektroniką. Ergo - "zwykłe" karty nVidii są równie ok. Zawodowcy kierują się tym, co widzą, a jeśli nie widać różnicy... Poza tym PRAWDZIWI zawodowcy mają swoje NAPRAWDĘ drogie zabawki :-) A Matrox jest fajny (nie przeczę), bo:
1. Jest tani
2. Faktycznie, dla CRT to dobra jakość (choć wątpię, czy dużo i czy w ogóle lepsza niż współczesna markowa karta ze stajni nVidia/ATI, ale załóżmy, że tak)
3. Wysyła w świat komunikat, że użytkownik stawia na jakość, nie na bajery ;-)
Więc, jeszce raz - matrox + CRT = ok, matrox + DVI = po co?

[ Dodano: 2007-01-16, 10:38 ]
Cytat
bEEf, nie zapomniej że DVI to również wyjście analogowe

No tak, ale napisałem już wyżej :mrgreen:
Cytat
Jest jakaś możliwość, że karta miała po prostu zwalone DVI, nie dogadała się z monitorem i poszło przez analoga, tak jak piszesz.

W ogóle, może karta Marka była jakaś nie teges i od nowości tylko szpanowała wyjściem DVI, a tak naprawdę było ono analog only? W przypadku jakiś niemarkowych (nomen-omen)... Spekulacje.
Ok - pax - choć w kartach graf. nieco się orientuję z racji zawodu (programista grafiki w skrócie) to nie miałem każdej w reku i mogę ręczyć, że nie jest tak, jak piszesz w przypadku _niektórych_ modeli, albo że nie dzieją się jakieś jeszce inne cuda, o których nie mam pojęcia. Proponuję schłodzone :-B po południu.
 

Dabrow  Dołączył: 22.04.2006
Cytuj
milo napisał/a:
Michu napisał/a:
A tak w ogóle, to są płyty główne z PCI ekspres i AGP?


chyba nie, bo to troche bez sensu by bylo....


ależ oczywiście że są płyty z AGP i PCI-X równocześnie, tylko nie mam pewności co do używania równocześnie obu szyn...

PS. Choćby ofertę firmy Asrock proszę sprawdzić (ECS i MSI też chyba takie miały)...
 

Bronek  Dołączył: 04.09.2006
Cytuj
bEEf napisał/a:
Nie, nie będzie szybciej, dlaczego miało by być? Puszczanie bitów z pamięci "w kanał" DVI to naprostsza i "najgłupsza" część procesu generowania obrazu, nic się nie da tu zaoszczędzić
wiem, ale mialem na mysli cos innego - obliczanie tego pixela. Jezeli gdzies w potoku wyjdzie ze pixel bedzie mial kolor tylko minimalnie rozny od sasiednich, to ... why bother?. Moge sobie wyobrazic taka optymalizacje.

No ale skoro sie tym zajmujesz, to niech bedzie jak mowisz. Moja dziedzina programowania jest bardzo odlegla od grafiki :-)
 

Robert N  Dołączył: 25.07.2007
Cytuj
Trochę już czasu minęło od ostatniego postu w tym wątku, ale stoję przed problemem zakupu karty do kompa, którego używam na spółkę z dziećmi. I tu trzeba godzić wodę z ogniem. Jest tak:
-komp to asus P3-PH5, taki płaski, więc karta musi być low profile, PCI-ex
-gierki mają wymagania: min GF6600 lub ATI 9800Pro
-monitor IIYAMA Vision Master Pro 512, po d-sub ma się rozumieć

Jednym słowem chciałbym nabyć kartę, która ma jak najlepszą (przynajmniej przyzwoitą) jakość obrazu statycznego do zdjęć po d-sub (!) i jednocześnie udźwignie wymagania gierek (wcale nie Edward).

Czy to się da zrobić ?
 

JuiCe  Dołączył: 07.08.2007
Cytuj
Michu napisał/a:
A tak w ogóle, to są płyty główne z PCI ekspres i AGP?


Są. I są to płyty kultowe (jak niegdyś sławny/niesławny ECS K7S5L - tak to się chyba nazywało co?)

Są to płyty firmy Asrock - niektórzy mówią, że to szit - inni, że budżetówka Asusa.

Zaczęło się od płyty bardzo interesującej z socketem 939 (Athlon 64) i z PCIx i AGP. Co ciekawe - mobo to posiadała możliwość dołożenia (Future Port czy jakoś tak) płytki umożliwiającej wsadzenie proca z gniazdem AM2 (nowe Athlony) - nie widziałem jednak takiego kombajnu w akcji.

Obecnie nowa (lub jak niektórzy uważają spóźniona o 1-2 lata) na rynku jest 4coredual-sata2 - jedni ją uwielbiają, inni nienawidzą. Ja osobiście uważam ją za niesamowitą sprawę dla ludzi z brakiem kasy. Ma port AGP, PCIx (niestety 4x tylko - ale jak pokazują testy wydajności, jeżeli nie wkładasz w to jakiegoś HIGH Endowego potwora to nie podetnie mu to skrzydeł), sloty na DDR1 i DDR2. Można ją wsadzić jakiegoś celka lub starego pentium D i ładnie skręcić, a po uzbieraniu kasy jakiego QuadCora. Do tego zachowujesz swojego Matroxa w porcie AGP, a w PCIx wsadzasz Radka nowego bo dzieci chcą grac w Gears of War (nie pozwalaj im! Posoka ścieka po monitorze - dosłownie!). To na tyle - ja obecnie nie mam kasy nawet na tą płytę (przeklęta k110D :P ) ale osobiście uważam ją za dobry wybór do stopniowej przesiadki na generację dual i quad core.

Uff sorki za styl ale niewiele dzisiaj spałem.

[ Dodano: 2008-01-20, 01:18 ]
Robert N napisał/a:
Czy to się da zrobić ?


Czytam czytam na ten temat i powiem - tak na pierwszy rzut oka ciężka sprawa. Można dostać GF 7300 low profile - nie wiem jak z jakością 2D i w jakie gry chcą grać dzieciaki (chyba nie w crysisa co?) ale do hitów sprzed 2 lat w średniej rozdziałce może wystarczyć. Niestety to jest wersja z szyną 64bit (jeżeli są na DDR3 z szyną 128bit to warto to rozważyć chyba).

Będę szukał u ewentualnie zrobię update tutaj.

EDIT: Sprawa wygląda tak - można zdobyć 128bitowe 7600GS na LP. Wydajność całkiem, całkiem dodatkowo trzeba zrobić wywiad na temat chłodzenia i jego głośności.

Jednakże tutaj jest test GF 8600 LP - wydajność zadowalająca, jest HDMI (myślimy trochę o przyszłości) lecz pojawia się pytanie - jaki masz zasilacz w tym pudełki na zapałki? Czy będzie w stanie pociągnać taką kartę? Oraz oczywiście - czy da się coś takiego w naszym pięknym kraju kupić?

Kupując kartę low-profile zwróć uwagę czy DVI nie jest połączone z samą płytką za pomocą kabla - takie rozwiązanie z tego co wiem (a może się mylę bo cyfra to cyfra jak ktoś tutaj zapewniał) nie wpływa najlepiej na jakość obrazu.

Oraz oczywiście opcja karkołomna - dla Ciebie Matrox jakiś, dla dzieci (w zależnoście od domowego budżetu i Twojego zdania na temat tej gałęzi elektronicznej rozrywki) PS2/X360/PS3/Wii.
 

Robert N  Dołączył: 25.07.2007
Cytuj
JuiCe, dzięki za poradę. Tak naprawdę, to prawie wszystkie gry jakie mamy działają dość dobrze na wbudowanej karcie Intela, który nawet ostatnio udostępnił drivery obsługujące shaders/vertex. Problem pojawił się dopiero przy Call of Duty 4. Wpakowałem się trochę z tą małą obudową :-? . Zasilacz ma 275 W, może być mało ?

JuiCe napisał/a:
Oraz oczywiście opcja karkołomna - dla Ciebie Matrox jakiś, dla dzieci (w zależnoście od domowego budżetu i Twojego zdania na temat tej gałęzi elektronicznej rozrywki) PS2/X360/PS3/Wii.


W perspektywie kilku miesięcy do roku i tak muszę kupić nowego kompa, więc chyba tym razem pójdę w normalną obudowę i problem się rozwiąże.
 

JuiCe  Dołączył: 07.08.2007
Cytuj
Robert N napisał/a:
W perspektywie kilku miesięcy do roku i tak muszę kupić nowego kompa, więc chyba tym razem pójdę w normalną obudowę i problem się rozwiąże.


I to może być najlepsze rozwiązanie. Co do COD4 to da się grać na A2600XP i radeonie 9600 (akurat mam taki zestaw ale nie próbowałem) - ba, złośliwi twierdzą, że CoD4 jest lepiej napisany niż CoD2 :)

Co do Zasilacza to konkretnie nie odpowiem bo nie wiem co innego masz w obudowie i jak prądożerne są to komponenty ale tak na oko to może być ciut mało - lecz nie biorę odpowiedzialności za tą wypowiedź ;)

Jeżeli lubujesz się w małych budach to nie ma problemu - można zawsze kupić dobrą płytę mATX (ale przedtem też się rozejrzeć - ostatnio ukazała się nawet jakaś Asusa z obsługą QUAD i SLI - jeżeli dzieci chciałyby więcej FPS) oraz jakąś miłą obudowę z zasilaczem ATX pełnowymiarowym - by brak mocy nie doskwierał przykładowo taki Tecens.

[OT]

Być może staniesz przed podobnym wyborem jak ja - obecny komp wystarczy mi całkowicie do pisania, netu, oglądanie filmów (pod mplayerm nawe HD 720p znośnie chodzi) i do całej dobrej klasyki (po co mi Oblivion jeżeli nie przeszedłem Morrowinda, Baldura, Fallout 1 itd itp) - ale czasem zachciałoby się w BioShock czy CoD4 pograć. Komp, który to pociągnie będzie kosztował drożej niż konsola - tylko jak wytłumaczyć rodzinie, że takie drogie szare pudełeczko jest niezbędne w każdym gospodarstwie domowym :(

[/OT]
 
jpserwis  Dołączył: 12.09.2006
Cytuj
Z nowych kart to kupił bym coś z markowego na ATI. W Matroxa bym się nie ładował bo to przeżytek, choć mam gdzieś w szafie G100. Trzeba pamiętać, że wraz z DirectX9 zmieniły się przetworniki z 8 na 10 bitów na kanał, więc nawet stary dobry CRT podłączony przez D-SUB to odczuje.
 

Robert N  Dołączył: 25.07.2007
Cytuj
jpserwis napisał/a:
Z nowych kart to kupił bym coś z markowego na ATI.

A są jakieś modele low profile ? Jak tego szukać ? Prawie nigdzie w opisach nie widzę oznaczenia.

Wyświetl posty z ostatnich:
Skocz do:
Nie możesz pisać nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz głosować w ankietach