Michu  Dołączył: 18 Kwi 2006
Kuba, rodzi się pytanie, z jakiego telefonu zdjęcie to było. Jest kolosalna różnica między fotami z obecnych i 3-4 letnich telefonów. Mam LG G6 i tu przyznaję Ci całkowitą rację - ciapaki się robią przy powiększeniach i większej ilości detalu. Ale obrazki z nowych telefonów już tak nie wyglądają. Ciekaw jestem, czy zauważyłbyś ów efekt, gdyby zdjęcie było zrobione na przykład Samsungiem S22.
 

Enzo  Dołączył: 20 Gru 2006
Cytat
Jest kolosalna różnica między fotami z obecnych i 3-4 letnich telefonów.

Różnica też dotyczy modelu telefonu-te z dolnej półki cenowej będą prawdopodobnie miały mniejsze matryce i tam oprogramowanie musi więcej się napracować.
 

Apas  Dołączył: 26 Sty 2007
Kuba Nowak napisał/a:

Eee, ja tam na telefon od ponad 10 lat nie wydałem ani grosza, bo mój samsung E2370 ciągle działa i bateria trzyma ponad 2 tygodnie... Co prawda zdjęć nie robi, ale to przecież tylko telefon.

Zgadza się, ale mój wpis dotyczy 'smartfonów fotograficznych' i ludzi, którzy twierdzą że robią nimi zdjęcia o jakości porównywalnej do lustrzanek... Te super-hiper-diesel-special fotograficzne smartfony mają co roku nowe generacje tzw. flagowe, zaś ludzie w nich rozkochani co roku muszą w związku z tym robić upgrade do nowszego modelu - bo wprawdzie ubiegłoroczny robił zdjęcia 'jak lustrzanka', ale nowy zrobi to 'jeszcze bardziej'... Ot, takie gonienie króliczka bez szans na złapanie wyżej wymienionego... Znam takich ludzi osobiście, zaś na różnego rodzaju portalach technologicznych pełne entuzjazmu (wspartego zapewne cichym zleceniem producenta telefonu) recenzje zachwalające niesamowitą jakość zdjęć ukazują sięcyklicznie przy każdym nowym modelu... Najzabawniejsze że recenzje 'fotograficzne' smartfonów piszą najczęściej ludzie, którzy innej fotografii poza smartfonową nie znają - czytam potem, że zdjęcie 'powala jakością', ale oglądając załączony dowód widzę fotkę na pewno niezłą jak na smartfon, ale daleką jakościowo od tego, co wypluje którykolwiek z moich aparatów (nawet m43) z podpiętym dobrym szkłem...
 

Apas  Dołączył: 26 Sty 2007
Ryszard napisał/a:
Apas, wszystko prawda, tyle że owa fotografia obliczeniowa oraz moduły, skanery i lasery to nie są opcje, ale stałe komponenty tworzące smartfonowe zdjęcie. Nie da się ich wykluczyć. Tak, matryce są tam liche - ale opakowane tymi dodatkami, uzupełniającymi brakujący SNR, DR, GO, ITP. ;-) - dają w efekcie zdjęcia wystarczająco dobre do wielu zastosowań.

No właśnie, o tym piszę - 'doskonała' jakość zdjęcia z najlepszej komórki fotograficznej to jest EFEKT KOŃCOWY bardzo intensywnego przetwarzania. Tymczasem z lustrzanki, przy założeniu że jej operator wie co robi - a tak trzeba zakładać rozmawiając o ludziach parających się fotografią jako hobby, że o pracy nie wspomnę - surówka bywa jakościowo lepsza, a na pewno z łatwością dorównuje fotografii smartfonowej. Tyle, że lustrzankowiec ma wtedy OPCJE użycia całej magii postprodukcji, by z owej surówki wyciągnąć naprawdę wiele i na różne sposoby. Owszem, narzędzia takie jak Lightroom czy odpowiedniki, a nawet PS wymagają naprawdę sporo wiedzy i czasu, by zrobić cuda - zwłaszcza, że efekt z komórki często bywa złożeniem wielu ekspozycji robionych przez kilka modułów smartfona w tym samym czasie - ale przecież są już programy do obróbki zdjęć oparte o te same cuda, jakie wbudowano w komórki. Widziałem zdjęcia z OM Systems OM-1 robione na wysokich ISO, które po przepuszczeniu przez soft do odszumiania oparty o uczenie maszynowe dają piękny, czysty obrazek bez utraty szczegółów...
 

Michu  Dołączył: 18 Kwi 2006
Apas - a gdzie jest granica przetwarzania? Plik z lustrzanki to nie jest surowizna, bowiem matryca rejestruje tylko tonalność sceny. Za kolory odpowiada filtr Bayera plus interpolacja (a więc sztuczne tworzenie danych). Prawdziwe byłoby więc stwierdzenie, że surowizna tyczy jedynie Leici Monochrom ewentualnie aparatów z matrycami Foveon, ale znów zdjęcia z tej ostatniej na wysokich czułościach nijak nie oddają rzeczywistości.
W kwestii poprawy jakości ze Smartfonów - pamiętasz foty z Kadyszki na ISO 1.600? I późniejszy skok jakościowy przy Kr? I wielkie WOW przy pierwszych obrazkach z K5? W Smartfonach idzie to po prostu szybciej, bowiem rynek jest nieporównywalnie większy. Mogę się mylić, ale sądzę, że już dziś nie byłbyś w stanie w ślepym teście rozróżnić wydruku A4 z Samsunga S22 od tego z lustra.
 

Apas  Dołączył: 26 Sty 2007
Michu, trochę nie masz racji - RAW z lustrzanki to są surowe dane z pikseli, o demozaikowaniu i interpolacji (w oparciu o schemat ukladu filtru Bayera zastosowanego w moim aparacie, który jest znany oprogramowaniu) decyduję w post procesie (w sofcie, którego używam mam na to wpływ). Twierdzenie, że zastosowanie fizycznego filtra barwnego na matrycy w jakikolwiek sposób 'ingeruje' w 'surowość' danych jest o tyle... problematyczne... że taki sam zarzut można postawić wobec powłok antyodbiciowych na soczewkach obiektywu, które wszak też 'modelują' naturalne światło odbite od fotografowanego obiektu. O filtrach typu polar czy ND już nie wspomnę. Zatem by nie popaść w idiotyzmy przyjmijmy, że to co zarejestrowała matryca po przejściu światła przez wszelkie fizyczne filtry ŚWIADOMIE użyte czy to przez konstruktorów matrycy oraz optyki, czy przez fotografa - to surówka fotograficzna. Tym bardziej, że filtr Bayera, powłoki czy jakieś wbudowane filtry TAKŻE są zastosowane w układach modułów fotograficznych telefonów, więc ich wpływ przy porównaniu się znosi. To samo dotyczy przetwornika A/D 'za' matrycą, bo w obu przypadkach powstały w fotodiodach prąd musi zostać przetworzony na sygnał cyfrowy, który da się zapisać, co też dotyczy tak samo komórek jak i aparatów. Zatem tu mamy surowiznę, a ingerencja w nią zaczyna się później. I tak, masz rację że w jakimś stopniu ma ona miejsce tak w przypadku smartfonów jak i lustrzanek, choć w przypadku lustrzanki (i niektórych telefonów) możesz zdecydować na pozostawienie tych danych takimi, jakie są właśnie w tym momencie. Ale nie dotyczy to w większości wypadków użytkowników urządzeń mobilnych, z których BARDZO WIELU przy różnych okazjach żaliło się, że RAWy z telefonów wyglądają źle a oni sami nie są w stanie w ich obróbce nawet zbliżyć się do tego, co wypluwa silnik ich komórki jeśli pozwolić mu działać. Bierze się to poniekąd stąd, że aparaty w telefonach są wielomodułowe i w tworzeniu jednego zdjęcia bierze udział kilka modułów, dostarczających różnych danych do obróbki. Gdy ktoś zdecyduje się na RAW - dostaje surowy plik tylko z modułu głównego, proste...
A co do Twego ostatniego zdania - to zależy jakie to będzie zdjęcie. Jeśli portret z płytką GO to wydaje mi się, że mógłbym spróbować szczęścia :-)

A teraz idę w miasto z aparatem :-D
 

Michu  Dołączył: 18 Kwi 2006
Całkowicie się z Tobą zgadzam. Ale zauważ, że to wszystko jest obróbką, na którą nie mamy wpływu. Nawet Twoje różne rodzaje demozaikowania bliższe są bardziej wyborowi farb (akwarele, olej, akryl) niż odczytowi prawdziwych danych. I nadal podlegają interpolacji, czyli nie wiemy, co zostało dodane przez urządzenie. Jako przykład zrzut z porównania Dpreview:



Gdzie Sigma ma 15MP matrycę, a np. K1 36MP (i dwukrotnie większą powierzchnię czujnika). Czy nie uważasz, że obrazy z lustrzanek wyglądają jak akwarela przy pliku z Sigmy?
 

Apas  Dołączył: 26 Sty 2007
Niestety, nie mogę rzucić okiem na oryginalne pliki, których użyłeś do porównania - strona DPReview się updajtuje. Niemniej jednak mam wrażenie, że posłużyłeś się kiepskim przykładem na pokazanie przewagi 'braku obróbki' nad 'obróbką'. Matryce Foveon miały masę fajnych cech, ale na pewno nie da się o nich powiedzieć, że nie manipulują sygnałem (i to mocno!) ZANIM zapiszą dane jako 'surowe'. Dość dobrze opisali to Apteczni: https://www.optyczne.pl/2...C3%B3w_RAW.html
Jak widzisz - sygnał z dwóch składowych jest wzmacniany, odszumiany i wyostrzany a dopiero potem dodawany do trzeciej składowej i zapisywany jako dane o barwie piksela. Odszumianie to nic innego jak usuwanie danych (niepotrzebnych, ale ZAWSZE usuwane są też te 'potrzebne' przy okazji), zaś wyostrzanie - to ich dodawanie tam, gdzie zdaniem algorytmu być powinny (granice cz-b w ujęciu luminacji), ale w rzeczywistości wcale ich tam być nie musi. Parafrazując Twoje stwierdzenie: jeśli obrazki z Pentaksa i Nikona to akwarele - to ten z Sigmy jest rysunkiem technicznym. W obu przypadkach nie jest to oddanie rzeczywistości tylko efekt matematycznej obróbki cyfrowego sygnału powstałego w wyniku próbkowania prądu wygenerowanego przez światło odbite od przedmiotów ową rzeczywistość tworzących...
I tu się robi naprawdę ciekawie, bo dokładnie tym samym (może poza przymiotnikiem 'matematycznej' w opisie) jest obraz rzeczywistości, jaki rejestruje każdy z nas subiektywnie w swoim mózgu. Owszem, przy założeniu, że ani ty ani ja nie mamy upośledzonego postrzegania barw, obaj patrząc na czerwony obiekt powiemy, że jest czerwony. Dowcip polega na tym, że ja nie wiem, jaki obraz kreuje twój mózg gdy nerw wzrokowy zostanie pobudzony falami światła o długości odpowiadającej kolorowi czerwonemu, ty zaś nie wiesz co w tej kwestii robi mój. Może być tak, że Twój mózg kreuje w takiej sytuacji coś, co DLA mnie subiektywnie byłoby kolorem zielonym? No ale w tym momencie wkracza nasz software, czyli kultura z normami, także tymi dotyczącymi komunikacji - i zgadzamy się, że obiekt odbijający światło o danej długości fali, niezależnie od tego jaki efekt wywołuje w naszym mózgu, nazywamy obiektem czerwonym. Tymczasem w rzeczywistości ten obiekt wcale czerwony nie jest, nie ma zresztą jakiegokolwiek koloru - ma tylko fizyczną właściwość pochłaniania pewnych długości fal elektromagnetycznych i odbijania innych.
Zatem DLA MNIE umowną granicą manipulacji zarejestrowanym obrazem fotograficznym jest moment, gdy światło wygeneruje prąd, który zostanie zmierzony i zamieniony na wartość liczbową, która zostanie zapisana do pliku. POTEM zaczyna się manipulacja: albo przeprowadzam ją ja, autor zdjęcia, by uzyskać efekt odpowiadający MOJEJ estetyce, MOJEMU postrzeganiu świata, MOJEJ koncepcji artystycznej i MOJEJ percepcji sceny, którą fotografowałem - to jest podejście 'lustrzankowe'... Albo robi to zespół programistów gdzieś w Japonii, Korei, Chinach czy innych Indiach, którzy opierając się na odpowiedniej próbce danych uśredniają parametry oprogramowania tak, by efekt końcowy był uznany za zadowalający przez jak największą liczbę osób oglądających zdjęcie na ekranie urządzeń mobilnych - to jest szkoła 'smartfonowa'. Która z nich ci bardziej pasuje - to jest już Twój wybór.
 

Apas  Dołączył: 26 Sty 2007
Michu, udało mi się załadować stronę z porównywarką z DPR... Wiesz co mnie uderzyło? Ano na ISO 3200, jeśli przyjąć że obraz z K-1 w tym samym miejscu, które Ty pokazałeś jest nadal w zasadzie identyczną 'akwarelą', ale wciąż bogatą w szczegóły - tak obrazek z Sigmy stał się totalną abstrakcją, na której zniknęły niemal wszystkie szczegóły, za to pojawiły się spore, nieregularne plamy kolorów, których w rzeczywistości na pewno nie było: czerwień, róż, purpura, biel... Zresztą na ISO 1600 wcale lepiej w przypadku Sigmy nie jest... I na ISO 800 - w obrazku z Pentaksa widocznych szczegółów jest o rząd wielkości więcej, niż w przypadku Sigmy - widoczna jest na przykład i doskonale rozpoznawalna struktura 'filcowego' zielonego materiału, na którym umieszczono sztuczną roślinę, na obrazku z Sigmy to... wyparowało! Jedynie na ISO 100 i 200 obrazek z Foveona wydaje się lepszy - ale mam nieodparte wrażenie, ze ta lepszość bierze się głównie z wyostrzenia, bardzo agresywnego i to zaaplikowanego na poziomie RAWa.
Dla pewności ściągnąłem RAWa z K-1 i poddałem prostej 30 sekundowej obróbce w Darktable uzyskując bez większego problemu efekt o wiele lepszy, niż to co widać na Twoim obrazku (czyli tym z DPR), ze szczegółowością dużo bliższą tej, jaka jest na obrazku z Sigmy. To - IMHO - wspiera moja tezę, że dużo lepiej jest samemu obrabiać naprawdę surowe pliki z kamery, niż zachwycać się 'surówką' już na wstępie bardzo intensywnie przemieloną przez urządzenie rejestrujace, a tak jest w przypadku smartfonów i - niestety - aparatów z matrycą Foveon...
 

Enzo  Dołączył: 20 Gru 2006
Cytat
mam nieodparte wrażenie, ze ta lepszość bierze się głównie z wyostrzenia, bardzo agresywnego i to zaaplikowanego na poziomie RAWa

Twoje wrażenie ma się nijak do rzeczywistości. Przy trzech matrycach rejestrujących obraz jest on po prostu bardzo szczegółowy, czego zwykłym wyostrzeniem RAWa nie osiągniesz. Do tego dochodzi świetna separacja kolorów i tu nawet średni format ze standardowym Bayerem gorzej sobie radzi.

 

Apas  Dołączył: 26 Sty 2007
Enzo, na jakich TRZECH matrycach?! O ile wiem, Foveon to JEDNA matryca, w której światło jest rejestrowane w trzech warstwach, co wprawdzie eliminuje konieczność interpolacji kolorów z sąsiednich pikseli, ale za cenę znacznego osłabienia sygnału dla składowej niebieskiej i zielonej, które muszą być mocno wzmacniane ZANIM jakikolwiek RAWo-podobny plik może zostać wygenerowany. Trzy matryce rejestrujące miałeś kiedyś w układach 3CCD w kamerach video - światło było rozdzielane na trzy składowe za pomocą odpowiedniego układu pryzmatów i rejestrowane przez trzy niezależne matryce bez jakichkolwiek filtrów kolorystycznych, ani bez konieczności wzmacniania/odszumiania/wyostrzania którejkolwiek składowej: wszystko, co zarejestrowała pierwsza matryca było zielone, druga pracowała tylko z czerwonym zaś trzecia tylko z niebieskim, elektronika to potem składała do kupy. Foveon jest dość daleki od tej koncepcji, bo dwie składowe tracą sporo energii zanim zostaną zarejestrowane i ta energia jest im potem 'sztucznie' dodawana poprzez wzmocnienie sygnału... i przy okazji szumu, który następnie trzeba odfiltrować. Jeśli myślisz o tej koncepcji jako o trzech matrycach - to owszem, ale dwie z nich mają nałożone mocne filtry wycinające spory kawałek światła, co musi być kompensowane...
A tak naprawdę to sprawa z Foveonem jest jeszcze bardziej złożona, bo w rzeczywistości jedyny poprawnie rejestrowany kolor jest jednocześnie tym najbardziej 'obciętym', czyli tym rejestrowanym w najgłębszej warstwie. Dwie warstwy powyżej są nadmiarowo wzbudzane nie tylko przez kolor, który się w nich 'zatrzymuje', ale także przez te, które wnikają głębiej. I ten 'najgłębszy' sygnał najpierw trzeba wzmocnić, by skompensować straty wynikłe z wnikania w krzem, potem to co powstanie - odjąć w jakimś zakresie od sygnału z warstwy nr. dwa, której sygnał też najpierw trzeba wzmocnić i odszumić, ale mniej niż ten z głębszych pokładów krzemu, by potem tak uzyskany wynik odjąć częściowo jeszcze od sygnału z najpłytszej warstwy... Aparaty z Foveoanami były zawsze cholernie wolne właśnie ze względu na konieczność przeprowadzenia tak wielu skomplikowanych operacji na sygnale (przyznam, że nie wiem czy po analogowej czy już cyfrowej stronie przetwornika A/D, a może trochę po obu)... W końcu jest chyba jakiś powód dla którego Sigma przeprosiła się z Bayerami, a prace nad nowym Foveonem, pomimo postępu technologii - ślimaczą się niemiłosiernie, nie sądzisz?

 

Enzo  Dołączył: 20 Gru 2006
Aleś chlusnął wodą... Foveon ma ograniczenia z którymi użytkownicy muszą żyć jak Pentaksiarze z dziwactwami producenta. Nie czekam na nową odsłonę tych matryc, bo ta którą mam w kompaktowym opakowaniu wystarcza mi w zupełności, a następne wersje nie przyniosły poprawy w obrazowaniu.
Fajny ten wątek o telefonach.
 

Apas  Dołączył: 26 Sty 2007
Enzo, bądźmy zwyczajnie uczciwi wobec osób, które kiedyś mogą tu zabłądzić by poczytać ten wątek i nie powielajmy bezrefleksyjnie każdej marketingowej bzdury, jaką wymyślą producenci, czy to będą 'trzy matryce w Sigmie', czy próba przekonania, że w najlepszym przypadku jednocalowa matryca smartfona o 200 milionach pixeli, sparowana z obiektywem wciśniętym w 6mm przestrzeni i kryjącym 65 procent powierzchni tej matrycy - wyprodukują obraz takiej samej jakości jak zestaw matrycy APS-C z dobrze skorygowanym obiektywem lustrzankowym, że o FF nie wspomnę. Owszem, smartfony jako narzędzia fotograficzne są poręczne, dają akceptowalną jakość i mają parę dodatkowych zalet, które dla wielu osób będą wystarczające dla zaspokojenia wszelkich potrzeb fotograficznych. Tyle, że my tu jesteśmy na forum fotograficznym poświęconym marce aparatów/obiektywów, do tego aparatów w 'przestarzałej' formie lustrzanki, zatem można chyba zakładać, że ludzie tu trafiający nie będą szukać porady czy do fotografii smartfonowej lepsze są Samsungi czy iPhony... Oczywiście, każdy z nas zapewne smartfona fotograficznie czasem świadomie używa (mnie się zdarza), ale jednocześnie chyba większość ma na tyle wiedzy by rozumieć, że jednak kompakt, nawet najlepiej wyposażony (a tym są de facto smartfony z punktu widzenia fotografa) nie da takiej swobody twórczej, jak lustrzanka plus kilka obiektywów. A że co raz więcej osób, które w dawniejszych czasach dla swoich potrzeb, mając wybór miedzy kompaktem a lustrzanką entry level wybrałaby to drugie, ale dziś smartfon w zupełności im wystarcza - cóż, znak czasów. Kiedyś młodzi ludzie wybierali pomiędzy kierunkami studiów, dziś całkiem poważnie rozważają karierę 'jutubera' czy innego 'professional gaming streamera'...
 
tomek_j  Dołączył: 04 Lis 2010
Apas napisał/a:
Pamiętajmy, że najlepsze aparaty w smartfonach tzw. fotograficznych to jest 20 procent zdjęcia i 80 procent obróbki przez automat - w najlepszym wypadku dostajesz zdjęcie 'jak z lustrzanki' (choć to przesada, ja z reguły nie mam problemów z zauważeniem 'ubytków jakościowych' na fotce ze smartfona w porównaniu z surówką z lustra...).


No jak miałem taki przypadek. Bieszczady Bukowe Berdo, bardzo dobre warunki, późne popołudnie. Jesień ładne niebo i takie tam. Robiłem sobie fotki aparatem z wymiennym obiektywem i trochę tez smatfonem, takim trochę lepszym, ale nie fotograficznym gralem. Na ekranie telefonu bajka, piękne nasycone kolory. Ale po zgraniu na komputer okazało się, że zdjęcia z normalnego aparatu są w porządku, a zdjęcia ze smartfonu raczej do kosza. Pierwsze plany ostre ale wszystkie ujęcia gdzie były lasy i wyższe trawy rozmazane jak w przysłowiowej akwareli. Za to chmury były również prawidłowo ostre. Dlaczego? Wtedy wiał bardzo silny wiatr. Aparat dobrał krótkie czasy bo światła dość. A smartfon najprawdopodobniej z z sobie znanych powodów zrobił kilka ujęć jedno po drugim i z tego skomponował sobie sklejkę, w której poruszające się liście i wysokie trawy pięknie się rozmyły. Żeby nie było tryb HDR jest na stałe wyłączony bo jego efekt nie bardzo mi pasował. Smartfon potrafi zrobić ładną fotkę, ale nie można na nim polegać. Można się kłócić czy to jest poziom takiego starego aparatu jak np K5 i czegoś w rodzaju Tamrona 17-50 czy nie, Jak dla mnie to nie jest ten poziom być może nigdy nie będzie. Ale to zawsze jest indywidualny próg akceptowalności .
 

M.K  Dołączył: 26 Sie 2007
tomek_j, właśnie chciałem o tym pisać. Większość zdjęć jakie do mnie trafiają do wydruku pochodzi z telefonów. Niektórzy właściciele są bardzo dumni że swoich foto telefonów opowiadając mi, że to są zdjęcia z super hiper telefonu. I kiedy je rzucę na ekran 32 cale...ich uśmiech znika. Te obrazki mało, że są poddawane sporym zmianom podczas zapisu to jeszcze podczas wyświetlania też są podkręcane. Jeśli oglądasz na monitorze swoje zdjęcia z telefonu nie będziesz w ogóle dyskutował o jakości tychże oraz ich wyższości nad czymkolwiek m43 apsc i wyżej.
W studio używam uszkodzonego d7000. Mam go za darmo i sobie konczy żywot u mnie. Kiedyś podczas dyskusji z klientem pokazałem mu zdjęcie ze starej zepsutej puszki apsc kontra super hiper telefon. I to bez edycji było porównanie.
A najgorzej wypada w telefonach moduł portretowy. Ile tam jest niedoróbek. Ojej.

Wyświetl posty z ostatnich:
Skocz do:
Nie możesz pisać nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz głosować w ankietach