Pytanie:
Czy jest jakiś powód, aby zrobić 3 obrazy RAW / JPG, aby w pełni wykorzystać HDR?
yura
2012-06-01 11:18:39 UTC
view on stackexchange narkive permalink

Jestem nowy w fotografii i to, co widziałem do tej pory:

  1. ViewNX pozwala mi zmienić ekspozycję + 2 / -2 stopnie w RAW
  2. HDR chodzi o większy zakres dynamiczny i łączenie szczegółów cieni z prześwietlonego obrazu ze szczegółami świateł z niedoświetlonego obrazu
  3. RAW zawiera więcej bitów niż JPG i to, co widać na monitorze, dlatego można chronić je przed rozjaśnieniem i cieniami.

Wydaje mi się, że RAW zawiera już wszystkie wymagane informacje HDR, a dodatkowe zdjęcia RAW / JPG nie dadzą lepszych wyników dla HDR (tylko gorsze z powodu procesu wyrównania).

W tej kwestii istnieje wiele kontrowersji. Czy ktoś może udzielić sprawdzonej teoretycznie odpowiedzi na to pytanie?

Powiązane (i być może odpowiedź sama w sobie): [Jak mogę uzyskać dobry obraz HDR z pojedynczego pliku RAW?] (Http://photo.stackexchange.com/questions/683/how-can-i-get- a-good-hdr-image-from-a-single-raw-file)
Pięć odpowiedzi:
Itai
2012-06-01 17:29:32 UTC
view on stackexchange narkive permalink

HDR z pojedynczego zdjęcia RAW nie dodaje żadnego zakresu dynamicznego niż zarejestrowany. Jeśli scena wykracza poza zakres dynamiczny aparatu, niezależnie od tego, co zrobisz, RAW zostanie obcięty kanały na jednym lub nawet obu końcach. Nawet jeśli masz najlepszy aparat i używasz go z optymalnym ustawieniem ISO, najwyższa wartość, jaką możesz dziś uzyskać, to nieco powyżej 14 stopni DR.

Fotografowanie z zakresem ekspozycji pozwala uchwycić znacznie szerszy zakres . Biorąc pod uwagę zasięg współczesnych lustrzanek cyfrowych, można łatwo ustawić zakres z 5 EV między każdym zdjęciem. To zwiększy z 14 EV DR do 24 EV.

Oczywiście część pytania dotyczy tego, jak to zobaczyć i stąd pochodzi mapowanie tonów. Jest tylko wyświetlacz HDR i jest bardzo drogi, więc wszyscy inni muszą zadowolić się oglądaniem czegoś w granicach normalnego zakresu dynamicznego (maksymalnie 8 stopni). Więc tak, w końcu widzisz coś, co nie jest HDR, ale nadal widzisz rzeczy, które miały większy zasięg. Bez ostrożności prowadzi to oczywiście do okropnego wyglądu, z którego słynie HDR.

D800 nadal nie jest w stanie wykonać więcej niż 14 przystanków. Sam sprzęt jest w stanie, według DXO, wynosi 13,23 przystanków. Bez względu na to, jak zaawansowane jest Twoje oprogramowanie do obróbki końcowej lub jak drobiazgowa jest Twoja technika, jeśli spróbujesz uchwycić scenę z 14,4 stopniami DR, czujnik 13,23 stopnia ** wydmuchnie najważniejsze światła. Zniknęło pełne 1,2-stopniowe rozjaśnienie, a skalowanie do standardowego „wydruku” o rozdzielczości 8 megapikseli tego nie zmieni.
Statystyki DXO są * nadmiernie mylące * pod tym względem, prawie kryminalnie. Zgłoszenie się o dodatkowe 1,2 stopnia, ponad dwukrotne zwiększenie zakresu dynamiki z powodu prostej czynności zmniejszania próbkowania (z kilkoma punktami „bonusowymi” wrzucanymi tu i tam, aby zwiększyć liczbę nawet większą niż pozwalałaby na to samo próbkowanie w dół) niepoprawna statystyka ze sprzętowego punktu widzenia. (Nawet matematycznie, biorąc pod uwagę naturę bitów cyfrowych, sprzęt aparatu może co najwyżej, z 14-bitowym przetwornikiem ADC, być w stanie osiągnąć 14,0 przystanków przed wyświetlaniem świateł ... zakładając perfekcję / zerowy narzut).
Tak, odkryłem to. W gruncie rzeczy było to jedno z moich pierwszych pytań tutaj: http://photo.stackexchange.com/questions/4762/how-can-dynamic-range-be-larger-than-sensor-bit-depth
Hmm interesujące. Nawet wtedy to skomentowałem, ale o ile wiem dzisiaj, WSZYSTKIE tłumienie danych obrazu zachodzi obecnie cyfrowo w lustrzankach cyfrowych. Przetworniki ADC są liniowe dla dowolnego ISO i często mają ułamkowe wzmocnienie przy większości ustawień ISO, co prowadzi do błędu kwantyzacji (i tym samym dalszych strat w DR). Wydaje się, że ludzie też nie rozumieją wartości „podwojenia” ... jeśli matryca Canon ma 11 stopni DR, a Nikon ponad 13 stopni, to więcej niż CZTERY RAZY tyle DR niż Nikon ... to jest ** niesamowita ** różnica (nawet bez przekroczenia 14 stopni).
Matt Grum
2012-06-01 19:08:31 UTC
view on stackexchange narkive permalink

Liczba zdjęć wymagana do uzyskania efektu HDR bez przyciętych świateł lub cieni zależy całkowicie od fotografowanej sceny, a nie od zakresu dynamiki urządzenia wyjściowego. Obrazy RAW mogą zawierać większy zakres niż możesz wyświetlić na monitorze, ale to nie ma znaczenia, ponieważ i tak skompresujesz zakres dynamiczny w ramach procesu HDR przez mapowanie tonów .

Pojedynczy obraz RAW może nadal nie wystarczyć, ponieważ zakres dynamiczny Twojej sceny może być ogromny. Zwykle nie zauważamy tego, ponieważ nasz mózg kompensuje to wyjątkowo dobrze, ale każda sytuacja, w której źródło światła jest nakręcone, ale nie oświetla części sceny, prawdopodobnie okaże się niemożliwe w przypadku podejścia opartego na jednym obrazie.

Dowodem na to jest fakt, że po przycięciu podświetlenia w formacie RAW informacje znikają na zawsze. Podobnie, gdy ciemne obszary przechodzą w czysty szum, nie ma możliwości odzyskania szczegółów. Dlatego zawsze będą sceny, w których ciemne części są zbyt ciemne, a jasne są zbyt jasne, aby uciec od pojedynczego obrazu.

Steve Ross
2012-06-02 01:55:48 UTC
view on stackexchange narkive permalink

Skoncentruję się na tej statystyceL =:

Wydaje mi się, że RAW zawiera już wszystkie wymagane informacje HDR, a dodatkowe zdjęcia RAW / JPG nie dadzą lepszego wyniku dla HDR (tylko gorzej, ponieważ procesu wyrównywania).

RAW zawiera 12- lub 14-bitową konwersję A / D odczytów czujnika. Nie do końca takie proste, ale w zależności od aparatu, normalna obudowa to 12 bitów, lepsza obudowa 14 bitów. Pomyśl o HDR jako o serii n obrazów (gdzie n to jednak obrazy, których chcesz użyć, aby uzyskać potrzebne szczegóły w światłach i cieniach). W idealnym przypadku zakres dynamiczny każdego obrazu nakłada się w niewielkim stopniu na zakres dynamiczny następnego w grupie ekspozycji. W tym momencie myślę, że zobaczysz, że w zakresie 3 ekspozycji, zakładając nakładanie się około 1/3 i 12-bitowych przetworników A / D, nadal będziesz używać około 28 bitów danych. Dodaj więcej ekspozycji i możesz rozszerzyć to do 32 bitów, czyli tam, gdzie zatrzymuje się większość technologii HDR.

Więc nie jest prawdą, że pojedynczy plik RAW zawiera wszystkie te dane. W przypadku ekspozycji w trybie bracketingu, przechwytujesz dodatkowe dane zarówno dla niskich, jak i wysokich częstotliwości, wykraczające poza to, co można było zarejestrować w jednej klatce. Prawdą jest jednak, że trzeba bardzo uważać, aby nie poruszyć ani nie uderzyć aparatem (i mieć nadzieję, że w kadrze nie ma żadnych ruchomych obiektów). Jest więc pewna degradacja obrazu (która nie jest mierzalna) związana z HDR z wieloma klatkami.

Zastanowienie się nad tą odpowiedzią zajęło mi chwilę, ale z pewnością jest to najbardziej zdecydowana odpowiedź na pytanie, po prostu nie ma wystarczającej ilości przechowywanych informacji w porównaniu z wieloma obrazami o różnej ekspozycji. Postępując zgodnie z tą samą logiką, sprawia to, że prawidłowo naświetlony obraz jest lepszy niż poprawianie ekspozycji RAW w poście?
Tak. Wierzę, że odpowiednio naświetlony obraz zawsze wygrywa. Cokolwiek innego zostanie zrobione dla efektu, albo zrobisz ratunek. A jeśli nie masz czasu lub nie masz ochoty spędzać dużo czasu na jednym obrazie, zrobienie tego w aparacie jest koniecznością.
Mike
2012-06-01 11:27:27 UTC
view on stackexchange narkive permalink

Twój aparat ma tylko określony zakres dynamiczny. Tak więc robienie niedoświetlonych i prześwietlonych zdjęć w tym samym czasie, co normalne zdjęcie, pozwala naprawdę wydobyć szczegóły z cienia i odzyskać światła znacznie lepiej niż pojedyncze zdjęcie RAW. Inną rzeczą jest również to, że tworząc wirtualną kopię jednego pliku RAW i zmniejszając lub zwiększając jego ekspozycję w poście, ryzykujesz wprowadzenie sztucznego szumu, który byłby szkodliwy dla końcowego obrazu.

Z trzech oddzielnych zdjęć przy różnych wartościach ekspozycji uzyskasz znacznie więcej „informacji” niż na jednym.

Libor
2012-06-01 21:57:21 UTC
view on stackexchange narkive permalink

RAW jest lepszym źródłem dla HDR, ponieważ zawiera również nieprzetworzone liniowe odpowiedzi z czujnika.

Pliki JPEG są zwykle przetwarzane w aparacie, przynajmniej stosowana jest krzywa gamma / kontrastu, więc wartości pikseli nie są już odpowiadają rzeczywistemu natężeniu promieniowania.

Jednym z celów HDR jest uchwycenie względnego blasku, czyli kiedy chmura jest 120 000 razy jaśniejsza od ściany budynku, więc wartość piksela jest 120 000 razy większa .

Krzywe gamma i kontrastu można zastosować na końcu procesu przetwarzania HDR, aby uzyskać lepszą jakość percepcji (nasz wzrok reaguje nieliniowo na ilość światła, w przeciwieństwie do czujnika CCD / CMOS).



To pytanie i odpowiedź zostało automatycznie przetłumaczone z języka angielskiego.Oryginalna treść jest dostępna na stackexchange, za co dziękujemy za licencję cc by-sa 3.0, w ramach której jest rozpowszechniana.
Loading...