Pytanie:
Jaka jest różnica między „fałszywym HDR” a rzeczywistym HDR o zmiennej ekspozycji?
rubikscube09
2016-07-31 11:15:33 UTC
view on stackexchange narkive permalink

Kiedy zacząłem doskonalić swoje umiejętności fotografowania krajobrazu, natknąłem się na polaryzujący (zamierzony kalambur) problem fotografii HDR. Mówiąc dokładniej, trafiłem na dobrze napisany post na blogu zatytułowany „ Czy Lightroom HDR„ Efekt ”, naprawdę HDR?”. Cytując post:

Widziałem tego posta pewnego dnia na 500px (link: http://500px.com/photo/8023755) i dostałem pełen zdumienia. Fotograf, Jose Barbosa (swoją pracę uważam za fantastyczny), obok swojego zdjęcia napisał „No HDR”. Ale zdjęcie (przynajmniej dla mnie) wygląda jak zdjęcie HDR. (...) Pogrzebałem trochę w metadanych jego zdjęcia i zobaczyłem dużo pracy z pędzlem dostosowującym wykonaną z Clarity (w zasadzie suwakiem efektu HDR w Lightroom). A w komentarzach do posta 500px sam fotograf napisał „przetwarzanie w Lightroom i Viveza 2”. (...)

Chodzi mi o to (i pytanie do ciebie), czy HDR (to nie jest tak naprawdę HDR), to nadal HDR? Czy HDR nie stał się po prostu i nie działa? Coś jak Black & White lub efekt cross-processing. Czy nadal potrzebujemy 3, 5 lub 7 zdjęć w nawiasach kwadratowych, które zostały przetworzone w programie takim jak Photomatix, aby sklasyfikować obraz jako oficjalne zdjęcie HDR? A może HDR jest po prostu efektem wydobycia większej ilości szczegółów w cieniach i światłach (i może trochę szorstkiego / surrealistycznego wyglądu).

Wygląda na to, że mam to samo pytanie co autor : Jaka jest tak naprawdę różnica między tymi „fałszywymi” efektami HDR dodanymi przez, powiedzmy, regulację klarowności lightrooma, wraz z odzyskiwaniem cieni / świateł, w przeciwieństwie do „prawdziwego” HDR z ekspozycjami w zakresie +/- n EV? Czy w metodzie „fałszywej” występuje dodatkowy hałas? Czy jest jakaś (zauważalna) różnica? Z podobnej uwagi, czy jest jakiś powód, aby zrobić obraz HDR, jeśli możemy po prostu użyć odzyskiwania cienia / podświetlenia, aby równomiernie naświetlić całą scenę?

Pięć odpowiedzi:
Michael C
2016-07-31 18:42:58 UTC
view on stackexchange narkive permalink

Jaka jest różnica między „Fałszywym HDR” a prawdziwym HDR z ekspozycją w nawiasach?

Jedyna różnica polega na tym, jak szeroko lub wąsko zdecydujesz się zdefiniować termin High Dynamic Range Imaging (HDR). Czy używasz szerszego terminu, który był używany przez ponad 150 lat w odniesieniu do technik referencyjnych używanych do wyświetlania sceny z wyższym zakresem dynamicznym niż zakres dynamiczny nośnika wyświetlania? A może nalegasz na bardzo wąską definicję, która wykorzystuje techniki istniejące dopiero od kilku dekad, aby argumentować, że jedyną uzasadnioną definicją HDR jest 8-bitowa wersja 32- bitowa zmiennoprzecinkowa mapa światła utworzona przez połączenie wielu różnych ekspozycji? To prawie wszystko.

HDR , jak jest to powszechnie używane dzisiaj, jest tylko jedną z form obrazowania o dużym zakresie dynamiki (HDRI) , które trwa co najmniej od Lata pięćdziesiąte XIX wieku.

Gustave Le Gray wykonał wiele ekspozycji przy różnych wartościach ekspozycji, aby stworzyć pejzaże morskie, które wykorzystywały jasne niebo z jednego szklanego negatywu oraz ciemniejsze morze i brzeg z drugiego.

system strefowy podczas fotografowania i wywoływania oraz mapowania tonów wykonywanych w ciemni w połowie XX wieku został podniesiony do formy sztuki przez Ansela Adamsa i innych, gdy używali rozwijania razy i unikanie i spalanie odbitek, aby obniżyć całkowity zakres dynamiczny sceny do tego, jaki papier fotograficzny, którego używali, był w stanie wyświetlić.

W rzeczywistości fotografii cyfrowej istnieje wiele technik przedstawiania sceny z wysokim zakresem dynamiki przy użyciu nośnika, takiego jak monitor komputera lub odbitka, który nie jest w stanie uzyskać tak dużego kontrastu między najjaśniejszym a najciemniejszym części sceny, tak jak sama scena zawiera. Co wiele osób ma na myśli, mówiąc, że HDR to tylko jedna z wielu takich technik.

Chociaż jest to dalekie od jedynego uzasadnionego, obecnie najpowszechniejszym rozumieniem terminu HDR jest to, co wyewoluowało z pomysłów wprowadzonych po raz pierwszy w 1993 r., które zaowocowały matematyczną teorią przedstawiającą różnie naświetlone obrazy tego samego przedmiotu materia opublikowana w 1995 roku przez Steve Mann i Rosalind Picard. Tworzy mapę światła o dużym zakresie dynamicznym z wielu obrazów cyfrowych naświetlonych przy różnych wartościach przy użyciu tylko globalnych operacji na obrazie (na całym obrazie). Rezultatem jest często 32-bitowy „obraz” zmiennoprzecinkowy, którego żaden monitor ani drukarka nie jest w stanie renderować. Następnie należy go odwzorować tonalnie, zmniejszając ogólny kontrast, zachowując kontrast lokalny, aby dopasować się do zakresu dynamicznego nośnika wyświetlania. Prowadzi to często do artefaktów w przejściach między obszarami o wysokich wartościach luminancji i obszarami o niskich wartościach luminancji. ( Nawet jeśli otworzysz 12-bitowy lub 14-bitowy „surowy” plik w aplikacji do zdjęć na komputerze, to, co widzisz na ekranie, jest 8-bitowym renderowaniem zdemozaikowanego surowego pliku, a nie rzeczywistą monochromatyczną Plik 14-bitowy z filtrowaniem Bayera. Po zmianie ustawień i suwaków dane „surowe” są ponownie mapowane i renderowane ponownie w 8 bitach na kanał koloru).

Kiedy techniki nakreślone przez Manna i Picarda zostały po raz pierwszy zastosowane w popularnych aplikacjach do obrazowania na poziomie konsumenckim, aplikacje te zwykle wymagały, aby obrazy były w formacie jpeg. Nieco później, jeśli chcesz uzyskać naprawdę egzotyczny wygląd, możesz znaleźć program, który pozwoli ci używać TIFF. Często użytkownicy brali pojedynczy plik raw, tworzyli serię jpegów z jednego pliku z mniej więcej -2, 0, +2 różnicami w ekspozycji / jasności, a następnie łączyli je za pomocą programu HDR. Nawet 12-bitowy plik raw może zawierać tyle dynamiki, co serie jpegów -2, 0, +2. 14-bitowy plik raw może zawierać równoważne informacje, takie jak w serii plików JPEG -3, 0, +3. Dopiero całkiem niedawno większość aplikacji HDR opartych na tworzeniu zmiennoprzecinkowych lightmap pozwalała na użycie surowych danych jako punktu wyjścia.

W najszerszym zastosowaniu terminów HDR (lub HDRI ), uwzględniono również inne procesy, które nie obejmują 32-bitowych map luminancji i konieczność mapowania tonów. Łączenie różnych obszarów o różnych ekspozycjach tej samej sceny, czy to poprzez fizyczna „cięta pasta &”, tak jak robił to Le Gray ponad 150 lat temu lub za pośrednictwem nowoczesnych aplikacji do cyfrowego przetwarzania obrazu, które wykorzystują warstwy, jest jednym ze sposobów. Inne techniki, takie jak Exposure Fusion lub Digital Blending , wykonują cyfrowo globalne korekty w sposób, który nie wymaga tego samego typu mapowania tonów, co 32-bitowe światło zmiennoprzecinkowe mapa robi. Jak wspomniano wcześniej, wiele technik stosowanych w ciemni do produkcji odbitek z naświetlonego kliszy w XX wieku polegało na wyświetlaniu scen o bardzo szerokim zakresie dynamicznym przy użyciu papieru fotograficznego, który miał możliwość uzyskania niższego zakresu dynamicznego niż klisza negatywowa. użyty do uchwycenia sceny. To samo dotyczy tych różnych technik cyfrowych.

Nawet konwertowanie 14-bitowego pliku raw, w którym dane dla każdego piksela mają tylko wartość luminancji, ale nie ma rzeczywistych kolorów, i użycie algorytmów demozaikowania do interpolacji 8-bitów na kanał koloru czerwonego, zielonego i niebieskiego wartość koloru dla każdego piksela na podstawie różnych wartości luminancji sąsiednich pikseli, które są filtrowane za pomocą maski Bayera z naprzemiennymi wzorami czerwieni, zieleni i niebieskiego, można uznać za HDRI , zwłaszcza gdy krzywe tonalne o nieregularnych kształtach są stosowane do wynikowych wartości RGB.

Martijn Courteaux
2016-07-31 16:09:40 UTC
view on stackexchange narkive permalink

Moim zdaniem to takie proste: zdjęcie HDR to zdjęcie, na którym starasz się wydobyć szczegóły każdej części sceny z dużym zakresem dynamicznym. W końcu to właśnie mówi sama nazwa „HDR”.

Czym jest wysoki zakres dynamiki? Dzieje się tak, gdy zacienione części obrazu są dużo ciemniejsze niż jasne części obrazu. Dawniej robiono wiele zdjęć z różnymi ekspozycjami, aby uchwycić szczegóły w każdej części sceny, ponieważ aparaty nie miały możliwości uchwycenia wysokiego zakresu dynamicznego. Obecnie aparaty fotograficzne mogą z łatwością uchwycić 14 stopni ekspozycji (co oznacza, że ​​szczegół w najciemniejszym tonie jest 2 ^ 14 razy mniej jasny fizycznie niż najjaśniejsze tony, które może uchwycić aparat) (na przykład: Nikon D750 ma 14,5 stopnia zakresu dynamicznego ). To dużo, aw wielu sytuacjach, zanim osiągniesz ten sam efekt, co „zdjęcie HDR” przy wielokrotnej ekspozycji. Krótko mówiąc, aparaty stały się lepsze w rejestrowaniu dużych zakresów, dlatego spadła potrzeba wykonywania wielu zdjęć o różnych wartościach ekspozycji, ale to nie oznacza, że ​​nie jest to HDR. Podsumowując, zdjęcie na 500px, które połączyłeś, jest zdecydowanie zdjęciem HDR, ponieważ możesz zobaczyć wiele szczegółów we wszystkich częściach obrazu dla sceny z pierwotnie dużym zakresem dynamicznym.

D. Jurcau
2016-07-31 14:48:19 UTC
view on stackexchange narkive permalink

jeśli możemy po prostu użyć odzyskiwania cieni / świateł, aby równomiernie naświetlić całą scenę

Zależy to od zakresu dynamiki sceny, którą próbujesz uchwycić i zakresu dynamicznego czujnik jest w stanie wychwycić.

Jeśli podczas naświetlania prawie nie widać żadnych szczegółów w cieniach, aby nie rozjaśniać świateł, potrzebujesz wielu ekspozycji.

Jeśli uda Ci się uzyskać wystarczającą ilość szczegółów w cieniach (z minimalnym lub akceptowalnym poziomem szumów), jednocześnie zachowując rozjaśnienia, uchwycenie i poprawienie pojedynczego zdjęcia może być satysfakcjonujące.

Rafael
2016-08-02 03:31:54 UTC
view on stackexchange narkive permalink

Istnieje błędne przekonanie o „HDRI”

Obraz o wysokim zakresie dynamicznym ma większy zakres dynamiczny niż zwykły obraz. Brzmiało to dość kiepskie wyjaśnienie, ale tak właśnie jest.

Oto kilka animacji, które zrobiłem, wyjaśniając, czym jest Hdri: http://www.otake.com.mx/Apuntes/Imagen/ EnviromentMaps / Index.html # HighDynamicRangeImages

Błędne jest przekonanie, że część procesu manipulowania tymi obrazami, zwana mapowaniem tonów , jest taka sama jak sam obraz Hdri . Nie jest. Obraz Hdri naprawdę zawiera więcej informacji. Słoneczne strony zewnętrzne i ciemne wnętrza razem.

Aby móc ponownie zobaczyć te informacje na normalnym monitorze, obraz HDR musi zostać „przemapowany”. Obraz z mapą tonalną ma określony typ kontrastu. Nie ogólny kontrast, ale kontrast w sąsiednich strefach. Teraz możesz zobaczyć na przykład kontrastujące chmury i kontrastujące ciemne wnętrza.

Chodzi o to, że możesz zrobić normalne zdjęcie (bez nawiasów) i odwzorować je tonalnie, aby uzyskać wygląd „hdri” .

Oto 3 zdjęcia. Jeden z nich to zestaw trzech zdjęć w nawiasach (prawdziwy hdri, ale teraz odwzorowany tonalnie na 8-bitowy obraz).

Drugi to ton zmapowany z jednego zdjęcia.

trzecia to zwykła sesja pojedyncza, ale przesuwanie poziomów, aby ujawnić dodatkowe informacje o niebie, których wcześniej nie widzieliśmy.

Chodzi o to, że normalne zdjęcie można zmanipulować, zrobić unik i wypalić, aby uzyskać podobny wygląd, kontrastowy wygląd na zdjęciu.

Oto oryginalne zdjęcia w nawiasach kwadratowych, użyte do (2) i ( 3) to Ev0:

Ukryte są tam pewne informacje. Ale po przetworzeniu może się pojawić pasy, ponieważ masz ograniczoną informację w pikselach. Aby uniknąć pasmowania, lepiej jest, jeśli masz więcej informacji, więcej poziomów jasnych tonów i więcej poziomów cieni ... Dlatego wykonałeś zdjęcia w nawiasach.

Punkt jest podobny do tego posta: Po co przechwytywać 14-bitowe obrazy i edytować je na 8-bitowych monitorach? Im więcej poziomów informacji, tym lepiej edytować obrazy.

Seweryn Habdank-Wojewódzki
2016-09-30 12:06:28 UTC
view on stackexchange narkive permalink

Moja odpowiedź będzie praktycznym i eksperymentalnym sposobem na zrozumienie.

  1. Udaj się do miejsca takiego jak miasto z budynkiem i ulicą, gdzie można patrzeć w słońce lub bezpośrednio na niebo w słoneczny dzień, albo w miejsce, w którym na przykład jest las i równie dobrze widać słońce lub niebo.

  2. Spójrz ( na własne oczy) na budynki lub drzewa.

  3. Spójrz na niebo lub blisko słońca (raczej nie patrz bezpośrednio na słońce).

Możesz obserwować, jak dostosowują się oczy. Możesz zobaczyć zarówno drzewa, jak i niebo.

  1. Weź aparat, jeśli masz opcję podglądu na żywo, którą możesz włączyć.

  2. Skoncentruj aparat na tych samych punktach, na które patrzyłeś.

Zobaczysz, że aparat nie może skutecznie ustawić jednej ekspozycji, a jedyna ekspozycja uzyska widok nieba i ciemniejszych obiektów. Nawet jeśli sfotografujesz scenę ze średnimi ustawieniami ekspozycji, są miejsca, które będą czarne, a niektóre białe (nienasycone i przesycone). Nawet jeśli spróbujesz lokalnie zmniejszyć lub zwiększyć ekspozycję w specjalistycznym oprogramowaniu (jest ich mnóstwo), nie będzie sposobu, aby wydobyć kształt i kolory z bieli i czerni.

Jest to rzeczywistość. Obecne czujniki nie są tak zaawansowane jak oczy. BTW ze względu na sztukę jest to również pożądana funkcja, która jest używana w fotografii low-key i high-key.

Kontynuujmy eksperyment.

  1. Jeśli możesz zrobić kilka zdjęć, aby uzyskać więcej informacji, a następnie scalić je później w oprogramowaniu HDR, połączysz wszystkie informacje ze wszystkich zdjęć.

  2. Najlepiej zrobić więcej zdjęć z mniejszym krokiem EV, gdy scena jest statyczna. Jeśli istnieją poruszające się obiekty, musi istnieć rodzaj kompromisu między liczbą strzałów a krokiem EV.

W zależności od sytuacji możesz wykonać 3 zdjęcia +/- 1 EV lub 3 z + / 2 EV do 9 lub więcej zdjęć +/- 0,5 EV lub nawet +/- 2 EV.

Ważne jest także w jaki sposób dokonujesz zmiany EV. Zasadniczo najpopularniejszym sposobem jest wydłużenie lub skrócenie czasu otwarcia migawki. Z pewnymi ograniczeniami można zastosować zmiany ISO, aby uzyskać to samo, ale przy wysokich wartościach ISO obrazy są głośniejsze, a zmiana przysłony sprawia, że ​​obrazy są trudne do scalenia, a efekty są interesujące (powiedziałbym, że artystyczne lub koncepcyjne). Oczywiście można użyć filtrów ND, aby rozszerzyć własny zakres EV - spróbuj użyć ekstremalnych filtrów, takich jak ND 3.0.

Wreszcie, gdy zestaw zdjęć jest dobrze przygotowany i ma naprawdę szeroką gamę pojazdów EV, wtedy HDR wynik będzie niesamowity i nie da się go sfałszować z pojedynczego obrazu, ponieważ pojedynczy obraz będzie miał zdecydowanie mniej informacji.

Uwagi końcowe.

Ten rodzaj sceny można uchwycić za pomocą filtra gradientowego, ale HDR jest bardziej ogólny, zwłaszcza gdy granica między jasnymi i ciemnymi miejscami nie jest liniowa.

Zalecam użycie statywu za wszelkie eksperymenty z HDR :-).



To pytanie i odpowiedź zostało automatycznie przetłumaczone z języka angielskiego.Oryginalna treść jest dostępna na stackexchange, za co dziękujemy za licencję cc by-sa 3.0, w ramach której jest rozpowszechniana.
Loading...