Jaka jest różnica między „Fałszywym HDR” a prawdziwym HDR z ekspozycją w nawiasach?
Jedyna różnica polega na tym, jak szeroko lub wąsko zdecydujesz się zdefiniować termin High Dynamic Range Imaging (HDR). Czy używasz szerszego terminu, który był używany przez ponad 150 lat w odniesieniu do technik referencyjnych używanych do wyświetlania sceny z wyższym zakresem dynamicznym niż zakres dynamiczny nośnika wyświetlania? A może nalegasz na bardzo wąską definicję, która wykorzystuje techniki istniejące dopiero od kilku dekad, aby argumentować, że jedyną uzasadnioną definicją HDR jest 8-bitowa wersja 32- bitowa zmiennoprzecinkowa mapa światła utworzona przez połączenie wielu różnych ekspozycji? To prawie wszystko.
HDR , jak jest to powszechnie używane dzisiaj, jest tylko jedną z form obrazowania o dużym zakresie dynamiki (HDRI) , które trwa co najmniej od Lata pięćdziesiąte XIX wieku.
Gustave Le Gray wykonał wiele ekspozycji przy różnych wartościach ekspozycji, aby stworzyć pejzaże morskie, które wykorzystywały jasne niebo z jednego szklanego negatywu oraz ciemniejsze morze i brzeg z drugiego.
system strefowy podczas fotografowania i wywoływania oraz mapowania tonów wykonywanych w ciemni w połowie XX wieku został podniesiony do formy sztuki przez Ansela Adamsa i innych, gdy używali rozwijania razy i unikanie i spalanie odbitek, aby obniżyć całkowity zakres dynamiczny sceny do tego, jaki papier fotograficzny, którego używali, był w stanie wyświetlić.
W rzeczywistości fotografii cyfrowej istnieje wiele technik przedstawiania sceny z wysokim zakresem dynamiki przy użyciu nośnika, takiego jak monitor komputera lub odbitka, który nie jest w stanie uzyskać tak dużego kontrastu między najjaśniejszym a najciemniejszym części sceny, tak jak sama scena zawiera. Co wiele osób ma na myśli, mówiąc, że HDR to tylko jedna z wielu takich technik.
Chociaż jest to dalekie od jedynego uzasadnionego, obecnie najpowszechniejszym rozumieniem terminu HDR jest to, co wyewoluowało z pomysłów wprowadzonych po raz pierwszy w 1993 r., które zaowocowały matematyczną teorią przedstawiającą różnie naświetlone obrazy tego samego przedmiotu materia opublikowana w 1995 roku przez Steve Mann i Rosalind Picard. Tworzy mapę światła o dużym zakresie dynamicznym z wielu obrazów cyfrowych naświetlonych przy różnych wartościach przy użyciu tylko globalnych operacji na obrazie (na całym obrazie). Rezultatem jest często 32-bitowy „obraz” zmiennoprzecinkowy, którego żaden monitor ani drukarka nie jest w stanie renderować. Następnie należy go odwzorować tonalnie, zmniejszając ogólny kontrast, zachowując kontrast lokalny, aby dopasować się do zakresu dynamicznego nośnika wyświetlania. Prowadzi to często do artefaktów w przejściach między obszarami o wysokich wartościach luminancji i obszarami o niskich wartościach luminancji. ( Nawet jeśli otworzysz 12-bitowy lub 14-bitowy „surowy” plik w aplikacji do zdjęć na komputerze, to, co widzisz na ekranie, jest 8-bitowym renderowaniem zdemozaikowanego surowego pliku, a nie rzeczywistą monochromatyczną Plik 14-bitowy z filtrowaniem Bayera. Po zmianie ustawień i suwaków dane „surowe” są ponownie mapowane i renderowane ponownie w 8 bitach na kanał koloru).
Kiedy techniki nakreślone przez Manna i Picarda zostały po raz pierwszy zastosowane w popularnych aplikacjach do obrazowania na poziomie konsumenckim, aplikacje te zwykle wymagały, aby obrazy były w formacie jpeg. Nieco później, jeśli chcesz uzyskać naprawdę egzotyczny wygląd, możesz znaleźć program, który pozwoli ci używać TIFF. Często użytkownicy brali pojedynczy plik raw, tworzyli serię jpegów z jednego pliku z mniej więcej -2, 0, +2 różnicami w ekspozycji / jasności, a następnie łączyli je za pomocą programu HDR. Nawet 12-bitowy plik raw może zawierać tyle dynamiki, co serie jpegów -2, 0, +2. 14-bitowy plik raw może zawierać równoważne informacje, takie jak w serii plików JPEG -3, 0, +3. Dopiero całkiem niedawno większość aplikacji HDR opartych na tworzeniu zmiennoprzecinkowych lightmap pozwalała na użycie surowych danych jako punktu wyjścia.
W najszerszym zastosowaniu terminów HDR (lub HDRI ), uwzględniono również inne procesy, które nie obejmują 32-bitowych map luminancji i konieczność mapowania tonów. Łączenie różnych obszarów o różnych ekspozycjach tej samej sceny, czy to poprzez fizyczna „cięta pasta &”, tak jak robił to Le Gray ponad 150 lat temu lub za pośrednictwem nowoczesnych aplikacji do cyfrowego przetwarzania obrazu, które wykorzystują warstwy, jest jednym ze sposobów. Inne techniki, takie jak Exposure Fusion lub Digital Blending , wykonują cyfrowo globalne korekty w sposób, który nie wymaga tego samego typu mapowania tonów, co 32-bitowe światło zmiennoprzecinkowe mapa robi. Jak wspomniano wcześniej, wiele technik stosowanych w ciemni do produkcji odbitek z naświetlonego kliszy w XX wieku polegało na wyświetlaniu scen o bardzo szerokim zakresie dynamicznym przy użyciu papieru fotograficznego, który miał możliwość uzyskania niższego zakresu dynamicznego niż klisza negatywowa. użyty do uchwycenia sceny. To samo dotyczy tych różnych technik cyfrowych.
Nawet konwertowanie 14-bitowego pliku raw, w którym dane dla każdego piksela mają tylko wartość luminancji, ale nie ma rzeczywistych kolorów, i użycie algorytmów demozaikowania do interpolacji 8-bitów na kanał koloru czerwonego, zielonego i niebieskiego wartość koloru dla każdego piksela na podstawie różnych wartości luminancji sąsiednich pikseli, które są filtrowane za pomocą maski Bayera z naprzemiennymi wzorami czerwieni, zieleni i niebieskiego, można uznać za HDRI , zwłaszcza gdy krzywe tonalne o nieregularnych kształtach są stosowane do wynikowych wartości RGB.