Jestem początkującym fotografem i nauczyłem się, że możemy wykonać wiele postprodukcji obrazów, używając formatu RAW. Szukam opcji zmiany / modyfikacji głębi ostrości na zdjęciach RAW - czy to możliwe?
Jestem początkującym fotografem i nauczyłem się, że możemy wykonać wiele postprodukcji obrazów, używając formatu RAW. Szukam opcji zmiany / modyfikacji głębi ostrości na zdjęciach RAW - czy to możliwe?
Nie - przysłona jest ustawiana przez fizyczne ostrza w obiektywie podczas robienia zdjęcia; „obraz” RAW zawiera odczyty z czujnika podczas robienia zdjęcia, więc nie ma możliwości cofnięcia się i zmodyfikowania światła, które zostało przechwycone przez czujnik. Chociaż nie jest to tak oczywiste, jest to równoważne z pytaniem „Czy mogę zmodyfikować to, na co wskazywał aparat na zdjęciu RAW?”
Najbliższe, jakie mamy w tym momencie, to - kamera polowa, która pozwala modyfikować takie rzeczy, jak głębia ostrości i płaszczyzna ogniskowa po wykonaniu zdjęcia.
W celu, o który pytasz, odpowiedź brzmi „Nie”. Coś w rodzaju.
O ile nie używasz tak zwanej kamery światła pola , takiej jak Lytro , nie możesz zmienić przysłony, przy której zdjęcie zostało zrobione po fakcie, tak jak nie można zmienić czasu otwarcia migawki.
Istnieją narzędzia edycyjne, które pozwalają sztucznie rozmyć części obrazu, ale obecnie nie wyglądają naturalne, ponieważ rozmycie nie jest stosowane stopniowo do obiektów znajdujących się bliżej i dalej od punktu ostrości. Istnieje również problem polegający na tym, że granica między tym, co jest, a tym, co nie jest rozmyte, jest bardzo gwałtowna, podobnie jak obiekty klonowane na inne tło.
Jest jednak wiele rzeczy, które robimy na zdjęciu po zrobieniu zdjęcia, które mogą mieć wpływ na głębię ostrości (DoF). Za każdym razem, gdy przycinasz obraz i wyświetlasz kadr w tym samym rozmiarze, co oryginał, zmieniasz głębię ostrości. Za każdym razem, gdy zwiększasz lub zmniejszasz rozmiar wyświetlacza przy tej samej odległości oglądania, zmieniasz stopień swobody. Za każdym razem, gdy zmieniasz odległość oglądania tego samego zdjęcia, zmieniasz stopień głębokości!
Zrozumienie, czym jest NF, a czym nie, jest tutaj ważne.
W pewnym sensie głębia ostrości jest iluzją. Jest tylko jedna płaszczyzna ostrości. Wszystko przed lub za punktem ostrości jest w pewnym stopniu nieostre. To, co nazywamy DoF, to obszar, w którym rzeczy patrzą naszym oczom, jakby były w centrum uwagi . Jest to oparte na zdolności ludzkiego oka do rozwiązywania pewnych drobnych różnic w określonej odległości. Jeśli nieznacznie nieostre rozmycie jest mniejsze niż zdolność naszego oka do rozróżnienia szczegółów, wówczas wydaje się, że jest ostry. Kiedy powiększasz część obrazu, powiększając go lub zbliżając do niego, pozwalasz swojemu oku zobaczyć szczegóły, które wcześniej były zbyt blisko siebie, aby mogły być postrzegane przez twoje oczy jako oddzielne części obrazu. Nie ma magicznej bariery, poza którą wszystko jest równie rozmyte, a wewnątrz której wszystko jest równie ostre!
Ponieważ rzeczy stają się coraz bardziej rozmyte, im dalej są z punktu ostrości, w miarę jak stopniowo powiększasz obraz, postrzegana głębia ostrości staje się węższa, ponieważ bliskie i dalekie punkty, w których twoje oczy mogą rozróżniać drobne szczegóły, zbliżają się do płaszczyzny ogniskowej.
Nie, nie jest to możliwe w przypadku jednego zdjęcia.
Ale możesz zrobić wiele zdjęć, przy różnych punktach ostrości lub przysłonach. Następnie można je łączyć w obróbce końcowej, aby uzyskać efekt innej głębi ostrości. Musiałbyś trzymać aparat w tej samej pozycji między ujęciami, a to nie działałoby w przypadku poruszających się obiektów. Może to działać w przypadku obrazów RAW lub JPEG.
Aparat może to zrobić automatycznie. np. niektóre modele Panasonic Lumix mają otrzymać funkcję Post Focus . Robi to serię zdjęć 4K z prędkością do 30 klatek na sekundę, przesuwając obiektyw do różnych obszarów ostrości. Możesz więc później wybrać, gdzie chcesz się skupić.
Photoshop jest teraz wyposażony w fantazyjny „filtr”, który może dodać DOF do obrazu, który jest zbyt płaski (jak zdjęcie w telefonie). Możesz użyć innej funkcji, aby „zaznaczyć fokus” dla pierwszego planu, a następnie pomalować szorstką skalę szarości dla głębi; na przykład
Gradient z góry na dół jako pierwsze przybliżenie, a następnie pomaluj wypełnione szare prostokąty dla obiektów w różnych odległościach. Następnie filtr wykorzystuje skalę szarości jako odległość wejściową i symuluje charakterystykę soczewki DOF.
Można to znaleźć w galerii rozmycia, która jest dość nowa i zaktualizowana od czasu, gdy zrobiłem to zdjęcie , więc poszukaj aktualnej pomocy i przykładów.
Tak, można to zasymulować, ale nie jako proces za jednym kliknięciem. (no cóż, potrzebne są dodatkowe kliki)
Podstawową ideą jest trochę odróżnienie obrazu od tła. Rozróżniłbym 3 poziomy kontroli efektów:
1) Ten szybki filtr, o którym wspomniał JDlugoz, w którym definiujesz obszar wpływu .
2) Wykonanie bardziej rozbudowanej maski i oddzielenie warstw .
3) Przygotowanie rzeczywista mapa głębokości . Jest to często używane w renderingach 3D, gdzie masz bitmapę z informacją o tym, jak daleko znajduje się obiekt. Następnie możesz użyć filtru Photoshopa zwanego rozmyciem soczewkowym.
Problem z punktami 2 i 3 polega na tym, że musisz faktycznie zrobić maski.
(Spróbuję zrobić kupie próbek później)