Pytanie:
Czy można zmienić głębię ostrości w obrazach RAW?
Aravin
2015-10-12 17:51:24 UTC
view on stackexchange narkive permalink

Jestem początkującym fotografem i nauczyłem się, że możemy wykonać wiele postprodukcji obrazów, używając formatu RAW. Szukam opcji zmiany / modyfikacji głębi ostrości na zdjęciach RAW - czy to możliwe?

Zobacz [Co jest „rzeczywiste”, a co „wirtualne” w (cyfrowym) aparacie?] (Http://photo.stackexchange.com/questions/6628/whats-real-and-whats-virtual-on-a-digital- aparat), aby uzyskać pełną listę tego, co możesz, a czego nie możesz zmienić po fakcie.
DoF to jedna z iluzji, które tworzymy w fotografii (dlatego czasami mówimy „pozorna głębia ostrości”), zależy od wielu rzeczy i może zostać zmieniona w postprocesowaniu, w tym kadrowaniu i zmianie rozmiaru. Surowy jako punkt wyjścia nie daje wiele, jeśli w ogóle, korzyści przy zmianie DoF.
@IliahBorg http: // meta.photo.stackexchange.com / questions / 4655 / short-respons-as-comments-please-resist-the-enge
Witam wszystkich, używam obiektywu 18-55mm. Nie mogę uzyskać efektu DoF w moim D5300, jeśli obiekt jest trochę oddalony od aparatu! Więc zadaję to pytanie !!!
W takim przypadku zapoznaj się z artykułem [Jak uzyskać dramatyczną płytką głębię ostrości za pomocą obiektywu kitowego?] (Http://photo.stackexchange.com/questions/5493/how-can-i-get-dramatic-shallow-dof-with- soczewka zestawu)
Wygląda na to, że twoje pytanie może brzmieć „Jak mogę zasymulować efekt rozmytego tła płytkiej głębi ostrości w post-processingu?”. Jestem trochę zaskoczony, ale myślę, że jeszcze tego nie mamy. Jeśli naprawdę tego szukasz, zachęcam do zadawania tego jako nowego pytania.
@mattdm, Czy mogę zadać nowe pytanie? co do mojej troski!
@Aravin Tak, zdecydowanie możesz. To nie jest tradycyjne forum internetowe i nie ma problemu z „podwójnym publikowaniem” czy czymś podobnym, o ile każde pytanie jest samo w sobie przyzwoite.
[Jak uzyskać efekt miniatury na zdjęciach bez specjalnego wyposażenia?] (Http://photo.stackexchange.com/questions/15929/how-to-get-a-miniature-effect-on-pictures-without-special-equipment ), aw szczególności odpowiedź MattGrum jest całkiem dobra.
Myślę, że możesz, ALE potrzebowałbyś aparatu do litro
@chris Jak wyżej, proszę nie publikować krótkich odpowiedzi jako komentarzy - zobacz meta post, do którego dołączyłem powyżej.
Pięć odpowiedzi:
Philip Kendall
2015-10-12 18:05:31 UTC
view on stackexchange narkive permalink

Nie - przysłona jest ustawiana przez fizyczne ostrza w obiektywie podczas robienia zdjęcia; „obraz” RAW zawiera odczyty z czujnika podczas robienia zdjęcia, więc nie ma możliwości cofnięcia się i zmodyfikowania światła, które zostało przechwycone przez czujnik. Chociaż nie jest to tak oczywiste, jest to równoważne z pytaniem „Czy mogę zmodyfikować to, na co wskazywał aparat na zdjęciu RAW?”

Najbliższe, jakie mamy w tym momencie, to - kamera polowa, która pozwala modyfikować takie rzeczy, jak głębia ostrości i płaszczyzna ogniskowa po wykonaniu zdjęcia.

Pytanie brzmi „Czy mogę zmienić NF?” Nie pojawia się pytanie „Czy mogę zmienić przysłonę?” Nie ma zgodności 1: 1 między aperturą a głębią ostrości, która "wypala" DoF w momencie robienia zdjęcia. Czynniki po ekspozycji, takie jak rozmiar wyświetlacza i odległość oglądania, również odgrywają rolę w określaniu postrzegania głębi ostrości. Czasami dość znaczący.
Michael C
2015-10-13 01:20:28 UTC
view on stackexchange narkive permalink

W celu, o który pytasz, odpowiedź brzmi „Nie”. Coś w rodzaju.

O ile nie używasz tak zwanej kamery światła pola , takiej jak Lytro , nie możesz zmienić przysłony, przy której zdjęcie zostało zrobione po fakcie, tak jak nie można zmienić czasu otwarcia migawki.

Istnieją narzędzia edycyjne, które pozwalają sztucznie rozmyć części obrazu, ale obecnie nie wyglądają naturalne, ponieważ rozmycie nie jest stosowane stopniowo do obiektów znajdujących się bliżej i dalej od punktu ostrości. Istnieje również problem polegający na tym, że granica między tym, co jest, a tym, co nie jest rozmyte, jest bardzo gwałtowna, podobnie jak obiekty klonowane na inne tło.

Jest jednak wiele rzeczy, które robimy na zdjęciu po zrobieniu zdjęcia, które mogą mieć wpływ na głębię ostrości (DoF). Za każdym razem, gdy przycinasz obraz i wyświetlasz kadr w tym samym rozmiarze, co oryginał, zmieniasz głębię ostrości. Za każdym razem, gdy zwiększasz lub zmniejszasz rozmiar wyświetlacza przy tej samej odległości oglądania, zmieniasz stopień swobody. Za każdym razem, gdy zmieniasz odległość oglądania tego samego zdjęcia, zmieniasz stopień głębokości!

Zrozumienie, czym jest NF, a czym nie, jest tutaj ważne.

W pewnym sensie głębia ostrości jest iluzją. Jest tylko jedna płaszczyzna ostrości. Wszystko przed lub za punktem ostrości jest w pewnym stopniu nieostre. To, co nazywamy DoF, to obszar, w którym rzeczy patrzą naszym oczom, jakby były w centrum uwagi . Jest to oparte na zdolności ludzkiego oka do rozwiązywania pewnych drobnych różnic w określonej odległości. Jeśli nieznacznie nieostre rozmycie jest mniejsze niż zdolność naszego oka do rozróżnienia szczegółów, wówczas wydaje się, że jest ostry. Kiedy powiększasz część obrazu, powiększając go lub zbliżając do niego, pozwalasz swojemu oku zobaczyć szczegóły, które wcześniej były zbyt blisko siebie, aby mogły być postrzegane przez twoje oczy jako oddzielne części obrazu. Nie ma magicznej bariery, poza którą wszystko jest równie rozmyte, a wewnątrz której wszystko jest równie ostre!

Ponieważ rzeczy stają się coraz bardziej rozmyte, im dalej są z punktu ostrości, w miarę jak stopniowo powiększasz obraz, postrzegana głębia ostrości staje się węższa, ponieważ bliskie i dalekie punkty, w których twoje oczy mogą rozróżniać drobne szczegóły, zbliżają się do płaszczyzny ogniskowej.

Dziękuję za te dodatkowe szczegóły. Tak naprawdę nie zastanawiałem się, jak zmienia się wartość DoF z powodu tych czynników po ekspozycji.
Re: „nie wyglądają one zbyt naturalnie, ponieważ rozmycie nie jest nakładane stopniowo na rzeczy bliżej i dalej od punktu ostrości.” Oczywiście, że tak (zobacz moją odpowiedź), ale nie automatycznie. Jednak niektóre programy * obliczają * odległość z wielu strzałów; Widzę, że jest reklamowany na tablety, a aplikacja do zdjęć na Androida ma tę funkcję.
@JDługosz Moim zdaniem procesy, o których mówisz, ponieważ są zwykle wykonywane, nie wyglądają zbyt naturalnie. Twój przykład z pewnością nie.
Co wygląda nienaturalnie przy tak małych rozmiarach?
Na początek krawędzie między dwiema damami i resztą obrazu. Z tak małego obrazu trudno powiedzieć wiele więcej, ale wydaje się, że rozmycie tła jest zbyt jednolite. Półki (?) Po prawej i lewej stronie, które są znacznie bliżej fotografowanych osób, nie powinny być tak rozmazane, jak te znajdujące się dalej między dwiema twarzami, które z kolei nie powinny być tak rozmazane, jak sufit i ściana z tyłu pomieszczenia, są widoczne nad półką pośrodku.
Ze względu na ilość rozmycia tła powinna być również zauważalna różnica między najbliższą i najbardziej oddaloną częścią obu pań. Nie ma. Prawe ramię kobiety ubranej na niebiesko wygląda dokładnie tak samo ostro jak jej lewe ramię, które jest dokładnie tak ostre, jak jej oczy w połowie odległości między nimi.
vclaw
2015-10-12 18:50:59 UTC
view on stackexchange narkive permalink

Nie, nie jest to możliwe w przypadku jednego zdjęcia.

Ale możesz zrobić wiele zdjęć, przy różnych punktach ostrości lub przysłonach. Następnie można je łączyć w obróbce końcowej, aby uzyskać efekt innej głębi ostrości. Musiałbyś trzymać aparat w tej samej pozycji między ujęciami, a to nie działałoby w przypadku poruszających się obiektów. Może to działać w przypadku obrazów RAW lub JPEG.

Aparat może to zrobić automatycznie. np. niektóre modele Panasonic Lumix mają otrzymać funkcję Post Focus . Robi to serię zdjęć 4K z prędkością do 30 klatek na sekundę, przesuwając obiektyw do różnych obszarów ostrości. Możesz więc później wybrać, gdzie chcesz się skupić.

dobre rozwiązanie, ale nie tego się spodziewałem.
JDługosz
2015-10-13 09:56:37 UTC
view on stackexchange narkive permalink

Photoshop jest teraz wyposażony w fantazyjny „filtr”, który może dodać DOF do obrazu, który jest zbyt płaski (jak zdjęcie w telefonie). Możesz użyć innej funkcji, aby „zaznaczyć fokus” dla pierwszego planu, a następnie pomalować szorstką skalę szarości dla głębi; na przykład

enter image description here

Gradient z góry na dół jako pierwsze przybliżenie, a następnie pomaluj wypełnione szare prostokąty dla obiektów w różnych odległościach. Następnie filtr wykorzystuje skalę szarości jako odległość wejściową i symuluje charakterystykę soczewki DOF.

Można to znaleźć w galerii rozmycia, która jest dość nowa i zaktualizowana od czasu, gdy zrobiłem to zdjęcie , więc poszukaj aktualnej pomocy i przykładów.

Czy możemy to zrobić w poruszającym się obiekcie. Przykład: samochód, rower itp.
Dodanie rozmycia w ruchu to kolejny krok. Tak, to jest dostarczane z fantazyjnym filtrem rozmycia w programie Photoshop.
Czy możesz mi powiedzieć, jak dodać ten efekt?
Ktoś mnie pokonał: https://www.google.com/search?q=photoshop+motion+blur+tutorial
Rafael
2015-10-13 16:32:57 UTC
view on stackexchange narkive permalink

Tak, można to zasymulować, ale nie jako proces za jednym kliknięciem. (no cóż, potrzebne są dodatkowe kliki)

Podstawową ideą jest trochę odróżnienie obrazu od tła. Rozróżniłbym 3 poziomy kontroli efektów:

1) Ten szybki filtr, o którym wspomniał JDlugoz, w którym definiujesz obszar wpływu .

2) Wykonanie bardziej rozbudowanej maski i oddzielenie warstw .

3) Przygotowanie rzeczywista mapa głębokości . Jest to często używane w renderingach 3D, gdzie masz bitmapę z informacją o tym, jak daleko znajduje się obiekt. Następnie możesz użyć filtru Photoshopa zwanego rozmyciem soczewkowym.

Problem z punktami 2 i 3 polega na tym, że musisz faktycznie zrobić maski.

(Spróbuję zrobić kupie próbek później)



To pytanie i odpowiedź zostało automatycznie przetłumaczone z języka angielskiego.Oryginalna treść jest dostępna na stackexchange, za co dziękujemy za licencję cc by-sa 3.0, w ramach której jest rozpowszechniana.
Loading...