Pytanie:
Czy jakiekolwiek aparaty mają zaawansowane algorytmy automatycznego naświetlania?
jpa
2020-01-16 23:21:23 UTC
view on stackexchange narkive permalink

Czytając odpowiedzi na pytanie Dlaczego moje zdjęcia nieba wychodzą ciemne?, zacząłem się zastanawiać: czy wszystkie obecne algorytmy automatycznej ekspozycji są naprawdę tak podstawowe, że mierzą tylko średnią jasność sceny?

Wydawałoby się, że można by uzyskać dużo lepsze rezultaty używając na przykład jakiegoś systemu uczenia maszynowego, który jest wyszkolony przy pomocy prawdziwych, dobrze naświetlonych zdjęć. Wtedy mógłby dokładniej oszacować prawidłową ekspozycję na podstawie obrazu podglądu, nawet dla czarnego kota w kopalni węgla i białego psa na śniegu.

I nie mam na myśli wyspecjalizowanych trybów sceny, ponieważ to po prostu przeniesienie części zadania na użytkownika.

Nowoczesne lustrzanki cyfrowe oferują dość dobry podgląd ekspozycji bezpośrednio w wizjerze elektronicznym, co zwykle wystarcza, abyś * zauważył *, czy aparat ma zamiar zepsuć ekspozycję ...
Głęboka fuzja Apple na iPhonie 11 robi prawie to, co chcesz, ale obecnie działa tylko w średnim i słabym świetle.Szybko wykonuje wiele zdjęć o różnej ekspozycji, a następnie łączy je za pomocą oprogramowania w celu uwydatnienia szczegółów.Podejrzewam, że można dostroić taki algorytm również do fotografii plenerowej
Niemal magiczna innowacja z niesamowitymi wynikami, dostępna w każdym kieszonkowym aparacie za 100 dolarów: rozpoznawanie twarzy.Kamera rozpoznaje twarze w widoku i prawidłowo je * eksponuje.Ponieważ ludzie są prawie zawsze tym, co nas interesuje na zdjęciu (czy zauważyłeś, jak nieciekawe są wszystkie zachody słońca 10 lat później? To, czego szukasz na starych zdjęciach, to niezmiennie ludzie!), Wyniki są prawie zawsze lepsze.(Ale niebo jest zawsze białe - musisz użyć lampy błyskowej, aby uzyskać jedno i drugie).
Pięć odpowiedzi:
xiota
2020-01-17 00:01:30 UTC
view on stackexchange narkive permalink

Czy wszystkie obecne algorytmy autoekspozycji są naprawdę tak podstawowe, że mierzą tylko średnią jasność sceny?

Nie.

Czy jakieś aparaty mają zaawansowane algorytmy automatycznego naświetlania?

Tak.

Wydaje się, że może uzyskać znacznie lepsze wyniki, na przykład przy użyciu systemu uczenia maszynowego, który jest szkolony przy użyciu prawdziwych, dobrze naświetlonych zdjęć. Dzięki temu mógłby dokładniej oszacować prawidłową ekspozycję na podstawie obrazu podglądu, nawet dla czarnego kota w kopalni i białego psa na śniegu.

Większość aparatów ma wiele trybów pomiaru:

  • Punktowy - jasność niewielkiej części obrazu jest używana do obliczania ekspozycji.

  • Średnia - jasność całego scena jest uśredniana i używana do obliczania ekspozycji.

  • Średnia ważona centralnie - jasność całej sceny jest uśredniana, ale środek ma większą wagę.

  • Matryca / Ewaluacyjna / etc - jest to tryb, który próbuje zrobić to, co opisujesz. Scena jest podzielona na kilka części. Oceniana jest jasność każdej części. Wynik jest używany do przeszukiwania bazy danych lub wprowadzany do algorytmu w celu określenia ekspozycji.

Nie znam żadnej kamery, która obecnie to robi, ale dane matrycowe mogą z łatwością być wprowadzane do sieci neuronowej. Pozwoliłoby to kamerze poznać preferencje dotyczące ekspozycji właściciela. To jest rodzaj technologii używanej przez Google do identyfikowania kotów w filmach YouTube.

W przypadku korzystania z pomiaru matrycowego 3D Color Matrix (większość) firma Nikons porównuje mierzoną scenę z bazą danych ponad 30 000 typów obrazów / scen w procesie określania właściwej ekspozycji.
@StevenKersting Prawie wszyscy producenci aparatów mają przynajmniej kilka modeli z rozpoznawaniem scen w oparciu o bibliotekę.W miarę przechodzenia przez modele i ich punkty cenowe, stają się one coraz bardziej złożone i wydajne.
Zauważ, że wszystko to nadal wykorzystuje ten sam miernik, który w większości aparatów mierzy światło odblaskowe, więc nadal musi być (ręcznie) korygowany dla obiektów innych niż szare.A w naprawdę bardzo dynamicznych oświetlonych scenach będziesz ograniczony dynamicznym zakresem czujnika.Wystarczająco dużo opcji, aby nadal uzyskiwać złe ekspozycje, nawet w trybach inteligentnego miernika.
Michael C
2020-01-17 06:17:19 UTC
view on stackexchange narkive permalink

Tak, wielu z nich to robi. Ale nadal nie potrafią odczytać w myślach fotografa, która część sceny ma być najlepiej naświetlona.

Czasami aparat może być tak sprytny, jak fotograf na to pozwala .

Już w dawnych czasach filmowych prymitywne wielosegmentowe światłomierze pozwalały na bardzo podstawową analizę, które części sceny były jaśniejsze, a które ciemniejsze. Kiedy półprzewodniki zostały wprowadzone do systemów logicznych kamer w latach siedemdziesiątych, informacje te można było wykorzystać do podstawowego rozpoznawania scen. Gdyby górna jedna trzecia kadru była znacznie jaśniejsza niż dolne dwie trzecie kadru, aparat odchyliłby ekspozycję przy założeniu, że fotograf chciał mieć ciemniejsze obszary w środku zakresu ekspozycji. Gdyby górne dwie trzecie kadru było jaśniejsze, a dolna jedna trzecia ciemniejsza, aparat dokonywałby odchylenia ekspozycji w oparciu o założenie, że fotograf chciał wyeksponować jaśniejsze obszary w środku zakresu ekspozycji. To działało całkiem dobrze w fotografii krajobrazowej.

Przez lata światłomierze w lustrzankach jednoobiektywowych, a następnie lustrzankach cyfrowych pomnożyły liczbę dyskretnych segmentów z liczb jednocyfrowych przez setki do tysięcy. Przeszły od prawdziwie monochromatycznych do dwuwarstwowych (mierzenie i porównywanie jasności przy dwóch różnych długościach fal światła) do dzisiejszych czujników RGB-IR, które są w rzeczywistości miniaturowymi czujnikami obrazowania kolorów. Wraz z pojawieniem się aparatów bezlusterkowych (i podglądu na żywo w lustrzankach cyfrowych) pomiary mogą być wykonywane przy użyciu informacji z głównego czujnika obrazu.

Ponieważ szybkości przesyłania danych i pojemność pamięci dostępna dla projektantów aparatów wzrosła wykładniczo, Wzrosły również procedury pomiaru narażenia oparte na bibliotekach. W rezultacie aparaty coraz lepiej rozpoznają wiele różnych typów scen i dostosowują zalecaną ekspozycję na podstawie tej identyfikacji.

Jednak aparaty nadal nie potrafią czytać w myślach fotografa, nawet jeśli coraz lepiej odgadują, czego fotograf prawdopodobnie chce.

Dzieje się tak szczególnie w przypadku, gdy fotograf używa jednego trybu pomiaru, takiego jak pomiar matrycowy / wartościowy w sytuacji, gdy inny tryb pomiaru, taki jak częściowy lub punktowy , dokładniej informowałby aparat o tym, która część scena, którą fotografa najbardziej interesuje ekspozycja w półcieniach między zbyt jasnymi a zbyt ciemnymi. Lub tam, gdzie fotograf ogranicza rozjaśnienie w dowolnej części sceny , włączając Priorytet jasnych partii obrazu (Canon) / Aktywne D Lighting (Nikon) / Jakkolwiek nazywają to inni producenci aparatów.

Czasami aparat może być tak inteligentny, na ile fotograf na to pozwala.

J.Hirsch
2020-01-17 01:07:46 UTC
view on stackexchange narkive permalink

Producenci aparatów fotograficznych i przetwórcy filmów zajmowali się tym problemem dosłownie od czasu wynalezienia filmu, a ludzie przestali go samodzielnie przetwarzać. Przeszliśmy od mierników światła otoczenia wykorzystujących ogniwa słoneczne do niewiarygodnie złożonych baz danych ekspozycji wykonanych i analizowanych przez wielopunktowe tablice w impulsie błyskowym „przedbłyskowym”.

A jednak ... nadal mamy ekspozycje.

Większość pomiarów ekspozycji, jak mogę zgadywać, koncentruje się obecnie wokół „upiększania” obrazu. Jest to kompensacja niedostatków ekspozycji i słabych warunków oświetleniowych poprzez aktywną modyfikację wzmocnienia, nasycenia i przesunięcia przesunięcia dla różnych części obrazu. To nie tyle pomiary, ile interpretacja zebranych fotonów, ale wciąż…

Istniała koncepcja zwana „pakselizacją”, której nie słyszałem poza firmą Kodak. Było to podobne do współczesnych obrazów wykorzystujących systemy uczące się w dół. Ten paxel pikseli był mały, ale został użyty przez różne algorytmy do przewidzenia idealnej ekspozycji (zarówno dla kliszy, jak i cyfrowej).

Tak, aparaty robią więcej niż można się spodziewać, a oprogramowanie który renderuje Twój obraz lub drukuje Twój film (cyfrowo lub optycznie). To naprawdę niesamowite.

Brakuje mi tutaj odpowiedzi, ponieważ dosłownie napisano książki o opomiarowaniu i drukowaniu. Jeśli interesujesz się fotografią, rozważ przeczytanie książek Ansela Adama (2 z 3) Aparat i negatyw. Książka Print jest również przydatna i zawiera dogłębne, szczegółowe informacje, jak zastosować zdobytą wiedzę, ale nie jest tak istotne dla twojego zainteresowania systemami pomiarowymi.

Zubida
2020-04-15 15:22:44 UTC
view on stackexchange narkive permalink

Tak. Pod koniec 2019 roku Canon wprowadził na rynek swoją flagową lustrzankę cyfrową EOS-1D X Mark III dla profesjonalnych fotografów. Ten aparat obnosi się z najbardziej wyjątkową samoregulacją, jaką kiedykolwiek zaobserwowano, wraz z bardzo dobrą jakością wideo / kliszami, z których wiele osób oczekuje się, że można je znaleźć w najbardziej rozwiniętych aparatach bezlusterkowych. Firma Nikon ogłosiła swojego rywala, Nikon D6, który łączy w sobie solidną, trwałą konstrukcję z zaawansowanym autofokusem i szybkim fotografowaniem.

xenoid
2020-01-17 16:54:10 UTC
view on stackexchange narkive permalink

Smartfony to komputery z czujnikiem aparatu. Kamery to czujniki z komputerem. Wszystkie te obliczenia wymagają czasu i energii oraz wiązałyby się ze skróceniem żywotności baterii i szybkością wykonywania zdjęć. Wymaga również dużej ilości pamięci, która byłaby offline, więc kamera wymagałaby karty SIM i dostępu do sieci ...

Jak dotąd w smartfonie obliczenia odbywają się po ujęciu (zdjęciach). mniej więcej to, co można osiągnąć stosując braketing ekspozycji i przetwarzanie końcowe



To pytanie i odpowiedź zostało automatycznie przetłumaczone z języka angielskiego.Oryginalna treść jest dostępna na stackexchange, za co dziękujemy za licencję cc by-sa 4.0, w ramach której jest rozpowszechniana.
Loading...