Pytanie:
Jak mogę poprawić wyniki mojego zastrzeżonego potoku przetwarzania RAW?
goldenmean
2011-05-10 18:25:37 UTC
view on stackexchange narkive permalink

Przeprowadzam eksperyment z przetwarzaniem obrazu Raw przy użyciu dwóch narzędzi do przetwarzania końcowego:

  1. Adobe PhotoShop (PS) CS5
  2. Zastrzeżony kod potoku przetwarzania obrazu.

Przechwytywanie danych:

Przechwyciłem kilka surowych obrazów za pomocą Nokia-900 w formacie DNG. Ten DNG ma filtr kolorów Array data (surowe dane Bayera), które są wyodrębniane i podawane jako dane wejściowe do zastrzeżonego kodu. Oprogramowanie własnościowe nie wykorzystuje żadnych metadanych / danych Exifdata obecnych w pliku DNG. Adobe PS przyjmuje plik DNG jako dane wejściowe do przetwarzania. Chcę mieć tutaj komentarze ekspertów na temat jakości wizualnej tych dwóch wyjść, krytycznego porównania między dwoma na podstawie różnych czynników, takich jak - szum obrazu, ostrość (rozmycie), dokładność kolorów, jasność, kontrast, przebarwienia, obramowanie chrominancji, jeśli występuje, i każdy inny parametr, na który możesz mi wskazać.

  1. Obawiam się, że dane wyjściowe z mojego kodu są gorsze od danych wyjściowych Adobe PS i chcę to poprawić / naprawić w każdy możliwy sposób.

  2. Być może Adobe PS używa dodatkowych metadanych z pliku DNG lub ma lepsze algorytmy przetwarzania obrazu, chciałbym zrozumieć, co dokładnie się tutaj dzieje.

Kroki przetwarzania:

Kroki związane z uzyskaniem danych wyjściowych z dwóch potoków przetwarzania są następujące:

  1. Dane wyjściowe z Adobe PS: Załaduj DNG, Balans kolorów, aby usunąć wszelkie odlewy, dostosowując suwak temperatury kolorów, a następnie zastosuj maskę wyostrzającą (ilość-100%, promień-2 piksele, próg-65), filtr szumów Mediana (promień- 1 piksel), Sa ve przetworzony obraz jako BMP.

  2. Dane wyjściowe z Proprietary: Demosaicing (algorytm AHD), Balansowanie kolorów przy użyciu matrycy korekcji kolorów, PErform Auto balans bieli przy użyciu zastrzeżonego algorytmu, RGB- > Konwersja kolorów YUV, nieostre maskowanie (zastrzeżony algorytm tylko dla komponentu Y), Medianowy filtr szumów na Y, U, V (standardowy filtr mediany 3x3 na obrazie), korekcja gamma, konwersja kolorów YUV-> RGB, zapisz jako BMP.

Wyniki:

Poniżej znajdują się dwa obrazy (są one przesłane tutaj jako JPEG). Co jest lepsze i co można zrobić, aby poprawić za drugim?

  1. Wyjście Adobe PS: Adobe PS output

  2. Wyjście z zastrzeżonego potoku przetwarzania obrazu: Output from proprietary image processing pipeline

Czy obrazy są przycięte w 100%, czy pomniejszone wersje całego obrazu?
Ktoś robi techniczne rzeczy na ich lekcje fotografii ...
Na podstawie „co można zrobić, aby poprawić w drugim?”, Podejrzewam, że masz już opinię, która z nich jest lepsza. Czy miałoby sens przekształcenie tego w coś w rodzaju „Jak działa procesor RAW?”
@coneslayer: Próbowałem wstawić obrazy w pełnej rozdzielczości (1296x984) do tego postu, ale wygląda na to, że zostały przycięte / zmniejszone. Więc nie wiem dokładnie, co by zrobił, żeby zmniejszyć skalę. @D.Lambert: Czy drugi obraz nie wygląda na zaszumiony z dużą ilością szumów w ciemnych obszarach. @ElendilTheTail: Nie dla żadnej klasy, ale właśnie to robię, aby zarabiać na życie!
@goldenmean Czy możesz również opublikować jakieś 100% zbiorów. Chociaż podejrzewam, że hałas na drugim obrazie jest tak zły, że nie uzyskasz rozsądnych odpowiedzi, dopóki nie naprawisz tego pierwszego.
To nie jest odpowiedź na twoje pytanie, ale czy mogę zapytać, * dlaczego * to robisz? Jeśli chcesz poeksperymentować z pojedynczą częścią potoku (i nie planujesz rozpowszechniać swojej pracy), możesz prywatnie załatać program GPL [dcraw] (http://www.cybercom.net/~dcoffin/dcraw/) .
Czy pojawia się tutaj pytanie „Jak mogę poprawić wyniki mojego zastrzeżonego potoku przetwarzania RAW?”
@fmark: Robię to dla mojej pracy. Byłbym zainteresowany współtworzeniem programu dcraw. Który algorytm w szczególności w dcraw? Czy to demozaika czy jakaś inna blokada? Jak mam się do tego zabrać? @mattdm: Tak, to jest ostateczny cel, więc aby go osiągnąć, chciałbym uzyskać dane wejściowe dotyczące porównań między dwoma wyjściami dla różnych parametrów jakości obrazu.
photo-SE nie jest ani stroną krytykującą zdjęcia, ani stroną programującą, więc osobiście ciężko mi zrozumieć, dlaczego nie jest to lepsze pytanie, o które można zapytać w SO ...
Dlatego głosuję za zamknięciem go tutaj w photo-SE i zalecam migrację do SO.
@Jay: Gdybym szukał porady dotyczącej implementacji, zgodziłbym się na przejście do SO. Ale wydaje mi się, że szuka informacji na temat względnej jakości obrazu wyjściowego - dokładności odwzorowania kolorów, szumu itp. To samo pytanie można by zadać na przykład w przypadku produktów komercyjnych, takich jak Silkypix czy ACR. To nie jest kwestia programowania.
@Jay Lance Photography: Nie sądzę, że moje pytanie dotyczyło jakichkolwiek porad / informacji związanych z programowaniem. Więc SO nie wchodzi w grę. Widziałem tutaj wiele postów na photoSE, w których użytkownicy zamieszczali zdjęcia i prosili o komentarze na temat „jakości” zdjęcia lub danych wejściowych dotyczących różnych aspektów zdjęcia. Podana poniżej odpowiedź zdecydowanie dodaje wartości forum, a zatem pytanie może pozostać otwarte i, jeśli to możliwe, uzyskać bardziej konstruktywne, przydatne i trafne odpowiedzi.
Jeden odpowiedź:
Jerry Coffin
2011-05-10 21:10:13 UTC
view on stackexchange narkive permalink

Trochę trudno mi wybrać jedną, która jest drastycznie „lepsza” od drugiej.

Twój wyraźnie pokazuje więcej szumów - ale przynajmniej na pierwszy rzut oka wydaje się również zauważalnie ostrzejszy. Gdybym miał wybrać jeden jako punkt wyjścia do przetwarzania, wolałbym twój, ale gdybym musiał traktować jeden jako gotowy produkt, prawdopodobnie wolałbym Adobe - przynajmniej dla typowych zdjęcia ludzi, na których większość ludzi wolałaby (jeśli w ogóle) stracić trochę szczegółów.

Zdecydowanie lepiej wykonałeś pracę na rampie gamma - Twoja skala szarości wygląda na mniej więcej równomiernie rozłożoną. W wersji Adobe dwa najjaśniejsze bloki w skali szarości (tylko dla jednego przykładu) są prawie nie do odróżnienia.

Wydaje mi się, że generalnie kolor stał się dokładniejszy. Aby pomóc zmierzyć, możesz uzyskać dane MacBeth dane sprawdzania kolorów - zarówno oficjalne liczby opublikowane przez Gretag-MacBeth, jak i rzeczywiste pomiary. Aby to wykorzystać, prawdopodobnie chciałbyś wybrać docelową przestrzeń kolorów (prawdopodobnie sRGB) i porównać swoje liczby ze średnimi zmierzonymi liczbami dla tej przestrzeni kolorów. Możesz (na przykład) obliczyć deltaE dla każdej poprawki dla wyników własnych i Adobe.

Aby to zrobić, powinieneś zacząć od uśrednienia wartości w każdej poprawce, aby wyeliminować efekty szumu . Na przykład Twój wyglądałby mniej więcej tak:

enter image description here

Możesz wtedy (na przykład) pobrać wartości RGB w Photoshopie w oknie informacyjnym (i jestem pewien GIMP zapewnia to samo, chociaż nie używałem go wystarczająco niedawno, aby zapamiętać nazwę, której używa dla okna, na którym Ci zależy).

Podłącz je do arkusza kalkulacyjnego, dodaj wzór na deltaE i gotowe. Jeśli chcesz, możesz (na przykład) utworzyć na podstawie tego profil kolorów, aby zminimalizować mierzone błędy, korzystając z Adobe DNG Profile Editor lub innych możliwości. Oczywiście jest to przydatne tylko wtedy, gdy Twój potok może zaakceptować standardowy profil ICC. Jeśli interesuje Cię tylko jedno określone źródło, możesz po prostu zmienić używaną macierz (lub dodać macierz, jeśli jej nie używasz). Z drugiej strony, jak powiedziałem, Twoja dokładność kolorów jest już i tak lepsza niż Adobe, więc możesz rozważyć to wystarczająco dobrze i skoncentrować się na innych obszarach.



To pytanie i odpowiedź zostało automatycznie przetłumaczone z języka angielskiego.Oryginalna treść jest dostępna na stackexchange, za co dziękujemy za licencję cc by-sa 3.0, w ramach której jest rozpowszechniana.
Loading...