Pytanie:
Jaki jest wynik „prawdziwej rozdzielczości” Snapsorta?
Morpho
2014-04-02 21:22:38 UTC
view on stackexchange narkive permalink

Na Snapsort znalazłem to wyjaśnienie:

Prawdziwa rozdzielczość

Producenci reklamują wysokie megapiksele, aby sprzedawać swoje aparaty, Snapsort oblicza prawdziwą rozdzielczość każdego aparatu w oparciu o fizyczne ograniczenia rozmiaru jego czujnika.

Chciałbym jednak uzyskać lepsze wyjaśnienie.

Na przykład mam aparat kompaktowy który ma 16,1 MP, a prawdziwa rozdzielczość to 9,7 MP. Dlaczego? Jakie są różnice?

http://www.luminous-landscape.com/tutorials/resolution.shtml
Osiem odpowiedzi:
AJ Henderson
2014-04-03 00:26:28 UTC
view on stackexchange narkive permalink

Zacznę od stwierdzenia, że ​​termin „prawdziwa rozdzielczość” nie ma określonego znaczenia. Jest to termin, którego używa Snapsort, aby spróbować uprościć znaczące szczegóły, które może uchwycić kamera.

Rozdzielczość, w najbardziej podstawowym znaczeniu, to poziom szczegółowości szczegółów, które może uchwycić kamera. Mógłbyś mieć aparat o rozdzielczości 200 megapikseli, ale gdyby obraz był nieostry i miałbyś tylko gigantyczną brązową plamę, znacząca rozdzielczość byłaby prawie niczym, ponieważ nie możesz dostrzec żadnego poziomu szczegółów.

Wiele czynników wpływa na ilość szczegółów, które można uchwycić, jakość, szybkość i wyrazistość obiektywu, pozycje w kadrze, na które patrzysz (środek jest ogólnie bardziej szczegółowy niż na zewnątrz), rozmiar czujnika (a tym samym granicy dyfrakcji), poziom szumów na czujniku, a nawet warunki atmosferyczne mogą mieć wpływ na całkowity poziom rzeczywistych znaczących szczegółów, które mogą być uchwycone przez kamerę.

„Prawdziwa rozdzielczość” jest po prostu próbą uogólnienia przez Snapsorta do łatwej do wykorzystania liczby, ale ponieważ jest to rażąco nadmierne uproszczenie złożonego tematu, jest również prawie bezużyteczne. Na przykład jeden tani obiektyw może mieć super ostry środek, ale rozpadać się w pobliżu rogów. Wynikałoby to z niską rozdzielczością całkowitą ze względu na średnią, jednak inny obiektyw, który jest generalnie jednolity, ale dość niskiej jakości, może zostać oznaczony jako wyższy „rozdzielczość całkowita”.

Problem polega na tym, że na przykład robisz portret z obiektem w środku, aby nie przejmować się ostrością krawędzi, ponieważ wszystkie żądane szczegóły będą znajdować się pośrodku. Tak więc obiektyw o „niższej rozdzielczości” byłby właściwie lepszym wyborem.

Snapsort jest dobrym źródłem podstawowych porównań statystyk między aparatami, ale duża ilość zawartych w nich informacji jest zbyt uproszczona, a przez to bezużyteczna. Nie wkładaj zbyt wiele uwagi w ich porównania, ponieważ nie są one szczególnie godne zaufania ani wiarygodne.

Dziękuję, AJ! Krótko mówiąc, co powinienem wziąć pod uwagę: rzeczywistą rozdzielczość, np. 21 MP, czy „prawdziwą rozdzielczość”?
@Morpho - to nie jest jedna lub druga odpowiedź. „Prawdziwa rozdzielczość”, którą zapewnia Snapsort, jest nadmiernym uproszczeniem i jest prawie bez znaczenia, jednak koncepcje, które się za tym kryją, są niezwykle ważne, jeśli chcesz uzyskać maksymalną jakość. Dodatkowe megapiksele nie zaszkodzą, ale nie zawsze mogą przynieść wiele korzyści, chyba że masz lepszą optykę.
OK, mówiąc inaczej: kiedy mój aparat kompaktowy ma rzeczywistą rozdzielczość 16 MP, a Snapsort mówi, że jego „prawdziwa rozdzielczość” to 9,7 MP, jak mam zająć się tym aparatem? Aparat, który ma 16 MP czy aparat, który ma 9,7 MP? Mam nadzieję, że rozumiesz moje zamieszanie tutaj.
Jest to aparat o rozdzielczości 16 megapikseli, jednak prawdopodobnie nie będzie w stanie uzyskać z niego 16 megapikseli. Najprawdopodobniej środek kadru będzie miał gęstość rozdzielczości jak dla kamery 16 MP, ale krawędzie będą miały rozdzielczość kamery 8 MP. Nie możesz powiedzieć dokładniej, nie patrząc na wykresy MTF.
OK. :) W tym przypadku 16MP jest jakoś mylące!
Ale tak jest z 9.7. Wciąż rejestrujesz 16 milionów pikseli, ale niektóre z nich nie będą ostro zdefiniowane.
Ponieważ w rzeczywistości nie jest to 9,7 megapiksela. Nadal jest ponad 9,7 megapiksela, ale jest pewne rozmycie i brak szczegółów, ale jeśli zależy Ci na przykład na środku ujęcia, równie dobrze może to być 16 MP, ponieważ nie dbasz o szczegóły, którymi jesteś przegrywający.
Czy dzieje się tak w praktyce? To znaczy, czy to fakt?
Jaka jest praktyczna zasada?
„Prawdziwa rozdzielczość” - 9,7 (w tym przypadku) zawsze tak?
„Prawdziwa rozdzielczość” przypomina trochę stwierdzenie „samochód działa, jadąc”, gdy próbujesz zrozumieć, dlaczego się nie uruchamia. Może to być dokładne stwierdzenie dla ich konkretnych kryteriów testowania, ale nie ma praktycznej wartości w prawdziwym świecie.
@Morpho Powiedziałbym, że prawdziwa rozdzielczość jest bardziej użyteczna niż rozdzielczość podawana przez producenta. Jeśli kamera ma rozdzielczość 20 MP, ale nigdy nie uzyskasz z niej więcej niż 10 MP rzeczywistej rozdzielczości, to liczba „20” jest nieistotna, a prawdziwa rozdzielczość, jak cytaty Snapsort, jest bardziej przydatna. Jeszcze lepsza jest percepcyjna ocena megapikselowa, którą podaje DxoMark. Uwzględnia to bardziej aparat i obiektyw, podczas gdy prawdziwa rozdzielczość Snapsort zakłada doskonały obiektyw. Tak więc percepcyjny MP DxoMark jest bardziej użyteczny niż prawdziwa rozdzielczość Snapsorta jest bardziej użyteczna niż rozdzielczość podana przez producenta.
rfusca
2014-04-02 22:41:49 UTC
view on stackexchange narkive permalink

„Prawdziwa rozdzielczość” to termin, który ta konkretna witryna (snapsort.com) wymyśliła, próbując uwzględnić fakt, że rozmiar i gęstość pikseli również odgrywają ważną rolę. Możesz sprawdzić całą ich stronę na ten temat tutaj. Nie ma standardowego terminu branżowego zwanego „prawdziwą rozdzielczością”.

Obliczają to na podstawie rozmiaru dysku Airy'ego, przyjmując maksymalnie cztery piksele na dysk Airy'ego przy f / 5.6. Koncepcja polega na tym, że większa gęstość pikseli powyżej czterech na dysk Airy'ego nie daje żadnych dalszych szczegółów. Tak więc, biorąc pod uwagę fizyczny rozmiar czujnika i możliwe ogniskowe obiektywów, wydaje się, że próbują obliczyć oddzielną miarę od rzeczywistych megapikseli - bardziej jak „efektywne” megapiksele do pomiaru zdolności czujnika do rejestrowania szczegółów.

Dziękuję rfusca! Szukam jednak najprostszej odpowiedzi. Jaka jest główna różnica między rozdzielczością taką jak 21 MP a rozdzielczością rzeczywistą? Na co muszę zwrócić uwagę przy zakupie aparatu?
@Morpho - Żadna z liczb snapsort nie powinna być jedynym czynnikiem przy podejmowaniu decyzji o zakupie. I generalnie w dzisiejszych czasach, na liście rzeczy, których należy szukać w nowym aparacie, bardzo wysokie megapiksele nie powinny znajdować się na szczycie dla większości ludzi. Moglibyśmy debatować nad metodologią stojącą za „prawdziwą rozdzielczością” snapsort i powiedzieć „oni nie biorą pod uwagę tego czy tamtego”, ale ogólnie rzecz biorąc, prawdopodobnie są one w sferze dobrej miary dla * tego *. Tak więc, jeśli patrzysz na dwie kamery i ** wszystko inne ** jest równe, ale ma inną „prawdziwą rozdzielczość”, uzyskaj wyższą „prawdziwą rozdzielczość”.
Podana rozdzielczość „21 megapikseli” odnosi się do fizycznej liczby pikseli czujnika. „Prawdziwa rozdzielczość”, którą oferuje Snapsort, próbując uwzględnić fakt, że wszystkie 21 megapikseli nie mogą uchwycić szczegółów, ponieważ są zbyt blisko siebie.
user2719
2014-04-02 22:51:06 UTC
view on stackexchange narkive permalink

To kontrowersyjna kwestia i obawiam się, że nigdzie nie znajdziesz jednej, powszechnie akceptowanej definicji. Witryna, o której mowa, używa stosunkowo prostych obliczeń, które tak naprawdę nie obejmują wszystkich zaangażowanych zmiennych (a odpowiedź rfusca odnosi się do nich).

„Najbardziej poprawna” odpowiedź (jeśli była to jedna z tych mylących pytania wielokrotnego wyboru z kilkoma częściowo poprawnymi odpowiedziami) dotyczy funkcji przenoszenia modulacji (MTF); to znaczy, jakie szczegóły rozmiaru, przy jakim poziomie kontrastu czujnik może zarejestrować i przetłumaczyć na piksele. Oznacza to, że odpowiedź przychodzi eksperymentalnie, robiąc zdjęcia testowe (lub rzutując obrazy bezpośrednio na czujnik) i określając, jaki rozmiar musi mieć wzór, zanim zostanie wyrenderowany z akceptowalnym poziomem kontrastu i szczegółowości.

W przypadku typowego czujnika typu Bayer (lub z podobnymi czujnikami z tablicą kolorów) liczba ta nigdy nie może być taka sama, jak liczba elementów czujnika. Ponieważ każdy element czujnika rejestruje tylko jeden kolor, przed określeniem wartości jednego piksela należy skonsultować się z sąsiadami w celu uzyskania informacji o kolorze. W najlepszym przypadku można oczekiwać „prawdziwej” rozdzielczości, która wynosi około 1 / sqrt (2) liczby elementów czujnika / pikseli. (Oczywistym wyjątkiem jest tutaj multishotowy aparat studyjny, taki jak Hasselblad 50MS z tyłu, który ma filtr Bayera, ale wykonuje cztery sekwencyjne obrazy, każdy przesunięty o jeden piksel, tak że każdy piksel na obrazie ma własne pełne informacje o kolorze zarejestrowane wraz informacje o luminancji.)

Należy również wziąć pod uwagę filtr antyaliasingowy (optyczny dolnoprzepustowy), jeśli taki istnieje. Jego zadaniem jest celowe rozmycie obrazu o kontrolowaną wielkość w kontrolowanych kierunkach, aby zapobiec pojawianiu się artefaktów obrazu (takich jak wzory mory) na obrazie, gdy rozmiar i wzór szczegółów zbliżają się do rozmiaru i wzoru elementów czujnika. Oznacza to, że ilość szczegółów, które jesteś w stanie zarejestrować, jest celowo ograniczona do mniejszej ilości niż ten, który teoretycznie może zarejestrować czysty czujnik (limit Nyquista), aby zapobiec pojawianiu się fałszywych szczegółów w obraz wyjściowy. To częściowo pokrywa się z rozdzielczością, którą tracisz z powodu filtra tablicy kolorów, więc efekt jest mniejszy niż skumulowany. (Oznacza to, że nie można po prostu pomnożyć straty matrycy filtrów kolorów przez utratę optycznego filtra dolnoprzepustowego i podać liczbę).

W najlepszym przypadku czujnik typu Bayer będzie miał tylko około 70% stosunek danych do pikseli. Czujniki monochromatyczne, niezależnie od tego, czy zostały wyprodukowane w ten sposób, czy w wyniku modyfikacji na rynku wtórnym, a także czujniki typu Foveon, gdy nie są „zatkane” przez optyczny filtr dolnoprzepustowy, osiągają 100%. (Dokładnie 100%, nigdy nie możesz być pewien, czy widzisz prawdziwe dane, czy artefakt aliasingu. To podstawowy problem w przypadku danych dyskretnych; wszystko, co możesz z tym zrobić, to mieć nadzieję - lub upewnić się - że dane, które rejestrujesz jest „większy” niż pojemniki, w których go nagrywasz. Dlatego w większości przypadków czujniki o bardzo wysokiej rozdzielczości mogą obejść się bez optycznych filtrów dolnoprzepustowych - rzadko nagrywasz wszystko, co ma powtarzający się wzór na tyle mały, że powoduje problem z jednej strony, a sam obiektyw zapewni pewną ilość filtrowania dolnoprzepustowego we wszystkim, co nie jest zbyt ostre).

Są inne rzeczy, które będą miały wpływ na ilość rzeczywistych szczegółów, które możesz zarejestrować, takie jak nieodłączny szum czujnika i obwodów odczytu. Ponieważ „efektywne megapiksele” zależą od tego, czy rzeczywiście jesteś w stanie zobaczyć szczegóły obrazu, wszystko, czego nie można łatwo odróżnić od szumu, tak naprawdę się nie liczy. W przypadku bardzo zaszumionego czujnika może on zebrać dane kilku sąsiednich pikseli, zanim będzie można obiektywnie określić, co stanowi informację o obrazie. To niekoniecznie jest straszna rzecz; Nokia używa niewielkiego czujnika 41 MP w niektórych swoich urządzeniach do generowania obrazów o rozdzielczości 5 MP, co pozwala jej na efektywny „zoom cyfrowy” przy jednoczesnym uwzględnieniu wszystkich strat danych.

Szukam tylko bardziej podstawowej odpowiedzi. Czy można mieć prostszą odpowiedź?
@Morpho - Nie, nie jest.
Jak można to wyjaśnić studentom?
Zdecydowana większość z nich, chociaż jest prawdziwa, jest całkowicie nieistotna dla rozpatrywanej kwestii - jak konkretna firma wykonuje określony środek.
@rfusca - Nie, pytanie dotyczyło „co to jest prawdziwa rozdzielczość”, a nie „co Snapsort oznacza przez„ prawdziwą rozdzielczość ””. A ponieważ twoja odpowiedź na * to * pytanie najwyraźniej nie spełnia kryterium „najprostszej odpowiedzi”, samo udzielenie odpowiedzi na pytanie Snapsort również najwyraźniej nie spełnia swojego zadania. W każdym razie zrezygnowałem.
@stanRogers - porównuje dwie liczby, odwołuje się do „snapsort”… jak myślisz, co jeszcze to oznacza?
@rfusca - nie możesz naprawdę szczegółowo poznać liczb snapsort bez zrozumienia, o czym mówią. Zgadzam się, że możliwe jest przejrzenie szczegółów i wyjaśnienie ich istoty, ale nie jest to pełna odpowiedź dla kogoś, kto może chcieć odpowiedzi technicznej. Idealnie byłoby, gdyby posiadanie zarówno dogłębnej odpowiedzi, takiej jak Stan, a także spektrum różnych poziomów szczegółowości w innych odpowiedziach, działało najlepiej, jeśli każdy, kto przychodzi na to pytanie, był w stanie odejść z dobrą odpowiedzią.
@ajhenderson - Nie twierdzę, że nie warto mieć dogłębnej odpowiedzi na pytanie, czym jest „efektywna rozdzielczość”. Ale pytanie zadane o ich „prawdziwą rozdzielczość”, które jest terminem wymyślonym przez Snapsort, z ostateczną odpowiedzią, a nawet podają stronę internetową o tym, jak je mierzą ... co nie jest tą odpowiedzią. (Niezależnie od tego, jak dobra lub zła metodologia Snapsorta). To tak, jakby zapytać, jak Wendy's robi Frosty, a ktoś pisze, jak dogłębnie zrobić lody.
@rfusca - to sprawiedliwe, ale bez wchodzenia w to, czym naprawdę jest, nie możesz też wyjaśnić, co to jest, co oni próbują opisać. Jedno wynika z drugiego na tyle naturalnie, że myślę, że odpowiedź jest ważna.
@StanRogers: * "... Oczywistym wyjątkiem jest tutaj multishot studyjny aparat, taki jak Hasselblad 50MS back .." *. - Zapomniałeś o czujnikach Foveon (wielowarstwowych).
Guffa
2014-04-02 22:44:04 UTC
view on stackexchange narkive permalink

Zacznijmy od rozdzielczości, która nie jest tym samym, co gęstość pikseli czujnika, którą zwykle nazywa się rozdzielczością.

Aby uzyskać rzeczywistą rozdzielczość kombinacji aparatu i obiektywu, należy sfotografować tabelę rozdzielczości, i użyj uzyskanego obrazu, aby określić, ile linii można odtworzyć. Zmierzyłbyś rozdzielczość dla głównych linii poziomych, pionowych i ukośnych.

Ref: Objaśnienie wykresów rozdzielczości testowych aparatu

Wygląda na to, że ta witryna wykonuje obliczenia na podstawie rozmiaru i typu czujnika, aby określić, jaka może być maksymalna użyteczna gęstość pikseli w przypadku teoretycznie idealnej soczewki. „Prawdziwa rozdzielczość” byłaby niższa niż gęstość pikseli czujnika, gdyby czujnik miał więcej pikseli, niż może faktycznie wykorzystać.

Czy mógłbyś mi to wyjaśnić w bardziej podstawowych wierszach?
Dlaczego głos przeciw? Jeśli nie wyjaśnisz, co Twoim zdaniem jest niewłaściwe, nie poprawi to odpowiedzi.
Michael Nielsen
2014-04-02 23:00:58 UTC
view on stackexchange narkive permalink

Upraszczają znacznie bardziej złożony świat. Twoja prawdziwa rozdzielczość będzie wynikiem obiektywu i czujnika. ale rozdzielczość obiektywu (lp / mm) będzie zależała od jego ustawień i jakości. więc aby wykonać te konwersje, muszą przyjąć wiele założeń. Aby rzucić światło na złożoność rozdzielczości:

Po pierwsze, MP nie jest miarą rozdzielczości. Zaczyna się w świecie rzeczywistym jako para linii (czarne i białe sąsiednie linie), a następnie zostaje rzutowana i wciśnięta na płaszczyznę czujnika. kropka w prawdziwym świecie nie skończy się na kropce, ale na okręgu, który również zależy od długości fali. Twój czujnik pobiera próbki w określonej rozdzielczości cyfrowej. Wynik zależy od rozmiaru czujnika i liczby pikseli w każdym kierunku. rozdzielczość jest zwykle bliska (nie zawsze równa) sobie na osi X i Y. Soczewki powinny być również blisko siebie w każdym kierunku. oznacza to, że czujnik 4000x3000 36 * 24 mm będzie miał tę samą rozdzielczość w osi X i Y, ale nie po przekątnej! Powiedzmy, że obiektyw z 120 lp / mm wyświetla te linie, więc są one idealnie wyrównane na tym czujniku 4000x3000. Otrzymasz wtedy doskonały obraz - ale tylko wtedy, gdy jest to aparat monochromatyczny! Jeśli linie nie są wyrównane, pojawia się mora. Producent dodaje więc optyczny filtr rozmycia. wtedy zgrabny obraz zostaje schrzaniony. teraz musisz zwiększyć rozdzielczość obiektywu lub podejść bliżej, aby uzyskać lepsze powiększenie i stracić połowę obrazu lub wyświetlić na większym czujniku, aby rozdzielić te „Airy disks”. dodaj interpolację wzoru Bayera do miksu i musisz podwoić lub czterokrotnie zwiększyć rozdzielczość (na każdej osi, a nie MP, który będzie 4x - 16x wyższy).

Vaddadi Kartick
2014-10-23 13:27:46 UTC
view on stackexchange narkive permalink

Wiele innych odpowiedzi uczyniło to niepotrzebnie skomplikowanym i mówiło o rzeczach nieistotnych dla PO, więc postaram się wyjaśnić:

Wiele osób uważa, że ​​aparat o wyższej rozdzielczości zapewnia ostrzejsze zdjęcia. Jednak dla danego rozmiaru czujnika istnieje ograniczenie liczby megapikseli rzeczywistych informacji, które można zarejestrować. Przekroczenie tego limitu nie pomaga. Jeśli cokolwiek, to boli, ponieważ masz większe rozmiary plików, bez zauważalnych korzyści. Firmy robią to, ponieważ mogą reklamować większą liczbę megapikseli, aby oszukać ludzi, którzy nie wiedzą nic lepszego.

Snapsort próbuje uchwycić tę liczbę jako „prawdziwą rozdzielczość”. W Twoim przypadku masz aparat reklamowany jako 16 megapikseli, ale jego prawdziwa rozdzielczość to tylko 9,7 megapiksela. Oznacza to, że Twój aparat nie może uchwycić więcej szczegółów, niż gdyby był wyposażony w czujnik o rozdzielczości 9,7 megapiksela.

Jeśli kupiłeś ten 16-megapikselowy aparat zamiast identycznego 12-megapikselowego aparatu, powiedzmy, myśląc masz zamiar uzyskać bardziej szczegółowe zdjęcia, dałeś się nabrać :) Zarówno 16-megapikselowe, jak i 12 aparatów to w efekcie aparaty 9,7-megapikselowe.

Zauważ, że to wszystko teoretyczne - Snapsort tak naprawdę nie idź i zmierz wydajność aparatu, robiąc zdjęcia za jego pomocą. Zamiast tego wykonuje pewne obliczenia matematyczne na podstawie rozmiaru czujnika, aby określić jego „prawdziwą rozdzielczość”.

„Prawdziwa rozdzielczość” jest również górną granicą. W rzeczywistości możesz nie uzyskać szczegółów o rozdzielczości 9,7 megapiksela z tego aparatu, ale z pewnością nie dostaniesz więcej.

Do tej pory rozmawialiśmy tylko o czujniku, ale obiektyw aparatu może obniżyć jakość zdjęć i tak się dzieje. Wracając do naszego poprzedniego przykładu, Twój aparat o „prawdziwej rozdzielczości” 9,7 megapiksela może być wyposażony w obiektyw, który pozwala czujnikowi na rejestrowanie informacji o wartości zaledwie 5 megapikseli. Jest to podobne do patrzenia przez rozmytą lornetkę - nawet jeśli masz doskonały wzrok, nie będziesz w stanie dostrzec szczegółów, które mógłbyś w innym przypadku. Na tej samej analogii, być może czujnik może uchwycić 9,7 megapikseli informacji, ale nie patrząc przez ten rozmyty obiektyw.

Firma o nazwie Dxomark próbuje to uchwycić za pomocą metryki zwanej „megapikselami percepcyjnymi”. Na przykład obiektyw Sony 35 mm F1,8 z mocowaniem E ma percepcyjną liczbę megapikseli 11. Oznacza to, że niezależnie od tego, czy zamontujesz ten obiektyw na aparacie reklamowanym jako 11 megapikseli, 24 megapiksele, czy 200 megapikseli, nie uzyskasz z niego wyraźniejszych zdjęć.

Więc jeśli „ porównując aparaty lub obiektywy, masz trzy pomiary, których możesz użyć do określenia ich ostrości:

  1. Reklamowane megapiksele.
  2. „Prawdziwa rozdzielczość” Snapsorta
  3. „megapiksele percepcyjne” Dxomarka.

Spośród nich megapiksele percepcyjne są najdokładniejszymi pomiarami, ponieważ uwzględniają zarówno aparat, jak i obiektyw i pochodzą z pomiarów w świecie rzeczywistym. Drugą najlepszą miarą jest „prawdziwa rozdzielczość” Snapsorta. Zignoruj ​​megapiksele reklamowane przez producenta, bo to tylko liczba na papierze, której w praktyce twój aparat może nigdy nie osiągnąć.

Ważniejsze niż wszystko jest to, że ostrość / rozdzielczość to tylko jeden aspekt wyboru aparatu. Nie idź na ślepo z najostrzejszym aparatem. Istnieje wiele czynników, takich jak wydajność przy słabym oświetleniu, dokładność i prędkość autofokusa, żywotność baterii, czy aparat obsługuje wymienne obiektywy, rozmiar czujnika, typ aparatu (lustrzanka, aparat bezlusterkowy, superzoom, telefon, kompakt), czy pasuje do twojego kieszeń i tak dalej. Przy podejmowaniu decyzji nie kieruj się tylko rozdzielczością aparatu.

Count Iblis
2014-10-24 01:53:34 UTC
view on stackexchange narkive permalink

W moim aparacie podaje rzeczywistą liczbę megapikseli, która jest taka sama, jak rzeczywista liczba megapikseli, więc nie sądzę, abyśmy powinni robić zbyt dużo z tej liczby. Witryna zawiera również informacje o rozmiarze czujnika i rozmiarze w pikselach. Rozmiar piksela można również obliczyć, dzieląc obszar czujnika przez liczbę megapikseli. Jeśli weźmiesz pierwiastek kwadratowy z tej liczby, otrzymasz rozmiar piksela jako odległość między dwoma sąsiednimi pikselami. Następnie można obliczyć maksymalną rozdzielczość, jaką teoretycznie można uzyskać, dzieląc ją przez ogniskową obiektywu. Na przykład. odległość między pikselami na czujniku mojego aparatu wynosi 4,2 mikrometra, podzielenie tego przez ogniskową obiektywu 50 mm daje rozdzielczość 8,4 * 10 ^ (- 5) radianów = 4,8 * 10 ^ (- 3) stopni = 17 sekund łukowych.

W praktyce rozdzielczość będzie gorsza niż 17 sekund łukowych z powodu szumów, niedoskonałości obiektywu, filtru dolnoprzepustowego lekko rozmazującego obraz w celu usunięcia artefaktów. Jest to szczegółowo omówione w innych udzielonych odpowiedziach. Ale przy dużym wysiłku możesz zbliżyć się do teoretycznego limitu, jeśli możesz zrobić wiele zdjęć i połączyć je w obróbce końcowej (np. W strofotografii lub fotografii krajobrazu).

Dyfrakcja stanie się istotna powyżej liczb F około 7. Punktowe źródło lambda o długości fali będzie miało kątowy rozrzut theta (mierzony od kierunku źródła) theta = 1,22 lambda / d, gdzie d jest średnicą soczewki. Jeśli 2 * theta jest równe rozmiarowi kątowemu piksela 8,4 * 10 ^ (- 5) radianów, to część wzoru dyfrakcyjnego aż do jego pierwszego minimum pokrywa w przybliżeniu całkowicie jeden piksel. Jeśli obraz dyfrakcyjny jest szerszy tak, że theta jest równe rozmiarowi kątowemu piksela, to sąsiedni piksel nadal nie będzie otrzymywał dużo światła, ponieważ ma on minimalne natężenie obrazu dyfrakcyjnego i blisko tego punktu zmiana natężenia nie jest duża. Dla zielonego światła lambda = 500 nanometrów, więc dla mojego aparatu dzieje się to przy d = 7,3 mm, co odpowiada liczbie F 50 / 7,3 = 6,9. Zwróć uwagę, że nie zależy to od ogniskowej, ponieważ theta zależy również od ogniskowej, ogniskowa następnie wypada z równania dla krytycznej liczby F, powyżej której dyfrakcja zaczyna ograniczać rozdzielczość. Ogólnie krytyczna liczba F jest określona wzorem:

Krytyczna liczba F = r / (1,22 * lambda)

gdzie r jest odległością między sąsiednimi pikselami na czujniku.

sleepwalkerfx
2014-10-23 14:28:33 UTC
view on stackexchange narkive permalink

Po prostu możesz przetworzyć obraz 4MP za pomocą Photoshopa i przeskalować go do obrazu 8MP. Wtedy będą zduplikowane piksele, ale teoretycznie jest to teraz obraz 8MP. Uważam, że „prawdziwa rozdzielczość” snapsort oznacza rzeczywistą rozdzielczość obrazu bez takich zduplikowanych pikseli.

Chociaż obecnie jest to mniej powszechne (ponieważ łatwo dostępne są bardzo tanie, ale rozsądnie wysokiej rozdzielczości czujniki), kiedyś telefony i aparaty z niższej półki podawały wartość w megapikselach z \ *, a \ * mówiło „interpolowane” - co oznacza, że ​​powstałe obrazy zostały przeskalowane, tak jak powiedziałeś. Więc tak, to jest rzecz. Jednak nie to oznacza w tym przypadku Snapsort. (Zobacz inne odpowiedzi.)


To pytanie i odpowiedź zostało automatycznie przetłumaczone z języka angielskiego.Oryginalna treść jest dostępna na stackexchange, za co dziękujemy za licencję cc by-sa 3.0, w ramach której jest rozpowszechniana.
Loading...