Fototechnik allgemein Zitat: "6 Mio Pixel sind genug"

AW: Zitat: "6 Mio Pixel sind genug"

Hallo d90fan/Günter!

Da haben wir hier schon Infos im Forum, siehe Zitat unten von Jürgen.

Technisch gesehen wird bei reduzierter Auflösung einfach ein Rahmen außenrum weggeschnitten. Es gibt noch fast keine Sensoren bzw. nachgeschaltete bildverarbeitende Hardware, die mehrere Sensoren zu einem Pixel zusammen rechnen kann - sog. Pixel Binning.

Es wird nur selten angewandt, da es auf Kosten der Schärfe geht. Also besser höheres Rauschen aber dafür mehr Details in Kauf nehmen.

Siehe dazu auch http://www.dpreview.com/articles/compactcamerahighiso

Hinweis zum Zitat: Imager=Sensor

Juergen_net schrieb:
Bei einem sinnvollen Binning werden aus quadratischen Pixeln wieder quadratische Pixel. Das bedeutet also aus 4 werden 1 und damit Auflösung/4. Aus einem 10 MP-Sensor wird somit ein 2,5 MPixel-Sensor. Und das ist dann doch wieder zu wenig, was in auffälliger Unschärfe münden wird. Und nicht jeder Imager kann Binning.
Einen Vorteil hat der Pixel-Race allerdings: Die Imager-Hersteller geben sich größte Mühe, die Quanteneffizienz zu erhöhen. Wirkungsvollster und deshalb erster Ansatz: Anti-Reflex-Coating (Wie bei dem Linsen) auf den Imager aufbringen.

Ansonsten gilt grob gesagt die Faustregel: There is no real substitute for square inches except of more square inches.

Deshalb kauft Kameras mit großen Imagern und weniger Pixeln und laßt die anderen in den Regalen liegen. Nur so lernt die Industrie.

Gruß,

Ralf
 
AW: Zitat: "6 Mio Pixel sind genug"

Technisch gesehen wird bei reduzierter Auflösung einfach ein Rahmen außenrum weggeschnitten.
Einspruch, Euer Ehren!

Das stimmt so nicht! Das machen nur manche Kamera-Hersteller. Was gemacht wird, kann man ganz einfach daran sehen, daß sich beim von Dir beschriebenen Vorgehen die Brennweite ändert. (Wie beim Crop-Faktor bei den Objektiven). Bei den meisten Kameras bleibt aber die Brennweite/der Bildausschnitt auch nach der Reduktion der Auflösung gleich.
 
AW: Zitat: "6 Mio Pixel sind genug"

Hallo!

Es gibt logischerweise nur diese beiden Möglichkeiten:

1. Entweder einen Rahmen außenrum wegschneiden und die übrigen Pixel 1:1 nehmen oder
2. Pixel Binning - also alle Pixel nehmen, und dann eben die zuvielen zusammenfassen.

Die Mehrzahl der Kameras dürfte - wie oben geschrieben - immer noch 1. verwenden. Das Verhältnis wird sich vermutlich im Laufe der Zeit verschieben. Es ist auch nicht kameraherstellerbezogen, sondern modellbezogen.

Daß sich die Brennweite ändert, ist mißverständlich, das tut sie natürlich nicht. Es ändert sich der Ausschnitt bei Verfahren 1. Wenn sich der Ausschnitt bei den meisten Kameras nicht ändert (- wer hat hier einen Marktüberblick?), wäre Verfahren 2. schon jetzt in der Überzahl.

Gruß,

Ralf
 
AW: Zitat: "6 Mio Pixel sind genug"

Weder Pixel Binning noch Rahmen ist die Standardantwort.
Einfaches Skalieren ist es im Normalfall.
Der Bildausschnitt wird im Sucher/Display gewählt, die Auflösung wurde zuvor eingestellt.
Das Ergebnis ist die gewählte Brennweite mit der gewählten - dann runtergerechneten - Auflösung.
Alles andere ergibt keinen Sinn oder ist ein Spezialfall, kein Normalfall.
 
AW: Zitat: "6 Mio Pixel sind genug"

Hallo!

Pixel Binning ist Skalieren.

Gruß,

Ralf
 
AW: Zitat: "6 Mio Pixel sind genug"

Hallo,
ohne es zu wissen:
Ich könnte mir vostellen, dass bei Pixel-Binning nicht der Bayer-Filter angewandt wird, sondern die vier Grundfarben direkt mit Ihren Faktoren übernommen werden; dabei Grün entsprechend gewichtet, da 2x vertreten. Es wäre dann kein klassisches Skalieren.
 
Zuletzt bearbeitet:
AW: Zitat: "6 Mio Pixel sind genug"

Hallo!

Alles Skalieren, also in diesem Falle Verkleinern, ist ein Zusammenfassen von Pixeln. Dafür gibts ja bekanntlich unzählige Methoden. Ein Insider der Technik wäre Jürgen '[USR]Juergen_net[/USR]', da hoffe ich noch auf weitere Infos... ;D

Gruß,

Ralf
 
AW: Zitat: "6 Mio Pixel sind genug"

Hallo,

das eigentliche Binning verbindet die entsprechenden Pixel elektrisch vor der Signalverstärkung. Das hat den Vorteil, daß dann bei geringer Beleuchtung der vierfache Ladungswert bzw. Spannungswert zur Verfügung steht und damit das Signal Rauschverhältnis besser wird. Bei einem Schwarzweiss-Imager nimmt man i.a. 4 unmittelbar benachbarte Pixel, bei einem Farbimager 4 "benachbarte" gleicher Farbe, also in jede Richtung der übernächste.
Das muss aber der Imager hardwareseitig unterstützen und das macht nicht jeder. Dann kann man man das Binning "nachrechnen".
Man hat dabei prinzipiell zwei Möglichkeiten:


  1. Zuerst demosaiking (Farbumrechnung) und jedem Einzelpixel Chrominanz und Luminanz (Farbart und Helligkeit) zuweisen und dann zwischen den 4 so gewonnenen benachbarten (Chrominanz-/Luminanz-) Pixeln mitteln. Diese Methode bietet sich an, wenn das Demosaiking auf Pixelebene in der Signalverarbeitung hardwaremäßig implementiert ist
  • Die 4 "benachbarten" gleichfarbigen Pixel zu einem "Überpixel" zusammenaddieren und das Demosaiking über die "Überpixel" durchführen. Der Vorteil: Man rechnet mit größeren Werten und bekommt dadurch geringere rauschinduzierte Fehler bzw. Rundungsfehler.
Das berechnete Binning ist dem hardwaremäßigen unterlegen, da jeweils kleinere Spannungs-/Ladungswerte digitalisiert werden müssen und sich damit die Rauscheinflüsse in den Verstärkern und im A/D-Wandler (bzw. den Wandlern) stärker auswirken.

Größere Pixel (und damit weniger MPixel) sind bezüglich des Rauschens noch besser, da dann die lichtempfindliche Fläche des einen Pixels größer sein kann als die Summe der 4 kleineren. Schließlich benötigt man nur einmal den Platz für die Signalausleitung. Bei größeren Pixel kann deshalb der sog. Füllfaktor (Anteil der aktiven Sensorfläche an der gesamten Pixelfläche) größer werden.

Dabei wurde jetzt nur das Rauschen berücksichtigt.
Für die Auflösung, also z.B. den Treppenstufeneffekt sieht das anders aus. Hier kann man durch geschicktes Binning (auch gerechnetes) eine schönere Interpolation der Kanten erzeugen, als das bei weniger und dafür größeren Pixeln der Fall ist - solange man genügend Licht hat und das Rauschen vernachlässigen kann. Man hat ja auch mehr und differenziertere Informationen; kann also auch mehr herausholen.

Es gibt noch andere Ansätze, das Signal-Rauschverhältnis zu verbessern: Weg vom Bayer-Pattern, und hin zu alternativen, "spärlich besetzten" Mustern. Für Spezialanwendungen gibt es das schon, in Consumer-Kameras wohl noch nicht. Dabei wird das Muster so angeordnet, daß nicht über jedem Pixel ein Farbfilter ist. Die Farbfilter auf den Pixeln schlucken selbst im Durchlaßbereich etwa die Hälfte des Lichts, blaue noch mehr.
Aber das Demosaiking solcher neuer Filterarrays muß erst erarbeitet werden und bringt aufgrund der unterschiedlichen Pixelempfindlichkeiten eigene Probleme mit. Für das klassische Bayer Pattern haben die Kamerahersteller ihre ausgefeilten Demosiking Algorithmen fertig.

@Werner: Beim Demosaiking des klassichen Bayer-Patterns ist immer grün "übergewichtig". In einer quadratischen Anordnung dominiert aus Symmetriegründen die Zahl 4. Das paßt nicht so recht zu den 3 Grundfarben. Dann hat Bayer einfach grün zweimal genommen, mit der Begründung, daß das menschliche Auge im grünen Spektralbereich ebenfalls empfindlicher ist (V von Lambda-Kurve). Er hätte auch blau doppelt nehmen können mit der Begründung, daß die blauen Farbfilter mehr Licht schlucken als die anderen. Wäre für das Rauschen besser gewesen, wirkt aber nicht so natürlich.

Gruß
Jürgen
 
AW: Zitat: "6 Mio Pixel sind genug"

Danke für die Aufklärung, Jürgen!

Ein Beitrag, den ich mir gleich mit meinem ScrapBook archiviert habe.
 
AW: Zitat: "6 Mio Pixel sind genug"

Hallo Jürgen,

herzlichen Dank. Habe auch schon über Tests gelesen, dass statt des 2. Grünpixel ein reiner Helligkeitspixel ohne Farbinformation getestet wird, weil dadurch eine größere Lichtmenge zur Verfügung steht (Kodak); evtl. sogar mit anderer Anordnung. Soll das Rauschen im High-ISO-Bereich deutlich mindern. Da die Meldung aber inzwischen wohl schon wieder 2 Jahre alt ist, wäre interessant zu erfahren, ob da was weiter gegangen ist, oder das Projekt wegen evtueller Probleme wieder eingestampft wurde.

Habe dies damals mit großem Interesse gelesen, ausgehend vom Aufbau des menschlichen Auges, dass Helligkeit ebenfalls besser verarbeiten kann, als Farben - Zitat: "Nachts sind alle Katzen grau!"

Hast Du was in der Richtung gehört?
 
AW: Zitat: "6 Mio Pixel sind genug"

Hallo Werner,

für Spezialanwendungen gibt es bereits Red Clear Clear Clear Imager. Für ähnliche Spezialanwendungen diskutiert man auch über andere Pattern, um die Nachtperformance zu steigern und dennoch einen möglichst großen Farbraum abdecken zu können. Bei diesen Anwendungen wird das Bild aber nicht einem Menschen zur Betrachtung angezeigt, sondern einem Rechner zur digitalen Bildverarbeitung (Computer Vision) zugeführt. Hier sind die Anforderungen an die Schönheit, Brillanz und "Naturtreue" nicht so hoch wie bei der Bildanzeige. Es kommen dabei auch meist CMOS-Imager und weniger CCDs zum Einsatz.
Im Konsumer-Bereich habe ich nach den Kodak-Veröffentlichungen nichts mehr gehört.
Ich nehme an, das hat mit dem Wissensvorsprung zu tun, den die Kamerahersteller mit dem Bayer-Pattern haben. Die Farbrückrechnung ist nicht so einfach. Wenn man z.B. jedem Pixel eine Chrominanz und Luminanz zuordnen möchte, muß man in die Berechnung Nachbarpixel mit einbeziehen. Solche Rechenoperationen wirken erst mal als eine Art Weichzeichner. Das ist bei vielen Bildern mit eher sanften Farbverläufen akzetptabel. Wenn aber auch Kanten scharf abgebildet und dargestellt werden sollen, sind ausgefuchstere und dennoch schnelle Algorithmen erforderlich. Hier haben die Kamerahersteller viel Arbeit investiert und sehr viel Spezialwissen aufgebaut. Mit alternativen Farbmosaiken müßten sie hier wieder fast von vorne starten. Die Algos werden wahrscheinlich auch rechenintensiver, was leistungsstärkere Prozessoren erfordert. Und durch die deutlich unterschiedlichen Empfindlichkeiten der Pixel (Clear-Pixel sind ca. Faktor 2 empfindlicher) müßte die Dynamik der Pixel erhöht werden, um Sättigungseffekte in den Clear-Pixeln zu vermeiden. Hier sind die CCDs ziemlich am Ende, CMOS-Imager haben da mehr Potential.
Alles in allem eine Menge von Problemen, die abgearbeitet werden müssen. Und das für gerade mal ein Feature, das "nur" bei unzureichender Beleuchtung hilft und vielen Knipsern nicht so wichtig wie Megapixel und chiques Design ist. Und den anderen bietet man auch viel lieber SLR-Kameras mit größeren Imagern an....
Für Handy-Cams etc. wäre das natürlich eine Alternative. Die brauchen aus Marketinggründen viele MPixel, aus Kosten- und Platzgründen kleine Imager und sollen auch im Innenraum erträgliche Bilder liefern. Man erwartet derzeit aber keine brillanten Spitzenbilder. Und CMOS-Imager sind da schon verbreitet.


Grüße

Jürgen
 
Zurück
Oben