Zitat: Dame Eda 10.10.15, 23:59Zum zitierten Beitrag
Tjaaa - was bringen schon elegante Darstellungen mithilfe von Integral- und Differentialrechnung, wenn deren Voraussetzungen der Realität so gar nicht entsprechen?
Wir reden schließlich von einem Sensor mit diskreten Sensorpunkten ... und schwuppdiwupp ersetzen wir schnell alle in der Theorie so elegant daherkommenden Funktionen durch irgendein nirgends stetiges und nirgends differenzierbares Monster (das dazu eines ganz bestimmt nicht hat: ein inverses Monster!) und wundern uns, warum die schöne Theorie eigentlich gar nichts bringt.
Und wir benötigen ganz andere Berechnungsmethoden für die Vertuschung (nicht etwa die Beseitigung!) von Bildfehlern als irgendwelche langsam vielleicht doch noch konvergierenden Iterationen, die man in den 70ern auf dem TR440 hätte laufen lassen können (wenn der denn eine für unser aller Weltproblem ausreichende Arithmetik gehabt hätte ...).
Und wofür? Für einen Effekt, bei dem im Bildergebnis der "normalen" Fotografie niemand dezidiert sagen kann, wo genau er ihn überhaupt nachweislich sieht und wo eine Unschärfe vielleicht ein ganz andere Ursache hat ... ja, Du hast völlig recht: Manche Dinge sind derart komplex - da muß man sich einfach nicht damit befassen: man kann auch ohne solides Grundlagenverständnis der Integral- und Differentialrechnung richtig gute Fotos machen, bei denen kein Betrachter auf die Idee kommt, Zitat: anzumerken.
Tjaaa - was bringen schon elegante Darstellungen mithilfe von Integral- und Differentialrechnung, wenn deren Voraussetzungen der Realität so gar nicht entsprechen?
Wir reden schließlich von einem Sensor mit diskreten Sensorpunkten ... und schwuppdiwupp ersetzen wir schnell alle in der Theorie so elegant daherkommenden Funktionen durch irgendein nirgends stetiges und nirgends differenzierbares Monster (das dazu eines ganz bestimmt nicht hat: ein inverses Monster!) und wundern uns, warum die schöne Theorie eigentlich gar nichts bringt.
Und wir benötigen ganz andere Berechnungsmethoden für die Vertuschung (nicht etwa die Beseitigung!) von Bildfehlern als irgendwelche langsam vielleicht doch noch konvergierenden Iterationen, die man in den 70ern auf dem TR440 hätte laufen lassen können (wenn der denn eine für unser aller Weltproblem ausreichende Arithmetik gehabt hätte ...).
Und wofür? Für einen Effekt, bei dem im Bildergebnis der "normalen" Fotografie niemand dezidiert sagen kann, wo genau er ihn überhaupt nachweislich sieht und wo eine Unschärfe vielleicht ein ganz andere Ursache hat ... ja, Du hast völlig recht: Manche Dinge sind derart komplex - da muß man sich einfach nicht damit befassen: man kann auch ohne solides Grundlagenverständnis der Integral- und Differentialrechnung richtig gute Fotos machen, bei denen kein Betrachter auf die Idee kommt, Zitat: anzumerken.
Man darf auch nicht zu sehr die Grenzen zwischen (dem mathematischen) Modell und Wirklichkeit verwischen.
Merksatz dazu: "Nicht in die Speisekarte beißen!".
Merksatz dazu: "Nicht in die Speisekarte beißen!".
Zitat: MatthiasausK 11.10.15, 09:28Zum zitierten Beitrag
Ich hoffe doch sehr, dass der Bildsonsor meiner Kamera nicht mit punktförmigen Photozellen ausgestattet ist. Weil die Sensorpixel eine Fläche haben, macht's auch nicht 'schwuppdiwupp'.
Ich hoffe doch sehr, dass der Bildsonsor meiner Kamera nicht mit punktförmigen Photozellen ausgestattet ist. Weil die Sensorpixel eine Fläche haben, macht's auch nicht 'schwuppdiwupp'.
Zitat: garudawalk 11.10.15, 08:00Zum zitierten BeitragZitat: Dame Eda 10.10.15, 18:06Zum zitierten Beitrag
( Hat sogar mir das Gefühl vermittelt, es ein wenig verstanden zu haben bzw. zu verstehen, was ich nicht verstehe. Danke.)
( Die fc als Lernort?
Aber im Ernst: herzlichen Dank, das ist ein wirklich grosses Kompliment. )
( Hat sogar mir das Gefühl vermittelt, es ein wenig verstanden zu haben bzw. zu verstehen, was ich nicht verstehe. Danke.)
( Die fc als Lernort?
Aber im Ernst: herzlichen Dank, das ist ein wirklich grosses Kompliment. )
Zitat: Dame Eda 11.10.15, 17:29Zum zitierten Beitrag
Doch. Es macht. Und es liegt wirklich daran, daß sie a) tatsächlich eine nennenswerte(!) Fläche haben und b) diskret sind. Wären es "Punkte" im mathematischen Sinne, würde es eben nicht schwuppdiwupp machen, denn dann wären wir tatsächlich im bereich der Differtialrechnung.
Ich entschuldige mich für die möglicherweise irreführende Wortwahl!
Doch. Es macht. Und es liegt wirklich daran, daß sie a) tatsächlich eine nennenswerte(!) Fläche haben und b) diskret sind. Wären es "Punkte" im mathematischen Sinne, würde es eben nicht schwuppdiwupp machen, denn dann wären wir tatsächlich im bereich der Differtialrechnung.
Ich entschuldige mich für die möglicherweise irreführende Wortwahl!
Betreibt ihr hier Spionagefotografie, bei der man aus 30 Kilometern noch Zeitung lesen kann?
Zitat: N. Nescio 11.10.15, 00:50Zum zitierten BeitragDas ist richtig, aber die Kenntnis von zwei Zahlen reduziert das Problem auf 1%, da hilft schon probieren:)
Zitat: N. Nescio 11.10.15, 00:50Zum zitierten BeitragDas ist nicht richtig. Wenn Du den mathematische Apparat hast (und nicht durch die Daten errechnete: Thema Interpolation), was bei bekannten Objektiven der Fall ist, brauchst Du nur noch die Eingangswerte um die "originale" Situation (im Motiv) zurück zu rechnen. Die Dekonvolution hat dabei alle Eigenschaften, die sich das Mathematikerherz nur wünschen kann, stetig, differenzierbar. etc.. ,.
Zitat: N. Nescio 11.10.15, 00:50Zum zitierten Beitragrichtig aber so what. Damir können wir sicher alle leben, dass eine solche Lichtattacke zuschlägt, ..
Zitat: N. Nescio 11.10.15, 00:50Zum zitierten Beitrag99% nehme ich, aber 80% reichen mir auch.
Um es klar zu sagen: Wir haben einen mathematischen Apparat, der unabhängig vom vorliegenden Einzelfall ist. Das Argument, dass diskrete Werte ein Problem darstellen (Monster Mash), ist ohnehin Blödsinn. Deconvolution in unserem Fall rechnet jedes Sensor-Pixel eins zu eins auf den Originalwert ("verzerrt" durch Rauschen des Sensors) des Motivs. Erst hier beginnt das Problem. Die errechneten "exakten minus Rauschen" Pixel müssen auf den Sensor (die dortige Pixellage) interpoliert werden. Dafür gibt es einfache Verfahren (neasrest neighbour, linear, etc) die Rauschen mehr oder minder verstärken. Iterative Verfahren sind da rechenintensiver aber verstärken das Rauschen nicht und zeigen erstaunlich gute Ergebnisse.
Zitat: N. Nescio 11.10.15, 00:50Zum zitierten BeitragDas ist nicht richtig. Wenn Du den mathematische Apparat hast (und nicht durch die Daten errechnete: Thema Interpolation), was bei bekannten Objektiven der Fall ist, brauchst Du nur noch die Eingangswerte um die "originale" Situation (im Motiv) zurück zu rechnen. Die Dekonvolution hat dabei alle Eigenschaften, die sich das Mathematikerherz nur wünschen kann, stetig, differenzierbar. etc.. ,.
Zitat: N. Nescio 11.10.15, 00:50Zum zitierten Beitragrichtig aber so what. Damir können wir sicher alle leben, dass eine solche Lichtattacke zuschlägt, ..
Zitat: N. Nescio 11.10.15, 00:50Zum zitierten Beitrag99% nehme ich, aber 80% reichen mir auch.
Um es klar zu sagen: Wir haben einen mathematischen Apparat, der unabhängig vom vorliegenden Einzelfall ist. Das Argument, dass diskrete Werte ein Problem darstellen (Monster Mash), ist ohnehin Blödsinn. Deconvolution in unserem Fall rechnet jedes Sensor-Pixel eins zu eins auf den Originalwert ("verzerrt" durch Rauschen des Sensors) des Motivs. Erst hier beginnt das Problem. Die errechneten "exakten minus Rauschen" Pixel müssen auf den Sensor (die dortige Pixellage) interpoliert werden. Dafür gibt es einfache Verfahren (neasrest neighbour, linear, etc) die Rauschen mehr oder minder verstärken. Iterative Verfahren sind da rechenintensiver aber verstärken das Rauschen nicht und zeigen erstaunlich gute Ergebnisse.
aber mit 80% information kannst du diese geringfügigen beugungsunschärfen nicht rausrechnen.
und es ist ein irrtum, bei lichtwellen zu meinen, die paar sensorinformationen und die perfekte kenntnis des objektives ließen eine dekonvolution zu. erstens hat, wie matthiasausk bereits schrieb, der senosor nur ienen bruchteil der lichtinformationen des lichtes, das ihn traf, auswertbar an die bilddatendatei weitergegeben und zweitens ist doch das problem der beugung, daß den lichtwellen, die den sensor treffen, die interferenz mit den lichtwellen, die durch die blende ausgeklammert werden, fehlen und daher die auf den sensor treffenden lcihtwellen geringfügige falschinformationen vom motiv transportieren - eben die beugungsunschärfe, die nur deshalb entseht, weil zusätzlich notwendige lichtwellen eben fehlen, welche die beugung verhinderten.
und nun frage ich mcih, wie du aus den paar pixelinformationen zurückrechnen willst, welche informationen die von der blende ausgeklammerten lichtwellen mit sich geführt haben um dadurch die interferenzen zu rekonstruieren, die eben gar nciht stattgefunden haben, die aber stattfinden hätten müssen, damit es keine beugung gibt.
also: du kennst 2 zahlen und kannst mit deren hilfe nicht die dritte errechnen.
ist wie beim billardspielen - wenn du nicht weißt, wo exakt der abhanden gekommene dritte ball liegt, kannst du auf basis der beiden verbleibenen bälle nicht die ursprungslage der bälle errechnen. der abhanden gekommene ball symbolisiert hier die durch die blende ausgeschlossenen lichtwellen. die exakte kenntnis des billardtisches kann dir die info, die der dritte ball hat (also dessen gewicht und exakte postion), nicht ersetzen. da kannst zu dekonvolieren versuchen, so viel du willst.
und es ist ein irrtum, bei lichtwellen zu meinen, die paar sensorinformationen und die perfekte kenntnis des objektives ließen eine dekonvolution zu. erstens hat, wie matthiasausk bereits schrieb, der senosor nur ienen bruchteil der lichtinformationen des lichtes, das ihn traf, auswertbar an die bilddatendatei weitergegeben und zweitens ist doch das problem der beugung, daß den lichtwellen, die den sensor treffen, die interferenz mit den lichtwellen, die durch die blende ausgeklammert werden, fehlen und daher die auf den sensor treffenden lcihtwellen geringfügige falschinformationen vom motiv transportieren - eben die beugungsunschärfe, die nur deshalb entseht, weil zusätzlich notwendige lichtwellen eben fehlen, welche die beugung verhinderten.
und nun frage ich mcih, wie du aus den paar pixelinformationen zurückrechnen willst, welche informationen die von der blende ausgeklammerten lichtwellen mit sich geführt haben um dadurch die interferenzen zu rekonstruieren, die eben gar nciht stattgefunden haben, die aber stattfinden hätten müssen, damit es keine beugung gibt.
also: du kennst 2 zahlen und kannst mit deren hilfe nicht die dritte errechnen.
ist wie beim billardspielen - wenn du nicht weißt, wo exakt der abhanden gekommene dritte ball liegt, kannst du auf basis der beiden verbleibenen bälle nicht die ursprungslage der bälle errechnen. der abhanden gekommene ball symbolisiert hier die durch die blende ausgeschlossenen lichtwellen. die exakte kenntnis des billardtisches kann dir die info, die der dritte ball hat (also dessen gewicht und exakte postion), nicht ersetzen. da kannst zu dekonvolieren versuchen, so viel du willst.
Zitat: hcceds 12.10.15, 00:30Zum zitierten Beitrag
Die Frage, die ich mir stelle, ist, ob die Dekonvolution überhaupt existiert. Bei der Beugung am Einfachspalt müsste mit der sinc-Funtion gefaltet werden. Bezüglich der Intensität mit der sinc^2-Funktion. Im Ortfrequenzbereich entsprechen dem eine Rechteck- bzw. eine Trapezfunktion. Die Rückfaltung im Ortsbereich korresponiert mit einer Division durch die Übertragungsfunktion im Ortfrequenzbereich. Nur werden diese Übertragungsfunktionen oberhalb einer festen Grenzfrequenz konstant Null. Man hat also nicht nur das Problem, dass rauschbedingte Fehler extrem aufgeblasen werden sondern man kann jenseits der Grenzfrequenz prinzipiell nichts rekonstruieren. Falls meine Überlegung zutrifft.
Die Frage, die ich mir stelle, ist, ob die Dekonvolution überhaupt existiert. Bei der Beugung am Einfachspalt müsste mit der sinc-Funtion gefaltet werden. Bezüglich der Intensität mit der sinc^2-Funktion. Im Ortfrequenzbereich entsprechen dem eine Rechteck- bzw. eine Trapezfunktion. Die Rückfaltung im Ortsbereich korresponiert mit einer Division durch die Übertragungsfunktion im Ortfrequenzbereich. Nur werden diese Übertragungsfunktionen oberhalb einer festen Grenzfrequenz konstant Null. Man hat also nicht nur das Problem, dass rauschbedingte Fehler extrem aufgeblasen werden sondern man kann jenseits der Grenzfrequenz prinzipiell nichts rekonstruieren. Falls meine Überlegung zutrifft.
Zitat: hcceds 12.10.15, 00:30Zum zitierten BeitragZitat: N. Nescio 11.10.15, 00:50Zum zitierten BeitragDas ist richtig, aber die Kenntnis von zwei Zahlen reduziert das Problem auf 1%, da hilft schon probieren:)
Super, Problem gelöst.
Wenn Deine Software durch rumprobieren zu verwertbaren Ergebnissen gekommen ist, dann kannst Du Dich ja wieder melden.
Derweil wünsche ich Dir viel Spaß und Erfolg bei der Entwicklung.
Super, Problem gelöst.
Wenn Deine Software durch rumprobieren zu verwertbaren Ergebnissen gekommen ist, dann kannst Du Dich ja wieder melden.
Derweil wünsche ich Dir viel Spaß und Erfolg bei der Entwicklung.
Man kann sich die Sache mit der Beugung vielleicht auch folgendermassen veranschaulichen:
Nehmen wir doch spasseshalber einfach mal an, wir könnten aus einem Foto (der Intensitätsverteilung des Lichtes) die dafür verantwortlichen Wellenfronten unmittelbar vor dem Sensor rekonstruieren. Zu diesem Zweck könnten wir die Szene beispielsweise mit kohärentem Licht (Laserlicht) ausleuchten.
Wir können nun die weitere Ausbreitung Wellenfront problemlos im Computer simulieren - wir können sie im Computer genau so gut rückwärts laufen lassen. Man braucht nicht mal einen Computer um sich die Ausbreitung einer Welle rückwärts vorzustellen; man denke an den Teich und den Kieselstein. Die Krümmung einer Wellenfront steht in direkter Beziehung zur Entfernung zum Störungszentrum dieser Welle. Die Krümmung einer Kreis- oder Kugelwelle ist einfach der Kehrwert des Kreis- bzw. Kugelradius.
Lassen wir unsere Wellenfront in Gedanken also rückwärts laufen, dann sehen wir eine Wellenfront die auf die Blende zuläuft und sich dabei zusammenzieht. Zwei benachbarte Punkte auf der Wellenfront nähern sich einander dabei um so schneller, je stärker die Wellenfront dort gekrümmt ist. Irgendwann treffen sich die beiden Punkte; die Wellenfront hat das Erregungszentrum erreicht. Das ist vielleicht der Punkt im Objektraum oder - wenn die Wellenfront bei den beiden Punkten besonders stark gekrümmt ist - ein Punkt in der Nähe der Blendenkante.
Man kann nun die Wellenfront durchaus noch weiter zurückrechnen. Aber wie sieht die Welle auf einem Teich aus, bevor der Kieselstein hineingeworfen wurde? Rein rechnerisch verschwindet die Welle nicht einfach - es entsteht vielmehr wieder unsere ursprüngliche, sich vom Zentrum her ausbreitende Kreiswelle.
Man kann natürlich genau so die Beugung an der Blende noch weiter als bis zur Blende zurückrechnen, aber einen Punkt im Objektraum, sozusagen ein zweites 'Störungszentrum' findet man ganz bestimmt nicht. Man bekommt damit lediglich ein weiteres, in den Objektraum projiziertes Beugungsmuster.
Quizfrage: Kann man dieses in den Objektraum zurückgerechnete Beugungsmuster tatsächlich sehen bzw. physikalisch nachweisen (messen)?
Nehmen wir doch spasseshalber einfach mal an, wir könnten aus einem Foto (der Intensitätsverteilung des Lichtes) die dafür verantwortlichen Wellenfronten unmittelbar vor dem Sensor rekonstruieren. Zu diesem Zweck könnten wir die Szene beispielsweise mit kohärentem Licht (Laserlicht) ausleuchten.
Wir können nun die weitere Ausbreitung Wellenfront problemlos im Computer simulieren - wir können sie im Computer genau so gut rückwärts laufen lassen. Man braucht nicht mal einen Computer um sich die Ausbreitung einer Welle rückwärts vorzustellen; man denke an den Teich und den Kieselstein. Die Krümmung einer Wellenfront steht in direkter Beziehung zur Entfernung zum Störungszentrum dieser Welle. Die Krümmung einer Kreis- oder Kugelwelle ist einfach der Kehrwert des Kreis- bzw. Kugelradius.
Lassen wir unsere Wellenfront in Gedanken also rückwärts laufen, dann sehen wir eine Wellenfront die auf die Blende zuläuft und sich dabei zusammenzieht. Zwei benachbarte Punkte auf der Wellenfront nähern sich einander dabei um so schneller, je stärker die Wellenfront dort gekrümmt ist. Irgendwann treffen sich die beiden Punkte; die Wellenfront hat das Erregungszentrum erreicht. Das ist vielleicht der Punkt im Objektraum oder - wenn die Wellenfront bei den beiden Punkten besonders stark gekrümmt ist - ein Punkt in der Nähe der Blendenkante.
Man kann nun die Wellenfront durchaus noch weiter zurückrechnen. Aber wie sieht die Welle auf einem Teich aus, bevor der Kieselstein hineingeworfen wurde? Rein rechnerisch verschwindet die Welle nicht einfach - es entsteht vielmehr wieder unsere ursprüngliche, sich vom Zentrum her ausbreitende Kreiswelle.
Man kann natürlich genau so die Beugung an der Blende noch weiter als bis zur Blende zurückrechnen, aber einen Punkt im Objektraum, sozusagen ein zweites 'Störungszentrum' findet man ganz bestimmt nicht. Man bekommt damit lediglich ein weiteres, in den Objektraum projiziertes Beugungsmuster.
Quizfrage: Kann man dieses in den Objektraum zurückgerechnete Beugungsmuster tatsächlich sehen bzw. physikalisch nachweisen (messen)?
Zitat: Hermann Klecker 12.10.15, 16:54Zum zitierten BeitragDen hätte ich gerne, aber das ist mindestens 10 Jahre zu spät. Die Verfahren und Programme dazu gibt es schon lange. War doch noch gar nicht so spät!
Zitat: 0x FF 12.10.15, 11:03Zum zitierten Beitrag
Da verlasse ich mich auf das, was ich Internet finde. Das macht einen verlässlichen Eindruck.
Zitat: 0x FF 12.10.15, 11:03Zum zitierten BeitragErsteres sehe ich bei der Implementierung in DLO nicht (zumindest das "extrem aufgeblasen"). Zweiteres ist sicher richtig.
Da verlasse ich mich auf das, was ich Internet finde. Das macht einen verlässlichen Eindruck.
Zitat: 0x FF 12.10.15, 11:03Zum zitierten BeitragErsteres sehe ich bei der Implementierung in DLO nicht (zumindest das "extrem aufgeblasen"). Zweiteres ist sicher richtig.
Zitat: N. Nescio 12.10.15, 01:41Zum zitierten BeitragSorry, Deine 99% und meine 80% bezogen sich auf den Output des Systems nicht auf den Input.
Zitat: N. Nescio 12.10.15, 01:41Zum zitierten BeitragEs ist nicht nur die Kenntnis der Objektivrechnung sondern die Kenntnis der "optischen Gesetze" um die Deconvolution zu "entwickeln". Die Sensor Information bietet lediglich 20 Millionen Inputs für den entwickelten numerischen Apparat um 20 Millionen Outputs zu berechnen. Mehr brauchst nicht. Ich glaube, Du gehst immer noch davon aus, dass die Eingangswerte die Deconvolution bestimmt?
Zitat: N. Nescio 12.10.15, 01:41Zum zitierten BeitragEs ist nicht nur die Kenntnis der Objektivrechnung sondern die Kenntnis der "optischen Gesetze" um die Deconvolution zu "entwickeln". Die Sensor Information bietet lediglich 20 Millionen Inputs für den entwickelten numerischen Apparat um 20 Millionen Outputs zu berechnen. Mehr brauchst nicht. Ich glaube, Du gehst immer noch davon aus, dass die Eingangswerte die Deconvolution bestimmt?
Zitat: hcceds 12.10.15, 22:29Zum zitierten BeitragZitat: 0x FF 12.10.15, 11:03Zum zitierten Beitrag
Da verlasse ich mich auf das, was ich Internet finde. Das macht einen verlässlichen Eindruck.
....
Zeig' bitte mal die Stelle
Da verlasse ich mich auf das, was ich Internet finde. Das macht einen verlässlichen Eindruck.
....
Zeig' bitte mal die Stelle