Erlebnis-Photographie Podcast

Wie nochmal ein Fotopodcast? Ja Leute! Ich denke ich habe eine Marktlücke entdeckt: Wir machen einen Fotopodcast. Es gibt nämlich noch keinen! Ich habe in letzter Zeit viele Podcasts konsumiert. Angefangen von Calvin Hollywood, Michael Omori Kirchner, Jonas Peterson, Nina Schnitzenbaumer, Frank Fischer, Jan Kocovski und viele mehr. Deshalb wird sich dieser Fotopodcast sich nicht mit Dingen, wie Marketing beschäftigen. Auch nicht mit Kaufempfehlungen von irgendwelchen neuen Kameramodelle, sondern mit fotografischen Hardfacts und Basics. Wusstet Ihr zum Beispiel, dass die Fotografie möglicherweise schon über 40.000 Jahre alt ist? Wolltet ihr schon immer einmal den Unterschied zwischen Schärfentiefe und Tiefenschärfe kennenlernen? Dann seid ihr bei uns genau richtig. Wir machen Fotografie hörbar. Einfach und verständlich. Zu den Basics gehören bei uns nicht nur die Bedeutung von Blende und Belichtungszeit - also die Technik - sondern auch die Geschichte der Fotografie oder die Arbeit und der Stil bekannter Fotografen.

https://www.schoder-media.de/fotoworkshops/

subscribe
share






Podcast Erlebnis Photographie 004 Actioncam der Seele


Die Augen – Actioncams der Seele Fotografische Grundlage einfach erklärt: Blende, Belichtungszeit, Empfindlichkeit

 

“Die Augen, die Actioncam der Seele – das Auge, die Kamera, die uns unser ganzes Leben dabei haben.

Hallo, schön dass Du wieder dabei bist. Bei der vierten Episode unseres Podcasts “Erlebnis Photographie”. Ich bin Christoph Schoder. Fotograf, Trainer und Podcaster.

In diesem Podcast geht es um die Grundlagen der Fotografie, Bende, Linsen, Belichtungszeiten.

Ich erzähl euch alles von Anfang an, alles was ich weiss. Schliesslich sollt ihr die Möglichkeit haben alles zu lernen. So ganz neben her beim Zuhören

Wenn du der Ansicht bist, du weisst das alles schon, dann kannst du diese Episode einfach auslassen.

Aber…. Ich will wenn ich eine Podcastepisode für Euch produziere auch was davon haben. Deshalb kann ich Euch verprechen, ich hab bei der Recherche zu dieser Episode sehr viel neues dazu gelernt und es ist sicher auch noch einiges dabei, was du auch noch nicht weisst.

In den letzten 3 Episoden habe ich Euch von der Geschichte der Camera Obscura erzählt.

Nachdem ihr in den letzten 90 Minuten viel Theorie konsumiert habt, werden wir in dieser Episode das erste Mal mal mit den praktischen Grundlagen der Fotografie beschäftigen.

“Die Augen, Fenster der Seele.” Beginnen werden wir mit einer Kamera, die jeder bei sich hat.
Genau genommen sind es sogar zwei: Deinen Augen.
Bei dieser Episode geht es zwar nicht um imaginäre Seelen trotzdem steckt hinter den Augen wesentlich mehr, als du ihnen von außen ansiehst.

Ob absichtlich oder zufällig Kameras nach dem Vorbild des Auges konstruiert wurden oder ob sie sich unabhängig entwickelten, ist nicht bekannt. Trotzdem: Kameras und Augen sind von der Konstruktion her sehr ähnlich.

Deshalb, verwende ich das Auge um dir die Funktionsweise einer Kamera zu erklären.

 

Bild einer Maske beim Karneval in Venedig. Diese Augen gehören der zauberhaften Maskerade Daniela Hahn.

 

Der große Vergleich: Aufbau Kamera – Auge

Die Entwicklung des Auges dauerte ungefähr 505 Millionen Jahres. Vor knapp 505 Millionen Jahren warteten die ersten Kopffüsser, der Nautilus, mit einer Lochkamera als Auge auf. Die Augen mit Linsen entwickelten vor ca 500 Millionen Jahren. Den Nautilus gibt es sogar heute noch.

Das haben wir Euch in der ersten Episode unseres Podcasts der Camera Obscura – Kino der Steinzeit schon erzählt.

Die Geschichte der Fotografie beginnt erst viel später. Und zwar ungefähr vor 30.000 Jahren. Im 19ten Jahrhundert kommen dann die ersten Kameras, die Henry Fox Talbot, Daguerre oder Niépce entwickelten.

 

Dein Auge

Du kennst das vielleicht noch aus dem Biounterricht:
Das menschliche Auge hat die Form einer Kugel auf der einen Seite ein Loch und davor eine Linse.
Das Loch nennt man auch Pupille. Das Bunte, Schillernde drum herum, das was die meisten an den Augen fasziniert, nennt man Regenbogenhaut oder Iris .
Sie zieht sich zusammen oder weitet sich und regelt so den Lichteinfall in das Auge.
Gegenüber befindet sich die Netzhaut. Der Teil des Auges, der das Bild aufnimmt.
Dort befinden sich Zellen, die Licht und Farben aufnehmen.
120 Millionen Stäbchen für Hell-Dunkel-Sehen und 6 Millionen Zapfen für Farbsehen. Die Menge der jeweiligen Zellen erklärt auch, warum sich das Sehen bei hoher Dunkelheit auf Schwarzweißsehen beschränkt. Es gibt viel mehr Zellen, die für die Hell-Dunkel-Wahrnehmung zuständig sind.

 

Die Kamera

Die Retina bzw Netzhaut entspricht dem Chip oder dem Film der Kamera. Sie befindet sich gegenüber der Pupille.
Die Netzhaut schafft eine Auflösung von 22 MP bei einem Bildverhältnis von 4:3.
Im Gehirn kommt so ungefähr die Hälfte der Information an: So in etwa 8 bis 12 Megapixel.

Die Bezeichnung „Adlerauge“ ist in diesem Zusammenhang sprichwörtlich.
Tatsächlich sind die Augen der Greifvögel viel leistungsfähiger, als die der Menschen. Das liegt daran, dass die Dichte der Sehzellen viel höher ist. Dank dieser höheren Auflösung kann ein Adler eine Maus auf 1000 Meter Entfernung ausmachen.

Felicitas mit Adlermaske. Ebenfalls beim Karneval. Schärfe fürs Bild – Die Linse dein eingebautes Objektiv

Linsen sind nicht unbedingt notwendig, um Fotoaufnahmen zu machen.
Das Auge des Nautilus hat zum Beispiel keine Linse und er kann trotzdem sehen. Auch Lochkameras kommen ganz ohne Linse aus.
Dies geht aber meist zu Lasten der Bildqualität.
Vor allem was Schärfe und Empfindlichkeit angeht.

Im Laufe der Evolution haben sich Augen mit Linsen entwickelt.
Ein Ringmuskel dehnt oder rundet die Linse, um so die Schärfe einzustellen.
Der Mindestabstand dass die Scharfstellung funktioniert, liegt zwischen 20 cm und 30 cm. Ihr könnt das einfach ausprobieren.
Nehmt ein Buch oder etwas anderes zum Lesen und haltet es so nahe vor die Augen, bis die Buchstaben verschwimmen.

Beim Fotoapparat ist das vergleichbare Äquivalent das Objektiv. Meist besteht es
aus einem System mehreren Linsen. Du kannst daran drehen, um das Bild scharf zu stellen.

Tatsächlich hat der Philosoph und Wissenschaftler René Descartes vorgeschlagen, Linsen aus den Augen kürzlich verstorbener in einer Camera Obscura zu verwenden.

 

Permanenter Autofokus

Siehst du scharf? Normalerweise wirst du diese Frage mit ja beantworten, wenn, du nicht gerade ein Brillenträger bist, wie ich zum Beispiel. Aber normalerweise siehst du scharf. Oder du meinst zumindest scharf zu sehen.
Ähnlich wie bei den Automatikprogrammen der Kamera, ein Computer unterstützt, greift das Gehirn ins sehen ein.

Es initiiert quasi einen Permanenten Autofokus. Alles was wir aufs Korn nehmen oder anblicken, wird umgehend und sofort automatisch vom scharf gestellt.

Genau so unwillkürlich ist die HDR- und die Stitching Funktion des Gehirns. Um unterschiedliche Helligkeitsstufen anzugleichen, können mehrere Bilder zusammen gerechnet werden, eben so, wie um auch ein Panorama zu erzeugen. Immerhin hat unser Gesichtsfeld einen Winkel von 180 Grad, den wir auf einmal wahr nehmen können.

Während bei einigen Tierarten, wie zum Beispiel Vögeln, die Augen so angeordnet sind, das sie möglichst einen 360 Grad-Rundumblick ermöglichen, kann der Mensch mit seinen Augen räumlich – quasi in 3D – sehen.

 

Das Brennglas und die Brennweite

Eventuell Hast du früher einmal versucht, mit einer Lupe ein Stück Papier anzuzünden.
Das geht so: Du nimmst eine Lupe hältst sie in die Sonnenstrahlen. Dadurch zeichnet sich ein heller Lichtfleck auf dem Papier ab. Nun bewegst du die Lupe so lange hin und her, bis du den Punkt findest, an dem das Papier sich braun färbt und zu kokeln anfängt.
Genau so bestimmst du den Brennpunkt.
Der Abstand zwischen Linse und diesem Brennpunkt bezeichnet man als Brennweite.
Unsere Augen sind entsprechend klein so dass die Brennweite eines Auges liegt zwischen 17mm und 22mm je nachdem, wohin man schaut.

Das Iphone 6 hat zum Vergleich eine Brennweite von 4,15 Millimetern. Das hat damit zu tun, dass die Mobiltelefone doch wesentlich dünner und schmaler als menschliche Augäpfel sind.

Das Sichtfeld, der Bereich in dem du mit einem Auge etwas sehen kannst ohne den Kopf zu drehen, beträgt bei einem Auge ein Winkel von ca 120 Grad und mit beiden Augen zusammen ca 180 Grad. Das gilt aber nur nach rechts und links. Oben und unten ist das Sichtfeld mit 60 bis 70 Grad deutlich kleiner.
Von den gesamten 180 Grad Sichtfeld, nutzen wir effektiv zur 60 % Wahrnehmung. Der Bereich, in dem wir wirklich scharf sehen ist noch einmal deutlich kleiner.

Alle diese unvollkommenen Informationen und Bilder, werden über Augen aufgenommen und an das Gehirn weiter geleitet und dort verarbeitet und interpretiert.

Was ähnliches passiert auch in Mobiltelefonen und Digitalkameras, zumindest wenn du JPGs erzeugst. Dann werden von den Telefonen und der Kamera gleich nach der Aufnahme Optimierungsprogramme über Eure Aufnahme gejagt. Das ist zum Beispiel der Grund, warum bei einer Aufnahme in JPG und gleichzeitig in Raw die JPGs oft irgendwie knackiger aussehen, als eure unkomprimierten RAW aufnahmen. Die wirken dann oft etwas seicht. Eben, weil sie noch ganz unbearbeitet, quasi jungfreulich daher kommen.

 

Anmerkung zu dieser Episode:

Ich bin kein Biologe, und trotzdem habe ich dir bis zu diesem Punkt schon wahnsinnig viel über die Biologie und die Beschaffenheit des Auges erzählt. Viel weniger aber von dem Aufbau einer Kamera. Warum?

Sicher hast du schon einmal eine Fotografie gesehen, zum Beispiel auf einem Handy, die von vorne bis hinten scharf ist. Vielleicht ist dir dieses Bild etwas komisch vor. Das liegt daran, dass diese durchgängige Schärfe nicht unseren Sehgewohnheiten entspricht.

Auch wenn du die Details über die Augen wahrscheinlich schon wieder vergessen hast, von denen ich dir vorhin gesprochen habe, hast du jetzt aber sicher begriffen, dass es gravierende Unterschiede gibt, zwischen dem, was du siehst und dem was deine Kamera wahrscheinlich aufnehmen wird.

Deine Augen sehen ganz anders, wie deine Kamera. Du in 3D, deine Kamera in 2D. Natürlich ist der Liveview deiner Kamera ein gutes Hilfsmittel, um die Bildwirkung im Vorfeld zu beurteilen.

Bisher haben wir uns nur über Brennweite des Auges unterhalten. Wahrscheinlich hast du schon gehört, dass es für Kameras unterschiedliche Objektive mit verschiedenen Brennweiten gibt.
Wir werden bei einer eigenen Episode extra auf Objektive eingehen, aber je nach Brennweite des Objektiv ändert sich der Sehausschnitt und die Perspektive deiner Kamera.

Ein weiterer frappierender Unterschied zwischen Kamera und Auge ist der, dass ein Auge vom Dynamikumfang 20 Blendenstufen unterscheiden kann, eine Kamera in der Regel nur 12.

Was das bedeutet schauen wir uns gleich im Belichtungsdreick an:

 

Belichtungsdreieck Das Belichtungsdreieck:

Bei der Fotografie beeinflussen sich 3 Faktoren gegenseitig. Verändert ihr eines verändern sich unter Umständen alle anderen mit. Das sind:
-Belichtungszeit
-Blende
-Empfindlichkeit

 

Ein Lidschlag – deine Belichtungszeit:

Genau genommen ist das Auge keine Foto- sondern eine Videokamera. Es nimmt 25 Bilder pro Sekunde auf. Das entspricht, der Bildrate das bei uns in Europa in der Video und Filmproduktion verwendet wird und entsprechend im Fernsehen läuft.

Andreas Martin vom Fotoworkshop Stuttgart hat dazu auf seinem Blog eine tolle Berechnung angestellt:
Ein Mensch macht in seinem Leben 450 bis 850 Millionen Lidschläge. Wenn man davon ausgeht, dass ein Mensch zwischen 79 und 84 Jahre alt wird. Andreas geht davon aus, dass jeder Lidschlag einem Foto entspricht, also wären das bis zu 850 Millionen Lidschläge. Was schon im Verhältnis zu der Haltbarkeit eines Verschlusses einer Digitalkamera, so max 200.000 Auslösungen, schon gigantisch ist.

Aber ich habe ja gesagt, das Auge entspricht eher eine Videokamera, was heißt, ich nehme das Augenlid zwar als Äquivalent zum Kameraverschluss, aber in Wirklichkeit nimmt das menschliche Auge während eines Lebens 125x mehr Bilder auf als 450 oder 850 Millionen auf. Ich bin jetzt kein Mathekrack aber ich glaube, da sind wir dann schon im ein- oder zweistelligen Milliardenbereich. Das schafft kein mechanischer Verschluss.

 

Der mechanische Verschluss

Der Verschluss ist vereinfacht gesagt eine Klappe, die sich öffnet und schließt und so regelt, wie viel Licht in die Kamera auf den Chip oder beim Auge, das Lid, wie viel Licht auf die Netzhaut fällt.
Diese Zeit ist unterschiedlich. Auch sie hängt von verschiedenen Faktoren ab. Der wichtigste ist aber die Helligkeit, die dich als Fotograf umgibt.
Je heller, desto weniger Lang musst du den Verschluss offen lassen.

 

Digitaler Verschluss

Ihr werdet es kaum glauben, aber zum Fotografieren braucht man keinen Strom. Zumindest war das früher so. Der Verschluss wurde mit einer Feder gespannt, so wie der Hahn eines Revolvers oder einer Pistole und Zack beim Auslösen, entspannte sich die Feder ruckartig und der Verschluss wurde mit der eingestellten Verschlusszeit auf und zu bewegt. Daher kommt auch die Bezeichnung Schuss oder englisch Shot.
Theoretisch brauchen wir heute keinen solchen mechanischen Verschluss mehr.
Der Chip ist ja elektrisch und eigentlich sollte es ausreichen, diesen für die Dauer der Belichtung an und ab zu schalten.
Das nennt man dann einen digitalen Verschluss. Dieser soll laut Panasonic bis zum Jahr 2020 kommen.
Dieser Verschluss hätte den Vorteil er kommt ohne mechanische Teile aus, sie verschleißen können. Wir erinnern uns: 150.000 bis 200.000 Auslösungen. Und schnellere Belichtungszeiten wären auch möglich.

 

Die Regenbogenblende:

Die Pupille ist einfach nur ein Sehloch und hat deshalb keine Farbe. Ganz im Gegensatz zu der Regenbogenhaut. Das ist der Teil des Auges oder sogar deines Gegenübers, den du ganz deutlich wahr nimmst und der unter Umständen starke Gefühle bei dir auslösen kann. Deshalb auch die Namensgebung der heutigen Episode.

Die Iris verfügt über zwei eigene Muskeln, die die Größe der Pupille steuern. Ihre Größe kann zwischen 1,5 mm am Tag und 8 mm in der Nacht variieren und kommt damit auf Blendenwerte im Vergleich zum Kameraobjektiv von Blende f3,5 bis f8.

Blende bedeutet also: Je kleiner die Pupillenöffnung, desto größer die Zahl der Blende und je größer die Pupille desto kleiner die Blendenzahl. Ganz einfach oder? Ich verwechsle manchmal noch heute im Eifer des Gefechts große und kleine Blende. Weil für mich ist große Blende gleich weit offene Blende und kleine Blende die möglichst kleine Zahl.

 

Schärfentiefe oder Tiefenschärfe?

Über die Definition der beiden Begriffe haben sich schon Generationen von Fotografen gestritten.
Tiefenschärfe bestimmt in der Regel, ist der Hintergrund scharf oder unscharf und ab wo wird der Hintergrund unscharf.
Dies lässt sich auch mit Hilfe der Blende steuern.
Je kleiner die Blendenöffnung desto Schärfer das Bild.

Beim Auge ist ein großer Schärfebereich nicht ganz so wichtig, da das Gehirn die unscharfen Bereiche ausgleichen kann.

Bei Porträts wird zum Beispiel gerne offenblendig fotografiert. Der Fokus wird auf das Gesicht oder die Augen des Models gelegt und der Hintergrund wird unscharf. Vielleicht hast du schon mal was von Bokeh gehört, genau das ist damit gemeint.

 

Unscharfe Bilder oder Verwackler

Es gibt drei Möglichkeiten unscharfe Bilder zu produzieren:

-Über die Scharfstellung bzw den Fokus
-Über die Blende
-Über die Belichtungszeit

Im Gegensatz zum Auge wird die Schärfe Kamera nicht vom Gehirn unwillkürlich geregelt. Sondern durch Schärfepunkte, im Sucher. Egal, wie viele deine Kamera auch hat, müssen diese nicht unbedingt da sein, wo du dein Bild scharf haben willst.
Zwar wird die Technik bei der Gesichtserkennung usw immer Besser aber dennoch, kann der Automatikmodus manchmal zu sehr seltsamen Ergebnissen führen. Vor allem, wenn es schnell gehen muss, und du nicht permanent auf den Fokus achtet, kann es sein, dass nach dem Shooting die böse Überraschung droht.

Die Steuerung der Schärfe über die Blende haben wir ja gerade besprochen.
Gerade bei kleinen Blendenzahlen müsst ihr genau drauf achten, worauf ihr scharf stellt.

Die meisten als unscharf bezeichneten Bilder fallen unter die Kategorie verwackelt.
Meist liegt das daran: Zu wenig Licht und trotzdem wird aus der Hand fotografiert.
Egal wie ruhig deine Hand auch sein mag oder wie gut der Stabilisator deines Objektivs auch sein mag, irgendwann wird die Eigenbewegung sichtbar und das Bild verwackelt.

 

Was dein Auge und deine Kamera sieht. Die Empfindlichkeit deines Auges und der Kamera

Der dritte und letzte Punkt Belichtungspyramide ist die Empfindlichkeit. In der Dunklheit lässt sich die Lichtmpfindlichkeit des Auges beziehungsweise der Netzhaut erhöhen, um mehr sehen zu können. Das geschieht auf chemischem Wege und zwar durch die Produktion von Pigmenten. Das nennt sich Adaption und kann bis zu einer halben Stunde dauern. Allerdings nimmt die Qualität des Sehens ab und zwar betrifft das Schärfe und Farbe.

 

Die Filmkörnung

Früher, zur Zeit der Analogkameras habe ich mit unterschiedlich empfindlichen Bildmaterial gearbeitet. Der Empfindlichste Film lag so in etwa bei 1000 ISO. Der Nachteil eines solchen Filmmaterial war, das die Körnung des Films auf den Abzügen zu sehen war. Je empfindlicher der Film sein sollte, desto grösser mussten die Kristalle in der Filmemulsion sein, um noch mit dem wenigen Licht zu reagieren.
Auch die Farben wurden eher flau wiedergegeben.

 

Für was steht die Abkürzung ISO?

Die Bezeichnung ISO für die Empfindlichkeit gibt es immer noch:
International Organization for Standardization
Zwischenzeitlich sind eine Empfindlichkeit von mehreren Tausend ISO normal.

 

Das Rauschen im Bild – Bildrauschen

Ein ähnliches Phänomen gibt es auch bei den aktuellen Digitalkameras. Und zwar das Bildrauschen. Es tritt dann auf, wenn die Kamera zu empfindlich eingestellt ist.
Der Chip deiner Kamera verfügt über tausende lichtempfindlicher Dioden. Damit diese auch Bilder aufnehmen können, liegt eine elektrische Grundspannung an.
Je empfindlicher du deine Kamera einstellst, desto eher passier es, dass der Chip die
Grundspannung mit schwachen Lichtimpulsen verwechselt und irgend welche farbigen Störpixel in die Aufnahme rechnet.

Das beeinträchtigt natürlich die Bildqualität und
Schärfe.

Um Schaden am Auge zu verhindern findet die Adaption an eine helle Lichtsituation innerhalb weniger sekunden statt.

Heute werden die Kamerasensoren zwar nicht mehr beschädigt, aber wenn sie zu empfindlich sind, wird es deutlich schwieriger korrekt belichteten Aufnahmen zu machen, da helle Bereiche schnell ausfressen.

 

Üben, üben, üben

Je nachdem, welchen Wert ich im Belichtungsdreieck verändere, verändern sich in Abhängigkeit dazu auch die anderen Werte.

Chris beim üben auf der Oscar Wilde nach Irland. – Fotoreise

Willst du ein Porträt machen, dann wählst du vielleicht eine Blende 2, damit die Augen scharf werden, der Hintergrund aber unscharf wird und das Model frei gestellt ist. Die Belichtungszeit wird entsprechend kurz und die Empfindlichkeit entsprechend gering sein.

Anders bei einer Sportaufnahme. Die Bewegung soll einfrieren. Also muss die Belichtungszeit sehr kurz sein. Scharf sollte die Aufnahme auch sein, also großer Blendenwert mit kleiner Blendenöffnung, also komme ich um einen hohen ISO-Wert nicht herum.

Um ein Gefühl für die Abhängigkeiten zu entwickeln würde ich dir empfehlen, einfach auszuprobieren und viele Bilder mit deiner Ausrüstung zu machen.

Ich hoffe, ich habe dir am Anfang nicht zu viel versprochen und hoffe, dass du etwas für dein persönliches Learning aus dieser Episode mitnehmen konntest.
Wenn du Fragen hast zu dieser Episode, dann kannst du diese gerne stellen auf meiner Hompeage fotoerlebnis.eu, dort habe ich extra einen Chat eingerichtet, über den du mich direkt erreichen kannst der über mein Seite auf Facebook. Die Shownotes und das Transkript zum Podcast findest du ebenfalls dort.

Jetzt wünsche ich dir einen schönen Spätsommertag dein Christoph Schoder.

 

Mehr Informationen zu dieser Episode findest du in den Shownotes

Episode gleich hier anhören:

Der Beitrag Podcast Erlebnis Photographie 004 Actioncam der Seele erschien zuerst auf FotoScho • Fotoerlebnisse.


fyyd: Podcast Search Engine
share








 September 5, 2018  36m