Beiträge von Hoogo im Thema „C64-Farben und Farbsehschwäche“

    Du meinst sicherlich was komplizierteres aber an sich ist das doch ganz normal: kein Licht = keine Farbe ("nachts sind alle Katzen grau"), wenig Licht = wenig Farbe, mehr Licht = mehr Farbe. In der Dämmerung kann kaum jemand Farben unterscheiden, bei Sonnenschein geht es besser. Aber wie gesagt, du wirst etwas anderes meinen ...

    Ja, ich denke, ich weiß, was er meint. Wenn doch die Iris sich so weit zusammenzieht, dass die gleiche Intensität an Licht einfällt wie in einer etwas dunkleren Umgebung, wo sie weiter aufgeht, wäre es ja logisch, wenn auch das Farbsehen identisch wäre. Ist es aber nicht. Das Spektrum verändert sich anscheinend, und, wie wir ohnehin wissen, der Streulichtanteil. Möglicherweise wird die Farbe generell intensiver, aber ab einer bestimmten Sättigung übersteuert die Wahrnehmung bzw. signalisiert früh Vollsättigung, während bei den r/g-Schwachen die Vollsättigung bei r/g nicht oder später erreicht wird. Viele mögliche Ansätze.

    Ich denke, es hat auch was mit dem Lichtspektrum zu tun.

    Ja, ius hat genau das Verstanden, was ich meinte.

    Klar ist mir:
    Wenn ich mich JETZT so umgucke, wo es kurz vor der Dunkelheit ist, da wundert es mich nicht, dass Sachen mit den knaatschigsten Farben nur noch blass gefärbt sind. Alle "Farbkanäle" sind nur noch knapp über Schwarz, das ist wie ein unterbelichtetes Foto.

    Bei perfektem Licht wäre die Chipstüte da hinten $ff0101, da ist ordentlich Unterschied in der Dynamik von Rot zu den anderen Kanälen, das wäre ordentlich satte Farbe.

    Aber jetzt ist da bestenfalls noch $080101 übrig, da ist so wenig Dynamik übrig, ich sehe kaum noch Farbe.

    => DAS meinte ich nicht.

    Das ist halt so ne komische alte Fotografen-Weisheit:

    Bei Sonne gibt es knallige Farben, bei weniger Licht wird es neutraler.

    Vom Gefühl her ist das so wahr...Obwohl man den Film immer gleich gut belichten kann, indem man die Belichtungszeit anpasst!

    Ist wie mit der Pupille, die ius genannt hat: Das Farbsehen MÜSSTE eigentlich gleich sein, aber irgendwie ist es das nicht.

    Ich hab es nie kontrolliert oder Experimente dazu gemacht.

    Vielleicht ist es ja auch nur Einbildung oder eine andere Form von optischer Täuschung, dass bei Sonnenschein die Farben satter sind.

    ...Alle Mischfarben sind Metamere zu realen Spektren, aber auf dem Monitor eindeutig durch die Tristimulus-Werte (RGB) definiert, also im Rahmen der wahrnehmbaren Differenzen unterscheidbar....

    ...Umgekehrt: 2 reale Spektren, die für einen Trichromaten metamer sind (also als gleiche Farbe wahrgenommen werden), können aber durchaus für einen Tetrachromaten unterschiedlich aussehen...

    Das sehe ich auch so, aber der Test basiert nicht auf Metamerie.

    Die prüfen, wie gut ähnliche Farben zu unterscheiden sind.

    Nach meinem Verständnis funktioniert das nur, weil die Empfindlichkeiten im Auge alles andere als scharf begrenzt sind.

    Schick ein bisschen mehr Grün über den Monitor, und alle Zäpfchen werden darauf reagieren - egal, ob Du nur grüne oder grüne und gelbe hast.

    Farben werden im Auge als Differenz (oder Verhältnis?) verschiedener Zäpfchen "berechnet". AFAIK sind da schon im Auge spezialisierte Zellen für da, es geht gar kein RGB (+Helligkeit) ins Hirn.

    Diese Verschaltung im Auge ist wohl fest auf 3 Werte in Richtung Hirn festgelegt, echte Tetrachromaten können Menschen damit nicht sein.

    Aber offenbar verbessert sich doch die Unterscheidbarkeit, wenn an manchen Stellen Grün + Gelb oder Rot + Gelb statt nur Grün + Rot verrechnen kann.

    EDIT:
    Stäbchen haben auch eine spektrale Empfindlichkeit.
    IM PRINZIP wären also eh 4 verschiedene Sensoren im Auge, was Tetrachrmatik erlauben müsste.

    Wenn da halt nicht diese Verschaltung im Auge wäre, die alles auf 3 "Vergleiche" zusammendampft.

    Und das ist nur mein Verständnis des Ganzen, man kann sicher noch tiefer ins Thema rein.

    Der Film legt u.a. nahe, dass wir eine Farbe erst "sehen" (im Gehirn unterscheidbar wahrnehmen), wenn wir sie benennen können. Ich kenne alte Texte, die den Himmel nicht als blau bezeichnen und die Heide als braun (statt violett).

    Bitte melde dich an, um diesen Link zu sehen. waren bunt. Hauptsächlich Blau, Rot, Weiß.

    Bitte melde dich an, um diesen Link zu sehen. aus Babylon: Blau-Gold
    Tausend Jahre vorher haben die Bitte melde dich an, um diesen Link zu sehen. Blau benutzt

    Tutenchamuns Totenmaske: Blau-Gold.

    Bitte melde dich an, um diesen Link zu sehen. vor knapp 5000 Jahren: Blau und Rot

    Bitte melde dich an, um diesen Link zu sehen. in Indien und Peru ca. 6000 Jahre.

    Viel weiter kann die Historie nicht zurückgehen.

    Blau war als Farbe verfügbar, Azurit war damals wohl der Hit, Indigo auch in Griechenland bekannt.

    Zumindest den Teil "Blau war als Farbe schwer verfügbar" würde ich so nicht stehen lassen wollen.

    "Azur", "Türkis" und "Indigo" sind auch alte Wörter. Wenn mich jemand nach Azur oder Indigo fragen würde, ich hätte keine Ahnung, sind für mich einfach "Blau", so wie Fuchsia für mich einfach "Rot" ist.

    Was ich gerne akzeptiere:
    In den abstrakteren Ebenen der Wahrnehmung basiert viel auf Mustervergleich und Training.

    Wenn man Blau, Grün und Violett trainiert hat und dann Indigo sieht, dann wird man das auf abstrakterer Ebene genau so einsortieren, wie man eine der anderen Farben einsortiert. Imho braucht es dazu aber kein "benennen".

    Wenn direkt 2 Farbfelder aneinanderstoßen, dann wird man die leicht trennen können, egal, ob man mit dem namen Indigo was anfangen kann oder nicht.

    Wenn man aber hin- und herblicken und das Gedächtnis bemühen muss, dann wird man es schwer haben.

    Der Farbeindruck lässt sich z.B. im hellen Sonnenlicht oder bei extremem Halogenlicht herstellen, wenn das Auge die Helligkeit kompensiert, aber die Farbsättigung erhöht ist.

    Wo wir grad alle so schön beisammen sind:

    Ich hab für mich noch keine Erklärung gefunden, warum mehr Licht für sattere Farben sorgt.

    Die HSL-Sättigung ist das Verhältnis von stärkstem zum schwächsten Farbkanal.

    Doppelt so viel Licht ändert ja nichts am Verhältnis - und trotzdem wirkt es satter.

    Hat da jemand ne schöne Erklärung für?
    Sowas wie "bloß nicht linear die Photonen vergleichen, sondern für die Sättigung vorher ne Kurve anwenden" oder sowas.

    Da kommen mir grad Ideen...

    - Simulation solcher Fehlsichtigkeiten müsste auch mit Farbprofilen gehen, so dass eine Art Proof in allen Anwendungen und auch Desktops möglich sein müsste.

    - Und eigentlich müsste auch der umgekehrte Weg mit Einschränkungen möglich sein: Farbprofile, die den Farbraum derart verknautschen, dass die schlecht unterscheidbaren Farben woanders hingemappt werden.