login = PHOTUS - fils des discussions
Bas de page



> Vu : 2315 fois
le Sun 22 Feb 2009 à 18h 48
Fil initié par "Olivier-P"
Blog-forum le coin du feu
CLASSEMENT Les techniques
Administrateur



Titre : Les tests d´APN sur mesures capteurs ? exhaustifs ?
16 septembre 2008

Certaines grandes maison du logiciel photo, excellentes dans leurs domaines d’application, ont tenté récemment de « juger » les APN, par des mesures. C’est le cas de DXO en cet automne 2008 qui propose un logiciel sous forme «béta » (ce qui signifie essai, ou présérie), et sans doute à l’avenir d’autres maisons. Cest une tendance également rencontrée dans les sites internet, qui font appel à des mesures, sur chartes de gris très souvent.

Je critique très fortement ces méthodes, non pas la probité sans aucun doute des testeurs, mais par des méthologies non exhaustives. Et donc des conclusions éloignées de la réalité dans mon observation entres autres. Certains se réfèrent invariablement à ces nouvelles méthodes comme un révélateur infaillible, d'autres sont critiques. Au moins à l'heure actuelle, je peux dire que je me range dans le rang des critiques sévères.

Je critique ces nouvelles formes d’approches techniques, pour évaluer les APN, leurs conclusions plus que les résultats bruts, je critique ces travaux en tant que les résultats bruts - pourtant exacts - et dire qu'ils sont innapropriés.

Je ne critique pas le parcellaire en tant que sa parcelle soit juste.

Je critique le fait qu’elle puisse ou non se rapporter à une généralité utile. Et encore plus qu’elle puisse générer la totalité du champs d’application. C’est important comme critique. Pourquoi ? c’est simple, l’information donnée sera lue avec une volonté d’éclaircissement d’un sujet précis, lui global. C’est à dire qu’elle sera toujours rapportée au thème qu’elle étudie. Et dans tous les cas elle est dépendante du lecteur et de sa culture. Le thème étant complexe, le lecteur moins informé que le savant, prendra toujours l’information parcellaire comme la seule vérité rapide qu’il a comme matière.

Pour résumer, n’ayant pas d’autres information, la seule présentée est prise comme vérité. Pas relative, absolue !

C’est tentant, c’est le problème constant des mesures.

Sont elles totales ? Ma réponse est non.

Comment est présentée la réponse ? comme LA réponse. Dans une étude d’un sujet, si la réponse est la seule proposée, elle est par définition une réponse totale. Ou alors on s’abstient de la donner, en constatant qu’elle ne couvre qu’une partie du sujet.

Les sujets de ces études présentent bien les réponses données, comme globales.

Néanmoins ces résultats chiffrés impressionnent le grand public. Les critiquer devient un tabou. On part d’axiomes pratiquement, pour décréter que ce qui est exact ne pouvant être contesté, la critique est impossible, voire anti scientifique. C'est très subtil de porter le débat en ces termes, et c'est une maladie actuelle de définir comme fini un débat, s'il existe quelques chiffres et mesures. Or la question n’est pas de savoir si une mesure exacte est exacte, elle est exacte. La question est de savoir si la mesure couvre le champs d’application ! La réponse est non. Ce n’est pas faux, c’est parcellement véritable mais peut être sans intérêt, voire interprétable ensuite.

De la parcelle, revendiquer le tout. C’est un « raccourci pseudo scientifique ». Le grand public admettra le fait sans le critiquer. D’ailleurs la confusion entre les tests parcellaires, les notations elles « globales » sont énoncées directement par les chercheurs. Confusion savante ( fusionner avec ) pour eux, évidente aussi pour le public. De plus, pour ajouter une confusion double, il existe aussi une double lecture dans les articles parfois. Oui notre notre est "globale" car ensemble de vérités, mais aussi chacune est différente et "lisible seule" avec effets contradictoires, avec sa vérité partielle. Contradictions de fond, de forme. Ce serait trop long de critiquer en détail, car chaque logiciel a des failles que l'autre n'a peut être pas, et cette étude serait précise un jour, puis annulable un autre, car l'éditeur aura changé un aspect de sa présentation. C'est le sens profond général qui est critiquable dans le sens de préter à des discours divers, généralistes pour avoir un impact direct, et de présenter toujours des parties comme le tout. Ce n'est pas juste. La réalité est parfois loin.

NON la parcelle n’exprime pas une totalité, surtout dans les champs multiples de l’évaluation visuelle.

Oui il faut corréler ou infirmer, si les champs d’applications sont tant soit peu couverts, par une étude d’un détail.

Quel est le moyen de vérifier si le champs est couvert ? la comparaison. La photographie a une vérité objective. Le résultat. L'humain est subjectif, mais sa réponse est objective. Et seule cette objectivité ( subjective ) est réelle.

Et là on entre dans une domaine qui contraint le scientifique à faire un effort, qui ne lui plait guère si des domaines multiples sont en cause dont certains sont peu quantifiables. La photographie dépend de l’observation. Elle dépend donc aussi de centaines de facteurs psychologiques ( visuels ) qui forment un ensemble difficilement cernable, au sens matérialiste ou quantifiable.

Pourtant se défier de l’observateur est encore pire que reculer devant la tache.

Car difficile ne veut pas dire non réalisable. La réalité de l’appréciation du bruit, la réalité de l’appréciation des couleurs, de la finesse, de la justesse des formes. Il suffit de comparer. Il n’y a pas trois cent vérités pour ces appréciations. Néanmoins aucune machine ne sait le faire, ou tout du moins pas avec un jugement global.

L’humain est nécessaire parce que c’est LUI le sujet de l’étude. Et lui seul.

On peut répliquer que c’est justement l’intérêt du calcul ponctuel, c’est qu’il énonce une vérité. Et que cette modélisation étant répétable ( définition de la science ) c’est justement ce qu’on recherche, même partiel.

Et que cela engendre une lecture ?

C’est absolument faux possiblement, si le partiel ne se rapporte à aucune vérité humaine, il peut être complètement inutile. Vendre un réfrégérateur à un homme de l'artique ... remet il en cause la science de la réfrégation ? Non, mais la science de l'utile est plus interessante ! Véritablement, la réfrégération est exacte.

Véritable oui, et à proprement parler improductif si non corrélé. On pourrait mesurer la radioactivité par iso de l’apn, ou les effet sonores de celui ci, si je voulais caricaturer encore. Il faudrait d’abord savoir si l’effet a un impact, « à la mesure de la mesure ». Certaines mesures peuvent être à la limite de la vacuité, d’autres utiles mais avec une échelle insensée ( sans littéral ) sans une pondération pédagogique.

Les detracteurs de ma critique avancent une césure ubuesque. Si on entre dans les champs d’application du jugement humain, on ne peut pas travailler, car les différentes subjectivités vont entrer en ligne de compte ? Donc on doit l'exclure disent ils !!!

Mais voilà l’utopie que j’énonçais, ce serait échapper à la réalité sous prétexte qu’elle n’entrerait pas dans """des cases simples et répétables""". Cette crainte est doublement injustifiée !

Elle est injustifiée :

1, car on peut parfaitement, à force de travail, trouver la somme additionnée des mesures parcellaires qui s’approchent de la psychologie visuelle humaine. C'est à dire accepter aussi que certaines ne soient pas d'un grand secours.

2, on doit tirer le raw, de manière neutre pour tous, à observer. On peut simplifier les processus de développement ( dématriçage ) des étapes finales, à offrir une moyenne raisonnable applicable à tous, à l’obtention de fichiers représentatifs. Je pourrais préciser cette deuxième affirmation, car c’est un domaine que je connais bien, mais ce serait long. Disons qu’un fichier de base, utilisable par un graphiste professionnel est toujours le même, faisons court, luminance et chrominance légèrement gommées ( à peine ), accentuation presque nulle ( 0.5 % de rayon sur seuil 0 pour les apn à bayer ).

nb : Les problèmes de colorimétrie ( icc ) seraient minorés au départ, par des icc restreints, ce chapitre étant traité à part car la part de subjectivité des constructeurs est énorme.

Craintes injustifiées donc.

les points 1 et 2 peuvent allier la répétivité des mesures utiles, alliés à des neutralités d'observation.

Ce n’est pas parce que quelque chose n’est pas quantifiable directement, qu’il faut reculer des autres disciplines, ou reculer dans la sienne limitée et affirmer qu’elle est unique !

Défier la réalité ( multiple ) est d’autant plus saugrenu, que les effets parcellaires énoncés en avant, seraient lus comme informatifs ? C’est contradictoire ! ou alors ils le sont ( informatifs seuls ) et ils ont à être corrélés avec des résultats ( méthodologie scientifique de base ), ou bien … ils ne sont pas lisibles. C'est simple.

Lisible signifie tout de mĂŞme une synergie avec la pratique. Sinon Ă  quoi bon ?

Le gris ? désolé on a inventé la couleur, on critique le bruit de la couleur isolée aussi, et de plus les TC rencontrées dans les prises de vue à « haut iso » sont presque toujours avec le canal bleu appauvri et faussant toutes les mesures généralistes. Si 5500K : on est en pleine journée, et on ne tape pas 3200iso ( sauf flash à juger à part ). Si des vilains 2800K, mm le gris souffre, et les pauvres zones colorées agonisent d’avoir un canal bleu faible, deux ou trois fois plus bruité. Lui devrait être inclus à minima dans toute analyse. Oui la réalité cela existe, oui des mires peuvent nous tromper. Et les temps de pose quand on a recours aux haut isos ? court ? long ? cela influe t il sur le bruit du capteur ? hélas oui. Et puis les effets de lignages, les effets de taches, les bruits chromatiques d’un pourtant mauvais D2x, malgré son recul technologique étaient assez cohérents en contradiction avec d'autres facteurs brut. Les trois premières remarques sont scientifiques ( TC, couleur, pose ), la dernière est de psycho visuelle. La mire de gris, en bonne tc, sans dominante chroma ( oui gris … ) et pose normale , est non représentative de l’apn poussé dans ses limites. Le gris est ok à 14h, en gris, en pose rapide. Ce savoir parcellaire est juste, mais improductif. C’est un exemple parmi cent.

Je suis donc dubitatif, non pas qu’il n’y a pas d’informations, mais que sans corrélations avec du réel et des vérifications, nous risquons d’être dans du véritable virtuel.

Un virtuel vérifiable, un virtuel exact. Mais un virtuel seul. Isolé.

C’est pour cela que je critique la démarche sans pédagogie, je pense - au contraire d’une lecture rapide de mes critiques attention - qu’il n’y a pas assez de calculs, et non pas trop.

Je demande plus de science donc. Sciences. Au pluriel.

Et que d’autre part je bondis quand on ose ( ! ) un classement général ensuite. Du petit véritable ( petit au sens parcelle isolée ) on passe au global en réponse. C’est alors un risque de non sens qui a été pris, et bien entendu risque constaté comme ayant chuté dans sa mission dans des cas précis. Le 1D comme 60% de note en moins, par rapport au 1Ds dans le jugement global du bruit, étant une erreur de fait pour le praticien. J'ai lu de telles choses ici et là, dans ces logiciels, je vous les livre en vrac, c'est plus qu'étonnant. Des cmos Nikon Apsc égalés par des apn anciens, alors que je prépare parfois ces apn, et que tout cela est différent en réalité. Sans parler qu’il y aurait à classer les utilisations ( taille de tirages, ou aussi paliers d’iso, CI ayant montré avec finesse qu’un apn peut avoir des vertus en iso moyen se voir inverser – eh oui - en extrême iso, ce que le praticien sait aussi ), avant de définir des globalités, sans aucun sens parfois.

Je ne comprends donc pas bien cette démarche dans son ensemble. Elle risque d’être lue comme une simplification ( commerciale ) à outrance, ou d’une autre coté comme des spécialisations uniquement lisibles ( et critiquables en bien ou en mal ) par des professionnels. Je réfute la globalisation, je réfute aussi la spécialisation qui serait exhaustive, c'est un raccourci. Je ne suis pas seul à penser ainsi en partant du réel, les observateurs, sans aucun bagages autres que leur bon sens, sont à même de se poser des questions, de résultats ... étranges. Et je réfute aussi l'idée scientifique comme prétexte suffisant, sauf à aiguiser à faire croire à d’autres scientifiques qui ne corréleront jamais les résultats avec le travail des photographes de terrain, qu’ils sont tombés sur des travaux exhaustifs ( cas extrême ) et plus insidieux aussi, que les effets, bien vus comme parcellaires, ne sont pas réfutables par nature alors qu’il s’agirait simplement de voir leur utilité ( ou non ) dans le champs comparé.

Ces césures ne sont pas prêtes d’être atténuées. Par les fonctions dans l’échelle des savoirs ou des maîtrises, entre le scientifique et l'observateur final, l’artiste. L’un juge et comprend ( sent ) sa pratique, mais ne l’expliquera jamais, l’autre serait un savant perfectionniste qui n’osera pas corréler son travail à l’aune de la subjectivité du terrain ? voir la nierait si cela devait le contredire ? j’ai déjà vu ces réactions pour juger de la photographie par des non-photographes. Il faut pourtant des liens. Ces description sont caricaturales, normalement le savant corrèle justement.

Mais … ici je crains que les liens ne fussent amoindris par la complexité multidisciplinaire !

Pourtant la solution est là. Corréler et comparer les deux maîtres, la théorie et et la pratique. Inutile de dire que des grandes maisons sont logiquement à même de résoudre ces équations, savants formés et affrontant la réalité à rendre plausible pour les clients, les photographes. Savants formés dans les branches de l’imagerie et on imagine bien, des testeurs en réalité dans la pratique. On remarquera d’ailleurs que l'un des produits dont nous parlons est gratuit et en phase de beta-test, ce qui prouve sa perfectibilité et l’étude en marche.

C’est cela qui m’étonne le plus, projet trop rapidement lancé ? bouteille à l’eau pour voir les retombées, c’est étonnant en tous cas que des pointures du logiciel d’imagerie se lance dans des travaux parcellaires, parfois erronées quant à l’appréciation connue du terrain. Ont ils simplifié pour être lisibles et un effet pervers en ait né, sans qu’ils en perçoivent le risque ? Des volontés marketing ont elles empiétées sur le travail seul des équipes techniques à propos des notations globales, absurdes au sens de beaucoup ? Est ce un début d’un grand travail en interne, qui a été mis sur le devant de la scène avant que ses géniteurs ait fini l’ensemble de leur recherche ? je tendrais plus vers cette dernière analyse, après le moment de stupeur passée. Tout simplifier à ce point, comme hélas la tendance Internet le veut, étonnements, critiques, les réactions ont été nombreuses. Soyons optimistes pour l’avenir, nous sommes au début de ce genre de travaux.

Quoiqu’il en soit, la pratique « observée et comparée » sera pour toujours le seul maître étalon de cet art qu’est la photographie. Le minimum est de se recouper avec l’utilisateur. Le moins qu’on puisse dire est qu’il y a des réactions épidermiques. Savantes ou pas ? ce ne sera pas un critère, le photographe sera toujours un artiste, le pourquoi du comment lui importe peu, si « science » il faut qu’elle soit réaliste tout simplement.

Plus de science ? très bien, dans ce cas qu’elle soit aboutie, corrélée, dans les champs utiles, avec des pédagogies, des limites, des secteurs d’applications. Sinon elle pourrait servir de prétexte dans le futur à des causes commerciales ( dictature du marketing ), en dérogeant à l’effort de savoir.
Amitiés Olivier


Inscrivez-vous pour répondre
Valider
Annuler

Titre

Réponse


Lien

Photo
     

Légende de la photo