Bienvenue invité ( Connexion | Inscription )
![]() ![]() |
| Guest_anonym_8b8d481c_* |
20 Oct 2011, 11:34
Message
#91
|
|
Guests |
|
|
|
|
20 Oct 2011, 11:38
Message
#92
|
|
|
Macbidouilleur de bronze ! ![]() ![]() Groupe : Membres Messages : 268 Inscrit : 21 Feb 2004 Lieu : Guillaumes (06) Membre no 15 139 |
Faut voir en vrai ce que cela donne, moi je trouve le principe sympa, combien de photos ai-je jeté pour ne pas avoir le point ou il faut .... en plus, comme ça a été dit cela donne un sens aux capteurs à 10Millions de pixels et plus.
Après c'est vrai ça peut encore démocratiser la photo réussie et cela demandera aux "photographes" d'être encore meilleurs pour se démarquer de la populace Quoique la démocratisation de la photo avec le numérique a apporté quand même l'affichage de beaucoup plus de bouses que de chefs-d'oeuvres, non ? -------------------- Hack HP 4530s MacOS 10.6.8
Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la liste |
|
|
|
| Guest_anonym_8b8d481c_* |
20 Oct 2011, 11:40
Message
#93
|
|
Guests |
oui et c'est mieux avec des objectifs séparés de plusieurs centimètres.
Dans ce domaine le mieux sera d'avoir 4 objectifs aux 4 coins de l'appareil photo de toute façon, on aura la meilleure information capturée avec ça. Après c'est juste une histoire des bons algorithmes. C'est comme les télescope, on ne peut pas en faire un trop gros, mais plusieurs petits synchronisés c'est aussi bien donc leur techno n'a pas d'avenir en théorie c'est certain. Meme si c'est astucieux. |
|
|
|
20 Oct 2011, 11:43
Message
#94
|
|
![]() Adepte de Macbidouille ![]() Groupe : Membres Messages : 241 Inscrit : 28 Jan 2009 Lieu : Paris/Ardèche Membre no 130 207 |
Je vais de jeter un coup d’œil sur leur galerie photo et les aberrations chromatiques sont terrifiantes !
Ça reste pour l'instant un simple gadget, mais comme pour les premiers APN, les évolutions futures seront surement impressionnantes. -------------------- iMac 27" 2017 OSX 13.2 - [b]iPhone 12 Pro Max iOS 16.3.1 - Watch 45 WatchOS 9.3.1
____________________ Omnia mea mecum porto |
|
|
|
20 Oct 2011, 11:44
Message
#95
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 026 Inscrit : 2 May 2007 Lieu : Région Parisienne (91) Membre no 85 838 |
J'ai d'ailleurs un album consacré à cette technique sur mon Flickr. Interessant.Je serais curieux de voir les photos originales qui ont permis ce résultat (t'as peut-être un album qui le montre ?) -------------------- Whoever fights monsters should see to it that in the process he does not become a monster; -------------------------------------------------------------------------------------------------------------------------------And when you look long into an abyss, the abyss also looks into you. - Friedrich Nietzsche -(issue de la préface de la novélisation "The Abyss" d'Orson Scott Card depuis le film eponyme) [refurb] MacBook Pro 13"(early2019) , QuadCore 2.7GHz, 16Go de RAM, 512Go, sous OSX 10.14 Mojave [refurb] MacMini Core2Duo 2.0GHz (early 2009), 1Go de RAM, DD 120Go 5400rpm, sous OSX 10.6.3 Snow Lepard + Mighty Mouse BT + Clavier BT "Alu" |
|
|
|
20 Oct 2011, 11:50
Message
#96
|
|
|
Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 051 Inscrit : 4 Apr 2003 Membre no 6 986 |
Il met un réseau de lentille devant le capteur ce qui est une astuce pour simplifier la production, mais pour comprendre, l'appareil enregistre la meme information que si un appareil classique était composé de plusieurs objectifs chacun réglés sur une mise au point différente. Après c'est les algos qui reconstruisent les images qui permettent d'optimiser un peu. J'ai parcouru la thèse en 5 minutes seulement, donc il y'a beaucoup de choses que je n'ai pas assimilé, mais: pour répondre à quelques questions, - c'est à dire que l'ouverture est fixe et est la même quelque soit le plan sur lequel la mise au point est faite avec leur appareil photo. Autrement dit, si le premier plan est sombre, il restera sombre. - le temps de pose est le même pour tous les plans de mise au point Mais il doit bien exister des capteurs qui mesurent la quantité de lumière reçue par un pixel au bout de 1/100 seconde, au bout de 1/10 etc .. mais c'est dépendant de leur technique. je sais que mon vieux nikon fait ça de recalculer le temps de pose en fonction de la lumière du flash - la résolution est divisé par 3 si on souhaite avoir 3 plans de mise au point net (sachant les algos ensuite permettent de lisser un peu tout ça). Globalement, un appareil photo qui aurait 4 objectifs pourrait faire à peu près la même chose avec des avantages et des inconvénients. En Macro c'est mieux de mettre le réseau de lentille devant le capteur de sorte que la distance entre chaque objectif n'interfère pas par exemple. Pour prendre une photo d'une personne devant un paysage, c'est mieux d'avoir un appareil avec 2 objectifs, l'un faisant la mise au point sur le fond, l'autre sur le premier plan, ainsi chaque plan aura le meilleur temps de pose et ouverture en plus comme avantage, et donc aussi meilleur résolution car la résolution du capteur serait divisée que par 2 (çar 2 objectifs) ... Le pitch de leur CEO, une thèse ???? c'est assez moyen. Et l'impact sur la résolution est tel qu'il ne sert plus à rien de focaliser, en tout cas tel que décrit. La nouvelle fonction de déconvolution de Photoshop est plus impressionnante. -------------------- MacBook Pro 14", 2021, M1 Pro, 16 GB
Mac mini, 2018, 3 GHz 6 core i5, 8 GB et quelques vieilleries, y compris un Apple II sur lequel j'ai découvert l'assembleur, Basic et Pascal au tout début des années 80. |
|
|
|
20 Oct 2011, 11:51
Message
#97
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 515 Inscrit : 21 Sep 2005 Membre no 46 410 |
C'est comme les télescope, on ne peut pas en faire un trop gros, mais plusieurs petits synchronisés c'est aussi bien donc leur techno n'a pas d'avenir en théorie c'est certain. Meme si c'est astucieux. Ça n'a pas grand chose à voir. Le but d'un télescope interféromètre est de simuler la résolution d'un télescope trop grand à construire. Ici, au contraire, l'usage des microlenses réduit la résolution finale de l'image. J'ai d'ailleurs un album consacré à cette technique sur mon Flickr. Interessant.Je serais curieux de voir les photos originales qui ont permis ce résultat (t'as peut-être un album qui le montre ?) Par exemple, pour faire celle-ci : ![]() J'ai utilisée 18 photos : planche-contact. Ce message a été modifié par AlbertRaccoon - 20 Oct 2011, 16:45. |
|
|
|
| Guest_anonym_8b8d481c_* |
20 Oct 2011, 12:03
Message
#98
|
|
Guests |
C'est comme les télescope, on ne peut pas en faire un trop gros, mais plusieurs petits synchronisés c'est aussi bien donc leur techno n'a pas d'avenir en théorie c'est certain. Meme si c'est astucieux. Ça n'a pas grand chose à voir. Le but d'un télescope interféromètre est de simuler la résolution d'un télescope trop grand à construire. Ici, au contraire, l'usage des microlenses réduit la résolution finale de l'image. Si ca a a voir un peu. Leur objectif fait grossomodo 2 cm de diamètre et ce diamètre doit être important pour pouvoir avoir les informations précises de profondeur. Il ne peuvent pas réduire ce diamètre de beaucoup. C'est un argument qui s'joute a celui deja existant pour tout le monde d'avoir beaucoup de lumière qui entre. Mais là c'est qu'ils ont besoin de précision sur la profondeur de champ. Donc s'ils réduisent leur taille d'objectif ils vont aussi perdre en profondeur de chant.(champ?) et perdront leur informations si originales. A contrario, pour qu'on puisse avoir des informations de profondeur entre un arbre et un maison dans un paysage, ils auraient besoin d'une lentille de 15 cm de diamètre, et ça, on peut faire presque pareil avec 4 objectifs séparés de 15cm justement. J'ai d'ailleurs un album consacré à cette technique sur mon Flickr. Interessant.Je serais curieux de voir les photos originales qui ont permis ce résultat (t'as peut-être un album qui le montre ?) Choisis une photo et je te montre le groupe qui m'a servi à la créer. Avec leur technologie, tu pourras faire d'aussi jolies photos de fourmies vraissemblablement :-) As tu aujourd'hui une technique pour prendre les fourmis qui bougent bien vite ? |
|
|
|
20 Oct 2011, 12:15
Message
#99
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 515 Inscrit : 21 Sep 2005 Membre no 46 410 |
Si ca a a voir un peu. Leur objectif fait grossomodo 2 cm de diamètre et ce diamètre doit être important pour pouvoir avoir les informations précises de profondeur. Il ne peuvent pas réduire ce diamètre de beaucoup. C'est un argument qui s'joute a celui deja existant pour tout le monde d'avoir beaucoup de lumière qui entre. Mais là c'est qu'ils ont besoin de précision sur la profondeur de champ. Donc s'ils réduisent leur taille d'objectif ils vont aussi perdre en profondeur de chant.(champ?) et perdront leur informations si originales. A contrario, pour qu'on puisse avoir des informations de profondeur entre un arbre et un maison dans un paysage, ils auraient besoin d'une lentille de 15 cm de diamètre, et ça, on peut faire presque pareil avec 4 objectifs séparés de 15cm justement. Ah désolé, je n'avais pas bien compris ton message précédent. Effectivement, plus tes objectifs sont écartés, meilleure sera l'information de profondeur. C'est d'ailleurs pour ça que les premières recherches (modernes) sur les caméras plénoptiques ont découlé des recherches sur la stéréoscopie. Avec leur technologie, tu pourras faire d'aussi jolies photos de fourmies vraissemblablement :-) As tu aujourd'hui une technique pour prendre les fourmis qui bougent bien vite ? Courir plus vite ? Ce message a été modifié par AlbertRaccoon - 20 Oct 2011, 12:15. |
|
|
|
| Guest_anonym_8b8d481c_* |
20 Oct 2011, 12:24
Message
#100
|
|
Guests |
Avec leur technologie, tu pourras faire d'aussi jolies photos de fourmies vraissemblablement :-) As tu aujourd'hui une technique pour prendre les fourmis qui bougent bien vite ? Chez Helicon Soft, je crois qu'ils les tuent leurs animaux avant de les prendre en photo. http://www.heliconsoft.com/heliconfocus.html Mais sur tes jolies photos de fleur, j'aurais bien vu un petit insecte volant en train de les pollitiser... ce qu'on pourra voir et filmer bien net grâce à http://www.lytro.com alors d'ici 3 ans. |
|
|
|
20 Oct 2011, 12:37
Message
#101
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 515 Inscrit : 21 Sep 2005 Membre no 46 410 |
Mais sur tes jolies photos de fleur, j'aurais bien vu un petit insecte volant en train de les pollitiser... ce qu'on pourra voir et filmer bien net grâce à http://www.lytro.com alors d'ici 3 ans. Il n'y a pas que le problème du out-of-focus. Le flou de bougé est un problème aussi important dans le cas de la macrophotographie d'insectes, et n'est pas particulièrement résolu par la technologie plénoptique. |
|
|
|
20 Oct 2011, 13:04
Message
#102
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 2 148 Inscrit : 5 Jan 2004 Lieu : Argentoratum Membre no 13 063 |
Parce que leurs exemples montrent simplement le changement du plan focal, c'est à dire, le choix du sous-réseau de photosites. Ça doit être beaucoup plus couteux de réussir à prendre les "bons" photosites pour créer profondeur de champ étendue/cumulée. Pas nécessairement. On le fait depuis longtemps avec la technique du focus stacking pour la macrophotographie, avec des logiciels comme CombineZP ou même Photoshop avec l'option de fusion automatique des calques. J'ai d'ailleurs un album consacré à cette technique sur mon Flickr. Merci pour toutes tes précisions et désolé pour ma réponse un peu sèche tout à l'heure. Si je comprend bien avec cette technologie il sera tout de même plus complexe d'obtenir une image "équivalente à l’hyper-focale" que de sélectionner un plan focal en particulier en post production. Mais il est vrai que si le logiciel de retouche est bien fait et avec la puissance de calcul de des ordis actuels, toute cette complexité sera peut-être transparente pour l'utilisateur. Malgré tout mes questionnements curieux devant cette nouvelle technologie, je reconnais que ça me semble particulièrement brillant comme mise en œuvre. -------------------- Télecharger une archive personelle contenant tous les fils de discussions auxquels le membre a participé? (... ou pas malgré la RGPD)[/size]
Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la règle d'éligibilité[/size] |
|
|
|
20 Oct 2011, 13:36
Message
#103
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 026 Inscrit : 2 May 2007 Lieu : Région Parisienne (91) Membre no 85 838 |
Yes, merci pour l'exemple.
La retouche des couleurs pour l'image finale est due au traitement ? (on sent un "décalage" par rapport à celles de la planche contact) -------------------- Whoever fights monsters should see to it that in the process he does not become a monster; -------------------------------------------------------------------------------------------------------------------------------And when you look long into an abyss, the abyss also looks into you. - Friedrich Nietzsche -(issue de la préface de la novélisation "The Abyss" d'Orson Scott Card depuis le film eponyme) [refurb] MacBook Pro 13"(early2019) , QuadCore 2.7GHz, 16Go de RAM, 512Go, sous OSX 10.14 Mojave [refurb] MacMini Core2Duo 2.0GHz (early 2009), 1Go de RAM, DD 120Go 5400rpm, sous OSX 10.6.3 Snow Lepard + Mighty Mouse BT + Clavier BT "Alu" |
|
|
|
20 Oct 2011, 14:35
Message
#104
|
|
|
Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 1 724 Inscrit : 3 Jan 2007 Membre no 77 157 |
Mais sur tes jolies photos de fleur, j'aurais bien vu un petit insecte volant en train de les pollitiser... ce qu'on pourra voir et filmer bien net grâce à http://www.lytro.com alors d'ici 3 ans. Il n'y a pas que le problème du out-of-focus. Le flou de bougé est un problème aussi important dans le cas de la macrophotographie d'insectes, et n'est pas particulièrement résolu par la technologie plénoptique. Flou de bougé ? Adobe a la réponse (vidéo à partir de 1') http://tv.adobe.com/watch/max-2011-sneak-p...age-deblurring/ |
|
|
|
20 Oct 2011, 15:37
Message
#105
|
|
|
Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 6 493 Inscrit : 21 Apr 2006 Membre no 59 799 |
Mais sur tes jolies photos de fleur, j'aurais bien vu un petit insecte volant en train de les pollitiser... ce qu'on pourra voir et filmer bien net grâce à http://www.lytro.com alors d'ici 3 ans. Il n'y a pas que le problème du out-of-focus. Le flou de bougé est un problème aussi important dans le cas de la macrophotographie d'insectes, et n'est pas particulièrement résolu par la technologie plénoptique. Mouais, avec toute la technologie plénoptique que l'on veut, ça va être dur de saisir un chtit' insect en tarin de politiser une malheureuse fleur qui a du mal à reconnaître sa gauche de sa droite, surtout s'il s'agit d'un tournesol ! -------------------- ----------------- --JE-------SUIS-- --AHMED-CHARLIE-- --CLARISSA-YOAV-- ----------------- |
|
|
|
20 Oct 2011, 16:20
Message
#106
|
|
|
Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 4 214 Inscrit : 30 Sep 2005 Membre no 46 983 |
Le gadget est amusant mais je ne vois pas en quoi ça pourrait révolutionner la photo numérique...
Ceci est autrement plus impressionnant ! Et plus cher aussi Flou de bougé ? Adobe a la réponse (vidéo à partir de 1') Sauf qu'ils ont triché un peu...http://tv.adobe.com/watch/max-2011-sneak-p...age-deblurring/ |
|
|
|
20 Oct 2011, 16:28
Message
#107
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 515 Inscrit : 21 Sep 2005 Membre no 46 410 |
Yes, merci pour l'exemple. La retouche des couleurs pour l'image finale est due au traitement ? (on sent un "décalage" par rapport à celles de la planche contact) Non, c'est un choix personnel, basé sur le fait que mon système d'éclairage maison a tendance à dénaturer les couleurs. Ce message a été modifié par AlbertRaccoon - 20 Oct 2011, 16:31. |
|
|
|
20 Oct 2011, 16:37
Message
#108
|
|
![]() Adepte de Macbidouille ![]() Groupe : Membres Messages : 142 Inscrit : 21 Jan 2006 Membre no 53 995 |
Flou de bougé ? Adobe a la réponse (vidéo à partir de 1') Sauf qu'ils ont triché un peu...http://tv.adobe.com/watch/max-2011-sneak-p...age-deblurring/ Si tu lisais correctement, seule une des trois photos a été artificiellement blurré, et ce n'est même pas la plus impressionnante. Et que le blur soit artificiel ou non, ça montre bien que l'algorithme arrive à parfaitement à inverser l'effet. |
|
|
|
20 Oct 2011, 16:52
Message
#109
|
|
![]() grat' grat' d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 5 131 Inscrit : 25 Feb 2004 Membre no 15 389 |
Un truc me chagrine dans cette annonce : le sentiment que les propriétaires de Lytro essaient de sur-valoriser une innovation réelle (enregistrer simultanément de nombreux plans avec un seul capteur) derrière des concepts fumeux : le champ lumineux (light field) et les "megarays" au lieu de compter les pixels restituables comme tout le monde.
Lorsqu'on change les critères de comptage, c'est qu'on a peur de perdre en comptant à la régulière. C'est sûr que une résolution "au moins HD" c'est à dire 2 millions de pixels tout pourris, ça claque moins que "11 megarays" -------------------- MBP 2011 2,0 GHz, écran mat, 8Go RAM, SSD Crucial MX100 512Go + DD WD 1To, OS X.10 / iPhone6 / iPad2 64Go / Freebox v6 23Mbps
|
|
|
|
20 Oct 2011, 16:56
Message
#110
|
|
![]() Adepte de Macbidouille ![]() Groupe : Membres Messages : 142 Inscrit : 21 Jan 2006 Membre no 53 995 |
Ils ne se cachent pas du tout derrière des mots compliqués.
C'est juste que parler uniquement de résolution c'est débile pour cet appareil, car son intérêt est bien d'enregistrer plusieurs informations pour chaque pixel et pas juste une seule valeur. Ce message a été modifié par TimBioSS - 20 Oct 2011, 16:57. |
|
|
|
20 Oct 2011, 17:10
Message
#111
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 515 Inscrit : 21 Sep 2005 Membre no 46 410 |
Merci pour toutes tes précisions et désolé pour ma réponse un peu sèche tout à l'heure. Y a pas de souci ! Si je comprend bien avec cette technologie il sera tout de même plus complexe d'obtenir une image "équivalente à l’hyper-focale" que de sélectionner un plan focal en particulier en post production. Mais il est vrai que si le logiciel de retouche est bien fait et avec la puissance de calcul de des ordis actuels, toute cette complexité sera peut-être transparente pour l'utilisateur. Après avoir relu un peu plus profondément la thèse de Ng, il fait explicitement mention page 57 et suivantes à la même méthode que celle mise en œuvre dans Photoshop pour étendre la profondeur de champ, à savoir (en simplifiant) : - créer une pile de photos faisant le point sur différents point de la scène (équivalent à un échantillonnage sur l'axe de la caméra) - pour chaque image de la pile, calculer la "densité" de contraste local de chaque zone de l'image - ensuite, en parcourant la pile, on choisit pour chaque zone de l'image finale, la zone correspondante ayant le meilleur contraste local dans la pile d'images (je suis pas très clair, sur ce coup... - améliorer le résultat final par une méthode appelée "Poisson blending", qui permet de limiter les artefacts entre les différentes zones de l'image. A savoir également que ce traitement sous Photoshop prend beaucoup de temps, et surtout beaucoup de mémoire (cf moniteur de ressources) Ce message a été modifié par AlbertRaccoon - 20 Oct 2011, 17:27. |
|
|
|
20 Oct 2011, 20:13
Message
#112
|
|
|
Adepte de Macbidouille ![]() Groupe : Membres Messages : 131 Inscrit : 5 Mar 2005 Lieu : Lyon Membre no 34 451 |
Quand on zoom les images (double clics) on distingue des effets de matrice.
Donc tramage sur les premiers plans et flou sur les plans lointains... Bon, je vais rester encore pas mal de temps avec le W3 de Fujifilm (3D). |
|
|
|
20 Oct 2011, 20:57
Message
#113
|
|
![]() 可愛い アリゼ ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 10 010 Inscrit : 21 Aug 2004 Membre no 22 340 |
Marf! C'est amusant un moment mais comme beaucoup j'ai bien du mal à concevoir que cela puisse révolutionner quoi que ce soit. Je pense que le mieux est de voir si ça perdure et si c'est le cas d'en acheter un pour s'amuser le jour où il intégrera un capteur 14Mp minimum, qu'il pourra faire de la vidéo, qu'il permettra un minimum de 6 à 7 images seconde en raffale, qu'il aura une sensibilité ISO 50 à 6400, etc., et que son prix ne dépassera pas les 100€ (ce qu'à mon avis devrait coûter ce genre de gadget). 400€ c'est franchement du racket. C'est le prix d'un NEX 5. Faut pas charrier...
-------------------- Bisous
|
|
|
|
20 Oct 2011, 21:40
Message
#114
|
|
|
Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 4 214 Inscrit : 30 Sep 2005 Membre no 46 983 |
Flou de bougé ? Adobe a la réponse (vidéo à partir de 1') Sauf qu'ils ont triché un peu...http://tv.adobe.com/watch/max-2011-sneak-p...age-deblurring/ Si tu lisais correctement, seule une des trois photos a été artificiellement blurré, et ce n'est même pas la plus impressionnante. Et que le blur soit artificiel ou non, ça montre bien que l'algorithme arrive à parfaitement à inverser l'effet. (mais on savait faire avant, avec Command-Z) Bon allez je déconne, je sais qu'ils ont fait du bon boulot. Maintenant, peut-on imaginer que, un jour, tout le monde parviendra à capturer des photos parfaitement insignifiantes ? Merci pour toutes tes précisions et désolé pour ma réponse un peu sèche tout à l'heure. Y a pas de souci ! Si je comprend bien avec cette technologie il sera tout de même plus complexe d'obtenir une image "équivalente à l’hyper-focale" que de sélectionner un plan focal en particulier en post production. Mais il est vrai que si le logiciel de retouche est bien fait et avec la puissance de calcul de des ordis actuels, toute cette complexité sera peut-être transparente pour l'utilisateur. Après avoir relu un peu plus profondément la thèse de Ng, il fait explicitement mention page 57 et suivantes à la même méthode que celle mise en œuvre dans Photoshop pour étendre la profondeur de champ, à savoir (en simplifiant) : - créer une pile de photos faisant le point sur différents point de la scène (équivalent à un échantillonnage sur l'axe de la caméra) - pour chaque image de la pile, calculer la "densité" de contraste local de chaque zone de l'image - ensuite, en parcourant la pile, on choisit pour chaque zone de l'image finale, la zone correspondante ayant le meilleur contraste local dans la pile d'images (je suis pas très clair, sur ce coup... - améliorer le résultat final par une méthode appelée "Poisson blending", qui permet de limiter les artefacts entre les différentes zones de l'image. A savoir également que ce traitement sous Photoshop prend beaucoup de temps, et surtout beaucoup de mémoire (cf moniteur de ressources) Regardez et écoutez la mitrailleuse que je citais plus haut... En microscopie c'est la EDF, c'est relativement simple et ça fait des miracles. |
|
|
|
20 Oct 2011, 22:00
Message
#115
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 515 Inscrit : 21 Sep 2005 Membre no 46 410 |
Exactement, et c'est pour ça que les vrais appareils photo qui permettront de faire du focus bracketing très rapidement pourront produire des résultas bien plus spectaculaires, sans perte de résolution. Regardez et écoutez la mitrailleuse que je citais plus haut... Apparemment, le firmware CHDK propose déjà de faire du focus bracketing sur certains appareils. Plus d'info ici Ce message a été modifié par AlbertRaccoon - 20 Oct 2011, 22:05. |
|
|
|
20 Oct 2011, 22:30
Message
#116
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 026 Inscrit : 2 May 2007 Lieu : Région Parisienne (91) Membre no 85 838 |
Regardez et écoutez la mitrailleuse que je citais plus haut... OMFG !!! Ça doit foutre le feu à la carte mémoire à cette vitesse ! (Bon, par contre, ça va être chaud de changer le diaph tout les 1/12e de seconde pour modifier la PDC...) -------------------- Whoever fights monsters should see to it that in the process he does not become a monster; -------------------------------------------------------------------------------------------------------------------------------And when you look long into an abyss, the abyss also looks into you. - Friedrich Nietzsche -(issue de la préface de la novélisation "The Abyss" d'Orson Scott Card depuis le film eponyme) [refurb] MacBook Pro 13"(early2019) , QuadCore 2.7GHz, 16Go de RAM, 512Go, sous OSX 10.14 Mojave [refurb] MacMini Core2Duo 2.0GHz (early 2009), 1Go de RAM, DD 120Go 5400rpm, sous OSX 10.6.3 Snow Lepard + Mighty Mouse BT + Clavier BT "Alu" |
|
|
|
20 Oct 2011, 22:35
Message
#117
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 515 Inscrit : 21 Sep 2005 Membre no 46 410 |
|
|
|
|
20 Oct 2011, 23:03
Message
#118
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 026 Inscrit : 2 May 2007 Lieu : Région Parisienne (91) Membre no 85 838 |
Justement non, le focus bracketing ne change que la distance de mise au point. L'ouverture ne change pas. Oui en effet, bonne remarque.Du coup, je me demande pour Lytro : leur système de lentille reproduis, sans déplacer les lentilles, le changement de point de focus et non la fermeture du diaph' ? (autant je peux imaginer pour simuler les differents diaph, mais pas l'equivalent du deplacement des lentilles...) -------------------- Whoever fights monsters should see to it that in the process he does not become a monster; -------------------------------------------------------------------------------------------------------------------------------And when you look long into an abyss, the abyss also looks into you. - Friedrich Nietzsche -(issue de la préface de la novélisation "The Abyss" d'Orson Scott Card depuis le film eponyme) [refurb] MacBook Pro 13"(early2019) , QuadCore 2.7GHz, 16Go de RAM, 512Go, sous OSX 10.14 Mojave [refurb] MacMini Core2Duo 2.0GHz (early 2009), 1Go de RAM, DD 120Go 5400rpm, sous OSX 10.6.3 Snow Lepard + Mighty Mouse BT + Clavier BT "Alu" |
|
|
|
20 Oct 2011, 23:06
Message
#119
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 515 Inscrit : 21 Sep 2005 Membre no 46 410 |
Justement non, le focus bracketing ne change que la distance de mise au point. L'ouverture ne change pas. Oui en effet, bonne remarque.Du coup, je me demande pour Lytro : leur système de lentille reproduis, sans déplacer les lentilles, le changement de point de focus et non la fermeture du diaph' ? (autant je peux imaginer pour simuler les differents diaph, mais pas l'equivalent du deplacement des lentilles...) Leur objectif est à f/2 fixe. En fait, je crois que je n'ai pas bien compris ta question... Ce message a été modifié par AlbertRaccoon - 20 Oct 2011, 23:07. |
|
|
|
20 Oct 2011, 23:11
Message
#120
|
|
|
Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 4 214 Inscrit : 30 Sep 2005 Membre no 46 983 |
(Bon, par contre, ça va être chaud de changer le diaph tout les 1/12e de seconde pour modifier la PDC...) Justement non, le focus bracketing ne change que la distance de mise au point. L'ouverture ne change pas. Nicosa, note qu'ils ont mis deux slots de compact flash, et vu que les photos ne font "que" 18 MP, ça devrait permettre de tenir une journée Ce qui me fait le plus peur avec ces trucs c'est la mécanique... Il doit falloir construire un sacré shutter pour qu'il survive plus de quelques mois dans ce monstre. Justement non, le focus bracketing ne change que la distance de mise au point. L'ouverture ne change pas. Oui en effet, bonne remarque.Du coup, je me demande pour Lytro : leur système de lentille reproduis, sans déplacer les lentilles, le changement de point de focus et non la fermeture du diaph' ? (autant je peux imaginer pour simuler les differents diaph, mais pas l'equivalent du deplacement des lentilles...) Enfin j'y comprends pas grand chose à leur bouzin en fait, mais c'est amusant. |
|
|
|
![]() ![]() |
| Nous sommes le : 5th April 2026 - 19:35 |