IPB

Bienvenue invité ( Connexion | Inscription )

5 Pages V  « < 2 3 4 5 >  
Reply to this topicStart new topic
> Vers une révolution de la photographie numérique, Réactions à la publication du 23/06/2011
Options
Guest_anonym_8b8d481c_*
posté 20 Oct 2011, 11:34
Message #91





Guests






Citation (Michel-Michel @ 20 Oct 2011, 10:51) *
Ca à a voir avec l'hologramme ?

Malheureusement non. C'est de l'optique classique. Ca ne prend pas en compte les photos, la diffraction, l'interférence aucun aspect ondulatoire de la lumière.
Go to the top of the page
 
+Quote Post
taz065
posté 20 Oct 2011, 11:38
Message #92


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 268
Inscrit : 21 Feb 2004
Lieu : Guillaumes (06)
Membre no 15 139



Faut voir en vrai ce que cela donne, moi je trouve le principe sympa, combien de photos ai-je jeté pour ne pas avoir le point ou il faut .... en plus, comme ça a été dit cela donne un sens aux capteurs à 10Millions de pixels et plus.

Après c'est vrai ça peut encore démocratiser la photo réussie et cela demandera aux "photographes" d'être encore meilleurs pour se démarquer de la populace smile.gif
Quoique la démocratisation de la photo avec le numérique a apporté quand même l'affichage de beaucoup plus de bouses que de chefs-d'oeuvres, non ?


--------------------
Hack HP 4530s MacOS 10.6.8
Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la liste
Go to the top of the page
 
+Quote Post
Guest_anonym_8b8d481c_*
posté 20 Oct 2011, 11:40
Message #93





Guests






oui et c'est mieux avec des objectifs séparés de plusieurs centimètres.
Dans ce domaine le mieux sera d'avoir 4 objectifs aux 4 coins de l'appareil photo de toute façon, on aura la meilleure information capturée avec ça. Après c'est juste une histoire des bons algorithmes.
C'est comme les télescope, on ne peut pas en faire un trop gros, mais plusieurs petits synchronisés c'est aussi bien donc leur techno n'a pas d'avenir en théorie c'est certain. Meme si c'est astucieux.
Go to the top of the page
 
+Quote Post
Fredwine
posté 20 Oct 2011, 11:43
Message #94


Adepte de Macbidouille
*

Groupe : Membres
Messages : 241
Inscrit : 28 Jan 2009
Lieu : Paris/Ardèche
Membre no 130 207



Je vais de jeter un coup d’œil sur leur galerie photo et les aberrations chromatiques sont terrifiantes !
Ça reste pour l'instant un simple gadget, mais comme pour les premiers APN, les évolutions futures seront surement impressionnantes.


--------------------
iMac 27" 2017 OSX 13.2 - [b]iPhone 12 Pro Max iOS 16.3.1 - Watch 45 WatchOS 9.3.1
____________________
Omnia mea mecum porto
Go to the top of the page
 
+Quote Post
Nicosa
posté 20 Oct 2011, 11:44
Message #95


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 026
Inscrit : 2 May 2007
Lieu : Région Parisienne (91)
Membre no 85 838



Citation (AlbertRaccoon @ 20 Oct 2011, 12:09) *
J'ai d'ailleurs un album consacré à cette technique sur mon Flickr.
Interessant.
Je serais curieux de voir les photos originales qui ont permis ce résultat (t'as peut-être un album qui le montre ?)


--------------------
Whoever fights monsters should see to it that in the process he does not become a monster;
And when you look long into an abyss, the abyss also looks into you.
- Friedrich Nietzsche -
(issue de la préface de la novélisation "The Abyss" d'Orson Scott Card depuis le film eponyme)
-------------------------------------------------------------------------------------------------------------------------------
[refurb] MacBook Pro 13"(early2019) , QuadCore 2.7GHz, 16Go de RAM, 512Go, sous OSX 10.14 Mojave
MacBook Pro 15"(mid2007) , Core2Duo 2.2GHz, 2x2Go de RAM, SSD Crucial M225 256Go, sous OSX 10.6.7 Snow Leopard [à vendre]
[refurb] MacMini Core2Duo 2.0GHz (early 2009), 1Go de RAM, DD 120Go 5400rpm, sous OSX 10.6.3 Snow Lepard + Mighty Mouse BT + Clavier BT "Alu"
Go to the top of the page
 
+Quote Post
chevy
posté 20 Oct 2011, 11:50
Message #96


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 051
Inscrit : 4 Apr 2003
Membre no 6 986



Citation (sergi @ 20 Oct 2011, 12:19) *
Il met un réseau de lentille devant le capteur ce qui est une astuce pour simplifier la production, mais pour comprendre, l'appareil enregistre la meme information que si un appareil classique était composé de plusieurs objectifs chacun réglés sur une mise au point différente. Après c'est les algos qui reconstruisent les images qui permettent d'optimiser un peu.

J'ai parcouru la thèse en 5 minutes seulement, donc il y'a beaucoup de choses que je n'ai pas assimilé, mais:

pour répondre à quelques questions,
- c'est à dire que l'ouverture est fixe et est la même quelque soit le plan sur lequel la mise au point est faite avec leur appareil photo. Autrement dit, si le premier plan est sombre, il restera sombre.
- le temps de pose est le même pour tous les plans de mise au point
Mais il doit bien exister des capteurs qui mesurent la quantité de lumière reçue par un pixel au bout de 1/100 seconde, au bout de 1/10 etc .. mais c'est dépendant de leur technique. je sais que mon vieux nikon fait ça de recalculer le temps de pose en fonction de la lumière du flash
- la résolution est divisé par 3 si on souhaite avoir 3 plans de mise au point net (sachant les algos ensuite permettent de lisser un peu tout ça).

Globalement, un appareil photo qui aurait 4 objectifs pourrait faire à peu près la même chose avec des avantages et des inconvénients. En Macro c'est mieux de mettre le réseau de lentille devant le capteur de sorte que la distance entre chaque objectif n'interfère pas par exemple.
Pour prendre une photo d'une personne devant un paysage, c'est mieux d'avoir un appareil avec 2 objectifs, l'un faisant la mise au point sur le fond, l'autre sur le premier plan, ainsi chaque plan aura le meilleur temps de pose et ouverture en plus comme avantage, et donc aussi meilleur résolution car la résolution du capteur serait divisée que par 2 (çar 2 objectifs)

...


Le pitch de leur CEO, une thèse ???? c'est assez moyen. Et l'impact sur la résolution est tel qu'il ne sert plus à rien de focaliser, en tout cas tel que décrit.

La nouvelle fonction de déconvolution de Photoshop est plus impressionnante.


--------------------
MacBook Pro 14", 2021, M1 Pro, 16 GB
Mac mini, 2018, 3 GHz 6 core i5, 8 GB
et quelques vieilleries, y compris un Apple II sur lequel j'ai découvert l'assembleur, Basic et Pascal au tout début des années 80.
Go to the top of the page
 
+Quote Post
AlbertRaccoon
posté 20 Oct 2011, 11:51
Message #97


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 515
Inscrit : 21 Sep 2005
Membre no 46 410



Citation (sergi @ 20 Oct 2011, 12:40) *
C'est comme les télescope, on ne peut pas en faire un trop gros, mais plusieurs petits synchronisés c'est aussi bien donc leur techno n'a pas d'avenir en théorie c'est certain. Meme si c'est astucieux.


Ça n'a pas grand chose à voir.
Le but d'un télescope interféromètre est de simuler la résolution d'un télescope trop grand à construire.
Ici, au contraire, l'usage des microlenses réduit la résolution finale de l'image.

Citation (Nicosa @ 20 Oct 2011, 12:44) *
Citation (AlbertRaccoon @ 20 Oct 2011, 12:09) *
J'ai d'ailleurs un album consacré à cette technique sur mon Flickr.
Interessant.
Je serais curieux de voir les photos originales qui ont permis ce résultat (t'as peut-être un album qui le montre ?)


Par exemple, pour faire celle-ci :


J'ai utilisée 18 photos : planche-contact.

Ce message a été modifié par AlbertRaccoon - 20 Oct 2011, 16:45.
Go to the top of the page
 
+Quote Post
Guest_anonym_8b8d481c_*
posté 20 Oct 2011, 12:03
Message #98





Guests






Citation (AlbertRaccoon @ 20 Oct 2011, 12:51) *
Citation (sergi @ 20 Oct 2011, 12:40) *
C'est comme les télescope, on ne peut pas en faire un trop gros, mais plusieurs petits synchronisés c'est aussi bien donc leur techno n'a pas d'avenir en théorie c'est certain. Meme si c'est astucieux.


Ça n'a pas grand chose à voir.
Le but d'un télescope interféromètre est de simuler la résolution d'un télescope trop grand à construire.
Ici, au contraire, l'usage des microlenses réduit la résolution finale de l'image.


Si ca a a voir un peu.
Leur objectif fait grossomodo 2 cm de diamètre et ce diamètre doit être important pour pouvoir avoir les informations précises de profondeur. Il ne peuvent pas réduire ce diamètre de beaucoup. C'est un argument qui s'joute a celui deja existant pour tout le monde d'avoir beaucoup de lumière qui entre. Mais là c'est qu'ils ont besoin de précision sur la profondeur de champ. Donc s'ils réduisent leur taille d'objectif ils vont aussi perdre en profondeur de chant.(champ?) et perdront leur informations si originales. A contrario, pour qu'on puisse avoir des informations de profondeur entre un arbre et un maison dans un paysage, ils auraient besoin d'une lentille de 15 cm de diamètre, et ça, on peut faire presque pareil avec 4 objectifs séparés de 15cm justement.


Citation (Nicosa @ 20 Oct 2011, 12:44) *
Citation (AlbertRaccoon @ 20 Oct 2011, 12:09) *
J'ai d'ailleurs un album consacré à cette technique sur mon Flickr.
Interessant.
Je serais curieux de voir les photos originales qui ont permis ce résultat (t'as peut-être un album qui le montre ?)
Choisis une photo et je te montre le groupe qui m'a servi à la créer. smile.gif


Avec leur technologie, tu pourras faire d'aussi jolies photos de fourmies vraissemblablement :-) As tu aujourd'hui une technique pour prendre les fourmis qui bougent bien vite ?
Go to the top of the page
 
+Quote Post
AlbertRaccoon
posté 20 Oct 2011, 12:15
Message #99


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 515
Inscrit : 21 Sep 2005
Membre no 46 410



Citation (sergi @ 20 Oct 2011, 13:03) *
Si ca a a voir un peu.
Leur objectif fait grossomodo 2 cm de diamètre et ce diamètre doit être important pour pouvoir avoir les informations précises de profondeur. Il ne peuvent pas réduire ce diamètre de beaucoup. C'est un argument qui s'joute a celui deja existant pour tout le monde d'avoir beaucoup de lumière qui entre. Mais là c'est qu'ils ont besoin de précision sur la profondeur de champ. Donc s'ils réduisent leur taille d'objectif ils vont aussi perdre en profondeur de chant.(champ?) et perdront leur informations si originales. A contrario, pour qu'on puisse avoir des informations de profondeur entre un arbre et un maison dans un paysage, ils auraient besoin d'une lentille de 15 cm de diamètre, et ça, on peut faire presque pareil avec 4 objectifs séparés de 15cm justement.


Ah désolé, je n'avais pas bien compris ton message précédent.
Effectivement, plus tes objectifs sont écartés, meilleure sera l'information de profondeur. C'est d'ailleurs pour ça que les premières recherches (modernes) sur les caméras plénoptiques ont découlé des recherches sur la stéréoscopie.

Citation (sergi @ 20 Oct 2011, 13:03) *
Avec leur technologie, tu pourras faire d'aussi jolies photos de fourmies vraissemblablement :-) As tu aujourd'hui une technique pour prendre les fourmis qui bougent bien vite ?


Courir plus vite ? biggrin.gif

Ce message a été modifié par AlbertRaccoon - 20 Oct 2011, 12:15.
Go to the top of the page
 
+Quote Post
Guest_anonym_8b8d481c_*
posté 20 Oct 2011, 12:24
Message #100





Guests






Citation (sergi @ 20 Oct 2011, 13:03) *
Avec leur technologie, tu pourras faire d'aussi jolies photos de fourmies vraissemblablement :-) As tu aujourd'hui une technique pour prendre les fourmis qui bougent bien vite ?


Chez Helicon Soft, je crois qu'ils les tuent leurs animaux avant de les prendre en photo.
http://www.heliconsoft.com/heliconfocus.html
Mais sur tes jolies photos de fleur, j'aurais bien vu un petit insecte volant en train de les pollitiser... ce qu'on pourra voir et filmer bien net grâce à http://www.lytro.com alors d'ici 3 ans.
Go to the top of the page
 
+Quote Post
AlbertRaccoon
posté 20 Oct 2011, 12:37
Message #101


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 515
Inscrit : 21 Sep 2005
Membre no 46 410



Citation (sergi @ 20 Oct 2011, 13:24) *
Mais sur tes jolies photos de fleur, j'aurais bien vu un petit insecte volant en train de les pollitiser... ce qu'on pourra voir et filmer bien net grâce à http://www.lytro.com alors d'ici 3 ans.


Il n'y a pas que le problème du out-of-focus.
Le flou de bougé est un problème aussi important dans le cas de la macrophotographie d'insectes, et n'est pas particulièrement résolu par la technologie plénoptique.
Go to the top of the page
 
+Quote Post
Twisell
posté 20 Oct 2011, 13:04
Message #102


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 148
Inscrit : 5 Jan 2004
Lieu : Argentoratum
Membre no 13 063



Citation (AlbertRaccoon @ 20 Oct 2011, 12:09) *
Citation (Nicosa @ 20 Oct 2011, 11:58) *
Parce que leurs exemples montrent simplement le changement du plan focal, c'est à dire, le choix du sous-réseau de photosites. Ça doit être beaucoup plus couteux de réussir à prendre les "bons" photosites pour créer profondeur de champ étendue/cumulée.


Pas nécessairement.
On le fait depuis longtemps avec la technique du focus stacking pour la macrophotographie, avec des logiciels comme CombineZP ou même Photoshop avec l'option de fusion automatique des calques.
J'ai d'ailleurs un album consacré à cette technique sur mon Flickr.

Merci pour toutes tes précisions et désolé pour ma réponse un peu sèche tout à l'heure.

Si je comprend bien avec cette technologie il sera tout de même plus complexe d'obtenir une image "équivalente à l’hyper-focale" que de sélectionner un plan focal en particulier en post production.
Mais il est vrai que si le logiciel de retouche est bien fait et avec la puissance de calcul de des ordis actuels, toute cette complexité sera peut-être transparente pour l'utilisateur.

Malgré tout mes questionnements curieux devant cette nouvelle technologie, je reconnais que ça me semble particulièrement brillant comme mise en œuvre.


--------------------
Télecharger une archive personelle contenant tous les fils de discussions auxquels le membre a participé? (... ou pas malgré la RGPD)[/size]
Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la règle d'éligibilité[/size]
Go to the top of the page
 
+Quote Post
Nicosa
posté 20 Oct 2011, 13:36
Message #103


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 026
Inscrit : 2 May 2007
Lieu : Région Parisienne (91)
Membre no 85 838



Citation (AlbertRaccoon @ 20 Oct 2011, 12:51) *
Par exempl, pour faire celle-ci :


J'ai utilisée 18 photos : planche-contact.
Yes, merci pour l'exemple.
La retouche des couleurs pour l'image finale est due au traitement ? (on sent un "décalage" par rapport à celles de la planche contact)


--------------------
Whoever fights monsters should see to it that in the process he does not become a monster;
And when you look long into an abyss, the abyss also looks into you.
- Friedrich Nietzsche -
(issue de la préface de la novélisation "The Abyss" d'Orson Scott Card depuis le film eponyme)
-------------------------------------------------------------------------------------------------------------------------------
[refurb] MacBook Pro 13"(early2019) , QuadCore 2.7GHz, 16Go de RAM, 512Go, sous OSX 10.14 Mojave
MacBook Pro 15"(mid2007) , Core2Duo 2.2GHz, 2x2Go de RAM, SSD Crucial M225 256Go, sous OSX 10.6.7 Snow Leopard [à vendre]
[refurb] MacMini Core2Duo 2.0GHz (early 2009), 1Go de RAM, DD 120Go 5400rpm, sous OSX 10.6.3 Snow Lepard + Mighty Mouse BT + Clavier BT "Alu"
Go to the top of the page
 
+Quote Post
goum
posté 20 Oct 2011, 14:35
Message #104


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 724
Inscrit : 3 Jan 2007
Membre no 77 157



Citation (AlbertRaccoon @ 20 Oct 2011, 13:37) *
Citation (sergi @ 20 Oct 2011, 13:24) *
Mais sur tes jolies photos de fleur, j'aurais bien vu un petit insecte volant en train de les pollitiser... ce qu'on pourra voir et filmer bien net grâce à http://www.lytro.com alors d'ici 3 ans.


Il n'y a pas que le problème du out-of-focus.
Le flou de bougé est un problème aussi important dans le cas de la macrophotographie d'insectes, et n'est pas particulièrement résolu par la technologie plénoptique.

Flou de bougé ? Adobe a la réponse (vidéo à partir de 1') wink.gif
http://tv.adobe.com/watch/max-2011-sneak-p...age-deblurring/
Go to the top of the page
 
+Quote Post
marc_os
posté 20 Oct 2011, 15:37
Message #105


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 6 493
Inscrit : 21 Apr 2006
Membre no 59 799



Citation (AlbertRaccoon @ 20 Oct 2011, 13:37) *
Citation (sergi @ 20 Oct 2011, 13:24) *
Mais sur tes jolies photos de fleur, j'aurais bien vu un petit insecte volant en train de les pollitiser... ce qu'on pourra voir et filmer bien net grâce à http://www.lytro.com alors d'ici 3 ans.


Il n'y a pas que le problème du out-of-focus.
Le flou de bougé est un problème aussi important dans le cas de la macrophotographie d'insectes, et n'est pas particulièrement résolu par la technologie plénoptique.

Mouais, avec toute la technologie plénoptique que l'on veut, ça va être dur de saisir un chtit' insect en tarin de politiser une malheureuse fleur qui a du mal à reconnaître sa gauche de sa droite, surtout s'il s'agit d'un tournesol ! wink.gif
tongue.gif


--------------------
-----------------
--JE-------SUIS--
--AHMED-CHARLIE--
--CLARISSA-YOAV--
-----------------
Go to the top of the page
 
+Quote Post
jordancavanaugh
posté 20 Oct 2011, 16:20
Message #106


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 4 214
Inscrit : 30 Sep 2005
Membre no 46 983



Le gadget est amusant mais je ne vois pas en quoi ça pourrait révolutionner la photo numérique...
Ceci est autrement plus impressionnant !
Et plus cher aussi wink.gif

Citation (goum @ 20 Oct 2011, 15:35) *
Flou de bougé ? Adobe a la réponse (vidéo à partir de 1') wink.gif
http://tv.adobe.com/watch/max-2011-sneak-p...age-deblurring/
Sauf qu'ils ont triché un peu...

Go to the top of the page
 
+Quote Post
AlbertRaccoon
posté 20 Oct 2011, 16:28
Message #107


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 515
Inscrit : 21 Sep 2005
Membre no 46 410



Citation (Nicosa @ 20 Oct 2011, 14:36) *
Yes, merci pour l'exemple.
La retouche des couleurs pour l'image finale est due au traitement ? (on sent un "décalage" par rapport à celles de la planche contact)


Non, c'est un choix personnel, basé sur le fait que mon système d'éclairage maison a tendance à dénaturer les couleurs. smile.gif

Ce message a été modifié par AlbertRaccoon - 20 Oct 2011, 16:31.
Go to the top of the page
 
+Quote Post
TimBioSS
posté 20 Oct 2011, 16:37
Message #108


Adepte de Macbidouille
*

Groupe : Membres
Messages : 142
Inscrit : 21 Jan 2006
Membre no 53 995



Citation (jordancavanaugh @ 20 Oct 2011, 16:20) *
Citation (goum @ 20 Oct 2011, 15:35) *
Flou de bougé ? Adobe a la réponse (vidéo à partir de 1') wink.gif
http://tv.adobe.com/watch/max-2011-sneak-p...age-deblurring/
Sauf qu'ils ont triché un peu...


Si tu lisais correctement, seule une des trois photos a été artificiellement blurré, et ce n'est même pas la plus impressionnante.
Et que le blur soit artificiel ou non, ça montre bien que l'algorithme arrive à parfaitement à inverser l'effet.
Go to the top of the page
 
+Quote Post
ManiX
posté 20 Oct 2011, 16:52
Message #109


grat' grat' d'Or !
*****

Groupe : Membres
Messages : 5 131
Inscrit : 25 Feb 2004
Membre no 15 389



Un truc me chagrine dans cette annonce : le sentiment que les propriétaires de Lytro essaient de sur-valoriser une innovation réelle (enregistrer simultanément de nombreux plans avec un seul capteur) derrière des concepts fumeux : le champ lumineux (light field) et les "megarays" au lieu de compter les pixels restituables comme tout le monde.

Lorsqu'on change les critères de comptage, c'est qu'on a peur de perdre en comptant à la régulière.

C'est sûr que une résolution "au moins HD" c'est à dire 2 millions de pixels tout pourris, ça claque moins que "11 megarays" laugh.gif


--------------------
MBP 2011 2,0 GHz, écran mat, 8Go RAM, SSD Crucial MX100 512Go + DD WD 1To, OS X.10 / iPhone6 / iPad2 64Go / Freebox v6 23Mbps
Go to the top of the page
 
+Quote Post
TimBioSS
posté 20 Oct 2011, 16:56
Message #110


Adepte de Macbidouille
*

Groupe : Membres
Messages : 142
Inscrit : 21 Jan 2006
Membre no 53 995



Ils ne se cachent pas du tout derrière des mots compliqués.
C'est juste que parler uniquement de résolution c'est débile pour cet appareil,
car son intérêt est bien d'enregistrer plusieurs informations pour chaque pixel et pas juste une seule valeur.

Ce message a été modifié par TimBioSS - 20 Oct 2011, 16:57.
Go to the top of the page
 
+Quote Post
AlbertRaccoon
posté 20 Oct 2011, 17:10
Message #111


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 515
Inscrit : 21 Sep 2005
Membre no 46 410



Citation (Twisell @ 20 Oct 2011, 14:04) *
Merci pour toutes tes précisions et désolé pour ma réponse un peu sèche tout à l'heure.


Y a pas de souci ! wink.gif

Citation (Twisell @ 20 Oct 2011, 14:04) *
Si je comprend bien avec cette technologie il sera tout de même plus complexe d'obtenir une image "équivalente à l’hyper-focale" que de sélectionner un plan focal en particulier en post production.
Mais il est vrai que si le logiciel de retouche est bien fait et avec la puissance de calcul de des ordis actuels, toute cette complexité sera peut-être transparente pour l'utilisateur.


Après avoir relu un peu plus profondément la thèse de Ng, il fait explicitement mention page 57 et suivantes à la même méthode que celle mise en œuvre dans Photoshop pour étendre la profondeur de champ, à savoir (en simplifiant) :
- créer une pile de photos faisant le point sur différents point de la scène (équivalent à un échantillonnage sur l'axe de la caméra)
- pour chaque image de la pile, calculer la "densité" de contraste local de chaque zone de l'image
- ensuite, en parcourant la pile, on choisit pour chaque zone de l'image finale, la zone correspondante ayant le meilleur contraste local dans la pile d'images (je suis pas très clair, sur ce coup... biggrin.gif )
- améliorer le résultat final par une méthode appelée "Poisson blending", qui permet de limiter les artefacts entre les différentes zones de l'image.

A savoir également que ce traitement sous Photoshop prend beaucoup de temps, et surtout beaucoup de mémoire (cf moniteur de ressources)

Ce message a été modifié par AlbertRaccoon - 20 Oct 2011, 17:27.
Go to the top of the page
 
+Quote Post
sim_v
posté 20 Oct 2011, 20:13
Message #112


Adepte de Macbidouille
*

Groupe : Membres
Messages : 131
Inscrit : 5 Mar 2005
Lieu : Lyon
Membre no 34 451



Quand on zoom les images (double clics) on distingue des effets de matrice.
Donc tramage sur les premiers plans et flou sur les plans lointains...
Bon, je vais rester encore pas mal de temps avec le W3 de Fujifilm (3D).
Go to the top of the page
 
+Quote Post
Alizés
posté 20 Oct 2011, 20:57
Message #113


可愛い アリゼ
*****

Groupe : Membres
Messages : 10 010
Inscrit : 21 Aug 2004
Membre no 22 340



Marf! C'est amusant un moment mais comme beaucoup j'ai bien du mal à concevoir que cela puisse révolutionner quoi que ce soit. Je pense que le mieux est de voir si ça perdure et si c'est le cas d'en acheter un pour s'amuser le jour où il intégrera un capteur 14Mp minimum, qu'il pourra faire de la vidéo, qu'il permettra un minimum de 6 à 7 images seconde en raffale, qu'il aura une sensibilité ISO 50 à 6400, etc., et que son prix ne dépassera pas les 100€ (ce qu'à mon avis devrait coûter ce genre de gadget). 400€ c'est franchement du racket. C'est le prix d'un NEX 5. Faut pas charrier...


--------------------
Bisous
Go to the top of the page
 
+Quote Post
jordancavanaugh
posté 20 Oct 2011, 21:40
Message #114


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 4 214
Inscrit : 30 Sep 2005
Membre no 46 983



Citation (TimBioSS @ 20 Oct 2011, 17:37) *
Citation (jordancavanaugh @ 20 Oct 2011, 16:20) *
Citation (goum @ 20 Oct 2011, 15:35) *
Flou de bougé ? Adobe a la réponse (vidéo à partir de 1') wink.gif
http://tv.adobe.com/watch/max-2011-sneak-p...age-deblurring/
Sauf qu'ils ont triché un peu...


Si tu lisais correctement, seule une des trois photos a été artificiellement blurré, et ce n'est même pas la plus impressionnante.
Et que le blur soit artificiel ou non, ça montre bien que l'algorithme arrive à parfaitement à inverser l'effet.
Je suis épaté qu'un algorithme Adobe parvienne à "déblurrer" de manière aussi spectaculaire un blur artificiel généré par... un algorithme Adobe laugh.gif
(mais on savait faire avant, avec Command-Z)
Bon allez je déconne, je sais qu'ils ont fait du bon boulot. Maintenant, peut-on imaginer que, un jour, tout le monde parviendra à capturer des photos parfaitement insignifiantes ?

Citation (AlbertRaccoon @ 20 Oct 2011, 18:10) *
Citation (Twisell @ 20 Oct 2011, 14:04) *
Merci pour toutes tes précisions et désolé pour ma réponse un peu sèche tout à l'heure.


Y a pas de souci ! wink.gif

Citation (Twisell @ 20 Oct 2011, 14:04) *
Si je comprend bien avec cette technologie il sera tout de même plus complexe d'obtenir une image "équivalente à l’hyper-focale" que de sélectionner un plan focal en particulier en post production.
Mais il est vrai que si le logiciel de retouche est bien fait et avec la puissance de calcul de des ordis actuels, toute cette complexité sera peut-être transparente pour l'utilisateur.


Après avoir relu un peu plus profondément la thèse de Ng, il fait explicitement mention page 57 et suivantes à la même méthode que celle mise en œuvre dans Photoshop pour étendre la profondeur de champ, à savoir (en simplifiant) :
- créer une pile de photos faisant le point sur différents point de la scène (équivalent à un échantillonnage sur l'axe de la caméra)
- pour chaque image de la pile, calculer la "densité" de contraste local de chaque zone de l'image
- ensuite, en parcourant la pile, on choisit pour chaque zone de l'image finale, la zone correspondante ayant le meilleur contraste local dans la pile d'images (je suis pas très clair, sur ce coup... biggrin.gif )
- améliorer le résultat final par une méthode appelée "Poisson blending", qui permet de limiter les artefacts entre les différentes zones de l'image.

A savoir également que ce traitement sous Photoshop prend beaucoup de temps, et surtout beaucoup de mémoire (cf moniteur de ressources)
Exactement, et c'est pour ça que les vrais appareils photo qui permettront de faire du focus bracketing très rapidement pourront produire des résultas bien plus spectaculaires, sans perte de résolution.
Regardez et écoutez la mitrailleuse que je citais plus haut...
En microscopie c'est la EDF, c'est relativement simple et ça fait des miracles.
Go to the top of the page
 
+Quote Post
AlbertRaccoon
posté 20 Oct 2011, 22:00
Message #115


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 515
Inscrit : 21 Sep 2005
Membre no 46 410



Citation (jordancavanaugh @ 20 Oct 2011, 22:40) *
Exactement, et c'est pour ça que les vrais appareils photo qui permettront de faire du focus bracketing très rapidement pourront produire des résultas bien plus spectaculaires, sans perte de résolution.
Regardez et écoutez la mitrailleuse que je citais plus haut...


Apparemment, le firmware CHDK propose déjà de faire du focus bracketing sur certains appareils.

Plus d'info ici

Ce message a été modifié par AlbertRaccoon - 20 Oct 2011, 22:05.
Go to the top of the page
 
+Quote Post
Nicosa
posté 20 Oct 2011, 22:30
Message #116


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 026
Inscrit : 2 May 2007
Lieu : Région Parisienne (91)
Membre no 85 838



Citation (jordancavanaugh @ 20 Oct 2011, 22:40) *
Regardez et écoutez la mitrailleuse que je citais plus haut...
ohmy.gif ohmy.gif ohmy.gif
OMFG !!!
Ça doit foutre le feu à la carte mémoire à cette vitesse !
laugh.gif

(Bon, par contre, ça va être chaud de changer le diaph tout les 1/12e de seconde pour modifier la PDC...)
tongue.gif


--------------------
Whoever fights monsters should see to it that in the process he does not become a monster;
And when you look long into an abyss, the abyss also looks into you.
- Friedrich Nietzsche -
(issue de la préface de la novélisation "The Abyss" d'Orson Scott Card depuis le film eponyme)
-------------------------------------------------------------------------------------------------------------------------------
[refurb] MacBook Pro 13"(early2019) , QuadCore 2.7GHz, 16Go de RAM, 512Go, sous OSX 10.14 Mojave
MacBook Pro 15"(mid2007) , Core2Duo 2.2GHz, 2x2Go de RAM, SSD Crucial M225 256Go, sous OSX 10.6.7 Snow Leopard [à vendre]
[refurb] MacMini Core2Duo 2.0GHz (early 2009), 1Go de RAM, DD 120Go 5400rpm, sous OSX 10.6.3 Snow Lepard + Mighty Mouse BT + Clavier BT "Alu"
Go to the top of the page
 
+Quote Post
AlbertRaccoon
posté 20 Oct 2011, 22:35
Message #117


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 515
Inscrit : 21 Sep 2005
Membre no 46 410



Citation (Nicosa @ 20 Oct 2011, 23:30) *
(Bon, par contre, ça va être chaud de changer le diaph tout les 1/12e de seconde pour modifier la PDC...)
tongue.gif


Justement non, le focus bracketing ne change que la distance de mise au point. L'ouverture ne change pas.
Go to the top of the page
 
+Quote Post
Nicosa
posté 20 Oct 2011, 23:03
Message #118


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 026
Inscrit : 2 May 2007
Lieu : Région Parisienne (91)
Membre no 85 838



Citation (AlbertRaccoon @ 20 Oct 2011, 23:35) *
Justement non, le focus bracketing ne change que la distance de mise au point. L'ouverture ne change pas.
Oui en effet, bonne remarque.

Du coup, je me demande pour Lytro : leur système de lentille reproduis, sans déplacer les lentilles, le changement de point de focus et non la fermeture du diaph' ?
(autant je peux imaginer pour simuler les differents diaph, mais pas l'equivalent du deplacement des lentilles...)


--------------------
Whoever fights monsters should see to it that in the process he does not become a monster;
And when you look long into an abyss, the abyss also looks into you.
- Friedrich Nietzsche -
(issue de la préface de la novélisation "The Abyss" d'Orson Scott Card depuis le film eponyme)
-------------------------------------------------------------------------------------------------------------------------------
[refurb] MacBook Pro 13"(early2019) , QuadCore 2.7GHz, 16Go de RAM, 512Go, sous OSX 10.14 Mojave
MacBook Pro 15"(mid2007) , Core2Duo 2.2GHz, 2x2Go de RAM, SSD Crucial M225 256Go, sous OSX 10.6.7 Snow Leopard [à vendre]
[refurb] MacMini Core2Duo 2.0GHz (early 2009), 1Go de RAM, DD 120Go 5400rpm, sous OSX 10.6.3 Snow Lepard + Mighty Mouse BT + Clavier BT "Alu"
Go to the top of the page
 
+Quote Post
AlbertRaccoon
posté 20 Oct 2011, 23:06
Message #119


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 515
Inscrit : 21 Sep 2005
Membre no 46 410



Citation (Nicosa @ 21 Oct 2011, 00:03) *
Citation (AlbertRaccoon @ 20 Oct 2011, 23:35) *
Justement non, le focus bracketing ne change que la distance de mise au point. L'ouverture ne change pas.
Oui en effet, bonne remarque.

Du coup, je me demande pour Lytro : leur système de lentille reproduis, sans déplacer les lentilles, le changement de point de focus et non la fermeture du diaph' ?
(autant je peux imaginer pour simuler les differents diaph, mais pas l'equivalent du deplacement des lentilles...)


Leur objectif est à f/2 fixe.
En fait, je crois que je n'ai pas bien compris ta question... unsure.gif

Ce message a été modifié par AlbertRaccoon - 20 Oct 2011, 23:07.
Go to the top of the page
 
+Quote Post
jordancavanaugh
posté 20 Oct 2011, 23:11
Message #120


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 4 214
Inscrit : 30 Sep 2005
Membre no 46 983



Citation (AlbertRaccoon @ 20 Oct 2011, 23:35) *
Citation (Nicosa @ 20 Oct 2011, 23:30) *
(Bon, par contre, ça va être chaud de changer le diaph tout les 1/12e de seconde pour modifier la PDC...)
tongue.gif


Justement non, le focus bracketing ne change que la distance de mise au point. L'ouverture ne change pas.
Merci Albert wink.gif

Nicosa, note qu'ils ont mis deux slots de compact flash, et vu que les photos ne font "que" 18 MP, ça devrait permettre de tenir une journée laugh.gif
Ce qui me fait le plus peur avec ces trucs c'est la mécanique... Il doit falloir construire un sacré shutter pour qu'il survive plus de quelques mois dans ce monstre.

Citation (Nicosa @ 21 Oct 2011, 00:03) *
Citation (AlbertRaccoon @ 20 Oct 2011, 23:35) *
Justement non, le focus bracketing ne change que la distance de mise au point. L'ouverture ne change pas.
Oui en effet, bonne remarque.

Du coup, je me demande pour Lytro : leur système de lentille reproduis, sans déplacer les lentilles, le changement de point de focus et non la fermeture du diaph' ?
(autant je peux imaginer pour simuler les differents diaph, mais pas l'equivalent du deplacement des lentilles...)
En fait, ce que je comprends c'est que le Lytro ne fait le focus nulle part. Il analyse l'angle avec lequel la lumière arrive sur le capteur, mais il ne joue ni sur l'ouverture ni sur une mise au point quelconque. Il suffit de positionner la chose dans direction de la scène à photographier.
Enfin j'y comprends pas grand chose à leur bouzin en fait, mais c'est amusant.
Go to the top of the page
 
+Quote Post

5 Pages V  « < 2 3 4 5 >
Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 5th April 2026 - 19:35