Un algorithme Google pour corriger toutes vos photos en un clin d’oeil

C’est une chose de prendre des photos dignes d’Instagram ; les éditer, c’en est une autre. La plupart d’entre nous téléchargent une photo, choisissent un filtre, ajustent un peu la saturation, et bim c’est posté. Si vous voulez une superbe photo sans la modification poussée des filtres, demandez à un pro… ou un algorithme vraiment poussé.

Des chercheurs de MIT et Google ont démontré récemment un algorithme capable de retoucher les photos automatiquement comme un photographe pro. Prenez une photo, et le réseau neutre identifie exactement comment l’améliorer – augmenter le contraste un chouya, baisser la luminosité, peu importe – et applique les changements en moins de 20 millisecondes.

adults, adventure, beach

L’algorithme de Michael Gharbi, un doctorant du MIT, transforme les photos si rapidement que vous pouvez voir la version éditée sur votre écran avant même de décider de prendre la photo. Gharbi a commencé son travail avec les chercheurs de Google l’année dernière pou explorer comment les réseaux neutres apprennent à imiter les styles photographiques spécifiques. Cela suit des recherches similaires complétées par des chercheurs allemands en 2015, quand ils ont construit un réseau neutre capable d’imiter les styles de peintres comme Van Gogh et Picasso. L’idée, dit Gharbi, est de rendre plus facile la tache de créer des photos de qualité pro, sans ouvrir une appli d’édition photo.

Considérez l’algorithme comme un filtre automatique, mais avec plus de nuance. La plupart des filtres appliquent des techniques d’édition à toute la photo, qu’elle en ait besoin ou non. L’algorithme peut mettre le doigt sur des éléments spécifiques d’une photo et appliquer les modifications nécessaires. Plus intéressant que de retoucher tous les pixels de la même façon. L’algorithme peut apprendre à automatiquement éclaircir un visage dans un selfie avec un arrière-plan lumineux, par exemple. Vous pouvez entrainer le réseau à augmenter la saturation de l’eau, ou le vert des arbres quand il reconnait une photo de paysage.

L’algorithme de Gharbi peut analyser ces nuances visuelles parce que les chercheurs l’ont entrainé avec des images retouchées manuellement. Les chercheurs ont donné au réseau neutre plus de 5000 images éditées professionnellement, ce qui lui a appris les règles spécifiques associées aux « bonnes » photos. Si vous donnez des photos éditées au réseau neutre, éventuellement il apprend à reproduire votre style photographique personnel.

Related image

Plutôt cool, non ? Mais le réel accomplissement, c’est le fait d’avoir développé un programme assez léger pour être supporté par les smartphones ! La clef ? Ne pas traiter tous les pixels.

Au lieu d’analyser des millions de pixels d’une photo, l’algorithme prend une version basse résolution de la photo et décide quelles parties retoucher. L’algorithme estime comment ajuster la couleur, luministe, saturation et plus, basé sur les règles établies par le réseau neutre. Il fait les changements, puis reconverti l’image en haute rés. Puisqu’il ne traite pas toute l’image d’un coup, le système peut opérer à des vitesses supérieures aux capacités des téléphones actuels.

Cet élément d’autoédition reste en phase de développement, mais pourrait venir améliorer les appareils photos existant. C’est assez pour intéresser Google, qui pour l’instant n’a pas annoncé si oui ou non le programme sera intégré dans des Android à venir. On l’espère.

Soyez le premier à commenter

Poster un Commentaire

Votre adresse de messagerie ne sera pas publiée.


*