[News] Algorithme pour le changement automatique de la taille d'une image sans perte d'informations
Modérateur : Modérateurs
-
- Site Admin
- Messages : 23649
- Inscription : 02/06/2004 - 18:58:53
- Activité : Ingénieur
- Localisation : 78
[News] Algorithme pour le changement automatique de la taille d'une image sans perte d'informations
La plupart des méthodes de compression d'image et de mise à l'échelle de ces dernières reposent essentiellement sur les changements d'échelle et des coupes, mais l'application automatique de ces méthodes reste problématique, car elles souffrent de sérieux défauts concernant la qualité de l'image et la perte de données importantes. De nombreux essais ont été faits dans le but de surmonter ces difficultés, toutefois les performances obtenues étaient toujours très limitées et n'ét...
Re: [News] Algorithme pour le changement automatique de la taille d'une image sans perte d'informations
J'ai l'impression que ca ressemble a ce qu'ont recupere Adobe pour leur derniere version de photoshop (CS ou elements)
"Le soleil, avec toutes ces planetes qui gravitent sous sa gouverne, prend encore le temps de murir une grappe de raisin, comme s'il n'y avait rien de plus important. " Galilee
Re: [News] Algorithme pour le changement automatique de la taille d'une image sans perte d'informations
Cela ressemble fortement à rsizr (2007):
http://rsizr.com/
http://rsizr.com/about/about/
Ou encore à Cair:
http://sites.google.com/site/brainrecall/cair
http://rsizr.com/
http://rsizr.com/about/about/
Ou encore à Cair:
http://sites.google.com/site/brainrecall/cair
Re: [News] Algorithme pour le changement automatique de la taille d'une image sans perte d'informations
'Sans perte d'information' (titre), c'est pas du tout la même chose que 'Sans perte d'information significative' (article)
-
- Messages : 1283
- Inscription : 13/10/2008 - 18:39:29
- Activité : Etudiant
- Localisation : Grenoble
Re: [News] Algorithme pour le changement automatique de la taille d'une image sans perte d'informations
Adrien a écrit : Cet algorithme utilise un procédé itératif qui diminue la taille de l'image au fur et a mesure, et ce sans perte d'information significative.
Génial... mais ça c'est le but. Concrètement il fait quoi cet algorithme?
"Vivre simplement pour que d'autres, simplement, puissent vivre"
- cisou9
- Messages : 10119
- Inscription : 12/03/2006 - 15:43:01
- Activité : Retraité
- Localisation : Pertuis en Lubéron
- Contact :
Re: [News] Algorithme pour le changement automatique de la taille d'une image sans perte d'informations
d'après ce que je comprend, il réduit la taille et donc le poids sans toucher à la qualité
Un homme est heureux tant qu'il décide de l'être et nul ne peux l'en empêcher.
Alexandre Soljenitsyne.
Alexandre Soljenitsyne.
Re: [News] Algorithme pour le changement automatique de la taille d'une image sans perte d'informations
Je croyais que les images comme JEPG utilisaient déjà une linéarité vectorielle dans l'image, Je voudrais qu'on explique SVP
En ce qui concerne la recherche en sciences, Je dirais : Cherche encore !
Re: [News] Algorithme pour le changement automatique de la taille d'une image sans perte d'informations
JPEG linéarité vectorielle ?
Déjà il faut faire le distinguo entre format et compression JPEG, il me semble pas qu'il y ait de notion "vectorielle" dans la compression JPEG, c'est le codage Huffman ou RLE qui est utilisé, et il y a perte.
Je trouve cette news troublante j'aimerai bien avoir un complément car j'avoue n'avoir pas tout compris, il ne s'agit pas simplement d'un nouveau réechantillonnage révolutionnaire, mais quelque chose de plus complexe ? Sinon dans le genre il y a Genuine Fractals que j'utilise, aussi bien pour l'agrandissement que la réduction.
Si il s'agit d'une échelle basée sur le contenu, Photoshop CS4 et CS5 embarquent cette fonctionnalité, qui est impressionnante lorsqu'on l'applique sur une image qui va bien (sinon c'est catastrophique).
Déjà il faut faire le distinguo entre format et compression JPEG, il me semble pas qu'il y ait de notion "vectorielle" dans la compression JPEG, c'est le codage Huffman ou RLE qui est utilisé, et il y a perte.
Je trouve cette news troublante j'aimerai bien avoir un complément car j'avoue n'avoir pas tout compris, il ne s'agit pas simplement d'un nouveau réechantillonnage révolutionnaire, mais quelque chose de plus complexe ? Sinon dans le genre il y a Genuine Fractals que j'utilise, aussi bien pour l'agrandissement que la réduction.
Si il s'agit d'une échelle basée sur le contenu, Photoshop CS4 et CS5 embarquent cette fonctionnalité, qui est impressionnante lorsqu'on l'applique sur une image qui va bien (sinon c'est catastrophique).