Formats classiques
Formats de fichiers Catégorie | Formats |
Images | PNG, MNG, TIFF, JPEG, GIF, TGA, OpenEXR, BMP |
Dessin vectoriel | VML, SVG, Silverlight, Flash, AI, EPS, DXF |
3D | XCF, BLEND, SKP, (SKB), DXF, 3DS Max, VRML, X3D, IFC |
Son | OGG, FLAC, MP3, WAV, WMA, AAC |
Vidéo | MPEG, OGM(DVD, DivX, XviD), AVI, Theora, FLV |
Page | PDF, PostScript, HTML, XHTML |
Document de traitement de texte | ODT, TXT, DOC, RTF |
Exécutable | BIN, ELF, EXE, .sdc |
Archives (fichier compressé) | 7Z, TAR, GZIP, ZIP, LZW, ARJ, RAR, .sdc |
Archives pour bandes dessinées | CB7 (.cb7), basé sur 7z CBA (.cba) basé sur ACE CBR (.cbr) basé sur RAR CBT (.cbt), basé sur TAR CBZ (.cbz), basé sur ZIP |
Compression des données
La compression des données est la technique qui consiste à transformer les données afin qu'elles prennent moins de place. Les données devant être décompressées avant d'être traitées, ceci se fait aux dépens de la rapidité, et avec un risque plus grand de perte de données.
L'idée de base est qu'en général, des éléments se répètent dans les fichiers. On a donc intérêt à représenter les éléments se répétant souvent par des nombres plus petits (c'est-à-dire prenant moins de bits).
On peut distinguer deux types de compression :
- les compressions sans a priori sur les données : ce sont des algorithmes qui travaillent uniquement sur les nombres, quelle que soit l'information portée par ces nombres ; ils sont donc généraux, pas spécifiques aux données ; on peut distinguer :
- les algorithmes à table stockée : l'algorithme fait une première analyse pour repérer les éléments se répétant, et construit une table de correspondance avec un code raccourci pour chaque élément répétitif ; la taille occupée par la table de stockage fait que ce procédé est plutôt adapté aux gros fichiers ;
- les algorithmes à table construite à la volée : la table de correspondance est construite de manière systématique, sans analyse préalable du fichier ; elle peut être reconstruite à la volée à partir du fichier compressé ; c'est par exemple le cas de l'algorithme de Lempel-Ziv-Welch (LZW)
- les compressions spécifiques aux données : si l'on connaît les données, on peut optimiser l'algorithme ; par exemple si l'on sait que l'on a affaire à un texte, on peut se baser sur la fréquence d'utilisation des mots dans le langage ; on distingue deux sous-catégories :
- les compressions sans perte d'informations ;
- les compressions avec perte de données : la première idée est de faire un « sous-échantillonnage », c'est-à-dire de simplement dégrader la qualité des données
en étudiant les sens et la manière dont le cerveau interprète les informations, on peut dégrader certaines caractéristiques des données peu sensibles, donc sans trop altérer la qualité globale des données ; ainsi, si l'oreille humaine est peu sensible à certaines gammes de fréquences, on peut dégrader (voire supprimer) certaines parties du spectre et pas d'autres (MP3);
les algorithmes de compression d'image (JPEG) et de film (MPEG) utilisent une perte de qualité.