Format de données - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Formats classiques

Formats de fichiers
Catégorie Formats
Images PNG, MNG, TIFF, JPEG, GIF, TGA, OpenEXR, BMP
Dessin vectoriel VML, SVG, Silverlight, Flash, AI, EPS, DXF
3D XCF, BLEND, SKP, (SKB), DXF, 3DS Max, VRML, X3D, IFC
Son OGG, FLAC, MP3, WAV, WMA, AAC
Vidéo MPEG, OGM(DVD, DivX, XviD), AVI, Theora, FLV
Page PDF, PostScript, HTML, XHTML
Document de traitement de texte ODT, TXT, DOC, RTF
Exécutable BIN, ELF, EXE, .sdc
Archives (fichier compressé) 7Z, TAR, GZIP, ZIP, LZW, ARJ, RAR, .sdc
Archives pour bandes dessinées CB7 (.cb7), basé sur 7z
CBA (.cba) basé sur ACE
CBR (.cbr) basé sur RAR
CBT (.cbt), basé sur TAR
CBZ (.cbz), basé sur ZIP

Compression des données

La compression des données est la technique qui consiste à transformer les données afin qu'elles prennent moins de place. Les données devant être décompressées avant d'être traitées, ceci se fait aux dépens de la rapidité, et avec un risque plus grand de perte de données.

L'idée de base est qu'en général, des éléments se répètent dans les fichiers. On a donc intérêt à représenter les éléments se répétant souvent par des nombres plus petits (c'est-à-dire prenant moins de bits).

On peut distinguer deux types de compression :

  • les compressions sans a priori sur les données : ce sont des algorithmes qui travaillent uniquement sur les nombres, quelle que soit l'information portée par ces nombres ; ils sont donc généraux, pas spécifiques aux données ; on peut distinguer :
    • les algorithmes à table stockée : l'algorithme fait une première analyse pour repérer les éléments se répétant, et construit une table de correspondance avec un code raccourci pour chaque élément répétitif ; la taille occupée par la table de stockage fait que ce procédé est plutôt adapté aux gros fichiers ;
    • les algorithmes à table construite à la volée : la table de correspondance est construite de manière systématique, sans analyse préalable du fichier ; elle peut être reconstruite à la volée à partir du fichier compressé ; c'est par exemple le cas de l'algorithme de Lempel-Ziv-Welch (LZW)
  • les compressions spécifiques aux données : si l'on connaît les données, on peut optimiser l'algorithme ; par exemple si l'on sait que l'on a affaire à un texte, on peut se baser sur la fréquence d'utilisation des mots dans le langage ; on distingue deux sous-catégories :
    • les compressions sans perte d'informations ;
    • les compressions avec perte de données : la première idée est de faire un « sous-échantillonnage », c'est-à-dire de simplement dégrader la qualité des données
      en étudiant les sens et la manière dont le cerveau interprète les informations, on peut dégrader certaines caractéristiques des données peu sensibles, donc sans trop altérer la qualité globale des données ; ainsi, si l'oreille humaine est peu sensible à certaines gammes de fréquences, on peut dégrader (voire supprimer) certaines parties du spectre et pas d'autres (MP3);
      les algorithmes de compression d'image (JPEG) et de film (MPEG) utilisent une perte de qualité.
Page générée en 0.091 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales
Version anglaise | Version allemande | Version espagnole | Version portugaise