Compression de maillages de grande taille - Archive ouverte HAL Accéder directement au contenu
Thèse Année : 2011

Efficient compression of large meshes

Compression de maillages de grande taille

Résumé

A decade ago, 3D content was restricted to a few applications – mainly games, 3D graphics andscientific simulations. Nowadays, thanks to the development cheap and efficient specialized renderingdevices, 3D objects are ubiquitous. Virtually all devices with a display – from a large visualizationclusters to smart phones – now integrate 3D rendering capabilities. Therefore, 3D applications arenow far more diverse than a few years ago, and include for example real-time virtual and augmentedreality, as well as 3D virtual worlds. In this context, there is an ever increasing need for efficient toolsto transmit and visualize 3D content.In addition, the size of 3D meshes always increases with accuracy of representation. On one hand,recent 3D scanners are able to digitalize real-world objects with a precision of a few micrometers, andgenerate meshes with several hundred million elements. On the other hand, numerical simulationsalways require finer meshes for better accuracy, and massively parallel simulation methods now generatemeshes with billions of elements. In this context, 3D data compression – in particular 3D meshcompression – services are of strategic importance.The previous decade has seen the development of many efficient methods for encoding polygonalmeshes. However, these techniques are no longer adapted to the current context, because they supposethat encoding and decoding are symmetric processes that take place on the same kind of hardware.In contrast, remote 3D content will typically be created, compressed and served by high-performancemachines, while exploitation (e.g. visualization) will be carried out remotely on smaller – possiblyhand held – devices that cannot handle large meshes as a whole. This makes mesh compression anintrinsically asymmetric process.Our objective in this dissertation is to address the compression of these large meshes. In particularwe study random-accessible compression schemes, that consider mesh compression as an asymmetricproblem where the compressor is an off-line process and has access to a large amount of resources,while decompression is a time-critical process with limited resources. We design such a compressionscheme and apply it to interactive visualization.In addition, we propose a streaming compression algorithm that targets the very large hexahedralmeshes that are common in the context of scientific numerical simulation. Using this scheme, we areable to compress meshes of 50 million hexahedra in less than two minutes using a few megabytes ofmemory.Independently from these two specific algorithms, we develop a generic theoretical framework toaddress mesh geometry compression. This framework can be used to derive geometry compressionschemes for any mesh compression algorithm based on a predictive paradigm – which is the case of thelarge majority of compression schemes. Using this framework, we derive new geometry compressionschemes that are compatible with existing mesh compression algorithms but improve compressionratios – by approximately 9% on average. We also prove the optimality of some other schemes underusual smoothness assumptions.
Il y a une décennie, le contenu numérique virtuel était limité à quelques applications – majoritairementles jeux vidéos, les films en 3D et la simulation numérique. Aujourd’hui, grâce à l’apparition de cartes graphiques performantes et bon marché, les objets 3D sont utilisés dans de nombreuses applications. A peu près tous les terminaux possédant des capacités d’affichage – des clusters de visualisation haute performance jusqu’aux smart phones – intègrent maintenant une puce graphique qui leur permet de faire du rendu 3D. Ainsi, les applications 3D sont bien plus variées qu’il y a quelques années. On citera par exemple la réalité virtuelle et augmentée en temps réel ou les mondes virtuels 3D. Dans ce contexte, le besoin de méthodes efficaces pour la transmission et la visualisation des données 3D est toujours plus pressant. De plus, la taille des maillages 3D ne cesse de s’accroître avec la précision de la représentation. Par exemple, les scanners 3D actuels sont capables de numériser des objets du monde réel avec une précision de seulement quelques micromètres, et génèrent des maillages contenant plusieurs centaines de millions d’´el´ements. D’un autre côté, une précision accrue en simulation numérique requiert des maillages plus fins, et les méthodes massivement parallèles actuelles sont capables de travailler avec des milliards de mailles. Dans ce contexte, la compression de ces données – en particulier la compression de maillages – est un enjeu important. Durant la décennie passée, de nombreuses méthodes ont été développées pour coder les maillages polygonaux. Néanmoins, ces techniques ne sont plus adaptées au contexte actuel, car elles supposentque la compression et la d´ecompression sont des processus sym´etriques qui ont lieu sur un mat´erielsimilaire. Dans le cadre actuel, au contraire, le contenu 3D se trouve cr´e´e, compressé et distribué par des machines de hautes performances, tandis que l’exploitation des données – par exemple, la visualisation – est effectuée à distance sur des périphériques de capacité plus modeste – éventuellement mobiles – qui ne peuvent traiter les maillages de grande taille dans leur int´egralité. Ceci fait de lacompression de maillage un processus intrinsèquement asymétrique.Dans cette thèse, notre objectif est d’étudier et de proposer des méthodes pour la compression de maillages de grande taille. Nous nous intéressons plus particulièrement aux méthodes d’accès aléatoire, qui voient la compression comme un problème intrinsèquement asymétrique. Dans ce modèle, le codeur a accès à des ressources informatiques importantes, tandis que la décompression estun processus temps réel (souple) qui se fait avec du matériel de plus faible puissance. Nous décrivons un algorithme de ce type et l’appliquons au cas de la visualisation interactive. Nous proposons aussi un algorithme streaming pour compresser des maillages hexaèdriques de très grande taille utilisés dans le contexte de la simulation numérique. Nous sommes ainsi capables decompresser des maillages comportant de l’ordre de 50 millions de mailles en moins de deux minutes, et en n’utilisant que quelques mégaoctets de mémoire vive. Enfin, nous proposons, indépendamment de ces deux algorithmes, un cadre théorique général pour améliorer la compression de géométrie. Cet algorithme peut être utilisé pour développer des méthodes de prédiction pour n’importe quel algorithme basé sur un paradigme prédictif – ce qui est la cas dela majorité des méthodes existantes. Nous dérivons ainsi des schémas de prédictions compatibles avec plusieurs méthodes de la littérature. Ces schémas augmentent les taux de compression de 9% enmoyenne. Sous des hypothèses usuelles, nous utilisons aussi ces résultats pour prouver l’optimalité de certains algorithmes existants.
Fichier principal
Vignette du fichier
these_courbet.pdf (26.11 Mo) Télécharger le fichier
Origine : Version validée par le jury (STAR)

Dates et versions

tel-00594233 , version 1 (04-07-2014)

Identifiants

  • HAL Id : tel-00594233 , version 1

Citer

Clément Courbet. Compression de maillages de grande taille. Autre. Ecole Centrale Paris, 2011. Français. ⟨NNT : 2011ECAP0001⟩. ⟨tel-00594233⟩
311 Consultations
317 Téléchargements

Partager

Gmail Facebook X LinkedIn More