Modélisation de bases de données urbaines - MAP-ARIA
Transcription
Modélisation de bases de données urbaines - MAP-ARIA
Modélisation de bases de données urbaines complexes Xavier Marsault Ingénieur TPE, chercheur [email protected] Christophe Bertrand Architecte, chercheur [email protected] Renato Saleri Architecte, chercheur [email protected] Unité Mixte de recherche 694 MAP - ARIA Ecole d’Architecture de Lyon - 3 rue Maurice Audin - BP 170 - 69512 VAULX EN VELIN CEDEX tél: 04 78 79 50 85 fax : 04 78 79 50 83 Un certain nombre de travaux passés ou en cours à Aria portent sur des outils pour la construction assistée ou semi-automatisée de modèles urbains complexes pour le temps réel. Un angle de travail privilégié est celui qui fonde le concept même de "réalité virtuelle" : interaction et immersion. La modélisation n'est intéressante que dans la mesure où elle permet, via le temps réel et des dispositifs interactifs, la "déambulation" et donc l'exploration. Par exploration, on entend non seulement la visite d'un espace géométrique, mais également la simulation de qualités sensorielles. La reconstitution de la "Cité Industrielle" de Tony Garnier, architecte lyonnais, est un exemple de paysage urbain de grande complexité. A. La « Cité Industrielle » de Tony Garnier 1. Modélisation d’un projet architectural et urbain symbole Tony Garnier, architecte et urbaniste lyonnais (1869-1948) a laissé dans la région Rhône-Alpes quelques bâtiments remarquables dont les hôpitaux de GrangeBlanche et la halle de Gerland. Son plus grandiose projet, dont ces bâtiments ne sont que des fragments, est celui qu’il imagina pour le Grand Prix de Rome en 1899. Il dessina ex nihilo une “Cité industrielle” immense, de plus de 30 000 habitants, organisée suivant les principes hygiénistes, dotée de toutes les structures et bâtiments administratifs, industriels, commerciaux, agricoles, éducatifs, hospitaliers nécessaires à son autonomie, et reliée par routes, fleuve et voie ferrée à son environnement. Cette cité étendue sur plus de 10 Km, située quelque part entre Lyon et St Etienne aborde toutes les échelles de l’intervention humaine sur son cadre de vie : le territoire, la ville, le quartier, le bâtiment, le mobilier. Il était de fait loisible de modéliser à toutes les échelles une ville qui n’avait jamais existé que sur le papier et de donner la possibilité d’y déambuler en temps réel : ce projet a été conduit par Xavier Marsault et Christophe Bertrand pendant quatre ans. La modélisation et le rendu de la cité ont été effectués de manière essentiellement manuelle à partir des plans, dessins et aquarelles de Tony Garnier. L’essentiel du travail de recherche a consisté en l’élaboration d'une méthodologie (propre à ce projet de taille inhabituelle) pour générer un texturage nonphotoréaliste, multi-échelles, et créer des décors virtuels adaptés. La partie purement « productive » du projet a consisté à modéliser l’ensemble des éléments géométriques, à créer ou calculer des textures adaptées, les ombres portées, à définir un prototype minimal de navigation dans le modèle intégral de la Cité Industrielle, puis à tester et spécifier le type de stations graphiques supportant une telle base en temps réel. Des tests sont actuellement menés dans la salle de réalité virtuelle de l’INRIA Rhône-Alpes, dans le cadre du projet régional DEREVE (voir plus loin). 1.1. Reconstitution géométrique de la Cité Industrielle La richesse architecturale de la cité industrielle provient de la diversité des modèles d’habitations et de bâtiments publics et aussi de leur implantation au sein d’une approche urbaine caractéristique de la pensée de Tony Garnier. Au départ de notre travail de reconstitution (1996), nous n’avons donc pas souhaité opérer de simplifications abusives sur la géométrie du bâti, propres aux objets modélisés pour le VRML, et rendues nécessaires par le besoin de visualisation sur des ordinateurs disposant de ressources graphiques souvent limitées. Le plan général décrit la topographie et le contenu urbanistique et paysager d’un site de dix kilomètres par huit. Certains dessins de l’auteur nous ont permis de reconstituer un paysage environnant, de manière à modéliser un cirque de vingt kilomètres de diamètre. Les lignes de niveaux du plan ont permis de constituer plusieurs modèles géométriques de terrain reposant sur des maillages adpatatifs en fonction des données de pente. Après une analyse typologique, la trame urbaine esquissée par Tony Garnier dans diverses planches et croquis minutieusement élaborés a été reconstituée : la structure de la ville et des quartiers comprend 29 ilôts-types d’habitations, combinables par trois pour former 41 blocs typiques. Nous avons modélisé la quasi totalité des éléments architecturaux et des équipements industriels du site, en associant au projet des étudiants de l'école. 1.2. Une scène complexe Quel que soit le mode de rendu utilisé, la gestion et l’optimisation de la complexité géométrique ou graphique du projet ne se conçoivent pas sans une nécessaire réduction de la réalité, l’introduction de techniques de substitution et une gestion des niveaux de représentation. Le projet gère une centaine de modèles originaux différents, et près de 3000 instances (issus de ceux-ci par des transformations affines). L’ensemble pèse environ 4,5 millions de triangles. Cette gestion en temps réel de millions d’entités constituant la scène globale ne peut pas être réalisée de manière horizontale. L’optimisation de la phase de “ culling ”, mais aussi les interrogations avec la scène lors des calculs de collisions (réalisés par des intersections de type rayons/géométries), nécessitent une structuration des données. Notre choix s’est porté sur une arborescence de scène de type Performer, où les polygones sont regroupés dans des nœuds selon un critère de proximité spatiale (et non logique), et par familles d’éléments de même type. Le terrain a été subdivisé en blocs carrés de 800 mètres de côté, supportant une pyramides de textures de 512 x 512 pixels au plus. 2. Rendu non-photoréaliste multi-échelles Le rendu photo-réaliste consiste à simuler, de la manière la plus précise possible et, en général en utilisant des modèles issus de la physique, le comportement de la lumière dans une scène. Depuis quelques années, un autre thème a émergé au sein de la communauté des chercheurs en informatique graphique, le rendu non photo-réaliste - désigné aussi par NPR. Il désigne un ensemble de techniques plus ou moins automatisées pour créer des images fixes, des séquences animées et des rendus en temps réel, « dont le premier but n’est pas la conformité à la réalité (réalisme, voire hyper-réalisme) mais, suivant les cas, l'expression artistique, l’efficacité de la communication visuelle ou la ressemblance avec des techniques graphiques traditionnelles » [Bourdin J.J., Fekete J.D., 2000]. Ce mode de représentation nous a conduit à exploiter la richesse des dessins de Tony Garnier pour restituer les ambiances de couleurs, de lumières et d'ombrages propres à des effets graphiques recherchés par l’architecte. 2.1. Genèse d’une approche texturale globale Pour ce travail, nous nous sommes appuyés sur les documents et éléments suivants : • le plan masse du site, noir et blanc, au trait, très complet (cf. Illustration III) ; • des perspectives en aquarelle (ou dessin au fusain) représentant diverses vues du territoire et des quartiers d’habitation, avec détails de façades (cf. Illustration I) ; • des modèles 3d de bâtiments et d’habitations (cf. Illustration II) , déclinés en plusieurs niveaux de détails géométriques (cf. Illustration VI), modélisées à partir des plans initiaux dessinés par l’architecte. Notre idée première partit de la constatation que l’on pouvait simuler la Cité telle qu’elle est transcrite dans l’esprit de son auteur au travers des “ matériaux graphiques ” disponibles (aquarelles et fusains), et échapper par là au “ nécessaire besoin ” de reproduire la réalité. Ce choix a d’ailleurs permis de diminuer le temps consacré à la mise en place de l’habillage pictural. L’observation des planches de Tony Garnier nous montre que les vues générales, quelle que soit l’échelle des éléments, bénéficient d’une grande diversité et ceci par le biais d’une palette chromatique très réduite. L’aspect non répétitif est essentiel dans cette représentation et apporte toute sa richesse. La réponse graphique aux éléments lointains passe par un rythme dans le dessin qui reproduit en quelques traits les grandes composantes de la ville ainsi que leurs détails (trame d’îlot, rythme du bâti, axes principaux bordés de végétation, tracé de la voirie, plein et vide mis en valeur par un jeu d’ombrage). La grande souplesse d’une perspective à main levée réside dans le fort potentiel d’adaptation du trait aux échelles distinctes contenues dans le projet. Le dessin est également d’une extrême efficacité pour déplacer à volonté le regard sur une partie précise du projet. La composition des perspectives s’organise autour d’une savante alchimie entre zones de flou et zones détaillées. Le relief est traité quand à lui sous la forme de plans successifs sombres et clairs dans une totale absence de répétition. En fonction de ces éléments, l’approche graphique retenue a consisté à composer une gamme de nuances et de chromies, puis une texture d’ensemble nonrépétitive mixant les composantes picturales fortes du projet de Tony Garnier : le plan du site et les aquarelles. L’objectif principal a demeuré la recherche d’ambiances spatiales et de leur cohérence à différentes échelles géométriques, indépendamment (dans un premier temps) des performances graphiques liées à une puissance matérielle en constante évolution, et a débouché sur la création d’une bibliothèque de textures de terrain et de sol pesant un peu plus de 150 méga-octets (cf. Illustrations III) . 2.2. Les différentes niveaux de représentation Nous avons considéré trois niveaux d’observation en architecture : le territoire (échelle : quelques kilomètres), le quartier (échelle : quelques centaines de mètres) et le bâtiment (échelle : du mètre à quelques dizaines de mètres), et travaillé dans un espace à multiples niveaux de détails pour des géométries représentant un même objet à différentes distances de perception. Cette gestion s’est accompagnée d’une mise en adéquation de la géométrie et de la texture. On a introduit des géométries texturées de remplacement propres à simuler les quartiers vus de loin (boîtes englobantes) et les masses végétales (chapiteaux pour les forêts, boîtes englobantes pour les massifs d’arbres). Pour ce qui est de la végétation verticale en vision proche, nous avons utilisé la technique des “ billboards ”. De manière générale, chaque objet de la scène possède de 1 à 4 niveaux de détail. Certains objets sont groupés, chaque groupe pouvant à son tour posséder plusieurs niveaux de détail, à diverses échelles (pas nécessairement toutes). Cette gestion multiple des échelles et des niveaux de géométrie et de texture, certes assez complexe à déployer, permet non seulement de conserver une certaine fluidité, mais surtout diminue considérablement l’impact visuel des transitions opérées entre les niveaux. Les distances de transitions sont ajustées manuellement, dans ce souci de cohérence. A l’échelle du territoire • niveau de détails des textures de terrain : motifs de 128 x 128 pixels, • usage de zones colorées, avec mixité des palettes chromatiques simples par zone et par nature d’éléments (arbres groupés, fondu adéquat au niveau des transitions entre zones colorées) (cf. Illustrations V), • le bâti est géométriquement proche du parallélépipède englobant, • textures motifs pour les habitations (vues de loin, elles ont habillées avec des motifs sous échantillonnés) donnant une appréciation visuelle proche de celle des aquarelles, • utilisation de boites de végétation, conformément à la représentation de Tony Garnier, • précalcul des ombres du bâti sur le terrain à toutes les échelles, avec simplification de loin (voir explication plus loin), A l’échelle du quartier • niveau de détails des textures de terrain : motifs de 256 x 256 pixels, • utilisation du niveau de détail intermédiaire pour chaque bâtiment ou habitation, • ombres portées sur le sol, avec 1 seule passe en texture (l’ombre étant intégrée au motif de sol), A l’échelle de l’habitation • niveau de détails des textures de terrain : motifs de 512 x 512 pixels. • apparition d’éléments géométriques caractéristiques des quartiers : trottoirs, mobilier urbain, détails en façades, • les motifs de textures utilisés sont directement issus des dessins au fusain, et tendent à synthétiser des approches graphiques élémentaires de l’auteur (ex : coups de crayons verticaux caractéristiques pour symboliser un béton de façade) (cf. Illustrations IV) , • ombres portées en façades, pré calculées sous 3dstudio-max et/ou Lightscape, et incorporées dans les textures (tout comme l’éclairement), • ombres portées sur le sol, avec 2 passes en texture (layering) : le grain du sol (texture générique tuilée) et la texture alpha des ombres des objets se projetant sur le sol. Cette solution pourrait être avantageusement automatisée, en considérant, comme la société OKTAL l’a réalisé, un découpage géométrique autour des zones d’ombres permettant à la fois de diminuer le poids de texture et le coût des remplissages multicouches (qui devient local, et non plus global). Exemple Les quartiers d’habitation sont composés d’îlots de 30m de large et de 150m de long, possèdent un trottoir, et sont bordés de chaque côté d’un rangée de 5 arbres. Chaque rangée possède deux niveaux de détails : 5 billboards représentent les arbres jusqu’à 700 mètres de distance, au-delà, c’est une boîte englobante texturée sur 5 faces qui simule ce massif. Le trottoir disparaît au-delà de 800m, et le quartier repose alors sur un simple quadrilatère texturé. Au-delà d’une certaine distance (environ 2000m), ces quartiers sont groupés en une géométrie encore plus simplifiée (un polygone à quelques côtés), les habitations sont alors représentées par des volumes extrêmement simples, proches du cube, texturés par des motifs de très petite taille, prétraités par un filtre passe-bas, et la texture de sol est de résolution moindre. Au passage à l’échelle du territoire (entre 4000 et 4500m selon l’endroit), les habitations ne sont plus représentées, les ombres portées disparaissent de la texture du sol, et il ne reste que le dessin de Tony Garnier colorisé. 2.3. Apports et perspectives En quoi le rendu NPR permet-il de mieux garder un déplacement interactif ? • le détail de la géométrie et la résolution des textures à moyenne et grande distances sont moindres que dans le cas d’un rendu photo-réaliste, parce que la précision requise au niveau de l’appréciation visuelle de la scène est moins importante. De même, les distances de transition entre niveaux de détails successifs peuvent être allongées, ce qui diminue le débit de chargement en temps réel des textures, ainsi que le volume géométrique traité à chaque frame. • la limitation du nombre de « gstates » (environnements de texture) diminue le temps de calcul de chaque frame. Elle est ici renforcée en rendu NPR, par le fait de se servir d’un nombre faible et réutilisable de textures génériques et de façades précalculées pour un petit nombre seulement de modèles. La réutilisabilité découle des types de façades que l’on a pu extraire de l’analyse des modèles d’habitation. Trucs et astuces • la conception des textures de façades se fait à partir d’une petite bibliothèque de motifs de base, élaborée grâce aux dessins et aquarelles. Souvent, ces motifs sont répétitifs. Pour casser cette répétition, on sous-échantillonne (en mode point) les images calculées, d’une taille non multiple de celle de l’image d’origine, ce qui crée un aspect non régulier bien adapté à ce type de rendu. • pour les sols et le terrain, l’utilisation de filtres bilinéaires évite le flou du rendu visuel, et permet de créer des éléments fluctuants pouvant être interprétés comme des traces de vie, de chaleur urbaine (papillonnements du filtrage). • l’utilisation du brouillard permet de simplifier la géométrie du lointain ainsi que la résolution des textures qui l’habillent, en plus d’un effet visuel agréable. • utilisation de texture de détail (implémentée en hardware sur les stations SGI sous Unix) a été appliquée localement à la portion industrielle de la scène, afin d’enrichir la texture de sol lorsqu’on se rapproche de ce dernier (fondu texture de sol / texture mosaïque tuilée). On a obtenu des résultats appréciables, mais cette fonctionnalité semble absente de la plupart des cartes graphiques actuelles (type Nvidia), ce qui rend ce procédé non portable pour l’instant. Quelques pistes vers une automatisation des tâches • la création d’un maillage adaptatif de terrain à partir de la lecture des lignes topographiques du plan masse (après étape de scannérisation), • l’extraction des taches aux sol des maisons, arbres, massifs. Une tache de végétation, par exemple, est un point non isolé, de taille connue. On peut aussi se donner des critères de mesure de similitudes entre des éléments de bâti, voire des quartiers entiers, pour reconstruire rapidement les îlots. • Projection des aquarelles dans la scène 3d : on recherche, pour chaque aquarelle, les paramètres de la caméra permettant d’ajuster le 3d à l’image, puis on fait un zonage de couleur, pour spécifier quelle aquarelle (parmi les 6) sera utilisé pour telle partie de la scène. • Mise en valeur du relief par contraste automatique (analyse de pentes, et choix d’une échelle), et par surlignage (densité(-) pour les routes, densité(+) pour le relief, saturation) • Mise en correspondance de zones de végétation et de couleurs adaptées • Transition et limites des zones colorées : traitement de transition pour éviter la netteté • Découpage de la texture globale du sol et du sol 3d, avec calcul de niveaux de détails et mapping automatique. Les distances de transition peuvent être réglées automatiquement pour lisser les transitions en l’absence de mip-mapping bien sûr). • réglage automatique des transitions entre LOD en fonction des paramètres du brouillard 3 . Produits de la recherche Le développement et les simulations ont été réalisés à partir de 1996 sur une station Silicon Graphics High Impact. ARIA s’était équipée des logiciels MultiGen II pour la modélisation et Vega pour le prototypage d’applications de réalité virtuelle. Ces outils ont permis de mettre en oeuvre un produit de qualité et communicable, et sont prêts à accueillir les extensions matérielles (stations Huron Lake) et logicielles (Catt Acoustic, Aniscape) permettant de reproduire les ambiances sonores extérieures ou intérieures (acoustique virtuelle). Notre travail a été porté sur PC durant l’année 2000. Un cédérom de démonstration Mac/PC contenant une vidéo exportée en temps réel seront disponibles d’ici la fin de l’année 2001. Un site exploratif et une application permettant la visite en 3D temps réel de la cité (pour PC, Pentium III 600 minimum (256 Mo de Ram)) seront inclus sur ce média. 4. Illustrations Illustration I - Trois aquarelles originales de Tony Garnier représentant son projet de Cité Illustration II – Une habitation individuelle et un bâtiment d’habitations collectives modélisés et colorisés, et ombrés Illustration III - Une parcelle du plan général du site dessiné au trait par Tony Garnier, et la même parcelle après texturage non photo-réaliste Illustration IV – Exemple de rendu NPR d’une maison individuelle Illustration V – Vue aérienne d’une portion de la Cité Illustration VI – Exemple de niveaux de détail pour la salle des auditions B. Le projet D.E.R.E.V.E. Contexte Le projet D.E.R.E.V.E. « Développement d'un Environnement logiciel de REalité Virtuelle Elaboré » auquel nous participons, s'inscrit dans la thématique de l’appel d’offre régional « Sciences et technologies de l'information, outils et applications » et plus particulièrement dans le thème « simulation et réalité virtuelle ». La réalité virtuelle nécessite aujourd'hui encore des moyens matériels et logiciels lourds et coûteux. Pour essayer de contourner cet écueil et permettre l'extension de l'utilisation de la réalité virtuelle, en particulier dans le milieu industriel, ce projet propose trois axes de développement. Le premier est directement lié à la notion de performance (temps réel notamment) et va consister à chercher les méthodes et les algorithmes permettant d'atteindre ces performances tant au niveau de la modélisation qu'au niveau de la visualisation. Le deuxième axe concerne plus particulièrement les problèmes de modélisation et de reconstruction de scènes 3D et la préparation à la visualisation (photo-réaliste ou pas). Enfin une troisième approche traite essentiellement des interfaces gestuelles à retour d'effort, des modalités haptiques, acoustique, multisensorielles et de l'intégration de ces modalités dans des simulateurs applicatifs. Le projet regroupe tous les acteurs régionaux de recherche oeuvrant depuis plusieurs années déjà sur ce qui constitue les systèmes de Réalité Virtuelle : LIGIM, iMAGIS, LISSE, ICA. Associé au laboratoire iMAGIS de Grenoble, MAP-ARIA participe aux deux premiers axes de recherche du projet, avec comme thème propre : « les modèles de villes ». S’il est vrai qu’à l’origine, les réalisations d’Aria sur la Cité Industrielle nous ont permis d’entrer dans le projet – notre contribution à D.E.R.E.V.E. ne se limite pas à une simple exploitation de ce travail (de fait, nous avons rédigé et rendu un rapport complet sur celui-ci). En vertu de notre spécificité, nous avons proposé des travaux de recherche dans les domaines de la création des décors urbains de type non-photoréaliste (NPR) et de la génération automatique de tissus urbains. 1. Axe : « performances de scènes » La navigation en temps réel dans des scènes urbaines complexes pose un certain nombre de soucis aux chercheurs en infographie que les expérimentations réalisées à ARIA avec la "Cité Industrielle" de Tony Garnier soulignent de façon manifeste : - la gestion des niveaux de détails en géométrie et en texture, à plusieurs échelles : cohérence visuelle de multiples représentations, calcul de ces déclinaisons à partir de modèles initiaux complexes, gestion des transitions ; - limites des algorithmes de remplissage de polygones par l’algorithme du Z-buffer selon le type de navigation effectuée : dégradation très sensible de la cadence d'affichage en mode de navigation "marche urbaine" par exemple, ou dans des zones peuplées de nombreux arbres (billboards). Dans le cadre de D.E.R.E.V.E., la "cité industrielle" se présente, à maints égards, comme une scène de test et de référence, en rapport avec les problématiques du graphique temps réel et de la simulation urbaine. Il s'agit : - avant tout d'une large base de données urbaine et paysagère (hors du commun), mise en démonstration au centre de réalité virtuelle de l’INRIA Grenoble, - d'une plate-forme de tests pour des algorithmes d'optimisation (visualisation, rendu), utilisée par les chercheurs d’iMagis notamment, - d'une base de données d'objets à différentes échelles et groupements, permettant de tester des méthodes de simplification de modèles géométriques et texturaux. 2. Axe : « création et simulation de mondes virtuels » 2.1. Rendu non-photoréaliste en architecture La visualisation en temps réel de scènes urbaines est un domaine dans lequel le rendu non-photoréaliste est encore peu exploité mais possède pourtant un important potentiel. En particulier, une piste de recherche concerne la notion de « performance de scènes » et peut s’énoncer ainsi : par quels biais le NPR peut-il aider à l’accélération de la visualisation ? Ce qui suppose des choix à opérer et des artifices à mettre en oeuvre au niveau de la modélisation, de l’habillage textural et des effets de rendu. iMAGIS et ARIA ont démarré plusieurs travaux dans ce domaine, menant d'une part à l'obtention d'images de très bonne qualité, et d'autre part à des techniques d'accélération du rendu. Concernant ses travaux sur ce domaine, ARIA a dégagé un enseignement des expérimentations effectuées sur la modélisation projet de Tony Garnier, et rédigé un document : « Rendu non-photoréaliste multi-échelles de la Cité Industrielle » pour le rapport DEREVE de l’année 2000. 2.2. Génération de modèles tridimensionnels de villes 2.2.1. Contexte ARIA collabore avec iMagis sur les thèmes de la génération automatique de données urbaines et de leur représentation pour un rendu rapide. En particulier, Xavier Marsault, Renato Saleri et Joëlle Thollot (iMagis) ont démarré une étude sur la modélisation automatique de villes à l'aide de plusieurs techniques fractales. Notre but dans ce travail est de rechercher et d’expérimenter des méthodes de production automatique de morphologies urbaines ou architecturales, visant à produire simplement et « à moindres frais » des environnements géométriques texturés visitables par le biais de technologies de visualisation 3D temps réel. Deux pistes sont actuellement à l’étude, et vont être détaillées. Depuis vingt ans, « l’approche fractale » a permis de découvrir dans une grande variété de domaines scientifiques, à des échelles très différentes, des principes d’ordre interne (comme l’auto-similarité), non connus auparavant, et d’intégrer ces résultats dans des théories explicatives. Des physiciens, des biologistes, découvrent régulièrement des processus à caractère fractal dans les morphogenèses naturelles : de l’infiniment petit (avec les structures cristallines ou l’ADN), à l’infiniment grand (avec la répartition des étoiles dans les galaxies, et des galaxies en amas). Les créations humaines semblent aussi répondre à des lois fractales, et ce n’est que depuis 15 ans que l’on sait mesurer la fractalité des œuvres musicales, du trafic urbain, ou encore : des villes. L’investigation fractale des tissus urbains s’est faite autour de trois aspects : méthode d’analyse de l’organisation spatiale, approche génératrice de structures géométriques, et outil de réflexion. L’obtention de modèles 3D de tissus urbains, voire de villes entières, se fait soit par le biais de simulateurs de croissance spatiale (associée ou non au facteur temps), soit par des générateurs statiques (le temps est figé). Dans le premier cas, on rencontre de nombreux travaux durant ces dix dernières années, dont les plus importants portent sur des modèles à base d’automates cellulaires (auto-organisation), ou des modèles DLA (diffusion limitée par agrégation, modèles organiques inspirés des lois de la physique en milieu répulsif) et hybrides. Une première phase de notre travail à consisté à analyser diverses approches mettant en oeuvre des algorithmes performants, par exemple : les L-systems contraints [Jacob C., 1998], l’aménagement spatial par algorithmes génétiques [Sanchez S., Leroux O., Gaildrat V., Luga L., 2000], les approches par fractales [Frankhauser P., 1994], [Batty M., Longley P.A., 1994] et plus récemment par les « Iterative Function Systems »). 2.2.2. Génération de modèles de villes par L-systems Nous avons jusqu’ici implémenté et fait converger des dispositifs s’appuyant sur une heuristique couplant un moteur de production de séquences pseudo-aléatoires avec un formalisme graphtal, de type L-System (Lindenmayer System). Ce modèle de croissance, qui a déjà donné des résultats intéressants pourra être dans un deuxième temps perfectionné par l’utilisation de systèmes logiciels à comportement émergent, validé par des appréciations perceptives et contraint par des informations d’ordre topographique ou des règles de production urbanistiques ou architecturales. Ceci pourra, par exemple dans le domaine de l’archéologie urbaine et dans un contexte historique donné, permettre de produire rapidement un support d’hypothèses de restitution en présence de données fragmentaires. Contexte scientifique Le sujet de recherche se place dans le cadre de l’optimisation d’un modèle de croissance généralisé pour les tissus urbains, dont on puisse éventuellement coupler le développement avec un moteur de croissance à base de règles ou avec un système logiciel à comportement émergeant. L’expérimentation de départ à jusqu’ici porté sur : - la réalisation d’un moteur de croissance général appliqué à objets 3D prédéfinis. Dans ce générateur, l’attribution “à la volée“ d’un facteur de taille variable permet non seulement d’introduire une variété morphologique mais aussi d’éviter la coplanéarité de facettes, dont la concordance produit à l’affichage des résultats souvent disgracieux. Par “général“ nous entendons évoquer ici les propriétés d’un système dont les facteurs “codants“ s’appliqueraient à l’ensemble de l’objet produit. L’utilisation d’un formalisme graphtal donne de prime abord des résultats intéressants mais se heurte à des limites d’ordre interne le rendant difficilement contrôlable : étant issus de transformations affines concaténées successives, il est en effet ardu de récupérer des informations concernant le positionnement dans l’espace des objets produits ainsi que de tester les imbrications d’objets adjacents mais issus de générations différentes. Figure 1 : Un moteur de croissance graphtal Nous étudions actuellement des algorithmes géométriques spécifiques dont l’utilisation permettrait d’accompagner et de contraindre le développement du Lsystème décrit, notamment par l’utilisation d’un diagramme de Voronoi. La combinaison du L-system pour la disposition des points par itérations et le calcul du diagramme correspondant (dont on pourrait figer la géométrie d’une génération sur l’autre et ne travailler que par remplissages successifs ) est un modèle qu’il s’agit de mettre à l’épreuve. - la réalisation d’un moteur de croissance local, basé sur une production d’objets géométriques dont le développement est reglé par un générateur d’entiers pseudo aléatoires obtenus par addition modulaire. L’écriture et la conservation d’un « random seed » au cours d’une session permet de ce fait de mémoriser et de réutiliser les combinaisons géométriques les plus intéressantes. Bien que théoriquement infinies, les combinaisons d’ objets produits tombent par trop rapidement sur des auto similarités et des redondances d’aspect dont il s’agira d’atténuer l’effet. La recherche d’une “variété de surface“ est décrite de manière plus détaillée au point 1.2.3. Par “local“ nous supposons décrire ici les propriétés d’un système ne possédant pas à priori de “facteurs codants“ à proprement parler. On y fait normalement appel qu’ aux extrémités du L-système précédemment décrit (feuilles). - la mise au point d’un dispositif permettant de créer à la demande des pseudo – façades par juxtaposition de fragments de texture. L’implémentation d’un générateur de textures applicables aux modèles précédemment produits n’a jusqu’ici été expérimenté que de façon sommaire. Il fait appel à une librairie de fragments dont la taille n’excède pas 64 x 64 pixels. Elles sont obligatoirement incluses dans le corps du fichier généré : le VRML ne permet pas dans ce cas d’attribuer une URL de façon dynamique car le fichier est créé et affiché simultanément. L’utilisation de cette librairie de fragments sera utilement filtrée par une base de règles (à développer) ce qui permettra d’affiner la pertinence d’attribution d’une texture à une partie spécifique de l’objet généré. Attentes et perspectives L’objectif de ce projet réside dans la mise en place d’un dispositif permettant la production de connaissances à partir de données observables, mesurables ou déductibles (modèle prédictif - base de règles). Dans un premier temps il s’agira d’élaborer en collaboration avec le laboratoire iMagiS de la plate-forme INRIA de Grenoble un environnement logiciel permettant de proposer rapidement plusieurs hypothèses de reconstitution à partir de données fragmentaires, issues de relevés effectués par des historiens et des archéologues sur l’US VII de la ville de Troie, en Turquie. A terme il n’est cependant pas exclu d’en dériver l’utilisation vers la production semi-automatisée d’environnements immersifs à caractère ludique ou vers des simulateurs. 2.2.3. Génération de modèles de villes par l’image Xavier Marsault s’intéresse quant à lui au codage par un IFS de l’empreinte au sol des bâtiments. Le but est d’utiliser des méthodes de compression fractales pour trouver l’IFS codant une image du plan d’une ville puis de regénérer un IFS 3D représentant la ville. Par la suite, une approche de type génétique doit permettre de croiser différents modèles. Xavier Marsault collabore aussi dans ce cadre avec Eric Tosan (LIGIM). Un sujet de recherche innovant Notre sujet est à placer dans le cadre d’une recherche d’un « modèle fractal généralisé » pour les tissus urbains, qui ne soit pas un modèle de croissance à base de règles, mais un générateur à l’instant t. On proposera une technique pour prendre en compte la « dimension temporelle » à partir d’un tel modèle. L’idée de départ repose sur : - l’association à un tissu urbain tridimensionnel d’une image en niveaux de gris représentant dans le plan (x,y) la position du bâti au sol, et le long de la coordonnée z la hauteur du bâti par rapport au sol (ce qui autorise donc la représentation des toitures). La surface non-bâtie ne nous intéresse pas dans un premier temps : nous portons notre attention uniquement sur la distribution spatiale du bâti en (x,y). - le codage fractal des images par les IFS (Iterated Functions Systems). De nombreux travaux ont été menés avec succès depuis 12 ans sur leur application à la compression des images. Ici, ce n’est pas tant l’aspect compression qui nous intéresse mais plutôt le modèle de codage fractal par partitionnement. Brièvement, on associe à une image une série de transformations itératives contractantes ayant pour attracteur une approximation aussi bonne que possible de l’image. La compression « fractale » des images se heurte, dans un premier temps, au fait que la plupart des images ne sont pas des objets fractals, et qu’il est peu probable de trouver un générateur fractal de l’image entière. D’où l’utilisation des LIFS (local IFS) comme approche locale permettant de coder des blocs d’image seulement, comme issus de transformations fractales invariantes par changement d’échelle (fractales ICE) d’autres blocs plus grands de l’image. Mais, dans le cadre des tissus urbains dont le caractère fractal ou multifractal peut souvent être mis en évidence, il se pourrait bien que l’on puisse limiter le nombre de LIFS (que nous appellerons « gènes de l’image », et par extension « gènes de la ville »). Pour peu qu’on consacre du temps CPU à la recherche des meilleurs partitionnements et des meilleurs blocs mis en correspondance par les LIFS, on obtiendra à la fois un codage concis, et une meilleure validation de notre approche. - la reconstruction d’un modèle 3D : c’est l’étape inverse de la première, où l’on associe à l’image générée par LIFS une scène 3D unique, obtenue après filtrage (car il y a probablement des éléments de détails à éliminer dans une phase de prétraitement, dus aux approximations par des attracteurs). Notons dès à présent que les volumes extrudés à partir de l’implantation (x,y) au sol et de la hauteur (fonction de z) peuvent être simplifiés (on évitera notamment les effets d’aliasing des contours), ce qui nous mène directement à des scènes performantes en terme de nombre de polygones. Par ailleurs, il ne faut pas négliger le fait que, travaillant sur des images fournissant l’implantation de bâtiments au sol, on a toute latitude lors de la reconstruction pour placer des édifices de notre choix, en respectant la contrainte des hauteurs. Ceux-ci peuvent faire partie d’une bibliothèque d’objets pré-stockés, par exemple. D’autres solutions peuvent être imaginées. Phasage des recherches Dans une première étape de validation, nous distinguons trois parties successives : 1) Février 2001 : élaboration d’un premier algorithme de compression / décompression par LIFS d’une image à niveaux de gris. On s’appuie sur les idées de Barnsley et de Jacquin (partitionnement carré uniforme), en étendant cependant la recherche des « domain blocs » à toute l’image, sans restriction de taille à priori. Quelques paramètres ont été modifiés ou ajustés. Par la suite, les algorithmes ont été optimisés pour diminuer considérablement les temps de calcul. 2) Mars 2001 : proposition (tests / évaluation) d’un morphing fractal entre deux images, sans oublier que la formalisation se fait non plus sur le contenu en pixels, mais sur des LIFS, considérés comme gènes de tissus urbains (via l’image). Deux applications sont envisageables : - à partir de « deux instants t1 et t 2 » d’un tissu urbain, on génère des IFS intermédiaires, et l’on observe le tissu généré ; - à partir de deux images distinctes représentant deux tissus urbains à priori quelconques (sauf qu’ils peuvent être liés par des relations à préciser : nous avons déjà proposé quelques idées), on génère en continu par morphing fractal les images associées aux IFS intermédiaires, et l’on analyse les résultats obtenus. Cette approche n’est pas proprement « génétique », puisqu’il n’y a ni échange de gènes, ni mutation. On calcule seulement des gènes intermédiaires, dans le but d’engendrer une continuité entre deux états distincts. 3) Par la suite : application des deux principes fondateurs des algorithmes évolutionnistes (dont font partie les algorithmes génétiques, ou AG) : la mutation et le croisement. Chaque image est assimilée par codage fractal à un chromosome dont les gènes sont les LIFS. Le croisement consiste à créer une population d’individus partageant des gènes entre les deux parents. La mutation consiste à altérer certains gènes lors des croisement, voire échanger un ou plusieurs gènes sur un même chromosome. De nombreuses idées viennent à l’esprit quand il s’agit d’appliquer ces techniques à deux images de tissus urbains codées par IFS. Des premiers résultats de calculs (actuellement sous formes d’images) pourront bientôt être visualisés en 3D (un étudiant en informatique travaille jusqu’en juin 2001 sur la réalisation de la conversion image → modèle 3D). Cette transformation, à présent développée, sera par la suite optimisée en fonction de caractéristiques propres au bâti généré. L’ensemble des programmes sont écrits en C et C++ sous un environnement graphique convivial sous Windows, en utilisant la librairie de développement Qt de Université de Trolltech, actuellement testée à ARIA. Intêret pour l’UMR MAP Le sujet s’insère parfaitement dans les thématiques de MAP « modèles et simulations », et les retombées de telles recherches peuvent être bénéfiques « pour l’architecture et l’urbanisme » : - le concept de modèle généralisé et de générateur est suffisamment puissant pour fournir des modèles géométriques 3D de villes issus de ces calculs, par mutation et croisement de gènes. Il reste bien sûr à analyser les résultats produits, mais dans toute recherche appliquée, il est souvent bienvenu d’aller chercher des outils et des méthodes dans des champs d’application qui ont fait leur preuve dans d’autres disciplines. - approfondissement de la connaissance sur l’organisation spatiale des villes : l’outil fractal que nous proposons pourra s’avérer complémentaire des méthodes d’analyse par la mesure locale de dimension fractale ou multifractale sur des images binaires, souvent non corrélées. Des voies de recherche similaires et complémentaires nous ont été récemment proposées au LIGIM. De plus en plus de colloques naissent chaque année sur le thème de la ville numérique. Nos travaux de recherche appliquée doivent permettre à MAP-Aria de pouvoir contribuer par une vision originale et innovante à de tels événements. 3. Références [Bourdin J.J., Fekete J.D., 2000] Rendu non photo-réaliste : tour d’horizon et perspectives, Actes du colloque ‘AFIG 2000’, Grenoble. [Sillion F.X., Drettakis G., Bodelet B., 1997] Efficient Impostor Manipulation for Real-Time Visualization of Urban Scenery, Proceedings of Eurographics'97, Budapest, Hungary. Les villes fractales : [Batty M., Longley P.A., 1994], Fractal Cities: A Geometry of Form and Function, Academic Press, London and San Diego, CA. [Frankhauser P., 1994] La Fractalité des Structures Urbaines, Collection Villes, Anthropos, Paris, France. [Frankhauser P., 1997] L’approche fractale : un nouvel outil de réflexion dans l’analyse spatiale des agglomérations urbaines, Université de Franche-Comté, Besançon. [Torrens P., 2000] How cellular models of urban systems work, CASA, Angleterre. [Woloszyn P., 1998] Caractérisation dimensionnelle de la diffusivité des formes architecturales et urbaines, Thèse, Laboratoire CERMA, NANTES. Modélisation d’objets fractals et compression fractale d’images : [Barnsley M., 1992] Image coding based on a fractal theory of iterated contractive image transformation, IEEE transactions on image processing, vol 1, n°1, pp18-30. [Barnsley M., 1993] Fractal image compression, AK Peters, Ltd, Wellesley. [Gentil C., 1992] Les fractales en synthèse d’images : le modèle IFS, Thèse, LIGIM, , LYON. L-systems et algorithmes évolutionnistes : [Barber, C.B., Dobkin, D.P., Huhdanpaa, H.T., 1996] The Quickhull algorithm for convex hulls, ACM Trans. on Mathematical Software, http://www.geom.umn.edu/locate/qhull. [Heudin JC., 1998] L’évolution au bord du chaos“ Hermès Editions. [Horling B., 1996] Implementation of a context-sensitive Lindenmayer-System modeler, Department of Engineering and Computer Science and Department of Biology, Trinity College, Hartford, CT 06106-3100, USA. [Jacob C., 1998] Christian Jacob, Genetic L-system programming, Department of Computer Science, University of Erlangen-Nürnberg, Germany. [Khamphang Bounsaythip C., 1999] Algorithmes évolutionnistes, in “Heuristic and Evolutionary Algorithms: Application to Irregular Shape Placement Problem“ Thèse - Public defense: October (NO: 2336) [Lindenmayer A., 1968] Mathematical models for cellular interactions in development, parts I-II. Journal of Theoretical Biology 18: 280-315. [Sanchez S., Leroux O., Gaildrat V., Luga L., 2000] Résolution d’un problème d’aménagement spatial à l’aide d’un algorithme génétique, Actes du colloque ‘AFIG 2000’, Grenoble. [Sikora S., Steinberg D., Lattaud C., Fournier C., Andrieu B, 1999] Plant growth simulation in virtual worlds : towards online artificial ecosystems, Workshop on Artificial life integration in virtual environnements, European Conference on Artificial Life (ECAL’99), Lausanne. Webgraphie sommaire commentée http://www.ctpm.uq.edu.au/virtualplants/ipivp.html Ce site présente par étude comparative différents modèles de croissance. On y trouve une collection de plantes virtuelles ainsi que la présentation de dispositifs permettant de faire la capture “in situ“ des géométries complexes des plantes réelles. Une riche bibliographie ainsi qu’une webgraphie à jour y trouve place. http://www2.trincoll.edu/~bhorling/lsystems/paper.html Résumé des travaux de Brian Horling décrivant les moteurs de croissance graphtals et les L-systèmes. http://www.cpsc.ucalgary.ca/projects/bmv/software.html Cette page contient une liste de travaux traitant de simulations utilisant des LSystèmes. On y trouve des descriptions sommaires des travaux de recherche saillants ainsi que des exemples de logiciels exploitant ces technologies. http://www.cs.hope.edu/~alganim/ccaa/algo.html Cette page propose une collection d’algorithmes divers ; on pourra y trouver notamment des liens vers les triangulations de Delaunay ainsi que les diagrammes de Voronoi. La plupart des programmes présentés sont développés en JAVA et il est possible de télécharger les sources. Centre for Advanced Spatial Analysis (CASA) : www.casa.ucl.ac.uk.