liens code de la propriété intellectuelle. articles l 122....

136
AVERTISSEMENT Ce document est le fruit d'un long travail approuvé par le jury de soutenance et mis à disposition de l'ensemble de la communauté universitaire élargie. Il est soumis à la propriété intellectuelle de l'auteur. Ceci implique une obligation de citation et de référencement lors de l’utilisation de ce document. D'autre part, toute contrefaçon, plagiat, reproduction illicite encourt une poursuite pénale. Contact : [email protected] LIENS Code de la Propriété Intellectuelle. articles L 122. 4 Code de la Propriété Intellectuelle. articles L 335.2- L 335.10 http://www.cfcopies.com/V2/leg/leg_droi.php http://www.culture.gouv.fr/culture/infos-pratiques/droits/protection.htm

Upload: others

Post on 03-Oct-2020

1 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

AVERTISSEMENT

Ce document est le fruit d'un long travail approuvé par le jury de soutenance et mis à disposition de l'ensemble de la communauté universitaire élargie. Il est soumis à la propriété intellectuelle de l'auteur. Ceci implique une obligation de citation et de référencement lors de l’utilisation de ce document. D'autre part, toute contrefaçon, plagiat, reproduction illicite encourt une poursuite pénale. Contact : [email protected]

LIENS Code de la Propriété Intellectuelle. articles L 122. 4 Code de la Propriété Intellectuelle. articles L 335.2- L 335.10 http://www.cfcopies.com/V2/leg/leg_droi.php http://www.culture.gouv.fr/culture/infos-pratiques/droits/protection.htm

Page 2: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Ds +€5IY

UNIVERSITE DE METZ

THESE

Spécialité : INFORMATIQUE

présentée le 18 janvier 1993en vue de I'obtention du

grade de docteur de I'universitéde METZ

par

Robin VMAN

DEFINITION D'UNE APPROCHE ADAPTATTVE:APPLICATION A LA VISUALISATION

EN CAO

MM YvonBernardMichelAlainJ.Claude

GARDANPEROCHEMERIAUXMOLINARIPAUL

Directeur de thèseRapporteurRapporteurExaminateurExaminateur

ffir i eou r u nrl !-r$s lrAl RE

Page 3: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Ainsi, en connaissant jours après jours mon maître, et en passant nos longues heures de marche en de trèslongues conversations dont, le cas échéant, je parlerai au fur et à mesure, nous parvînmes au pied du mont où sedressait I'abbaye. Et il est temps, comme jadis nous le fiimes, que mon recit s'approche d'elle: puisse ma main nepoint trembler au moment où je m'apprête à dire tout ce qui arriva

Umberto ECO" le nom de la rose"

A Hélène et Nino pour hierA Isabelle pour demain

Page 4: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

REMERCIEMENTS

La réalisation d'un travail de recherche, à partir d'un sujet aussi bon soit-il, est largementtributaire de I'environnement dans lequel il se situe et de I'encadrement dont il bénéficie. Lasapience et la valeur des gens que j'ai côtoyés tout au long de cette thèse m'a permis decomprendre combien il était important de croire en ce que I'on faisait aussi modeste que soitnotre contribution au domaine exploré.

C'est pourquoi je ne peux comrnencer ce manuscrit sans exprimer toute ma reconnaissance àYvon GARDAN, professeur à I'université de lvETZ, qui, au-delà de son rôle de directeur dethèse, a su me faire comprendre la nécessité de l'échec et la fragilité de la réussite.

Je tiens à témoigner toute ma gratitude à M. MERIAUX, professeur à I'université de LIJ,LE,et M. PEROCHE, professeur à l'école des mines de Saint-ETIENNE qui malgré leursmultiples occupations ont bien voulu juger et corriger ce manuscrit.

Je tiens à remercier tout aussi sincèrement M. MOLINARI, professeur à I'université deNETZ, qui bien que mécanicien dans l'âme, a accepté avec beaucoup de prévenance d'êtreexaminateur sur une thèse informatique.

Je remercie tout spécialement M. PAUL architecte et directeur de Centre de Recherche enArchitecture et Ingénierie de NANCY, examinateur et qui reste à I'origine de la réalisation dece travail.

Je tiens aussi à exprimer toute ma gratitude à la société T.D.I. de PARIS et plusparticulièrement à M. NICOLAS, directeur de recherche et développement, pour son soutienfinancier durant les deux premières années de mon travail.

Je n'oublie aucunement les membres du L.RI.M., chercheurs, techniciennes (M'an Jocelyne,Martine, Dominique) ainsi que Catherinette, qui bien que tous ne soient pas fréquentables,restent quand même une des grandes satisfactions de ces trois années. Je remercie plusparticulièrement, Yannos (Yann LAIILJEL) qui, en bon disciple, a su m'épauler dans laréalisation de ce travail, à charge de revanche.

Je ne saurais terminer sans rendre un hommage à Isabelle, qui a supporté pendant trois ans lesweek end passés devant une machine, les moments de repos furtifs, les corrections toujoursurgentes. Pour tout ce que tu as su m'apporter dans les moments de doutes et pour tout ce quetu me donneras je te dédie ce travail pour te dire combien je suis fier de partager ta vie.

Page 5: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Table des mdières

Table des matières

t . INTRODUCTION

cHll .

ALGORITHMES DE RENDU : METHODES PRINCIPALES 1

2. LE TRACE DE RAYONS... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I I2.1. L 'algor i thme du tracé de rayons.. . . . . . . . . . . . . . . . . . . . . . . . . . l l2.2. Traitement des faces cachées ............I22.3. Les rayons pr imaires . . . . . . . . . . . . . . . . . . . . . .122.4. Trai tement des réf lexions et réfract ions.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . t3

2.3.1. La réf lexion spéculaire.. . . . . . . . . . . . . . . . . . . . . . .132.3.2. La réfract ion . . . . . . . . . . . . . . . . . . .14

2.5. Les rayons d'ombrage . . . . . . . . . . . . . . . . . . . . . . 152.6. Rapide bilan du tracé de rayons ...... 16

CH2 TRACE DE RAYONS : LES TECHNIQT ES D'OPTIMISATION...... ......................... 17l . INTRODUCTION... . . . . . . . . . . . . . . . . . . . . .17

1.1. Optimisation du calcul d'intersection ................... 191.1.1. Accélération du calcul par optimisation de I'algorithme d'intersection

rayonobjet. . . . . . . . . . . . . . . . . . . . 19I.1.2. Accélération du calcul par diminution du nombre d'intersections rayon-

ob je t . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .231.2. Optimisation par recherche de cohérence entre les rayons.......... ...................241.3. Généralisation de la noton de râ]on........:... .........24

2. LES DECOMPOSTTTONS... ..........2s2.1. Les subdivis ions non uniformes.. . . . . . . . . . . . . . . . . . . . . . . . . .25

2.1.1. Un exemple de décomposition non uniforme avec un arbre octal:I'approche de Glassner.. .....................28

2.1.2. Un exemple de decomposition non uniforme avec cellules: Ladécompositon d'Arnaldi, Priol, Bouatouch................. ................30

2.I.3. La décomposition non uniforme avec macro-régions: I'approche deDevi l lers . . . . . . . . . . . . . . . . . . . . . . .32

2.2. Les subdivis ions uniformes.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .332.2.1. Decompositions uniformes: I'approche de Fujimoto, Tanaka et hvata........ .......34

DIMINUTION DU NOMBRE DE RAYONS CALCUL8S.................. ......353.1. Interpolation: I'approche d'Akimoto.... .................363.2. Exemple de technique directionnelle: cube directionnel. ...........373.3. Exemple de technique directionnelle: La cohérence des rayons.... .................39

LA GENERALISATION DE RAYONS... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .404.1. Généralisation de rayons: I'approche d'Amanatides: Ray-tracing avec cônes.....................404.2. Exemple de généralisaton de rayons: I'approche dTleckbert,I{anrahan : le beam

tracing.. . . . . . . . . . . . . . . . . . . . . . .41oPTTMSATTON pOLtR ARBRE CSc............. ....................43

5.1. Utilisation des arbres C.S.G : L'approche de Wyvill et Kunii ........................44coMpARATIF DES METHODES... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .45LES OPTIMISATIONS FUT[JRES... .............,.46

J .

4.

6.7.

Page 6: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Toble des matières

CH3 DEFIMTION D'UNE APPROCIIE ADAPTATIVE ,,..........4'7l . INTRODUCTTON... . . . . . . . . . . . . . . . . . . . . .472.LIMITESDEsDEcoMPoSITIoNScLASSIQIJEs.. . . . . . ' ' . ' . . . ' . . .3. DEFINITION D'UNE DEFIMTION ADAPTATIVE ...........534. ADAPTABILITE A LA POSITION ET A LA FORME DES OBJETS: application au( rayons

primaires.. . . . . . . . . . . . . . .545. ADAPTABILITE A LA POSITION ET LA FORME DES OBJETS: traitement des rayons*':1rî"JËlî'*::",ffi:a;;:

:: : :: ::::: :: : ::: ::: :::::....''.'......'.......i;5.1.2. Les rayons réfléchis .........62

5.2. Les rayons d'ombrage . . . . . . . . . . . . . . . . . . . . .635.2.1. L 'éclairage direct. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .635.2.2. L 'éclairage indirect. . . . . . . . . . . . . . . . . . . . . . . . . . . .65

5.3. Méthode généra1e.. . . . . . . . . . . . . . . . . . . . . . . . . .676. ADAPTABILTTE AU CONTENUDE LA SCENE ..............68

6. l. Les tests d'arrêt terminaux.... ...........696.2. Les tests d'or ientat ion . . . . . . . . . . . . . . . . . . . . . . .69

6.2.1. Les tests d'orientation : le taux d'occupation. ...........696.2.I .1. déf ini t ion du test. . . . . . . . . . . . . . . . .696.2.I .2. Appl icat ion du test. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .70

6.2.2. les tests d'orientation : le nombre d'objets maximal ....... ...............726.2.3. les tests d'orientation : égalité de contenu entre les sous-fenêtres ......................72

7. ADAPTABILITE DES TESTS ET DES VALEURS A L'UTILISATEUR.......... ...........747.I . Pour les images de pet i te tai11e.. . . . . . . . . . . . . . . . . . . . . . . . . . . .757.2. Pour les images de grande tai11e.. . . . . . . . . . . . . . . . . . . . . . . . . . j6

7.2.1. Le test du nombre d,objets maximum. .....................767.2.2. Le taux d'occupation. .......j7

8. ADAPATABILITE DES ALGORITHMES AUX OBJETS....... ................778.1. Adaptabilité aux caractéristiques optiques des objets..... ...........7g8.2. Adaptabilité au-x caractéristiques géométriques des objets. ........ g0

9. CONCLUSTON ........82

3 .3 .4 .

Page 7: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Table des mdières

INFLTJENCE DES TESTS D'ARRET.... ........I024.L Recherche des valeurs à attribuer aux paramètres.................. ...................... 102

4.1.1. Variation du nombre d'objets par sous-fenêtre................ .............. 1024.1.2. Variation de la valeur du taux d'occupation ............ 1034.I.3. Variation de la taille de la sous-fenêtre .............. ..... 1044.1.4. Conclusion . . . . . . . . . . . . . . . . . . . . 106

4.2. Choix des tests d'arrêt.. ................... 1064.2.1. Scènes occupant toute la fenêtre.......... .................... 1074.2.2. Scènes ne contenant qu'un objet... ....... 1074.2.3. Scènes où les objets sont séparés. ........ 1074.2.4. Conclusion

CONCLUSION .......108

BIBLIOGRAPHIE ..........1T2

ANNE)(E

ANNE)G 3

5.

1 1 9

Page 8: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Introductîon

I. INTRODUCTION

Le XXI ème siècle sera celui de I'image ou ne sera pas !

Depuis I'invention des frères Lumière I'utilisation de l'image n'a cessé de croître pour être de nosjours, un support indispensable à une communication efficace. Marginale il n'y a encore que quelques

années elle n'est en fait utilisée que dans certains milieux industriels uniquement pour des raisons de

coût de fabrication. En effet, obtenir une image un tant soit peu réaliste nécessitait il y a l0 ans desjours de calcul sur d'imposantes et coûteuses machines. L'image de synthèse se démocratise au début

des annees 80 lorsqu'elle prend une coloration artistique grand public. Les spots publicitaires et des

films Américains à gros budgets vont devenir des consommateurs d'une technologie qui devient de plus

en plus abordable. Cependant I'industrie reste le plus gros consommateur d'image avec plus de 50x du

marché mondial.

Cette évolution du marché va être due à trois phénomènes concourants. Tout d'abord l'évolution

technologique dédiée à I'image de synthèse, la baisse des prix des machines liee à leur accroissement depuissance va permettre au plus grand nombre de réaliser, peut être pas encore simplement, des images.

Ensuite, l'évolution des algorithmes qui permet de modéliser des phénomènes lumineux de plus en plus

complexes, la course au réalisme est lancee. Le troisième et dernier phénomène est I'ouverture vers de

nouveaux secteurs comme I'architecture où le crayon et les pastels se dressaient en défenseurs de

traditions désuètes.

Le processus de fabrication d'une image de synthèse se décompose en deux étapes distinctes. Lapremière est la modélisation des composantes geométriques de la scène à savoir la construction des

objets, leur état de surface, leur mouvement. La seconde consiste à définir un eclairage de la scene en

simulant des effets lumineux comme la réflexion ou la réfraction. Il existe cependant des liens qui

unissent ces deux étapes ce sont d'une part I'exactitude des représentations, d'autre part la vitesse de

calcul.

Iæs problèmes abordés dans cette thèse sont avant tout I'amélioration des ternps de calcul de

I'algorithme de tracé de rayons par une analyse adaptative du contenu d'une scène et I'application

sélective des algorithmes d'optimisation.

Page 9: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Introduction

La méthode de décomposition adaptative que nous développons repose sur une décomposition

récursive de type quadtree. Le premier inconvénient de cette méthode est une subdivision "aveugle" deI'espace de travail provoquant des échantillonages abusifs souvent inutiles. Le second est que des

decompositions surfaciques ne s'appliquent que très difficilement aux rayons secondaires et aux rayonsd'ombrage.

Nous apportons une solution à ces deux problèmes en définissant une méthode de décomposition quirepose sur trois principes essentiels:

- Le premier est la définition d'une décomposition qui s'adapte en fonction du contenu de la scene. Onévalue à chaque étape de la subdivision la nécessité de poursuiwe ou non la décomposition en fonctionde critères différents de ceux utilisés habituellement dans les subdivisions récursives comme parexemple la répartion spatiale ou encore le taux d'occupation.

- Le second est la création d'un faisceau de visualisation (s'apparentant au beam tracing) que l'onessaye de propager en fonction des caractéristiques optiques et geométriques des objets. On effectue, àl'intérieur de ces pyramides de visualisation une localisation les objets par une projection perspectiveafin de limiter I'application de I'algorithme de tracé de rayons.

- Le troisième est I'adaptabilité des principes d'optimisation à la geométrie des objets. La contrainteforte d'une méthode proche du beam tracing est de ne s'appliquer qu'à des objets approchés par des facesplanes. En effet, si un objet spéculaire est de révolution on ne peut propager une pyramide devisualisation. Afin de ne pas limiter les scènes créees à un ensemble d'objets parallépipediques nousmodifions les algorithmes d'optimisation en fonction de I'objet traité.

Le chapitre I est une présentation rapide des deux principaux algorithmes de visualisation à savoirI'algorithme de radiosité et celui du tracé de rayons. Nous effectuons au chapitre 2 une description laplus complète possible de toutes les grandes techniques d'optimisation du tracé de rayons avanrd'exposer au chapitre 3 la méthode de décomposition adaptative. Le chapitre 4 sera consacré à lavalidation de la méthode par une présentation des tests effectués sur un ensemble de scènes types. Lesdifférents modèles utilisés ainsi que les images calculées sont présentés dans les diftërentes annexes.

Page 10: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Algorithmes de rendu : Mâhodes principales

Chanitre 1

ALGORITHMES DE REI\DU : METHODES PRINCIPALES

Nous présentons dans ce chapitre les deux méthodes de rendu realiste les plus utilisées à savoir la

radiosité et le tracé de rayons. Ce sont en fait les deux seules méthodes qui permeûent de prendre en

compte I'ensemble des phénomènes optiques conventionnels comme les transparences, les réflexions.

Bien que ces méthodes soient généralistes, elles définissent des limites aux phénomènes modélisés.

Pratiquement, elles imposent un choix entre les diffërents t)?es de réflexion et de réfraction.

1. LA RADIOSITE

La radiosité est proposée pour la première fois en image de synthèse par Goral dès 1984 IGOR S4].Elle est fondee sur le principe de transfert radiatif de chaleur mis en évidence en physique dès 196l parGebhart IGEB 61]. Elle permet de prendre en compte tous les problèmes d'éclairage diffirs. Les objetscomposant la scène sont facettisés pour que l'émission totale de lumière par unité de surface soitsupposée constante. On notera 87la quantité totale d'énergie émise par unité de surface et unite de tempsen tout point de la facette. On a :

B j : I i cos Tda : in

ai est I'intensité lumineuse émise. Elle est indépendante de la direction d'émission, les surfaces étant

principalement de type lambertien.

C) est le demi-espace situé au dessus de la facette.

0 est I'angle de réflexion avec la normale à la face.

figure l: puissance réfléchie sur une surface lambertienne

Page 11: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

1.1. Echanges lumineux entre deux surfaces

Le principe de la radiosité est de calculer les échanges lumineux entre toutes les surfaces en lesétudiant deux à deux.

Soient i et7 deux facettes'et dAi, dAileur élément de surface.

La quantité d'énergie allant de Ai et arivant sur.,! est :

d'zp(ù4l,ù4j)- Bi dAi cosa,ili

c:sa1C r'

L'énergie envoyée par dAisur l'ensemble de la facette j s'obtient en intégrant sur la facette j :Bi_dAi (t"t e,t^ gl -dP(dAi,dA) ==

o J rz JAj

L'énergie envoyée par toute la facette i vers la facette j est :

B, f f"o. 0; cos 0;P(Ai,Aj) ="; lJr" dAi dAi)niAi

figure 2: transfert d'énergie entre deux surfacesSi I'on appelle.I/i le flux arrivant sur la facetûe7 on peut ecrire :

u'=i ,,L+U'rydAidAiJAi

Le flux total émis par une facette ,* tu ro# de deux composantes à savoir:- son émission propre d'énergie- la réflexion par la facette du flux incident.

Page 12: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Pour un éclairage de type diffirs nous avons donc Bi = Ei + p Hi

Ei représente le flux émis par la facetteT

Dans leur article Gom;l et a/. définissent un calcul simplifié du flux d'énergie. Ils introduisent unevaleur appelée Facteur de forme qui détermine la forme et la position des objets les uns par rapportaux autres. Le calcul du flux lumineux devient :

1 r

Hi =ZFu Bi avecFij=+ | l"o'?î't*, *,, * r A i l J l t

JAJAi

Le calcul du facteur est le point le plus important de la radiosité. De son exactitude vont dépendreles performances et la précision de I'algorithme. Le problème du calcul du facteur de forme est derésoudre une intégrale double. Une des premières solutions proposée par Cohen et at. ]COH85] estd'approcher le résultat de cette intégrale double par un hémicube (demi-cube) placé sur le centre del'élément étudié. Les cinq faces visibles sont décomposées en grille .

figure 3: I'hémicube

La partie de surfacez47 visible par la surfac e Ai esttrouvee en additionnant l'ensemble des pixelsinærsectés par la projection de Ai onobtient pour le facteur de forme :

F4=\MqqeHc

où q est un pixel de I'hémicube et DFq le facteur de forme associé.

Page 13: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Algorithmes de rendu : Méthodes principales

Le principal handicap de la méthode proposée par Goral était que la complexité de I'algorithme en

O(n2) limitait considérablement les performances. Une nouvelle méthode par raffinement progressif

de l'éclairage est proposee en 1988 par Cohen [COH 88]. Elle consiste à traiter les faces dans I'ordre

croissant de leur radiosité. On calcule la contribution de la face sélectionnee à I'ensemble des autresfaces. On peut réaliser alors un premier affichage de la scène bien que celle-ci n'ait qu'un eclairageincomplet. On peut ensuite calculer I'apport des autres faces jusqu'à ce qu'un certain équilibrelumineux soit atteint.

Initialement I'algorithme de radiosité n'etait capable de traiter que des surfaces diffirses. L'intérêtprincipal est que l'éclairement de scène n'est pas à recalculer tant qu'un objet de la scène n'est pasdéplacé. Les échanges lumineux sont indépendants de la position de I'observateur. C'est Wallace eta/. [WAL 87] qui les premiers ont proposé une méthode de calcul d'éclairement intégrant la radiositéet le tracé de rayons pour modéliser I'ensemble des surfaces existantes. Ils décomposent la réflexionde la lumière en quatre méthodes correspondant à tous les cas possibles d'échange entre surfaces. Lesquatre transferts possibles sont:

10

dffits -)

spéculaire +diffus -)

spéculaire +

diffusdiffusspéculaire

spéculaire

Les deux premiers types d'échange sont correctement traités par un atgorithme de radiositéclassique, les deux derniers le sont par le tracé de rayons lors d'une seconde pas se. La méthode perdun peu de son intérêt puisque la seconde passe spéculaire nécessite une nouveau calcul partiel del'éclairement même pour un déplacement de I'observateur.

En 1989 Sillion [SIL 89] propose une méthode qui permet de realiser les deux calculs en uneseule passe et propose une nouvelle méthode d'échantillonnage pour la détermination du facteur deforme.

f.2. Repide bilan de la radiosité

Nous avons succinctement présenté les principes de la radiosiæ. Nous pouvonsr terminer ce rapideexposé de la méthode en dressant une liste des points forts et des limites du modèle d'eclairement.

Page 14: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Algorithmes de rendu : Méthodes principales n

* Méthode d'éclairage globale* Permet le traitement des surfaces diffirses* Traitement des ombres douces et pénombres* Méthode incrémentale* Indépendante de la observateur (pour la diffuse)

POUR

CONTRE* Combinaison obligatoire avec un tracé de rayons pour traiter les surfaces spéculaires,* Complexité des algorithmes mis en oeuvre* Temps de traitement encore important* Approximation importante sur le calcul des facteurs de forme donc de I'exactitude du rendu* Obligation de facettiser les objets pour simplifier les calculs

2. LE TRACE DE RAYONS

Le premier algorithme de tracé de rayons a été proposé par Appel dès 1968 IAPP 68] pourdéterminer la visibilité des faces. Il a fallu attendre plus de dix ans pour que Kay [KAY 7gl et surtoutWhitted IWHI 801 proposent une application du tracé de rayons à l'éclairage global d'une scène. On voitapparaître pour la première fois des images combinant des effets complexes de transparence et deréflexion. Il est nécessaire de préciser que la méthode du tracé de rayons est empirique et ne permetqu'une interprétation très incertaine des lois physiques.

2.1. L'algorithme du tracé de rayons

Le tracé de rayons consiste à simuler le trajet d'un rayon lumineux. Dans la méthode de base lesrayons sont considérés comme n'ayant aucune épaisseur. Pour des raisons de faisabilite, le trajet durayon est le plus souvent pris à rebours. Toutes les lois de propagation se situent dans le cadre d'uneoptique purement geométrique, c'est-àdire que les myons se propagent de manière rectiligne.

Avec ces restrictions le principe de base de I'algorithme de traé de rayons s'énonce très simplement.

Page 15: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Algorîthmes de rendu : Methodes princîpoles

Pour un ensemble d'objets constituant une scène, pourrun point origine O et une demidroite Dpassant par I'origine, trouver parmi I'ensemble des points d'intersection celui qui est le plus proche de Oet à quel objet appartient ce point ?

Il faut pour répondre à cette question être en mesure de calculer un point d'intersection entre unedroite et les objets constituant la scène. Il existe pour cela de nombreux algorithmes de calculd'intersection adaptés aux différentes forme de modélisation des objets (faces planes, csg, Nurbs,....).

La généralisation de ce calcul à un ensemble de rayons issus de I'oeil et passant par les pixels d'unécran fictif, définit I'algorithme de tracé de rayons.

2.2. Traitement des faces cachées

On remarque que le principe de détection du point d'intersection le plus proche

naturellement le problème de l'élimination des faces cachees.

L2

traite

figure l: détermination des faces visibles

Une fois ce point calculé, il convient de lui associer une modèle d'éclairage permettant dedéterminer sa couleur.

2.3. Les rayons primaires

Le rayon primaire est défini comme étant une droite ayant cornme origine l'oeil et passant par lecentre d'un pixel de I'ecran. Il existe donc autant de rayons primaires qu'il y a de pixels sur I'image àcalculer. A chacun de ces rayons primaires on applique le principe de détection d'un pointd'intersection. Pour les rayons qui ont une intersection effective avec un des objets de la scène, oncalcule ensuite I'eclairement du point.

Page 16: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Algorilhmes de rendu : Méthodes principales

2.4. Traitement des réflexions et réfractions

C'est Whitted [WFil 801 qui le premier a I'idée d'utiliser le tracé de rayons pour calculerl'éclairage d'une scène. Une fois qu'un objet est identifié comme étant visible, il applique au pointd'intersection un modèle d'eclairage faisant intenirenir une contribution de spécularite eUou detransparence. La notion de rayon fin ne permet de calculer qu'un rayon réfléchi eVou réfracté enutilisant les lois de Descartes définies en optique geométrique. L'analyse des rayons étant récursive,il est nécessaire de limiter la profondeur de l'étude.

figure 2: tracé de rayons réfléchis et transmisLa couleur finale est trouvée en additionnant à rebours les couleurs des diffërents objets

intersectés par la suite de rayons.

2.3.1. La réflexion spéculaire

La réflexion spéculaire permet de modéliser les miroirs. Elle est en fait le seul type de réfexionqu'un algorithme de tracé de rayons traite correctement. La lumière qui anive sur la surface estreemise dans une direction de réflexion géométrique. Pour permettre la modélisation de cet effet ilfaut introduire un coefficient de réflexion du matériau. Le rayon est réflechi symétriquement parrapport à la normale au point d'intersection. Læ rayon incident est appelé rayon secondaire.

l 3

rayon secondairctransmis

rayon secondairerélléchi

rayons d'onùragc

rayon secondaireréfléchi

figure 3: direction de reflexion

Page 17: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Algorithmes de rendu : M&hodes principales

l . e s t t e l queP=O+I t

On obtient le direction de réflexion de V oar:

ï =V - zn .V n

2.3.2. La réfraction

Dans le cas d'objet transparent, la lumière reçue est réémise dans la direction réfractee. Ladirection du rayon secondaire sera dépendante de I'indice de réfraction du milieu traversé. Ladirection du rayon réfracté est déterminé par la loi de Descartes:

n, sin i, = nrsin î,

I4

figure 4: Direction de réfraction

Pour trouver la direction de réfraction on décompose f et r* selon ta normale et un vecteur /

tangent à I'objet.

f =vr , f r +v1 lr- =fn fr +ral

On cherche à exprimer i, la seule valeur importante, sous la forme i + 1tfr en posant11 : ll1, on a alors .

n. t v tSln / l =1 i -= -

ilrll ll" ll7. î r t

s ln12 = -= -

ll'-ll llrllnz _sinir= l lr l lnt siniz lltllr : . 2 2 2 2 2In2 l r , -+r ; v ;+r :l _ l = t r _ a nl l ) ) i a

\h ) v ; +v; v i +v i

Page 18: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

On peut calculer rn et en déduir F .

t t 2t I l l z lr ;= l - l

\ n t )l lr l l '- , i

En reportant vj = lllll'?- (fr .v)' on ̂ ,

12 - (n i)2-1r1' [ '

-(;) ' ]

Si cette valeur devient négative le rayon lumineux n'est plus réfracté mais il devient réfléchisinon F est égal à :

2.5. Les rayons d'ombrage

Nous avons présenté jusqu'à présent deux types de rayon, les rayons primaires et les rayonssecondaires (réfléchis et réfractés). Pour calculer I'intensité lumineuse en chaque point de la scène ilfaut calculer la contribution de chaque source lumineuse. Pour cela on lance un rayon vers chacunede ces sources "le rayon d'ombrage" et nous regardons si ce rayon coupe un des objets. Si uneintersection existe, le point étudié se trouve dans l'ombre d'un objet. Dans ce cits, on modifie lesparamètres lumineux du point.

figure 5: les rayons d'ombrage

Page 19: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Algorîthmes de rendu : Methodes principales

2.6. Rapide bilan du tracé de rayons

Comme pour I'algorithme de radiosité nous allons terminer cette présentation de I'algorithme de

tracé de rayons en réalisant un rapide bilan des principaux points forts et inconvénients deI'algorithme.

POUR* Simplicité de mise en oeuvre de I'algorithme de base.* S'adapæ à tous les modèles (CSG, faces places, NURBS,...).* Méthode globale qui permet de prendre en compte les surfaces réflechissantes et transparentes.* Prise en compte des ombres oortees.

CONTRE

* Le calcul de I'image est dépendant du point de vue.* Læs temps de calcul sont importants pour la méthode de base.* Ne prend pas en compte les lumières diffuses.t Génère d'importants problèmes d'aliassage dus au concept de rayons fins (d'échantillonage

ponctuelle de la scène).* [l est limité dans le type des sources lumineuses représentables (essentiellement ponctuelles)

Les principaux défauts du trace de rayons sont encore aujourd'hui I'aliassage et surtout des temps decalcul importants. Depuis Appel, I'ensemble des travaux sur le tracé de rayons a consisté à définir unnouveau concept de rayon et à diminuer les coût de traitement. Nous allons présenter au chapitre 2I'ensemble des techniques qui permettent de palier ces inconvénient, en repreruurt plus en détail des plusimportantes d'entre elles.

t6

Page 20: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de rayons : Les

Chanitre 2

TRACE DE RAYONS : LES TECHNIQUES D'OPTIMISATION

1. INTRODUCTION

L'un des handicaps du tracé de rayons, décrit la première fois par Appel en 68 [APP 68] est qu'il estrelativement coûteux en temps de calcul. Il faut, encore aujourd'hui, plusieurs heures de calcul sur desmachines puissantes pour obtenir des images contenant un grand nombre d'objets avec des effets derendu realiste. L'accélération des algorithmes reste une preoccupation importante des développeurs delogiciels de C.A.O et plus pârticulièrement les algorithmes dédiés à I'image de synthèse. La recherche degain de temps a dépassé la simple performance intellectuelle des chercheurs, elle est aussi imposée pardes contraintes économiques et de confort. Même si I'on sait que les puissances des machines serontmultipliées par l0 dans les annees à venir, notamment avec les machines parallèles, leur vitesse detravail ne permettra pas seule d'arriver au but inavoué de tout concepteur de logiciel d,images desynthèse à savoir: être capable de faire de l'animation temps reel de scènes complexes. C'est pourquoiI'on voit toujours se développer de nouvelles techniques d'optimisation de tracé de rayons (ray-tracing).

La figure I résume les diftrentes stratégies mises en oeuwe.

Page 21: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de rayons : Les techniques d'optimisotion l8

techniques d'accélératon du tracé de rayons

figure I : classification des techniques d'optimisation

On remarque que n'apparaissent pas dans cette classification les optimisations dues aux machinesparallèles. On s'est intéressé essentiellement aux optimisations algorithmiques se contentantsimplement d'expliquer sommairement le principe des machines parallèles et de citer certainstravaux. Le principe est de multiplier le nombre de micro-processeurs ceux-ci ne traitant qu'unnombre très restreint de pixels écran. La machine idéale étant une machine possédant un processeurpar pixel. Cette approche semble très séduisante notamment pour le traitement des faces cachees.Elle présente par contre un certain nombre de lacunes dès que I'on essaye d'introduire de la cohérencedans I'analyse qui est faite de la scène. La parallélisation massive du traitement se fait au détrimentd'un certain nombre d'informations et de renseignements très utiles sur les liaisons de dépendanceentre objets (faces cachees, ombrage, zones d'influence), les liaisons mecaniques (notions detangence). Le concept de parallèlisation semble encore moins performant dès que l'on abordeI'animation. Il ne semble pas permettre dans l'état actuel des travaux une réutilisation d'informationsd'une image à I'autre puisqu'il n'y a pas une connaissance de la scène d'une manière globale et"intelligente". En fait, il semble manquer aux machines parallèles une méta-couche capable deconserver toutes les informations nécessaires à une bonne compréhension du contenu d'une scèned'un point de vue conceptuel. On ciæra pour mémoire les travaux de Dippé [DIP 84] et Maurel

IMAU eU.Contrairement à cette approche, la grande majorité des méthodes que I'on présentera et qui

peuvent s'intégrer dans une des sous-parties de la figure I tentent de minimiser les calculs ensimplifiant la scene par une décomposition ou une deduction des informations des analysesprecédentes mais en conservant toujours des informations geométriques définissant la scène.

Page 22: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de royons : Les techniques d'optimisation

Dans les techniques d'accélération du tracé de rayons, on a distingué trois grandes familles qui

correspondent à trois stratégies très diftrentes. Il est évident que la frontière entre ces diftërentes

approches n'est pas toujours aussi évidente que sur ce schéma.

1.1. Optimisation du calcul d'intersection

La première famille que I'on a distingué est celle que l'on a intitulé "intersection rapide". On aregroupé dans cette catégorie les algorithmes cherchant à optimiser le calcul d'intersection. On adistingué deux grandes tendances:

- I'accélération du calcul par optimisation de I'algorithme d'intersection rayon-objet- I'accélération du calcul par diminution du nombre de calculs d'intersections

1.1.1. Accélération du calcul par optimisation de I'algorithme d'intersectionrayon-objet.

On regroupe dans cet ensemble tous les algorithmes optimisant le calcul de tracé de rayons parune amélioration de la partie mathématique de I'intersection. On n'a indiqué dans cette sous-partie

çe la méthode des englobants [WHI 80], mais on aurait pu citer tous les travaux effectués surI'optimisation des intersections rayon-carreau nurbs [CAT 74][SED 84]ISAH SgltKAJ S2ltKAY861[CLE 881[ROT 82][SWE 86] qui sont des méthodes calculatoires lourdes à mettre en oeuweet où il est courant de résoudre des systèmes d'équations de degré supérieur à 18.

La technique des volumes englobants reste I'une des optimisations les plus générales et les plussimples à mettre en oeuvre. Elle est générale dans le sens où elle s'applique aussi bien aux rayonsprimaires qu'aux rayons secondaires ainsi qu'aux rayons d'ombrage. Un volume englobant est unvolume simple , généralement une sphère ou un parallépipede rectangle , approchant la forme d'unobjet. Cette approximation perrnet d'affirmer qu'un rayon coupe potentiellement un objet uniquements'il coupe dans un premier temps son volume englobant. La recherche d'intersections entre une droite(représentative d'un rayon) et une sphère ou un parallélipède, plus simple que la recherched'intersections entre une droite et une surface quelconque, permet de diminuer considérablement lescalculs inutiles.

l 9

Page 23: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de rayons : Les techniques d'optimisation

figure 2: intersection avec un englobant

La figure 2 présente très succinctement le principe de la méthode en mettant en évidence les trois

cas d'intersections possibles. On remarque que le rayon I ne coupe pas la sphère englobante et nepourra donc en aucun cas couper I'objet. L'intersection de I'englobant est une condition nécessaire

mais non suffisante pour que le rayon coupe effectivement I'objet. Ce cas de figure est illustré surI'exemple cidessus par le rayon 2.Le rayon 3 coupant à la fois la sphère englobante et I'objet sera le

seul retenu pour afficher I'image de I'objet.

L'exemple cidessus présente bien le problème des englobants qui est qu'un rayon coupant un

englobant ne coupe pas forcément I'objet (cas du rayon2). S'est posée alors la question du choix dumeilleur englobant. Un bon englobant se caractérise par:

- sa capacité à bien épouser la forme de I'objet- la nécessité que le calcul rayon/englobant reste simple.

Il n'existe pas d'englobant universel. Certains seront "moins pires" que d'autres en fonction de laforme de I'objet.

20

Qruruimage I image 2 image 3

figure 3: englobants usuels

La figure 3 présente les trois types d'englobants les plus utilisés.* L'image I montre un englobant sphérique. Si la sphère reste une excellente approximation

pour tout un ensemble d'objets, on remarque qu'il n'épouse que très grossièrement la forme du verre.Le calcul de I'englobant peut être encore optimisé.

Page 24: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de rayons : Les techniques d'optimisûion

* L'image 2 propose un englobant parallépipèdique avec des faces parallèles aux bords de

l'écran. C'est I'une des approximations la plus utilisée dans les algorithmes d'optimisation de rendu.

Elle a I'immense avantage d'être plus performante que les sphères sur des objets présentant

d'importantes variations dans deux dimensions sur trois (fig 4).

æi atueqillèrc

f_

figure 4: différence entre englobants

* L'image 3 représente une optimisation realisée à partir d'un englobant sphérique et d'un

englobant parallépipèdique. L'objet est approché par I'intersection des deux types d'englobants, ce

qui permet d'obtenir une meilleure approximation de I'enveloppe de I'objet. Lorsque I'objet est allongé

(fr9 4),I'englobant résultant est proche de I'englobant parallépipèdique qui approche bien mieux

I'objet qu'un englobant sphérique et inversement si I'objet est relativement compact. Quand I'objet

possède une forme indéterminée, I'intersection des deux volumes est toujours plus performante que

chacun des englobants pris séparément.

A partir de ces deux englobants de base, on a recherché des compromis permettant de minimiser,

pour tous les types d'objets, le calcul d'intersection rayon, objet.

image I image 2 image 3

figure 5: autres types d'englobants

* L'image I présente un englobant parallépipèdique avec des bords non parallèles à I'ecran. Cetteapproximation est bien meilleure, d'un point de vue géométrique, qu'un englobant parallépipedique

avec bords parallèles aux axes, le problème est qu'il engendre un surcoût dans le calculd'intersections.

2 l

Page 25: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracë de rayons : Les techniques d'optimisation

* L'image 2 présente un autre compromis entre les volumes sphériques et parallépipèdiques. On a

vu, figure 3, que I'on pouvait optimiser les calculs en prenant I'intersection entre englobants; Ici I'idee

est de prendre I'union de deux sous-volumes: un sphérique approchant mieux la partie haute du verre

et un parallépipedique pour la partie du pied. _+ Le dernier exemple, illustré par I'image 3, montre un volume englobant obtenu à I'union de deux

volumes parallépipèdiques décalés d'un angle B.

Rubin et Whitted proposent en 80 IWHI 801 une hiérarchisation de la notion des volumes

englobants. lls définissent des volumes englobants par objet puis par groupe d'objets. Par la suiteI'idee a été reprise et adaptee par Weghost en 84 et Kay en 86 ffiG S4l IKAY 861

figure 6: englobants hiérarchiques

Pour un rayon coupant la boîte 4 on regarde si un des sous-volumes englobant est intersecté (1,2

ou 3). Si I'englobant I a une intersection avec le rayon, on regarde si un des sous-englobants de I(ll,l2) est intersecté par le rayon et ainsi de suitejusqu'à trouver une intersection effective avec unobjet ou que le rayon ne coupe aucun des englobants.

Les techniques d'utilisation des englobants ont permis de diminuer de manière très sensible lestemps de calcul des algorithmes de rendu comme le Ray-Tracing. Simple à implanter, ellesprésentent néanmoins le problème de ne pas diminuer la complexité de la scène. Pour chacun desrayons lances depuis I'oeil, on calcule une éventuelle intersection avec I'ensemble des englobants dela scène ce qui reste encore très coûteux en temps de calcul. C'est pourquoi ont été développées destechniques d'optimisation diminuant non plus la complexite de calcul mais la complexitégeométrique. Ce sont les techniques de decomposition.

22

Page 26: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de rayons : Les techniques d'optimisation

1.1.2. Accélération du calcul par diminution du nombre d'intersections rayon-

objet.

L'idee principale qui caractérise les méthodes regroupées ici est de diminuer le nombre de

rayons étudiés d'un point de vue intersections. Cette approche est indépendante de la complexité

mathématique du calcul d'intersection (il est courant dans les intersections de carreaux NURBS

de realiser une approche de Ia solution par une décomposition du problème). Le premier type

d'approche que l'on a présenté à la figure I est I'utilisation de volumes englobants hiérarchiques

IWHI 80] dont le principe est d'avoir des englobants regroupant des objets geométriquement

proches. A I'intérieur de cet englobant, un objet complexe est lui même approché par un

englobant général contenant des englobants de plus en plus proches de I'objet. Cette technique

permet d'avoir une approximation progressive des objets intersectés par un rayon en généralisant,

par une hiérarchisation, la méthode des englobants de Whitted.

On retrouve dans cette classification les méthodes de décomposition de I'espace 3D ainsi que

les décompositions de la projection de la scène sur un plan. Les techniques de décomposition de

I'espace diminuent considérablement les calculs d'intersections. Elles servent à limiter une

recherche d'intersection entre un rayon (primaire, secondaire ou d'ombrage) avec uniquement les

objets contenu dans le sous€space traversé. C'est pourquoi on essaye d'obtenir une

décomposition cohérente d'un point de vue géométrique mais aussi "relationnel" entre objets

constituant la scène. Glassner [GLAS 84] effectue une décomposition en utilisant les arbres

octaux (octree). Il associe à des sous-espaces des propriétés geométriques et des informations de

relation d'adjacence pennettant de déterminer, pour un rayon, quelles vont être les zones à

considérer. De nombreux travaux ont consiste à ne découper la scène qu'en fonction de son

contenu, citons pour exemple ftIEG 871 [wAR 69] [ExC 87] [BOU 87] IBOU 881 ITHI 901

lroR eol.Le principe de subdivision de I'espace a éæ amélioré en introduisant dans la decomposition

une analyse sommaire du contenu des sous-régions. Nemoto INEM E6] adapte les limiæs de sessubdivisions en faisant "glisser" les frontières des sous-regions sur les axes X,Y,Z afind'optimiser la repartition à I'intérieur des espaces élémentaires. Les sous-regions étudiees ne sontplus régulières mais le taux d'occupation est plus homogène ce qui globalement diminue les tempsde calcul. Des décompositions plus souples (souvent appelees à tort adaptatives) réalisent unesubdivision de la scène en analysant la nécessité de décomposer en fonction de critères moinsgéométriques (complexité, taux d'occupation) [DIP s4] IHEG 87] tJEv 891 IGHA 921 tVrV 9ll.On reprendra plus en détail certaines de ces approches dans le paragraphe 3.

23

Page 27: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de rayons : Les techniques d,optimisation

Toujours dans I'analyse spatiale, on peut citer les travaux effectués pas Devillers [DEV 90]dont I'idee principale peut être résumée en disant qu'elle consiste à rechercher les zones videsd'informations (non présence d'objet) dans lesquelles il sera inutile de lancer des algorithmescoûteux en temps de calcul. Toutes les décompositions spatiales impliquent la créationd'algorithmes performants de recherche des zones traversées par les rayons IJEV 39] [KAY 86].Ces algorithmes sont souvent dépendants de ta structure utilisee pour représenter les sous-regions. On décrira cette approche très intéressante au paragraphe 3.

1.2. Optimisation par recherche de cohérence entre les rayons

La seconde categorie présentee figure I conceme les optimisations par diminution du nombre derayons. L'idee ne consiste pas à diminuer le nombre d'intersections, mais à diminuer le nombre desrayons calculés. Akimoto [AKI 9U propose une méthode basee sur le principe d'interpolation desrésultats (méthode présentée au chapitre 4). Il calcule la couleur d'un pixel en réalisant une moyennepondérée de la valeur des pixels environnants. Le concept de cohérence des rayons est repris parArvo [ARV 87] et Ohta [Ofn 87] mais surtout par Joy UOY 861 qui pour trouver la valeur d'unpoint d'intersection entre un rayon et un carreau nurbs utilise une pseudo méthode de Newton enprenant la valeur de I'intersection précedente comme valeur initiale pour faire converger la méthode.

1.3. Généralisation de la notion de rayon

On a regroupé dans cette catégorie un certain nombre de techniques visant à remplacer le conceptde rayons fins, utilisé habituellement dans les algorithmes du tracé de rayons, par une notion defaisceau de rayons. Cette idée apparaît conjointement en 84 avec les travaux d'Amatides IAMA 841qui utilise un faisceau conique et dans ceux de Heckbert IIIEC 84], qui utilise un faisceaupyramidal. En 87 Shinya [SHI 37] propose une variante au "Beam-Tracing" le Pencil-Tracing quipennet un calcul plus précis, mais plus complexe, des effets de réfraction. Ces diftrentes æchniquessemblent généralement plus rapides qu'un tracé de rayons, car elles permettent de traitercorrectement et complètement en même temps les problèmes d'aliassage. On reprendra plus en détailcertaines méthodes dans le chapitre 5. On présentera aussi des méthodes d'optimisation et plusparticulièrement celle de Ghazanfarpour [GHA 92] qui propose une optimisation de I'algorithme deHeckbert basee sur une décomposition récursive reprenant les concepts développes par Wamock

lwAR 6e l.Toutes ces méthodes n'ont qu'un seul but véritable: la diminution des temps de calcul qui ont

depuis toujours handicapé les algorithmes de rendu réalisæ et en particulier celui du Ray-Tracing.On approfondira certaines des techniques decrites succinctement cidessus et on montrera comrnentces méthodes essayent d'apporter une solution efficace et simple au problème des temps de calculparfois exorbitants.

24

Page 28: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de rayons : Les techniques d,optimisation 25

I

2. LES DECOMPOSITIONS

En présentant le principe des volumes englobants on a mis en évidence un problème qui est la

recherche d'une intersection entre un rayon et tous les éléments constituant une scène. Les englobants

hiérarchiques de Rubin et Witted (WHI 80) apporûent une optimisation certaine puisque le raffinement

successif des englobants élimine naturellement les objets qui n'ont aucune chance d'être coupés par lerayon. On peut déjà parler d'une diminution de la complexité (en nombre d'éléments à traiter) due à une

organisation différente ou une représentation diffërente du contenu. Cependant, le fait de manipuler des

englobants d'englobants entraîne une perte importante de précision et globalement la méthode reste peu

efficace. On a alors essayé de résoudre le problème d'une tout autre façon. Plutôt que de créer une

"méta-connaissance" de la scène en approchant les objets par des volumes plus importants, pourquoi nepas essayer d'avoir une représentation de celle-ci à un niveau très petit. Cette restriction du niveau

d'analyse simplifie localement la complexité. En d'autres termes, seul un petit nombre d'éléments (voir

aucun) occupe une petite partie de l'espace donc pour cet espace le calcul d'intersection avec ces objetssera simplifié.

La diftërence principale entre les volumes englobants de scène et la décomposition de I'espace est quepour calculer les intersections rayons-objets avec le technique des englobnats on réalise des test sur desobiets basés dans un espoce connu alors qu'avec une décornposition on effectue des tests sur unespace dans lequel on connaît les objets.

On va présenter maintenant quelques unes des techniques de décompositions spatiales les plusutilisees' Toutes les méthodes que I'on va décrire dans un espace à trois dimensions existent en deuxdimensions mais ne sont dans la plupart des cas qu'une restriction de la méthode à un espace dedimension inferieure.

2.1. Les subdivisions non uniformes

Le principe de la subdivision non uniforme est de découper I'espace, ou une représentation decelui-ci, en un ensemble de regions dont la taille varie en fonction des caracteristiques de sonenvironnement. Les caractéristiques prises en compte, pour la subdivision, sont essentiellementgéométriques. Cette subdivision consiste à diminuer le nombre d'objets contenus dans lessubdivisions. Pour cela, on analyse le contenu d'une fenêtre; si ce contenu ne semble pas être sousune forme simple, on réalise une nouvelle subdivision de la fenêtre et on regarde dans quel sous-espace se trouvent les objets de la scène.

Page 29: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Trocé de rayons : Les techniques d'optimisotion

Warnock IWAR 691 a été le premier à proposer une décomposition récursive non uniforme, non

pas de.l'espace mais du plan. Il projette le contenu de la scène sur un plan pouvant être l'écran. Il

découpe récursivement le plan afin de simplifier le contenu des subdivisions. Une des difficultes

majeures dans les subdivisions non uniformes est d'estimer le moment ou le contenu d'une sous-

region devient "simple". Warnock simplifie le problème en distinguant trois types de situations .La

decomposition s'arrête quand une sous-fenêtre est soit vide, soit ne contient qu'un seul élément, soit a

atteint la taille minimale qui est le pixel, le pixel étant la plus petite partie du plan considérée comme

étant indivisible. Le principe de subdivision de Warnock est assimilable à une décomposition de typequadtree sur les composantes X et Y, la dimension en Z restant constante. Cette decomposition avaitpour seule ambition d'améliorer le calcul des faces cachées. Pour chaque subdivision, pour chaquerayon lancé depuis I'oeil arrivant dans cette subdivision, on recherche une intersection éventuelle

avec I'ensemble des objets contenus dans la sous-fenêtre. Sa dépendance vis-à-vis de la position deI'observateur ne lui permet pas, en l'état, d'être utilisable dans I'implantation un algorithme général derendu Éaliste (rayons primaires, secondaires, d'ombrage).

@ ce

4ll\::,:: ' ' '',::: ,::::',:':: I.::' .,:,:.:::.::J

figure 7: décomposition non uniforme

Cette méthode de simplification du contenu a été étendue ensuite à I'espace tout entier. L'arbre dessubdivisions n'était plus représenté sous la forme d'un arbre quaternaire mais sous la forme d'unarbre octal (octree) et I'espace est subdivisé en huit sous-régions de taille identique. On conserve lesprincipes de subdivision du plan et I'on arrête la décomposition lorsque chacune des regions est soitvide, soit ne contient qu'un seul objet, soit a atteint la taille minimale : le voxel . Le voxel est la pluspetite entité de volume non décomposable dans l'espace observateur. Un voxel n'aura pas la même

taille si I'observateur est situé près de la scene ou si au contraire il s'en trouve très éloigné. On nepeut établir de relation avec le pixel, si ce n'est dans la définition.

26

Page 30: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Trocé de rayqns : Les techniques d,optimisotion 27

/

,V

figure 8: une décomposition octale (octree)

Pour chaque rayon I'optimisation du calcul d'intersection se déroule alors en trois parties:l: On lance un rayon depuis I'oeil et I'on recherche la première cellule intersectee par le rayon.2: Si la cellule n'est pas vide, on recherche une intersection avec I'ensemble des objets associés à

la cellule.

3: Si une intersection existe on associe au point la couleur de I'objet éclairé sinon la couleurassociée est par exemple le noir. Si I'objet est spéculaire eVou transparent, on lance en plus durayon d'ombrage, depuis le point d'intersection, un rayon réfléchi ou réfracté. On recherche lescellules intersectées pas le rayon d'ombrage et les rayons secondaires et le processusrecommence.

Les décompositions de type octree présentent deux grands avantages.Le premier est que contrairement aux décompositions de type quadtree, la subdivision n'est pas

dépendante de la position de I'observateur.

Le second, conséquence logique du premier, est que les décompositions spatiales permettentd'optimiser sur le même principe que les rayons primaires, les rayons d'ombrage et les rayonssecondaires. Elles présentent cependant un inconvénient majeur qui est de trouver quelles vont êtreles cellules traversées par le rayon et conrment optimiser la propagation de ce rayon (réft:acté,réflechi, ombrage).

De nombreuses approches ont utilisé un découpage non uniforme de I'espace en utilisant unestructure à base d'octree IGLAS 84] [KLJN 85] ou en mettant en oeuvre des decompositions trèsdiftrentes comme la création de cellules IWEI 871 IARN 8Sl ou la recherche des zones vides[DEV 89]. Citons aussi un ensemble de travaux présentant de decompositions non uniformesIKAP 851 UAI'{ 861 [PUR 86] IDEV 88] IWYV 6Sl IPUE 881 IFUJ 851. Certains ayant combiné lesavantages de la partition spatiale et des englobants hiérarchiques.

On présente plus en détail les principales méthodes.

Page 31: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de ruyons : Les techniques d'optimisation

2.1.1. Un exemple de décomposition non uniforme avec un arbre octal:

I'approche de Glassner

De nombreuses approches ont été basées sur une décomposition de type arbre octal ISAM84]. Nous présentons à titre d'exemple significatif celle de Glassner.

Glassner IGLA 84] présente une variation des octree adaptee au tracé de rayons. Il reprend leprincipe de décomposition de Warnock adapté à une subdivision de I'espace. Il associe à chaqueface des voxels une liste des objets dont la surface coupe une des 6 faces de la sous-region. Seuls

les objets de cette liste seront considérés pour le calcul d'intersection avec un rayon traversant le

voxel ( le voxel étant I'extension 3D du pixel, c'est-àdire la plus petite region indivisible). Laliste des objets contenus dans le voxel est en realité une liste de poinæurs qui ne sont décritsqu'une seule fois en dehors de I'octree. L'octree ne sert qu'à connaître les différentes surfacesprésentes dans le voxel. La notion de voxel vide ou voxel plein n'est pas utilisee par Glassner. Lascène étant décrite par un arbre de construction, il se peut qu'un voxel pointe sur une surface quin'eistera plus, une fois les opérations booléennes effectuees.

Cette particularité des octree peut sembler un handicap important si I'on désire mettre enoeuwe un algorithme de tracé de rayons pour arbre C.S.G. On montre cependant, avec desmesures peutétre un peu empiriques, que le gain de temps est considérable comparativement à unalgorithme de tracé de rayons de base.

4

/ \.

I

/.

figure 9: décomposition de Glassner

On montre par analogie en 2D (figure 9) une sphère et les voxels de I'octree associés à ladécomposition (la decomposition étant ici tout à fait arbitraire). On voit en grisé les voxelscoupant les limites de la sphère. L'objet sphère dewa être additionné à chaque voxel ombré.

L'algorithme de Glassner présente I'immense avantage de traiter, avec la même decompositionspatiale, aussi bien les rayons primaires que les rayons secondaires et les rayons d'ombrage.

28

Page 32: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de ruyons : Les techniques d'optimisotion 29

figure l0: parcours des rayons

Comme I'on connaît I'ensemble des objets associés à chacune des sous-régions, il suffit, à

partir de la direction des rayons, de trouver les subdivisions traversées et de calculer les

intersections avec les objets de la liste. La figure 9 présente le parcours d'un rayon primaire

coupant un objet. De cet objet repartent un rayon rélracté et un rayon d'ombrage vers une source

lumineuse. On remarque que les mêmes subdivisions sont utilisées pour les trois types de rayons.

Il suffit d'utiliser la même procédure de parcours en passant en paramètre les nouvelles valeurs de

I'origine du vecteur considéré ainsi que sa direction.

L'algorithme de parcours de la structure est relativement simple dans son énoncé.

procédu re Intersection_octree(rayon)Q: origine du rayonrépéter

localiser le voxel contenant Q {ou coordonnées du voxel traversé par le rayon}polr chaque objet associé au voxel faire

re che rc h e _i n te rse ct i on (rayon, obj e t)si pas d'intersection ùors

Q : point du prochain voxel intersecté par le rayonjusqu'à une intersection soit trouvée ou Q soit en dehors de la structurefin

La principale difficulté de mise en oeuwe des décompositions spatiales est d'obtenir unalgorithme de parcours des subdivisions performant. Le nombre de sous-regions étant souventtrès important, le calcul de parcours représente un handicap. De plus, Glassner ne se contente pasde rechercher la subdivision intersectee, il recherche les faces de la subdivision traversée par lerayon et recherche les intersections effectives avec la liste des objets associés à la face.

Page 33: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de ruyons : Les techniques d'optimisation

2.1.2. Un exemple de décomposition non uniforme avec cellules: La

décomposition d'Arnaldi, Priol, Bouatouch

Arnaldi, Priol, Bouatouch [ARN 88] proposent un algorithme de décomposition de I'espacepour des scènes modélisées par un arbre CSG. A la diffërence des subdivisions non uniformesmais régulières ( les sous-régions sont toujours de taille égale) le principe est de diviser l'espace

3D d'une manière non récursive donc non uniforme. La subdivision est réalisée en deux temps, lapremière étape consiste à déterminer une partition de l'écran. La seconde sert à calculer desenglobants minimaux des objets (souvent des volumes parallépipediques). On projette ensuite cesvolumes sur un plan défini par X et Y (le plan ecran). Cette projection génère un ensemble derectangles. Chaque rectangle est ensuite décomposé suivant ses quatre segments pour réaliser unepartition binaire de l'écran sur le principe des BSP tree.

30

eçace initial

r-ËrL-r!

r+IZ-t=z-<

cellute vide

l-l r-ttlL_t L__l

."iln-*" lZ-----\

E r--lcenurevide

n

cellule avecprimitive cellule vide

figure I l: séparation binaire de I'espace

Le principe est de realiser ensuite une extension suivant I'axe des Z

Page 34: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de royons : Les techniques d'optimisation 3 l

figure l2: création des macro-cellules

On réalise ensuite la même subdivision suivant I'axe des Z, ce qyi donne de nouvelles cellules

distinctes à partir de la macro-cellule de départ.

Cette approche par une subdivision de I'espace par rapport aux plans de la projection des

volumes englobants donne une subdivision inégulière de la scene. Cette structure de donnees n'est

pas suffisante pour exécuter I'algorithme de lancé de rayons. Il a fallu rajouter à cette structure

des informations permettant de localiser la cellule voisine. Pour ce faire, Arnaldi, Priol,

Bouatouch ont associé à chaque sommet un ensemble de pointeurs dont le rôle est de relier les

différentes cellules par leurs coins.

figure 13: connexité des cellules par pointeur

Les pointeurs de coins perrnettent de suivre le trajet d'un rayon à I'intérieur de I'espace et deconnaître la cellule suivante traversee.

Page 35: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de raJ,ons : Les techniques d'optimîsation

2.1.3. La décomposition non uniforme avec macro-régions: I'approche de

Devillers

La complexité des algorithmes de tracé de rayons repose sur deux points, le traitement d'une

région et la recherche de la séquence des regions rencontrées par les rayons. Toutes les méthodes

présenteesjusqu'à présent, considéraient la scène dans son ensemble et cherchaient à en avoir une

vue plus simple en subdivisant I'espace. En 89, Devillers IDEV 89][PLJE 88] propose une

approche fondamentalement différente : les macro-régions. La technique des macro-regions

repose sur la construction de sous-espace de dimension quelconque.Dims un premier temps le

principe utilise une structure de grille où la taille de la subdivision minimale est choisie de telle

manière à ne pas avoir trop d'informations dans les différentes sous-régions. La manière dont sont

obtenues les sous-régions est illustrée sur la frgure 14. On trouve un cellule vide d'information et

I'on essaye d'étendre cette subdivision en X,Y,Zjusqu'à rencontrer des éléments de la grille

contenant des objets.

32

ffiffiffifigure 14: recherche des macro-régions

Les macro-régions diminuent le nombre de subdivisions crées pour analyser la scène. Les

sous-régions créees ne contiennent pas d'information, elles sont représentatives des zones vides.

Le nombre de tests entre un rayon et une sous-région est sensiblement diminué.

figure 15: comparaison entre les octree et les macro-regions

Page 36: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Trqcé de rayons : Les

I,a traversée d'une structure de type macro-régions est de complexité similaire à la traverséedes octree. Elle est cependant plus complexe que le principe de traverser des structures de grille.Il est à remarquer que cet handicap est compensé par un nombre de tests à realiser beaucoupmoins important que dans les cas de subdivisions regulières. Cette traversée est effectuée en deuxtemps. Si le rayon traverse une des macro-régions, on effectue aucun traitement puisque cessubdivisions sont vides d'informations. Quand le rayon traverse une zone hors macro-région, onutilise la décomposition realisée avec la grille pour optimiser le calcul d'intersection .

zoæ dErtd. I'infmtiil

figure 16: parcours d'un rayon avec des macro-régions

On remarque que le rayon traverse trois macro-régions dans lesquelles il ne sera pas utile derechercher une intersection avec les objets. Quand le rayon quitte une zone vide on repasse à unestructure de grill 3D.

2.2. Les subdivisions uniformes

Décomposer une scène de manière uniforme consiste à décomposer I'espace en un ensemble desous-régions dont la taille est constante (le voxel ou ses multiples). On définit ainsi une grille 3Drégulière' Comme pour une subdivision non uniforme, on détermine les objets se trouvant à I'intérieurdes subdivisions. on analyse ensuite le trajet du rayon pour savoir quelles vont être les sous-régionstraversees. La décomposition de I'espace avec une grille peut se définir par deux caracteristiquesimportantes: (t) la subdivision uniforme est totalement indépendante du contenu, (2) I'acces au voxelsuivant traversé par un rayon s'effectue de manière incrémentale donc très simplifiee. La figure l7montre les voxels traversés par un rayon. Seul une intersection avec I'objet I sera recherchee surcertain voxel.

Page 37: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de rayons : Les techniques d'optimisotion 34

)\ \ )

\\

\

ù

figure 17: décomposition en grille

Le nombre de voxels étudiés est en moyenne plus important que pour une decomposition non

uniforme (octree, macro-région, cellules). Cependant l'uniformité des sous-regions a permis de

développer plusieurs parcours de sous-régions performants [FUJ 86]. Diautres travaux ont consisté à

développer des partitions spatiales avec une grille bi-dimensionnelle structurée en quadtree

IGER 861.

2.2.1. Décompositions uniformes: I'approche de Fujimoto, Tanaka et fwah

Fujimoto et al. [FUJ 86] ont été parmi les premiers à proposer une subdivision spatiale ou les

voxels, tous de même taille, étaient organisés en grille 3D. L'uniformité des subdivisions a permis

à Fujimoto de développer une recherche du voxel suivant basée sur un calcul incrémental. La

méthode, appelée 3DDDA (3 dimensional digital difference analyser), reprend le principe derecherche des pixels à allumer pour tracer une droite quand on connaît le pixel de départ et lepixel d'arrivée ("rasterization").

La procédure de recherche est présentée cidessous

procédure intersectiongrille(rayon)début

répétercalculer ij,k pour le voxel contenant I'origine du rayonmise à jour des valeurs de I'origine_rayon et direction_rayondans la base 3DDDApour chaque objet associé au voxel[ij,kl faire

calcul_intersection(rayon,objet)si aucune intersecton n'a été trouvée alors

utiliser 3DDDA pour trouver le prochainvoxeljusqu'à une intersection soit trouvee ou ij,k en dehors des limites des voxels

fin

Page 38: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de rayons : Les techniques d'optimisation

La figure 18 montre I'ensemble des cellules étudiées pour simuler la trajectoire d'un rayon à

I'intérieur d'une structure de grille 3D (représentée ici en 2D). Si I'on se contentait des cellules

calculées (représentées sur le schéma par un carré noir) on s'exposerait à des ereurs au niveau du

calcul d'intersections puisque des cellules, dans lesquelles passe le rayon, ne sont pas étudiees. Il

est donc nécessaire de rechercher et d'étudier I'ensemble de ces cèllules ( elles apparaissent sur la

figure lE marquees d'un cercle noir). Elles sont déterminées en fonction de la variation sur les

axes passifs et actifs.

I ellule idctiféc par lc peæun

a clluL njdé. qùed la drciæ le oup

figure l8: incrémentation des cellules

PA représente I'axe passif, c'est-àdire celui pour lequel il y aura la plus petite variation et DA

représente I'axe actif.

On peut citer aussi des travaux très intéressant menés par Cohen and al. [COH 92] sur

l'utilisation d'une descrétisation de I'espace.

3. DIMINUTION DU NOMBRE DE RAYONS CALCULES

On a présente dans les chapitres 2 et 3 des méthodes qui visaient à optimiser le calcul de tracé de

rayons par une simplification de la représentation de la scène. Des approches tout à fait diftrentes ont

consiste à minimiser le nombre de rayons calculés. La méthode la plus générale consiste à extraire un

certain nombre d'informations du calcul d'intersection précédent. L'idee est de deduire la couleur d'unpixel en fonction de la couleur des pixels voisins, comme cela est fait avec des algorithmes d'anti-

aliassage, la méthode est simplement étendue à I'ensemble des pixels de la scène [AKI 9U. D'autres

travaux ont consisté à diminuer le nombre de rayons calculés par une analyse faiæ depuis les calculsprécédants. Ces demières méthodes s'appuient essentiellement sur des techniques dites directionnelles

comme lhemicube [COH 84]. Elles sont plus ou moins généralistes, certaines d'entre elles s'appliquentprincipalement au traitement des rayons d'ombrage [GRE 86].

Nous allons présenter brièvement quelques unes de ces optimisations représentatives des deux grands

principes d'optimisation.

35

Page 39: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de rayons : Les techniques d'optimisatîan

3.1. Interpolation: I'approche d'Akimoto

En 9l Akimoto, Mase et Suenaga [AKI 9U proposent une méthode de calcul basee sur une

interpolation des valeurs. L'idée est d'étudier des carreaux de pixels de taille constante, d'analyser les

coins de ces carreaux et de deduire la couleur des autres pixels en interpolant les valeurs trouvees.

36

a:24 a:-,54ff;ÉQ-

@-ffiA4î @-W4ï_---._---G-€'E -f<dr{ O. !

o ù:ô.<q o ft""*qq

ô Eài- ô--.-aH ; N E , r r -

(c) {ry---YôF.C:a

figure 19: interpolation des pixels

La figure 19 donne un descriptif de la méthode. L'objet étant ici le coin d'un prisme

On note par un cercle un pixel calculé, par un carré un pixel déduit, en grisé un pixel à I'intérieur

d'un objet, en blanc un pixel vide.

dessinl : On calcule les pixels des coins. On trouve 4 pixels vides et deux coupant I'objet.

dessin2 : Une première analyse permet de deduire le pixel E puisqu'il est entouré de 4 pixels

blancs. Par contre, le pixel F devra être calculé, la couleur des pixels I'entourant étant diftrenæ. On

remarque que cette analyse, pour I'instant, a engendré une erreur pour E.

dessin3 : On peut à partir du dessin 2 tirer un certain nombre de conclusiolls sur les pixels deI'environnement de E et F. I étant entouré de pixel grisés et blancs devra, être calculé à son tour alorsque les pixels G,J,H sont deduits. On trouve que I appartient à I'objet. Ce qui remet en cause la

couleur du pixel E.

dessin4 : On recalcule le pixel E, on trouve qu'il appartient à I'objet, ce qui remet en cause la

couleur de J, H et G.

dessinS : On recalcule ensuite les pixels G ,J,H . On calcule ensuite les pixels intermediaires.

On arrive à une image terminale présentee figure 20.

Page 40: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de rayons : Les techniques d'optimkûion 31

figure 20: interpolation de pixels.

On remarque sur cet exemple relativement simple qu'un grand nombre de pixels peuvent être

deduits des pixels périphériques. Le taux d'erreur sur la couleur d'un pixel est relativement faible. Le

nombre de pixels recalculés varie suivant la complexité de I'image mais reste inférieur à un pour-cent

( 936 pixels recalculés pour une image 5 12 par 512 avec une scène de complexité moyenne).

L'interpolation de pixels est une méthode généraliste qui à I'avantage de traiter I'ensemble des

rayons primaires, secondaires et d'ombrage.

Autres applications

Nous citerons aussi pour information les travaux de Joy IJOY S6] qui utilise sur un peu le même

principe une cohérence entre les rayons pour optimiser les calculs d'intersections entre un rayon et un

carreau NLTRBS. II se sert de la valeur de l'intersection précédente comme valeur de départ, il

applique une méthode de recherche de solutions d'intersections basee sur le principe de Newton.

Comme la nouvelle valeur de I'intersection à trouver risque d'être proche de I'ancienne, la méthode de

Newton a plus de chance de ne pas diverger lors des calculs et si cette valeur existe, la méthode

convergera rapidement.

3.2. Exemple de technique directionnelle: cube directionnel

Le concept de cube directionnel peut être considéré comme le père de toutes les méthodes

d'optimisation basées sur des techniques d'optimisation directionnelles, aussi bien pour les

algorithmes de tracé de rayons que pour les algorithmes de radiosite [COH 84]. C'est une technique

qui permet de retrouver les cellules traversees par un rayon sur le même principe qui consiste, enZD,

à trouver les pixels possédant une intersection avec une droite. Le cube directionnel est en fait un

cube centré sur I'origine du monde dont les six faces conespondent à six axes dominants ayant

comme étiquette +X,-X,+Y,-Y,+2,-2.

Page 41: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

n 3 g

figure 2l: le cube directionnel

Le cube directionnel pelmet de traduire une direction définie en 3D dans un système decoordonnees 2D' on crée pour les six faces du cube un repère U,v. n devient possible de représenterchaque rayon par les coordonnees 2D en u et v pour chacune des faces qu'il coupe (pour chaqueface, les coordonnées seront toujours comprises entre I et -l). On projette ensuite l,ensemble desobjets sur le cube. Comme I'on connaît les coordonnées du point d'intersection entre un rayon et la oules diftrentes faces concernées, on peut facilement trouver la cellule contenant ce point et rechercherune intersection avec les objets associés à cette cellule. Le grand avantage du passage dans unsystème 2D est qu'il permet d'obtenir soit une décomposition très classique du cube en utilisant unegrille soit, c'est ce qui est intéressant, une décomposition adaptative spécifique à chaque face. Cettedécomposition permet d'affirmer I'information contenue dans chaque sous-cellule. Il n,existe pasencore d'étude où deux décompositions diffërentes cohabitent sur les faces d,un même cube.I'ecriture d'un algorithme de parcours unique serait difficile à mettre en oeuvre.

figure 22: décomposition adaptative des diftërentes faces

Beaucoup de techniques d'optimisation sont basées sur ce concept de cube. Les améliorations desalgorithmes ont consisté essentiellement à trouver de nouvelles méthodes de projection de la scenesur le cube ou à trouver des améliorations à la recherche de la cellule à étudier. Le paragraphesuivant présente une des techniques d'optimisation de la recherche.

Page 42: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de rayons : Les techniques d'optimisation

3.3. Exemple de technique directionnelle: La cohérence des rayons

En 87 Ohta et Maekawa [Offf 87] proposent une méthode utilisant des informations de direction

pour accélérer I'algorithme de Ray-Tracing. Leur application est basee sur le théorème de la

cohérence de rayons. C'est une technique mathématique qui permet de trouver un volume englobant

de la direction d'un rayon qui a une origine dans un objet et son extrémité dans un autre.

figure 23: Théorème de cohérence

Tous les rayons originaires de la sphère I et coupant la sphère 2 définissent un angle B avec la

ligne reliant les deux centres des sphères. L'inégalité cos B > indique la limite de

la distance entre lescet angle par rapport aux valeurs des rayons des sphères et

centres.

Ohta et Maekawa utilisent ce théorème en I'appliquant non pas à des sphères mais à desenglobants convexes polyedriques. Cette extension leur permet d'approcher la scène non plus par des

sphères mais par des englobants parallépipèdiques. Sur le même principe que I'hémicube ou le cube

directionnel, ils approchent I'espace objets par un englobant formé de cellules de tailles identiques .

Un premier calcul rattache à chaque cellule la lisæ des objets intersectés. L'originalite de leur

méthode consiste à utiliser le theorème de cohérence pour optimiser la recherche du parcours d'unrayon.

figare 24: subdivision de I'espace

39

Page 43: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de rayons : Les techniques d'optimisotion

La figure 24 montre le principe simplifié de I'utilisation de la méthode. On calcule un ensemble

de distances entre I'origine d'un rayon (oeil, source lumineuse) ici au centre du cube et I'ensemble des

objets constituant la scène. On définit, un "volume" de rayons issus de I'origine et coupant chaque

objet en utilisant la méthode de cohérence de rayon (direction volume). On rajoute ensuite I'objet

étudié à chaque cellule du cube intersectee par le volume des rayons.

Autres applications

Nous citerons aussi les travaux de Arvo et Kirk [ARV 87] qui n'utilisent peut4tre pas explicitement

la notion de cube directionnel si ce n'est dans le traitement des rayons primaires.

4. LA GENERALISATION DE RAYONS

Une des diffrcultés d'exploitation de la cohérence dans les algorithmes de Ray-Tracing est I'utilisation

de rayons infinitésimaux. Cette notion de rayons fins engendre notamment tous les problèmes

d'aliassage. Pour remédier à ces deux inconvénients certaines approches ont proposé de généraliser la

notion de rayons fins et d'utiliser pour les algorithmes de rendu un faisceau de rayons. Nous

présenterons les deux études majeures du domaine et nous citerons certaines optimisations permettant de

résoudre, notamment le problème du traitement des objets transparents.

4.1. Généralisation de rayons: I'approche d'Amanatides: Ray-tracing ayec cônes

Amanatides généralise la notion de rayon en définissant non plus un rayon fin, mais un cône

connu par son sommet, sa direction et son angle d'ouverture. Cet angle est choisi de telle manière que

quand un rayon est envoyé depuis I'oeil, il ait, lorsque qu'il arrive sur l'écran virtuel, la largeur d'un

pixel. La diffrculté de calculer une intersection entre un cône et un objet limite la lisæ des objets

possibles aux sphères et aux polygones. Le calcul d'intersections entre le cône et les objets de la

scène se déroule en deux phases.

Pour les sphères la première partie consiste en un rapide test de la position de I'objet par rapport

au cône. On recherche le point de la ligne centrale du cône qui est le plus proche du centre de la

sphère et calcule la distance entre ces points (SEP). Comme le rayon est un cône on calcule une

deuxième distance D = Tttang(A) + R/cos(A) ou T est I'origine virtuelle du rayon, A l'angle

d'ouverture du rayon et R, le rayon de la sphère. Si la distance D est inférieure à la distance SEP, il

n'y a aucune intersection entre le rayon et la sphère. Il est à noter que ce calcul d'intersection

comporte deux appels, à des fonctions trigonométriques, ce qui le pénalise par rapport à un calcul

d'intersection pour un Ray-tracing conventionnel. La seconde partie de I'analyse, qui n'est pas la

moindre, consiste à calculer la quantité de sphère couverte par le rayon. Ceci revient à calculer l'aire

de I'intersection entre deux cercles.

40

Page 44: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Pour le calcul d'intersection avec un polygone on peut appliquer deux stratégies de recherche. Lapremière consiste à rechercher une intersection entre le rayon conique et le plan du polygone puis àtrouver I'intersection entre la projection (qui est une conique) avec le polygone. Cette méthode est laplus realiste mais la plus difficile à mettre en oeuwe. La seconde méthode consiste à projeter lessommets du polygone sur un plan perpendiculaire à la direction du cône. La section projetee du cônesur ce plan est toujours un cercle ce qui simplifie les calculs d'intersections avec la projection dupolygone.

Les directions des rayons réflechis et réfractés sont calculées de la même manière qu'un tracé derayons conventionnel en utilisant la ligne centrale du cône. Il est necessaire de recalculer unenouvelle origine ainsi qu'un nouvel angle d'ouverture qui seront dépendant aussi de l'état de surface.

La notion de cône permet de prendre en compte facilement les problèmes de pénombre, de niveaude détail, mais surtout les problèmes d'anti-aliassage qu'il est possible de traiter avec un seul rayonpar pixel. De plus la notion de généralisation de rayon à I'avantage de réduire sensiblement lenombre d'intersections calculées.

4.2. Exemple de généralisation de rayons: l,approche d,Heckbert, u"nr"t "n

: Iebeam tracing

En 84 Heckbert et Hanrahan FIEC 841 introduisent une généralisation de rayons diftérente: lebeam-tracing. Ils abandonnent complètement la notion de rayon pour utiliser le concept de faisceaude rayons. Ils appliquent la notion de cône, cornme I'a défini Amanatides, au charnp visuel tout entieret pour simplifier les calculs, ils ne considèrent non pas un cône mais une pyramide. Un faisceaupeut être défini comme un ensemble de rayons ayant tous le même sommet et coupant un certainnombre de polygones plans. La restriction de I'approche est que tous les objets doivent être construitsà partir de faces planes ce qui représente une contrainte importante.

figure 25: le beam-tracing

Page 45: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de royons : Les techniques d'optimisalion

On recherche I'ensemble des objets se trouvant à I'intérieur de cette pyramide de visualisation. On

remarque sur la figure 25 qu'une partie du faisceau est clippée par un objet de la scène. Il est

relativement simple d'exprimer cette opération comme la diftërence de deux polygones dont le

résultat reste un polygone. L'analyse réalisee à I'intérieur du faisceau peut être assimilee à celle qui

est réalisée dans un Ray-Tracing. Cependant la méthode peut dégénérer et engendrer très rapidement

des polygones non convexes ou des polygones contenant des trous.

L'originalité du beam-tracing provient de la façon dont sont traités les rayons secondaires. Le

principe est de trouver, sous forme de faisceaux, les zones où vont se propager les rayons lumineux.

Plusieurs aspects de l'algorithme du beam-tracing sont identiques à ceux d'un Ray-Tracing standard.

On crée un arbre de faisceau de la même manière que I'on crée un arbre de rayons.

La figure 26 illustre le principe pour les rayons réfléchis.

figure 26: un faisceau réfléchi

On trouve pour le faisceau secondaire un observateur virhrel dont la position est symétrique auplan de la face étudiée, I'angle d'ouverture du nouveau faisceau est donné par le clipping réalisé surcetæ même face.

La méthode, bien que très agreable, présente cependant une faiblesse importante dans letraitement des rayons réfractés. La réfraction ne conserve pas la nature du faisceau. Dans le casd'objets non minces la non linearité du milieu traversé provoque une déformation du faisceau, lanotion de pyramide n'existe plus et il devient impossible de creer un observateur virhrel et la méthode

s'effondre. Pour remédier à cela, Heckbert et Flanrahan proposent deux solutions. La première est desupposer I'observateur à l'infini et de considérer que les rayons qui arrivent sur la face sont parallèles

entre eux. A la sortie de la face les rayons sont "déplacés mais plus déformés. La deuxième solutionest de considérer qu'il n'y a aucune déformation quand les rayons traversent un objet transparent.

42

Page 46: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de rayorys : Les techniques d'optimisotion

Ces deux solutions, basées sur des hypothèses fortes, sont très restrictives et sont faites au

détriment du réalisme. Ghazanfarpour [GHA 92] apporte une solution partielle au problème des

rayons réfractés pour le beam-tracing. Il réalise une décomposition récursive du faisceau jusqu'à

considérer le sous-espace obtenu comme linéaire d'un point de vue optique (parfois jusqu'au l6ème

de pixel). La décomposition abusive entraîne un surcoût important de temps de traitement etd'utilisation de place mémoire. De plus le containtes fortes qu'il impose à ta modélisation des objets(uniquement des faces planes) font que sa solution ne peut être utilisee que pour une nombre descènes trop restreint.

Autre approche

En 87 Shinya, Takahashi et Naito [SHI 37] proposent une approche qui s'appuie à la fois sur leRay-tracing, sur I'interpolation de rayons et sur le beam-tracing : le pencil-tracing. La méthode estbasée sur la théorie de I'approximation "Paraxiale" qui permet de considérer la réflexion et surtout laréfraction, dans un milieu homogène, comme linéaires. La mise en oeuwe des outils mathématiquessemble cependant assez délicate et pas toujours très facile à assimiler.

5. OPTIMISATION POUR ARBRE CSG

L'arbre CSG permet de construire des solides par combinaisons d'objets primitifs. Les opérationsd'assemblages reposent sur les trois opérateurs booléens que sont : l'intersection (&) I'union (+) et tadffirence (-). Les optimisations des algorithmes de Ray-Tracing appliqués aux arbres CSG s'articulentautour de deux grands axes: les volumes englobants et la cohérence dans la construction.

L'utilisation des volumes englobants pour les arbres CSG est tout à fait comparable à la méthodesdes englobants décrites au chapitre 2.Elle a été introduite par Roth en 82 TROTH 821 et se limitait àune boîte 2D ou une sphère 3D. La notion de boîte 2D n'était utilisée que pour I'optimisation des rayonsprimaires. La sphère pouvait être utilisée pour tous les types de rayons . En 84 Glassner IGLA 84]attache à chaque feuille le liste des objets qui coupe le voxel (voir pour plus de détail leparagraphe3. l. l)

Il est possible de diminuer le nombre de rayons calculés en utilisant les caractéristiques specifiquesdes opérateurs de construction d'un arbre CSG [GER 86]. Si I'on recherche une intersection entre unrayon et la différence (ou I'intersection) de deux objets A et B, si le rayon ne coupe pas I'un des deuxobjets il ne poura couper la différence (ou I'intersection). Ceci revient à réutiliser les propriéæs desenglobants en les généralisant avec des opérations booleennes.

Enfin, certains travaux ont consisté à mélanger aux arbres C.S.G des structures permettant derealiser simplement des optimisations par simplification locale de la complexité de la scene. On présentemaintenant une méthode utilisant à la fois une structure octree et une construction de tlpe C.S.G

43

Page 47: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de rsyons : Les techniques d'optimisation

5.1. Utilisation des arbres C.S.G : L'approche de Wyvill et Kunii

En 85 Kunii et Wyvill [K[IN 85] proposent d'utiliser I'octree pour en plus effectuer les opérations

booléennes qui jusqu'à présent était effectuée par le tracé de rayons. Il décrivent initialement une

scene à I'aide d'un arbre C.S.G. Dans leur version des octree ils définissent un voxel oomme pouvant

être soit plein, soit vide soit de type contour ou encore de type rebut.

Un voxel de type "contour" est intersecté par I'enveloppe d'un seul objet, cet objet doit être ajouté

à la liste des objets à étudier. Si le voxel est dit plein, I'objet contenu n'a pas besoin d'être mémorisé.

En effet la notion de plein indique que le voxel se trouve à I'intérieur de la matière et un rayon

coupant cet objet aura déjà intersecté son contour avant d'atteindre ce voxel.

Enfin ils définissent un voxel qui ne sera ni plein, ni vide , ni de tlpe contour : le voxel rebut. Cevoxel aura atteint un taille trop petite pour être à nouveau subdivisé et son contenu n'est pas unique.

Cette représentation pennet de définir un seul voxel pour représenter un objet non composite.L'octree d'un scène sera une suite d'opérations booléennes sur les octree des objets non composites.Toutes les opérations booléennes seront exprimées en fonction du complémantaire et de I'intersection.

Si la complémentarité ne présente pas de difficulté majeure, I'intersection semble plus délicate àmanipuler.

Une intersection entre deux noeuds s'effectuera recursivement sur leurs fils jusqu'à arriver peut-

être à une feuille. Une intersection entre un voxel vide et un autre voxel sera vide. Un intersection

entre un voxel plein et un autre voxel donnera I'autre voxel. Un intersection entre voxel rebut et unautre voxel (vide ou plein) donnera le voxel rebut. L'intersection entre un voxel rebut et un noeud nepourra pas se produire. tous les autres cas se régleront par division récursive du voxel.

En 86 Wyvill et al. |WYV 861 proposent une décomposition de I'espace pour accélérer lesalgorithmes d'intersection. Les tests d'arrêt sont plus complexes qu'une subdivision spatiale avec unautre modèle. La difficulté est de conserver, pour les subdivisions, les contraintes de construction deI'objet global.

Autres approches

En 84 Bronswoort et al. [BRO 84] définissent une orientation différente pour I'optimisation desalgorithmes de Ray-Tracing appliqués au CSG. Ils proposent une alternative proche des algorithmesde scan-line.

En 89 Samet [SAM 89] propose d'utiliser une décomposition spatiale (de type octree) oommebase d'optimisation et développe un algorithme de subdivisions successives dépendant de latrajectoire du rayon.

44

Page 48: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de ruyons : Les lechniques d'optimisotion

6. COMPARATIF DES METIIODES

On propose un comparatif des diffërentes méthodes que I'on a présentees. Cette comparaison est à

prendre avec beaucoup réserves. Il est en effet souvent très difficile d'obtenir de la part des auteurs une

grande impartialité dans I'interprétation de leurs résultats et il est bien rare de voir apparaître dans les

diffërents articles les problèmes pour lesquels l'auteur n'apporte pas de réponse ou une reponse

incomplète. C'est pourquoi nous présentons une comparaison entre les grandes familles d'optimisation. Il

est à noter aussi que ce tableau n'est valable que pour I'algorithme de tracé de rayons, certaines

méthodes comme le cube directionnel appliqué à la radiosité (hémicube) ne servent plus à traiter un

ensemble rayons puisque cette notion n'existe pas pour les algorithmes basés sur des échanges entre

surfaces.

Mise à part une optimisation basée essentiellement sur les englobants qui possede des performances

sensiblement inférieures, il est bien diffrcile de comparer d'un point de vue performance pure toutes les

autres méthodes. Deux explications à cela, la première est que I'on ne connaît que trop rarement les

algorithmes de bases et les structures de donnees reellement utilisées, la seconde est que I'on ne connaît

pas la manière dont a été modélisee la scene test. Ce qui rend la comparaison des méthodes trop

approximative et trop dépendante de la programmation. C'est pourquoi on ne présente, dans le tableau,

que des tendances. Il aurait fallu, pour avoir une critique plus profonde et plus constructive,

programmer toutes les méthodes d'optimisation et les comparer avec la même structure de donnees cequi n'était pas le but de cene étude.

45

englobants subdivisions

ron uniformes

subdivisions

rniformes

cube

lirectionnel

interpolation

le pixels

rayons

lénéralisés

rruse en

)euwe

simple moyenne simple complexe moyenne complexe

application

ux modèles

tous tous (ramenr

lu plan pour les

VURBS)

tous (ramenr

lu plan pour ler

VTJRBS)

polygonal tous tous (seul

rclygonal pour le

)eam-tracins)

rayons

,raités

tous tous tous tous tous tous(difficile

rour les réfractés)

mémoire

rtilisee

faible lmportante lmportante importante movenne mportante

performance moyenne bonne bonne bonne bonne bonne

Page 49: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Tracé de ruyons : Les techniques d'optimîsation

7. LES OPTIMISATIONS FUTURES

Les optimisations futures vont devoir intégrer, dans I'analyse qui sera faite de la scène, un certain

nombre de caractéristiques propres à la façon dont seront modélisés les objets, leur influence d'un point

de vue geométrique mais aussi lumineux, fonctionnel, physique. La construction des volumes englobants

(hiérarchiques ou non), les décomposition devront s'adapter en fonction de la nature des éléments

constituant la scène. Les optimisations devront s'appuyer sur un ensemble d'informations extraites

automatiquement de la scène étudiee. L'acquisition et la réutilisation de connaissances sera le point de

pinsage obligé pour améliorer encore les outils et les temps de calcul des algorithmes de rendu réaliste.

Il ne devrait pas être nécessaire de recalculer toute une image si la seule modification se situe au niveau

d'un objet peu influant d'un point de vue geométrique ou lumineux.

Bien que peu présentée ici la parallèlisation d'algorithmes devrait ouvrir, pour des domaines très

ciblés, des perspectives intéressantes. La parallèlisation automatique d'algorithme est une chose encore

mal maîtrisée, même en image de synthèse, elle ne se limite pas à multiplier les microprocesseurs de

traitements afin de diminuer les calculs.

Restent enfin toutes les optimisations mathématiques sur le calcul d'intersections, la modélisation, laperception même de la notion de rayon ainsi que toutes les améliorations du matériel qui integre de plus

en plus de fonctions graphiques câblées.

46

Page 50: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décomposilîon ada ptotive 4',1

Chapitre 3

DEFINITION D'UNE APPROCHE ADAPTATIVE

I. INTRODUCTION

L'analyse des travaux existants pour I'amélioration des performances de I'algorithme de tracé derayons et du tracé de faisceaux montre un certain nombre d'avantages, mais également de faiblessespour chaque méthode, parmi lesquelles :

- læs résultats de la mise en oeuwe de méthodes cherchant à diminuer le nombre d'intersectionsrayon'objet, dans I'algorithme de tracé de rayons, peuvent être plus ou moins intéressants selon les typesd'objets constituant la scène et surtout leur répartition dans I'espace.

- Les méthodes basees sur le "beam tracing" impliquent des scènes à facettes planes, desapproximations parfois peu justifiables théoriquement sur les rayons secondaires et sur les traitementsqui deviennent complexes.

Pour tenter de pallier ces défauts, nous avons cherché à développer une approche diftrente, danslaquelle les termes les plus significatifs sont : decomposition, propagation de faisceau, adaptabilité etinteractivité [GAR 90][GAR 9I][GAR 93]. En effet, nous considérons qu'une decomposition ne donnedes résultats intéressants que si elle peut s'adapter (soit automatiquement, soit par une aide deI'opérateur) à la scène traitee, que ce soit au sens qæe d'objet (faces planes, faces gauches ...) qu'au sensrépartition dans l'espace.

Avant de détailler les diffërents aspects de la méthode, nous en donnons cidessous les grandeslignes.

La méthode de décomposition adaptative repose sur un concept de multi-analyse.

Nous effectuons un prétraitement basé sur le principe du tracé de faisceaux. En propageant un cônede visualisation, nous délimitons des zones de I'espace à I'inærieur desquelles nous pouvorui concentrerIétude. Initialement, ce cône représente le champ de visualisation de I'observateur principal; il estensuite étendu à l'étude des réflexions ou des réfractions suivant les caractéristiques optiques des objetsrencontrés. Utilisant des techniques de propagations de faisceaux similaires à celles mise en oeuwe dans

Page 51: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décomposîtîon adaptotive

I'algorithme du beam-tracing, nous connaissons les mêmes limites liées à la forme des objets. Afin de nepils se limiter à des scènes modélisees uniquement par des faces planes, nous choisissons de modifier les

optimisations en fonction des caractéristiques géométriques des objets étudiés. Pour cela, les techniquesd'optimisation doivent s'adapter automatiquement à I'objet analysé.

Si celui-ci est constitué de faces planes, le principe d'optimisation retenu sera une decomposition quenous appelons adaptative et que nous présenterons plus en détail par la suiæ , sinon nous optons pourune forme d'optimisation plus conventionnelle comme par exemple les englobants. Nous sornmesconscient que les englobants ne représentent pas la meilleur optimisation possible des rayonssecondaires et d'autres techniques, cornme par exemple une utilisation d'octree, seraient plus adaptées.

Nous avons préferé valider le principe de choix automatique entre diftërents algorithmes même si lesoptions retenues pour certain traitement ne semblaient pas toujours les plus adaptés.

Pour réaliser I'affichage des objets de la scène, nous appliquons, lors d'une seconde étape, àI'intérieur des cônes de visualisation un algorithme de tracé de rayons. Afin de ne pas retrouver lesmédiocres performances du tracé de rayons, nous effectuons, à I'intérieur des cônes de visualisation unedécomposition récursive diminuant localement la complexité des scènes analysees. Cette decompositionde type quadtree est appliquée non pas à la projection des objets mais à la projection des englobants surun plan de référence qui peut être l'écran pour I'observateur principal ou le plan d'une face pour letraitement des rayons secondaires. Le fait de projeter les englobants permet de reconstituer simplementdes rectangles dont les cotés seront parallèles aux bords de l'écran (ou de la face). Ces sous-régionsseront ensuite assimilées à des "sousécrans" à I'intérieur desquels nous limiterons I'application du tracéde rayons. La creation de ces différentes sous-espaces va permettre une application sélective du tracé derayons. Le principe de subdivision de la fenêtre de travail reste conventionnel, il partage la mne d'étudeen quatre sous-parties de taille identique. Cependant, les tests d'arrêt mis en oeuwe prennent en compteun ensemble de paramètres liés à la position des objets, à leur taille ainsi qu'à leur concentration. Nousavons voulu définir une méthode d'analyse qui puisse adapter la décision de poursuiwe ou non unesubdivision en réalisant une synthèse d'un ensemble d'informations provenant d'une suite d'analysesréalisees indépendament les unes des autres. La multiplicité des informations prises en compte ainsi quela combinaison des tests d'arrêt va permettre d'avoir un certain recul vis-à-vis de la scène analvsee etd'interpréter diftremment les conclusions des analyses.

Pour afiner l'étude par rapport à celles réalisees habituellement dans une décomposition recursive detype quadtree, nous avons défini deux grandes familles de tests dont les fonctionnalités seront à la foisdiftérentes et complémentaires.

La première caægorie regroupe des tests dits terminaux, leur rôle va être de suspendre ladecomposition. Contrairement aux tests mis en place par Wamock dans sa décompositiorç ces tests nevont pas servir à guider la subdivision. Ils servent à détecter des situations particulières mais ne sontaucunement représentatifs de situations recherchées. Les tests krminau4 au nombre de trois (cf.

48

Page 52: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décomposition adaptative

paragraphe 6), vont servir à éviter des décompositions abusives pour des situations où la complexité de

la scene (nombre d'objets, concentration, ...) ne pourra être ramenée à un niveau acceptable par des

subdivisions supplémentaires. Nous aurons I'occasion de montrer au chapitre 4 que la décomposition

importante aura tendance à pénaliser, parfois lourdement, les temps de calcul.

La seconde categorie regroupe des tests dits non terminaux; ils vont orienter I'algorithme parfois versI'arrêt de la décomposition, parfois vers la poursuite. Pris séparément, ils ne peuvent influer directement

sur la décision terminale. C'est en fait la combinaison des valeurs de ces différents tests qui va déciderou non de I'arrêt. Pour chacun de ces tests nous avons défini deux paramétres.

Le premier représente la prise en compte du test. Par la modification d'un booléen on peut, lors de ladécomposition, ignorer ou non I'un des tests. Il existe des scènes où il est inutile de considérer I'ensemble

des tests d'arrêt ou d'orientation.

Le second paramétre représente la valeur associée au test (nombre d'objets dans une sous-fenêtre ouencore la taille de la fenêtre minimale).

Le principe d'application de I'algorithme de tracé de rayons que nous utilisons pour la decompositionadaptative et que nous expliciterons plus en détails au paragraphe 4, permet de traiter , sans diminutiondes performances, des sous-fenêtres contenant un nombre d'objets plus important que dansdécompositions classiques.

Le premier test non terminal que nous avons défini est donc le nombre d'objets maximal à I'intérieurd'une sous-fenêtre. Pour I'ensemble des images que nous avons calculees le nombre d'objets par sous-fenêtres n'était jamais inferieur à 5, en dessous de ce seuil les performances de calcul avaient tendance àse dégrader où tout du moins à ne pas être meilleurs (voir chapitre 4: Résultats et bilan).

Le second test utilisé est le taux d'occupation de la fenêtre. On essaye, piùr une analyse de la surfaceoccupée par la projection des objets, de prévoir les possibilités d'intersection entre les objets. Si, parexemple, le taux d'occupation est faible par rapport à la taille de la fenêtre et si le nombre d'objets estproportionnellement important on peut imaginer que beaucoup d'entre eux risquent de se couper.Poursuiwe la subdivision pour isoler des cas plus simple peut s'avérer inutile, la décomposition peuttrès vite atteindre des niveaux importants sans pouvoir mettre en évidence des zones où I'applicationd'un algorithme de tracé de rayons s'avèrera plus efficace. Il est évident que nous n'effectuons qu'uneinterprétation de valeurs, les conclusions peuvent être à tout moment mises en défaut par une situationparticulière.

Néanmoins nous essayons, à partir de toutes les informations recueillies lors de I'analyse de la scèneet des connaissances liées aux modèles, d'effectuer une synthèse et de prendre une decision en fonctiondu meilleur compromis possible entre les temps liés à la decomposition et l'optimisation du calcul desim4ges. Nous avons constaté que dans la grande majorite des cas, les interprétations des valeur de testspermettent d'obtenir une représentation fidèle de la situation.

Nous avons souhaité exploiter les connaissances, pas obligatoirement très pointues, de I'opérateur.Nous lui avons laissé la possibilité de modifier les diffërentes valeurs influant sur la décomposition.

49

Page 53: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Il est évident qu'une déduction automatique des meilleurs valeurs de paramètres en fonction de lasituation analysee serait le plus souhaitable. Cette éventualité fait partie des améliorations futures de laméthode encore faudra-il que les temps consacrés à I'examen de la scène ne soit pas plus importants queles temps d'affrchage' Pour I'instant c'est I'opérateur qui joue le rôle de système expert (ayons encoreconfiance dans les valeurs de I'Homme). Il a la possibilite, avant chaque calcul d'image, de modifierl'ensemble des paramètres des tests. II peut diminuer ou augmenter les valeurs du nombre d'objets parsous-fenêtre et du taux d'occupation en fonction du nombre d'objets de la scène et de leur concentration.

Le schéma synoptique cidessous présente les difiérentes étapes d'une analyse adaptative

Géométrie des objetsCaractérisriques optiques

Rayons primairesRayons secondairesRayons d'ombrage

lnfonnations surle contenu Arbre de décomposition

Tracé de rayons

Après avoir exposé brièvement les limites des décompositions classiques, nous présenterons plus endétails les différents modules du schéma de décomposition. Nous définirons une adaptabilité à la formeet à la position de la projection des objets pour les rayons primaires, secondaires et d,ombrage. Nousproposerons ensuite une définition plus complèæ des tests d'arrêts terminaux et non terminaux. Nousexpliquerons comment ils se combinent en fonction des diftérentes situations et quelles sont lesinformations importantes que nous pouvons en extraire. Nous proposerons enfin une solution pouradapter les méthodes d'optimisation aux caractéristiques géométriques et optiques des objets.

Page 54: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

2. LTMTTES DES DECOMPOSTTTONS CLASSTQUES

Dans son article, Whitted IWHI 691 présente une méthode de tracé de rayons dont la seuleoptimisation, ô combien importante, est I'utilisation d'englobants. L'algorithme, baptisé "algorithme dela force brutale", est incapable de tenir compte d'une quelconque repartition des objets dans l'espace. Iln'existe pas, dans la version d'origine, une analyse du contenu qui permette de prendre en compte descaractéristiques de positionnement afin d'optimiser les calculs. Un rayon est calculé pour chaque pixelet une intersection est recherchee pour tous les objets de la scène.

L'algorithme s'écrit:

Algorithme IPour tous les pixels de l'écran faire

Pour tous les objets faireCalculer I'intersection rayon-objet

Fin pourAfficher I'objet le plus proche

Fin pour

Pour remédier à ce problème, comme nous I'avons présenté au chapitre 2, ont été développees denombreuses optimisations consistant à effectuer une décomposition spatiale ou surfacique de I'espace detravail. Les temps de traitement ont fortement diminué mais ces optimisations sont encore très loin deprendre en compte des critères de position d'objets dans I'espace. En effet, on s'aperçoit que le problèmede balayage de tout I'espace, lié à un manque d'information, que nous avions pour I'algorithme de laforce brutale, se retrouve au niveau de I'analyse des subdivisions. Les décompositions récursives neservent aucunement à préciser la localisation des objets, elles contribuent uniquement à diminuerlocalement la complexité de la scène. Illustrons ces propos en analysant I'exemple simple d'une scènecontenant deux objets sur laquelle on applique une décomposition recursive de type Wamock (figure l).Une telle décomposition permet de mettre en évidences des zones simples à traiter, à savoir les zonesvides et celles ne contenant qu'un seul objet. Par contre un nombre de sous-fenêtres contiendra toujoursdeux objets même si la subdivision est pourSuivie.

Page 55: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

figure l: scène de deux objets

Pour cet exemple I'algorithme de tracé de rayons s'écrit :

Algorithme 2Pour chaque sous-fenêtre non vide faire

Pour tous les pixels de la sous-fenêtre fairePour tous les objets de la sous-fenêtre faire

Calculer l'intersection rayon-objetFin pourAfficher I'objet le plus proche

Fin pourFin pour

L'application de cet algorithme revient à considérer chacune des sous-fenêtres comme un écran surlequel on applique I'algorithme de la force brutale en évitant de traiter les subdivisions vides. Ce qui nereprésente finalement qu'une très petite amélioration de I'algorithme de Whitted, d,un point de vuecompréhension du contenu de la scène. Cette remarque reste valable pour la decomposition de typespatiale (octree, macro-régions).

En effet' le principe est de lancer un rayon et de voir si le sous+space traversé par ce rayon contientou non des objets' On traite encore tout un ensemble de rayons qui ne va apporter aucune informationimportante à la construction de l'image. Il existe des cas trop simples avec lesquel on peut trèsfacilement mettre en évidence les carrences de tels approches (figure 2).

On s'aperçoit qu'une decomposition classique est ici complètement inadaptee à la constitution de lascene et à la repartition des objets dans I'espace de travail. En effet, la superposition partielle ou totalede deux objets provoque une decomposition abusive d'une zone qu'il sera impossible de simplifier.L'algorithme de trace de rayons dewa être appliqué à un ensemble de sous-fenêtres de contenuidentique. L'apport de la decomposition, sur I'optimisation des calculs, aura été de 1,ès faibleimportance. De plus les coûts de temps et de place mémoire engendrés par une decomposition excessiveinfluent négativement sur les temps de calcul.

Page 56: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Un e dé c omp o sition adaptativ e 53

figure 2: décomposition anadaptee

La plupart des méthodes de décomposition ne permettent pas d'obtenir, seules, tout un ensemble de

caractéristiques liées à la position des objets. Ces informations permettraient une analyse plus enprofondeur du contenu et une application de I'algorithme de tracé de rayons uniquement aux zones

contenant de I'information.

C'est pourquoi nous avons choisi de développer, en plus des décompositions, une méthode simptequi apporte un ensemble de renseignements sur les relations entre objets et leur localisation dansI'espace.

3. DEFINITION D'UNE APPROCHE ADAPTATTVE

Nous avons souhaité définir une nouvelle approche où I'analyse de contenu de la scene soitindépendante de I'application de I'algorithme de rendu. La méthode se déroule en deux phases biendistinctes où les termes imporûants seront: analyse, adaptabilité, interactivité.

La première partie de la méthode consiste en une étude de la répartition, de la forme et descaracrtéristiques optiques des objets. Nous propageons une pyramide de visualisation délimitant ainsides zones à I'intérieur desquelles nous limiterons I'application de I'algorithme de rendu.

La seconde partie consiste en I'application de I'algorithme de tracé de rayons en prenant en comptedes connaissances extraites de I'analyse du contenu. Afin d'augnenter les performances de calcul deI'algorithme de tracé de rayons, nous effectuons à I'intérieur des pyramides de visualisation unedecomposition récursive. L'adaptabilité se retrouvera dans le choix des optimisations mises en o€uwepour I'algorithme de tracé de rayons. Nous adapterons automatiquement ces optimisations auxcaracteristiques des objets étudiés.

'' Pour cel4 la méthode devra tenir compte d'un ensemble de critères qui vont orienter constamment lesdécisions pour la poursuite de la décomposition et pour le choix des optimisations.

Page 57: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Un e déco mp o si.tion ad aptûiv e

4. ADAPTABILITE A LA POSITION ET A LA FORME DES OBJETS:

APPLICATION AUX RAYONS PRIMAIRES

L'ensemble des scènes sur lesquelles nous avons travaillé, ont été réalisees à partir d'un modeleur B-

REP. Tous les objets sont connus par un englobant sphèrique sur les objets etlou sur les facesl. Nous

avons chercher un moyen permettant à I'observateur de déterminer qu'elles vont être les zones

importantes du point de vue du concentration et présence d'objets. Pour cela nous avons réalisé une

projection perspective de chaque sphère englobante sur un plan (représentant l'écran pour les rayons

primaires).

Le problème revient à calculer I'intersection entre un plan et le cône de projection de la sphère ayant

comme sommet I'oeil. Afin de simplifier ce calcul nous nous contentons des quatre points de tangence

entre la sphère et une pyramide ayant toujours I'oeil comme sommet (figure 3). Ces quatre points

délimitent plus simplement une zone représentative de la projection de la sphère.

54

figure 3: projection de points tangents

On englobe ensuite la surface projetée par un rectangle dont les côtés sont parallèles aux bords duparallélépipède rectangle ( représentant l'écran ou une face étudiée) et pinsant par ces quatres points

projetés (figure 4). La surface ainsi définie représente une approximation par excès du volume

englobant de I'objet. Une définition des englobants par des boîtes aurait sans aucun doute été plus

performante, elle aurait permis de mieux approcher la forme de I'objet et de diminuer sensiblement la

fenêtre de projection.

figure 4: rectangle de projection

I contraintes imposées initialement par T.D.l

Page 58: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décomposition adaptativ e

Nous sommes en mesure de limiter I'application de I'algorithme de tracé de rayons en tirant parti de

la projection des englobants. En effet, nous pouvons maintenant définir une zone restreinte dans laquelle

nous pourrons limiter le calcul des rayons primaires et indirectement des rayons secondaires. La

projection est assimilée à une sousécran, tous les rayons qui, initialement étaient lancés inutilement en

dehors de cette zone, ne seront plus calculés. Ceci est sensiblement diftérent du traitement effectué

habituellement avec les décompositions. En effet, la localisation d'information par une restriction de

I'espace d'application inverse, pour les rayons primaires, I'ordre des opérations de I'algorithme de tracé

de rayons. Une analyse conventionnelle regarde pour chaque pixels d'une sous-fenêtre de décompositionquels sont les objets succeptibles d'être coupés (algorithme 3), I'utilisation des projections permet une

analyse différente du problème. On effectue pour chacune des projections d'objets appartenant à une

sous-fenêtre de décomposition un balayage de tous les pixels situés dans la zone projetée (algorithme 4).

L'algorithme de tracé de rayons qui était :

Algorithme 3Pour tous les pixels de la sous-fenêtrefaire

Pazr tous les objets de la sous-fenêtrefaireCalculer I'intersection rayon-objet

Fin pourAfficher I'objet le plus proche

Fin pour

))

devient:

Algorithme 4Pourtous les objets de la sous-fenêtrefaire

Pour toute la surface délimitee par la projection de l'objetfairecalculer intersection rayon-Liste des_objetslossiblesafficher I'objet le plus proche

Fin pourFin pour

On ranarque que quand nous limitons le calcul drintersections exclusivement aux zones deprojection, nous ignorons naturellement les parties ne contenant aucune information. Le calculd'intersections présenté pour I'algorithme 4 doit être effectué entre un rayon et tous les objeæ de lascène. En réalité, nous pouvons simplifier le nombre de comparaisons en retirant de laliste-des-objetslossibles la projection qui vient juste d'être étudiee. Considèrons le simple exempled'une scène contenatrt deux objets (figure 5).

Page 59: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décomposilion adaptativ e 56

écran

figure 5: scène projetee

Pour analyser complètement la scène nous considérons le premier élément de la

liste_des_objetsjossibles limitée, sur l'exemple, à deux éléments. Pour tous les pixels appartenant à la

sous-fenêtre définie par la projection de A, nous cherchons une intersection entre un rayon passant par

le centre du pixel et I'ensemble des éléments constituant la scène (algorithme 5). Un fois l'étude de A

terminée nous avons étudié toutes les intersections de A et toutes les intertersections des objets pouvant

avoir une partie commune avec A. On peut retirer de la liste_des objetslossibles l'élément A que l'on

vient d'analyser complètement, plus aucun rayon primaire ne pour le couper.

Algorithme 5Pour tous les pixels allant du coin haut gauche de A au coin bas droit de Afaire

^Si pixel non déjà éfidiéAlorsrechercher une intersection avec A et B^9i intersections alors afficher la plus près

Fsi marquer le pixel comme étant étudié

FsiFin pour

L'objet de la tête de liste étant totalement étudié, nous p:rssons à l'élémentI'exemple, plus qu'un seul élément. Nous pouvons limiær la rechercheuniquement (algorithme 6).

suivant. Il ne reste, pourd'intersection à l'objet B

Page 60: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décomposîlion adaptative 5'1

Algorithme 6Pour tous les pixels deBfuire

.Si pixel non déjà_étudté alorsrechercher intersection avec B^Si intersection alors afficher point

Fsi marquer le point comme étudié

FsiFpour

L'algorithme général (algorithme 7) parcours et étudie recursivement toute la

liste_des_objetsjossibles. Pour chaque projection de l'élément de tête de la liste, il recherche une

intersection entre un rayon et la liste toute entière.

AlgorithmeTPour tous les objets de la liste_objetsjossibles faîre

Pour tous les pixels allant du coin haut gauche au coin bas droit detête_de liste(liste_objetsjossibles) /arire

^Si pixel non déjàétudié alorsrechercher intersections avec la liste_objetsjossiblesFsi^Si intersections a/ars afficher la plus près

Fsi rnarquer le pixel cornme déjà_étudié

FpourPasser à l'élément suivant de la liste

Fpour

La realisation d'une maquette servant à valider les concepts de base d'une décomposition adaptative,

] nous a permis de deceller que I'ordre dans lequel les objets était traités provoquait des différencesimportantes sur le temps de calcul d'une image. Si les projections présentent de fortes disparites, il estimportant de toujours commencer par celle possèdant la plus petite superficie et de traiter I'ensemble desprojections dans I'ordre croissant de leur surface de projection. L'exemple de la figure 6 sert à mettre en

évidence les variations parfois importantes du nombre de calculs necessaires pour le traitement d'une

scene. Les chiffies représentent la taille, en pixels, de l'écran et des différents objets.

Page 61: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

U n e déco m p o silion a d a pt at iv e 58

écran = 500

taille = 50

taille = 200

figure 6: influence de la taille

Si le premier objet étudié est B, on recherche les intersections entre A et B pour tous les pixels de lasous-fenêtre délimitee par la projection de B. On additionne ensuite le nombre d'intersections calculéespour la sous-fenêtre de A. Le nombre de calculs total d'intersections est de :

Nb calculs d'intersections = (200 * 200 {' 2) + (50 {' 50 {'l) = 80000 + 2500 = 82500Par contre, si la première projection étudiee est A, le nombre de calcul est de :

Nb calculs d'intersections = (50 * 50 * 2) + (200 * 200 * l) = 5000 + 40000 = 45000Alors qu'un calcul conventionnel aurait donné comme valeur:

Nb calculs d'intersections = (500 * 500 * 2) = 500000

Ce simple exemple, montre I'influence de I'ordre dans lequel on étudie les diffërents objets. Il estimportant d'effectuer un tri croissant des surfaces de projection pour I'ensemble des éléments de la listedes objets et ceci pour chacune des sous-fenêtres de la décomposition.

Cette méthode de localisation est d'autant plus intéressanûe que le nombre d'objets dans la fenêtreétudiee reste modérément élevé (nous présentons au paragraphe 6 un procedé permettant de diminuer lacomplexité à I'intérieur des sous-fenêtres). Elle permet une application efficace de I'algorithme de tracéde rayons tant que le nombre d'objets reste inférieur à une valeur, que nous nomerons pour le suite del'étude nombre d'objets max. Cette valeur arbitraire, pourra être modifiee avant chaque calcul par unopérateur en fonction de son expérience et du type de scène analysée. Elle est d'autant plus efficace queles éléments ont tendance à être concentrés avec des différences sensibles sur la taille des projections.Cependant elle n'est pas suffisante pour traiter efficacement les scènes comportant plusieurs dizainesd'objets par sous-fenêtre. C'est pourquoi nous avons associé à cette analyse une decompositioninégulière qui tient compte des spécificités de I'approche et qui essaye, dans la mesure du possible, de seramener dans I'une des situations favorables.

Page 62: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décomposilion adaptûive

5. ADAPTABILITE A LA POSITION ET A LA FORME DES OBJETS:

TRAITEMENT DES RAYONS SECONDAIRES ET D'OMBRAGE

L'obtention d'une image réaliste implique le traitement de rayons secondaires et d'ombrage.Nous

présentons dans ce paragraphe deux points. Dans la présentation de I'extension des projections aux

rayons secondaires (réfléchis et réfractés) nous expliquerons dans quelles limites la méthode peut être

appliquée aux objets transparents et réfléchissants.

Nous verrons comment une simple adaptation de I'interprétation des donnees peut simplifier

considérablement les tests de comparaison pour le calcul des ombres portees et des rayons secondaires.

5.1. Les rayons secondaires

Pour I'analyse des rayons réfractés et réfléchis, notre méthode s'apparente aux méthodes utilisees

pour le beam-tracing (CH 2 ç 4.2). Nous cherchons à propager, non pas un faisceau, mais une

pyramide de visualisation dans laquelle nous pourrons réaliser les mêmes analyses que pour les

rayons primaires. Comme pour le beam-tracing, notre approche connaît des limites liees au type des

objets étudiés. Nous ne pouvons mettre en oeuvre le principe d'optimisation décrit, que si les objets

étudiés sont approchés par des faces planes. La restriction est encore plus forte pour les objets

transparents qui doivent obligatoirement avoir un coefficient de réfraction égale à l.

Pour tous les autres cas, non pris en compte par notre analyse, nous adaptons l'algorithme de

rendu à la fois aux formes et aux caractéristiques optiques des objets. Nous présenterons au

paragraphe 8 comment nous modifions I'application des algorithmes en fonction du contenu de la

scène. La méthode générale est un compromis de I'utilisation d'un ensemble de méthodes

d'optimisation utilisant conjointement une décomposition adaptative et des méthodes plus

conventionnelles comme les englobants.

5.1.1. Les rayons réfractés

Un des nombreux handicaps du beam-tracing est la limitation de la méthode aux objets

modélisés par les facettes planes. La méthode proposee par Heckbert et Hanrahan [[IEC 84] ne

donne pas de solution générale simple pour le traitement des objets transparents. Les contraintes

fortes imposties aux rayons et surfaces, font que le principe reste très limitatif dans son

application.

59

Page 63: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décompositîon adaptative

Nous avons été confrontés aux mêmes problèmes et rnous avons été obligés de restreindre le

domaine d'application. La difraction de la lumière n'étant pas linéaire pour les objets transparents,

il est impossible d'assurer pour toutes les faces la constitution d'une pyramide de vision, où les

quatre plans se rejoignent en un seul point. Il est en plus utopique de croire que les faces vont

toujours être constituées de quatre côtés avec les bords parallèles deux à deux afin de permettre

une propagation correcte du faisceau. Il est alors difficile de propager une zone de visualisation.

La méthode d'optimisation que nous avons présentée n'est applicable qu'aux objets transparents

ne faisant subire aucune déviation aux rayons lumineux (principalement les surfaces minces). A

la différence du tracé de faisceaux, la forme de la face n'est pas, pour notre approche, un point

bloquant. Il est toujours possible d'approcher la face plane par un rectangle qui I'englobe et de

découper ensuite les zones non significatives.

Nous réalisons la projection de ce que voit I'observateur, à travers I'objet transparent, sur les

diftrentes faces de I'objet en considérant chacune des faces comme un écran secondaire(figure 7).

proje{tionsur lafaæranspafenæ

écran principal

figure 7: projection sur les faces transparentes

On realise ensuite, sur la face transparente, la même décomposition récursive effectuee sur

l'écran principal.

Cette décomposition va permettre de limiter les tests de comparaison lors du calcul

d'intersection entre un rayon et I'ensemble des objets. lorsqu'un rayon (primaire ou secondaire)

coupe une face transparente, on recherche la plus petite sous-fenêtre, de la decomposition

associée à la face, contenant le point d'intersection (algorithme 8). On recherche alors une

intersection entre le rayon, qui n'a subi aucune déviation, et la liste des objets associee à la sous-

fenêtre (figure 8).

60

Page 64: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décomposition adoptative 6 l

Algorîthme IRecherche intersection (rayon_courant, liste_objets_possibles)Si intersection avec face_transparente alors

Recherche sous_fenêtre_minimale (point_intersection)S i sous_fenêtre_vide alors

couleur rayon = couleur objetSinon

Rayon_refracté = rayon_courantRechercher intersection (rayon_réfl échi, liste_sous-fenêtre)

projectionsur lafaceransparente

écran principal

obswateur

figure 8: analyse d'une face transparente

Comme I'observateur voit, à travers une face transparente, la même scène qu'il pourrait voir si

cette face n'existait pas, on est amené à se poser la question de la nécessité de prendre en compte

la présence de tels objets et pouquoi réaliser une projection supplémentaire sur la face étudiéeplutôt que d'utiliser les projections effectuees sur l'écran principal (sur I'exemple de la figure 8) .

Premièrement nous sommes obligés de prendre en considération la couleur de I'objet transparent,

les caractéristiques optiques ne se limitant pas à I'indice de réfraction du milieu traversé donc

impossibilité d'éliminer de la scène ce type de face et d'objet. Deuxièmement, tous les objets

transparents ne sont pas considérés comme n'ayant aucune épaisseur (vitre), il est possible que les

objets visibles par chacunes des faces transparentes d'un objets soient différents (cube)

L'association d'une décomposition à chaque face transparente, permet souvent d'a^ffiner I'analyse

et de limiter le nombre de calculs d'intersections lors de la mise en oeuwe de I'algorithme du tracé

de rayons. Il permet, par exemple, de ne pas prendre en compte les objets d'une même fenêtre ne

se projetant pits sur la face transparente (figure 9).

Page 65: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décomposïtion adoptativ e 62

/1 objes

!, oPaqù6

1æeùus?4enæ

figure 9: projection sur une face transparente

On associe souvent, aux objets transparents, une caractéristique optique double. En plus de

laisser passer les rayons lumineux, ils possedent des propriétés de réflexion. Nous serons amené,

suivant les caractéristiques des objets, a associer à une même face deux décompositions, une pour

analyser la scène vue par transparence et une pour les objets vus par réflexion.

5.1.2. Les rayons réfléchis

Le traitement des faces spéculaires est effectué sur le même principe, si ce n'est que

I'observateur secondaire est différent de I'observateur principal. On considère un observateur

temporaire symétrique par rapport à la face réfléchissante (figure l0). La face, en cours

d'analyse, devient un écran secondaire sur lequel on réalise la projection des objets vus par

I'observateur secondaire. On réalise ensuite une décomposition récursive de I'espace de travail.

L'analyse s'apparente ensuite à celle efféctuée pour les objets transparents (algorithme 9).

Lorsque le rayon coupe une face réfléchissante, on recherche la plus petite subdivision contenant

le point d'intersection. Si cette sous-fenêtre n'est pas vide, on calcule le rayon réflechi et on

recherche une intersection entre le rayon réfléchi et la liste associee à la sous-fenêtre. La

restriction du domaine d'étude en effectuant une projection secondaire des objets, permet de

diminuer les tests lors du calcul des intersections entre les rayons réflechis et les objets de la

scène.

Algorîthme 9Recherche_intersection (rayon_courant, liste_objetsjossibles)^fi intersection avec face_réflechissante alars

Recherche_sous fenêtre_minimale (point_intersection)^Si sou s_fenêtre_vide alors

couleur rayon = couleur objetSînon

Calculer rayon_réfl échiRechercher_intersection (rayon_réflechi, liste_sous-fenêtre)

FsiFsi

Page 66: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décomposition adaptative 63

Si dans le champ de vision de I'observateur secondaire seréfléchissant, I'analyse est reconduite jusqu'à ce que:

- il n'y ait plus dans le champ de vision que des objets opaques- il n'y ait plus aucun objet- la profondeur maximale de I'arbre d'analyse soit atteinte

trouve de nouveau un objet

objes opaquæ

figure l0: traitement des faces réfléchissantes

5.2. Les rayons d'ombrage

5.2.1. L'éclairagedirect

Nous prendrons comme convention, et ceci est wai pour la majorité des algorithmes de tracéde rayons, qu'une source lumineuse est ponctuelle. Pour permettre d'adapter le principe deprojection des objets, nous devons associer à chaque source une direction d'eclairage equivalenteau point de mire pour un obserateur. La recherche des objets éclairés est quelque peu diftrentede l'analyse des rayons primaires elle peut être comparee au traitement des faces visibles enassimilant la source à un observateur classique. Il suffit pour cela de joindre à la position de lasource un plan simulant le plan ecran d'un observateur

Comme à priori on ne définit pas, pour une source lumineuse, une "pyramide d'éclairement"nous devons considérer I'ensemble des objets de la scene. Il suffit alors d'appliquer aux Byonsd'ombrage le principe de décomposition utilisé pour les rayons primaires (figure I l).

Page 67: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décomposition adaptative

On projette sur le plan de la source I'ensemble des objets ou des faces visibles depuis la sourcelumineuse. On définit un cadre, simulant l'écran, en prenant le valeur coin_bas3auche etcoin-haut-droit extrêmes des projections. On réalise ensuite une décomposition récursive deI'espace de projection.

objes opaqucs

figure I l: décomposition pour les rayons d'ombrage

Pour savoir si un point d'intersection (que nous appellerons point origine) est ombré oudirectement éclairé, il suffit de le projeter sur le plan de la lampe, de trouver la plus petite sous-fenêtre contenant le point projeté (algorithme l0). On cherche ensuite une intersection entre lerayon d'ombrage (passant par les deux points : point origine et source) et uniquement les élémentsassociés à la sous-fenêtre (figure l2). Si aucune intersection n'est trouvée, I'objet sera soumis àun éclairage direct. Sinon on compare les coordonnees du point d'origine avec tous les pointsd'intersection trouvés. Si aucune valeur n'est inférieure aux coordonnees du point origine, I'objetsera soumis à un éclairage direct sinon il se trouvera dans I'ombre portée d'un objet situé entre lepoint origine et la source lumineuse en tenant compte d'une éventuelle transparence de cet objet.

Algorithme 10Pour toutss les lampes/aire

Projection du point d'intersection sur le plan de la lampeRechercher la plus petite sous-fenêtre contenant le point.Si sous-fenêtre vide alors

Objet directement éclairéSinon recherche intersection (rayon_ombrage, liste sous-fenêtre)

.Si aucune intersection n'est plus proche que I'intersection d'origine a/orspoint directement eclairé

Sinon point dans I'ombreFsi

FsiFpour

64

Page 68: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

figure 12: rayons d'ombrage

Il est important de remarquer que la projection realisée pour chacune des sources lumineusesest indépendante de la position de I'observateur. Cela permet, cornme pour la radiosité, de ne pasavoir à recalculer la décomposition liée à chaque source lumineuse si entre deux images, la seulemodification conserne I'observateur ( position, point visé, focale).

5.2.2. L'éclairageindirect

L'une des carences importantes du tracé de rayons est la difficulté de prendre en compte leslumières indirectes qui proviennent essentiellement des objets réfléchissants (figure l3). Ceci estdu au fait qu'il est difficile de définir, pendant le suivit d'un rayon, quels vont être les objetspouvant contribuer à l'éclairage indirect de I'objet en cours d'étude. Sur l,exemple de la figure 13I'observateur dewait voir dans le miroir un objet dont la face arrière est éclairee par une lumièrese réfléchissant sur la surface spéculaire.

observateur

figure 13: éclair4ge indirect

Page 69: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décomp o sition a da pt otiv e

L'analyse adaptative se déroulant en deux étapes distinctes, à savoir une étape de

décomposition et une étape de calcul de rayons, permet, uniquement pour les miroirs plan, de

traiter les sources indirectes relativement facilement. La démarche s'apparente au traitement des

faces spéculaires (paragraphe 3.1.2). En effet lors de la phase de calcul des projections et des

décompositions nous créons, pour les miroirs, un ensemble d'observateurs secondaires qui

peuvent avoir dans leur champ de vision une source limineuse. Dans ce cas, une certaine quantité

de lumière va être renvoyee par la face réflechissante et viendra eclairer indirectement les objets

de la scene. Nous pouvons créer une source secondaire fictive qui se situe symétriquement par

rapport à la face réfléchissante étudiee (figure 14). Nous effectuons ensuite, cornme pour une

source reelle, une projection et une décomposition des objets éclairés par la source symétrique. Le

plan du miroir devient le plan de projection, et ses limites (ramenée à un parallélépipede

rectangle) définissent les limites factices de la zone éclairée.

obæwaleur

figure l4: création d'une source secondaire

Il convient alors d'associer à la face réfléchissante la liste des sources lumineuses secondaires

correspondantes. On ne peut considérer la source lumineuse secondaire comme une source

normale. Comme le montre la figure 15 la source symétrique ne doit être prise en compte que

pour les rayons réfléchis pas le miroir. La considérer comme une source globale engendrerait des

elreurs sur l'éclairage des objets ne se réflechissant pas sur la face spéculaire. En effet, on

ajouterait sur ces objets une quantité de lumière provenant d'une source qui pour eux, n'existep:ls.

66

Page 70: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décomposition adaptatîv e 67

$urce (e)symérique H

'. râyon d'ombÉge. ' indiræt

figure 15: éclairage indirect

La méthode de décomposition adapatative appliquée aux rayons d'ombrage perrnet de traiter

efficacement trois problèmes importants du tracé de rayons. Le premier est I'optimisation du

calcul des rayons d'ombrage par une diminution des tests d'intersection. Le second est

I'indépendance de I'analyse par rapport à I'observateur. La decomposition reste valide entre deux

calculs si le seul déplacement est celui de l'observateur. Le troisième est la possibilité de prendre

en compte simplement les éclairages indirects.

5.3. Méthode générale

La méthode que nous venons de décrire repose sur deux phases bien distinctes. La première

consiste à realiser une pré-analyse du contenu de la scene, en associant aux faces planes non opaques

une décomposition. Comme pour le beam-tracing on propage un cône de visualisatioq ou plus

exactement, on effectue une propagation des projections. Une même faces peut, à des profondeurs

d'étude diftërentes, se voir associer plusieurs décomposition. La seconde phase consiste à appliquer

un algorithme de tracé de rayons en adaptant le type d'optimisation (décomposition ou englobants), à

la forme et aux caractéristiques optiques de I'objet. La figure 16 montre trois décompositions, une

sur l'écran principal pour I'optimisation des rayons primaires, une autre sur une face réflechissante

pour certains rayons secondaires enfin une sur la source lumineuse pour les rayons d'ombrage.

Page 71: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

IIn e décomposition odaptativ e 68

observateur

figure 16: propagation des rayons

Si la localisation des objets, par projection des englobants, nous renseigne sur la position des

objets et permet de limiter, à certaines zones, I'application des algorithmes de rendu, nous avons

souhaiter définir une méthode de décomposition capable d'exploiter I'ensemble de ces informations et

de s'adapter au contenu de la scène.

6. ADAPTABILITE AU CONTENU DE LA SCENE

Si I'on se remémore les limites des décompositions classiques, on remarque que les subdivisions descènes ne servent qu'à diminuer de la complexité à I'intérieur des sous-fenêtres. Le traitement ne s'adapteaucunement au contenu. La limitation des tests d'arrêt mis en oeuvre, à savoir fenêtre vide, fenêtrerecouverte, élément unique et fenêtre minimale (souvent le pixel), contribue souvent à la creation desituations paradoxales. Si l'on considère I'exemple de Ia figure 17, une décomposition classique entraîneune subdivision abusive, qui, en plus d'être coûteuse en temps de traitement et en place mémoire,n'apportera aucune information qui permettrait d'aborder le calcul plus simplement.

figure l7: décomposition excessive

Page 72: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Un e décomp o sîlio n ado pt otiv e

Un autre point fort de notre approche est que nous avons mis en oeuvre une décomposition active qui

est en mesure de prendre en compte un certain nombre de paramètres qui vont orienter ou non une

décomposition vers l'arrêt. Ils vont perrnettre de guider la subdivision de I'espace de travail pour mettre

en évidence des situations que nous savons bien traiter. Nous avons tiré parti du fait que nous étions en

mesure d'avoir une application diffërente de I'algorithme du tracé de rayons. Nous avons introduit dans

la définition des tests d'arrêt, des critères de situation et d'occupation d'espace. Nous avons pour cela

constitué deux catégories de tests, à savoir des tests que nous appellerons termînaux qui ont pour rôle

d'arrêter la décomposition et des tests d'orientation, qui vont orienter la décision vers I'arrêt ou la

poursuite de la decomposition.

6.1. Les tests d'arrêt terminaux

Les tests terminaux vont avoir pour rôle d'arrêter une décomposition et cela indépendamment des

autres tests. Classiquement par rapport aux autres algorithmes de décomposition, nous avons retenu

trois tests, à savoir ,fenêtre vide, fenêtre ne contenant qu'un seul élément et taille minimale de fenêtre

atteinte. Aucune de ces situations ne sera explicitement recherchée, c'est-àdire que ce ne sont pas

elles qui guident la décomposition. Elles seront uniquement détéctées lorsqu'elles se présenteront.

Nous n'avons pas retenu le test fenêtre_recouverte, un des tests d'orientation que nous avons définis

aura entre autres cette fonctionalité.

6.2. Les tests d'orientation

La deuxième catégorie de tests que nous avons définie et appelee, tests d'orîentotîon, sert à

acquérir un ensemble d'informations sur la repartition des objets dans la scène. Ces tests vont servir

à pallier les carences des tests d'arrêt et notamment au problème de la décomposition abusive. Pour

cela, nous implantons trois tests supplémentaires qui vont analyser la concentration des objets, lapossibilité d'effectuer un calcul de tracé de rayons en fonction du nombre d'objets et enfiru un test qui

déterminera si une décomposition apporterait ou non une simplification de I'analyse du contenu.

6.2.1. Les tests d'orientation : le taux d'occupation

6.2.1.1. définition du test

Généralement les décompositions ne tiennent pas compte de la topologie de la scène. C'estpourquoi on arrive encore à des situations paradoxales comme celle decrite en 6 (figure l7) où

une décomposition, qui atteint des niveaux importants, n'est aucunement représantative du

contenu de la scène.

69

Page 73: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décomoosition adaptative 70

Si I'on était en mesure de tirer certaines informations sur la position relative des objets onpourrait éviter bon nombre de traitements inutiles. C'est pourquoi nous avons défini un test quinous apporte des informations sur la surface occupee en fonction du nombre d'objets : le tauxd'occupation. On appelle taux d'occupation le rapport entre la taille de la fenêtre étudiee et lasurface occupee par les objets à I'intérieur de cette fenêtre.

Pour obtenir la valeur exacte du taux d'occupation, il faut additionner les surfaces desprojections et soustraire les surfaces des intersections. Une première maquette a montré que cecalcul est très coûteux en temps de traitement, on le simplifie en considèrant que la surfacetotale est donnee en prenant les valeurs minimales et maximales des coins bas gauche et hautdroit de toutes les projections (figure lg).

Fenêtre

figure l8: approximation du taux d'occupationIl est évident qu'il existe des situations où la valeur du ralx d'occupation ne sera pas

représentative de la situation réelle (figure 20). Nous associerons au test du taux d,occupationle nombre d'objets contenus dans la sous-fenêtre afin de minimiser les situations pouvantengendrer des erreurs d'interprétation.

6.2.1.2. Application du test

Ce test donne des informations sur la concentration des objets à I'inûerieur d'une fenêtre. Enfonction de la valeur du taux et du nombre d'objets, nous sommes en mesure d,interpréter unensemble de situations et de prendre ou non la décision de poursuiwe la décomposition.

* Si la valeur calculée indique un taux d'occupation faible, on rnterprèt€ le résultat conrmeétant représentatifde la concentration de plusieurs objets avec une forte probabiliæ que ceux-ci s'intersectent (figure l9).

Page 74: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décomposition classique imposerait systématiquement la poursuite de la subdivision eton atteindrait obligatoirement le niveau du pixel pour toutes les zones comportant desintersections. Avec I'approche que nous avons définie, la détection de cette situation marqueune suspension dans I'analyse. Ce test seul ne peut décider de la suite du traitement. Nousregardons ensuite le nombre d'objets. S'il est inferieur au nombre d'objets max on se trouvedans un cas simple, savorui bien le traiter ( voir paragraphe 4), la subdivision est arrêtée. Si lenombre d'objets est plus important, aller un niveau plus bas dans la décomposition simplifierales tests du calcul d'intersections.

Fenêtre

figure 19: concentration des objets

* Si le taux d'occupation est important.

Un taux d'occupation important ne peut être représentatif du contenu de la scene. Il existeen effet des scènes très diftrentes pouvant présenter des taux voisins (figure 20). n existe descas défavorables où I'interprétation des données s'avère fausse.

Fenêtre

figure 20: taux d'occupation important

Dans tous les cas de figure, si le taux d'occupation est important, on a interêt à décomposerla fenêtre d'tude. En effet, si le nombre d'éléments est faible on se trouve en présence de troissituations possibles :

- les éléments à I'intérieur de la fenêtre sont petits, dans ce ciui une décomposition isolerales objets et simplifira le traitement (figure 20 dessin de gauche).

- un élément possède une taille dominante par rapport aux autres objets, dans ce çiN unedécomposition isole des grandes parties simples à traiter (figure 20 dessin du centre).

Fenêtre. .

l - l

r l l

i L----j' ,i objets :: l

:i t :i l, t :

' . . . . - . . . . - . . . . . . . . . . . . . . . . . . . . . . . , , . . . 1

Fenêtre

Page 75: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une dëcom po sitio n a da pt atîv e 72

- les élements sont de taille quelconque, c'est simplement leur répartition qui a induit cette

situation. Dans ce cas, si le nombre d'objets est proche de la valeur nombre d'objets max, la

décomposition n'apportera pas une simplification significative de la scène saufl si la fenêtre

étudie€ est très supérieure à la fenêtre minimale . Par contre si le nombre d'objets est élevé, on

choisira de poursuiwe la décomposition (figure 20 dessin de droite). L'algorithme définissant

le test du taux d'occupation s'ecrit :

Algortthme 11^Si le taux d'occupation est élevé Alors

,Si le nombre d'objets est proche de nb objet max Alors ariêtSinon,Si la taille de la fenêtre est proche de la fenêtre minirnale.4/ars arrêt

Sînon poursuiwe la décompositionFsi

Dans bien des situations ce test se combine avec les valeurs de fenêtre minimale (tsst

terminal) et nb objets maximal que nous présentons maintenant.

6.2.2. les tests d'orientation : le nombre d'objets maximal

Le principe retenu pour analyser le contenu d'une sous-fenêtre permet de traiter des

subdivisions de scène contenant plus d'un élément. Un analyse préalable realisee sur une maquette

a montré que I'on pouvait fixer le nombre maximal d'éléments par fenêtre, non plus à un comme

dans les décompositions classiques, mais à des valeurs supérieures (4 à 7 éléments sur les scènes

analyées). Nous avons constaté qu'un grand nombre d'objets n'était pas pénalisant, si la taille en

pixels de I'image, est relativement faible (< 200 par 200), le coût engendré par des

decompositions supplémentaires ne compensait pas le gain de temps au niveau du calcul des

rayons. Par contre nous avions intérêt à diminuer cette valeur si la taille en pixels devenaitgrande. Cependant, le test doit être associé au taux d'occupation si la taille de la fenêtre étudiée

est importante. En effet, si pour une fenêtre de taille importante (500*500) le nombre d'objets est

peu élevé et que le taux d'occupation est important, on a tout intérêt à décomposer pour isoler les

éléments. Nous expliciterons plus en détail au paragraphe 7.2 la nécessité d'utiliser ce test en

fonction des situations rencontrées.

6.2.3. les tests drorientation : égalité de contenu entre les sous-fenêtres

Le dernier test que nous utilisons, permet d'approfondir nos connaissances sur la position des

objets à I'intérieur de la scène. Il nous renseigne sur d'éventuelles intersections entre les objets.

Pour ce faire, nous recherchons quels sont les objets coupés par un rayon lancé au centre de la

scène (figure 2l). Si le rayon central coupe tous les élements de la scène, ceux-ci vont se

FsiFsi

Page 76: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décomposîtion odaptûive

retrouver à nouveau dans les différenæs sous-fenêtres. Nous pouvons alors affirmer que le

contenu des subdivisions peut être de même complexité que la fenêtre mère, le problème étantsimplement déplacé à un niveau plus bas. Il convient de faire intervenir un test que nous avonsdéjà défini: le taux d'occupation.

Fenêtre

figure 2l: égalité du contenu des sous-fenêtres

Si le taux d'occupation est important, la surface cornrnune aux différentes projections pourraêtre considérée comme peu importante (figure 22), elle risque même dans le pire des cas, d'êtrereduite à un simple point.,

Fenêtre

figure 22: taux d'occupation important

Cette situation aura tendance à demander la poursuite de la décomposition afin de simplifier lecontenu des différentes sous-fenêtres. Par contre, si le taux d'occupation est faible (figure 23), sile nombre d'objets est proche de la valeur nb objets max et si la taille de la fenêtre n'est pasproche delatzillefenêtre minimale alors la subdivision devra être poursuivie.

73

Page 77: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décomposîlion adaptative 74

Fenêtre

figure 23: taux d'occupation faible

L'algorithme définissant ce test s'écrit :

Algorithme 12.Si égalité entre racine et point central alors

.Si condition taille fenêtre et nb objets max le permettent a/ars,Si taux d'occupation élevé Alors poursuite décompositionSînon anêtFsi

FsiFsi

7. ADAPTABILITE DES TESTS ET DES VALEURS A L'UTILISATEUR

Nous avons défini une méthode d'optimisation en réalisant une séparation entre le traitement de la

décomposition et la gestion des tests d'arrêt. Cette division a montré un intérêt indéniable aussi bien au

niveau des résultats qu'au niveau souplesse d'utilisation. Nous avons laissé la possibilité à I'utilisateur

de jouer sur I'ensemble des paramètres liés aux tests d'arrêt. Il peut, en effet, modifier avant chaque

calcul d'image, le nombre de tests d'arrêt mis en oeuvre ainsi que leur valeur. L'opérateur peut ainsi

sélectionner, selon son expérience, les tests les plus appropriés à la scene analysee. Il peut combiner,

simplement en les sélectionnant, les tests de: fenêtre vide, objet unique, taille minimole, taux

d'occapation et nombre d'objets.Il peut modifier la valeur des constantes de taille minimale en pixels,

le nombre d'obiets maximum par fenêtre et taux d'occupatiore. Nous avons aussi laissé à I'opérateur le

choix des principes d'optimisation mis en oeuvre. Il a le choix, pour les rayons primaires, secondaires et

d'ombrage, entre plusieurs typês d'optimisations: englobants, Lightbuffer et decomposition. Il peut, pour

chaque type de rayons, choisir un type d'optimisation diftérent. Certaines combinaisons semblent

cependant non appropriees. Il est algorithmiquement difficile de choisir une optimisation de type

decomposition pour les rayons secondaires alors que l'on a choisi une optimisation de tlpe englobant

pour les rayons primaires. Seuls les rayons d'ombrage sont véritablement indépendants des autres types

de ravons.

Page 78: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Un e déc om p o sition a da pt ativ e

Lors de la validation d'une maquette de préétude nous avons constaté que selon les caractéristiques

de la scène, les combinaisons des tests effectuées peuvent influencer considérablement les performances.

La présence de tous les tests n'étant pas nécessaire en même temps, il serait inkressant d'être en mesure

de deduire d'une analyse de la scène, les meilleurs compromis au niveau de la décomposition. L'ideale

serait une déduction automatique qui gérerait, un peu comme un systeme expert, I'organisation des tests

de decomposition. Pour cela, nous avons cherché à extraire d'une scène, les caractérisiques qui influent

sur les performances de calcul et nous avons essayé d'associer à chaque type de scène, les tests d'arrêtles plus performants pour la décomposition.

7.1. Pour les images de petite taille.

Comme pour toutes les méthodes d'optimisation basées sur une analyse de contenu de la scène,les temps de prétraitement nécessaires à la mise en oeuwe de la decomposition adaptative ne sontplus négligeables pour tout un ensemble d'images. Plus précisément, de la taille de I'image

calculée vont dépendre les performances, donc indirectement, la nécessité d'appliquer ou non toutun environnement d'analyse coûteux en place mémoire et en temps machine. Afin que la méthode

de décomposition ne devienne pas pénalisante pour le calcul, nous avons tout interêt, pour

certaines images de petite taille, à mettre en oeuwe un algorithme de tracé de rayons ayantcomme seule optimisation une approximation des objets par des englobants. Nous devonstoutefois tenir compte, même pour des fenêtres de petite dimension, de situations où unedécomposition s'avère utile. En effet, si le nombre d'objets traités est important, unedécomposition diminuera le nombre de comparaisons nécessaires au calcul de chacun des rayons.Un autre critère entre en ligne de compte pour le choix des optimisations: la repartition des objetsà I'intérieur de la fenêtre. Une analyse du taux d'occupation apporte des informations imporantes

sur les possibilités d'intersection d'objets. Si l'ensemble des éléments est concentré sur une petite

zone de I'image alors il risque d'apparaître des zones vides d'information pour lesquelles le calculdes rayons devient inutile. Nous avons, pour des fenêtres de petite taille un choix de méthode

d'optimisation tenant compte aussi bien du nombre d'objets et de leur répartition dans la scène. Lepseudo algorithme présenté cidessous (algorithme 13) montre les choix retenus pour la type deI'optimisation et pour les tests d'arrêt à mettre en oeuwe.

Algorithme 13,Si la taille de la fenêtre est inferieure à une taille critique.,4/ars

Si le nombre d'objets est inferieur au nombre_d'objets_max Alorsutiliser les englobants comme unique forme d'optimisation

Sinon ̂ Si le taux d'occupation est important.,{larsutiliser une optimisation par decomposition adaptative

Sinon utiliser les englobants oomme unique forme d'optimisation

75

Page 79: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

U ne décom po sition a dapt ativ e

Pour des images de petite taille, deux critères vont influer sur le choix de la méthode

d'optimisation mise en oeuvre. Le premier de ces critères est le nombre d'objets. Suivant sa valeur

on optera soit pour une optimisation par les englobants soit par décomposition. Le deuxième de

ces critères est le taux d'occupation. Un taux de concentration faible indiquera la présence de

zones où les rayons ne couperont aucun objet. Pour les régions vides des petites fenêtres il sera

plus intéressant de rechercher des intersections avec uniquement des englobants plutôt que de

rechercher à isoler, avec à une décomposition coûteuse en temps et en place, des zones qui ne

représentent finalement que très peu de pixels.

7.2. Pour les images de grande taille.

Suivant les situations rencontrées, I'application de tous les tests d'arrêt à touûes les phases de la

décomposition n'est pas obligatoire. Il est en effet possible, dans certains cas, de ne plus prendre en

compte les tests qui deviennent inopérant ou de modifier les arrangements entre les tests utilisés.

A la première analyse du contenu par la méthode de décomposition adaptative, tous les tests que

nous avons présentés au paragraphe 6 doivent être pris en compte. Suivant les informations

recueillies, nous pouvons orienter et adapter I'analyse qui sera effectuée sur les sous-fenêtres issues

de la subdivision de I'espace initial.

7.2.1. Le test du nombre d'objets maximum.

Pour certains tlpes de scène nous pouvons au cours de la subdivision ignorer le test du nombre

d'objet maximum. Se plaçant toujours dans une situation où la taille de I'image à calculer est grande,

si le nombre d'objets est inférieur au nb_objets_max nous pouvons, par une analyse du taux

d'occupation, avoir une image de la repartition des objets à I'intérieur de I'espace. Si cetûe valeur est

importante, on peut espérer que les éléments se disséminent sur I'ensemble de la fenêtre. Dans ce cas

une décomposition peut isoler une partie des éléments. Pour I'analyse des sous-fenêtres, le test du

nb_obiets_max devient obsolète. Déjà, à un niveau supérieur, le nombre d'éléments de la scene était

inferieur à cette valeur, il le sera obligatoirement pour l'étude des diftrentes sous-fenêtres. La

realisation d'une maquete a montré que si la decomposition entraîne la creation de subdivisions dont

la taille en pixels approche d'une valeur critique, d'environ 200 par 200 pixels, le test du nombre

d'objets minimum doit de nouveau être pris en compte. En effet, pour des fenêtres approchant cesvaleurs, l'étude des objets par la méthode que nous avons décrite au paragraphe 4 devient plusperformante, les coûts engendrés par la décomposition ont tendance à pénaliser les temps de calcul.

16

Page 80: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décompo silio n o d o ptû iv e

7.2.2. Le taux d'occupation.

Nous pouvons avoir le même type d'approche avec le test du taux d'occupation. Si la fenêtre

étudiee contient un nombre élevé d'objets et si le taux d'occupation est très important ( > à 80 % )une décomposition va obligatoirement créer des subdivisions où le taux d'occupation va rester

très fort. L'interprétation du test ne sera plus significative. Nous pourrons sortir temporairement

le taux d'occupation de la lisæ des tests d'orientation prioritaires. Cependant, cornme pour le test

du nombre d'objets maximum, lorsque la sous-fenêtre atteint des dimensions plus modestes le

taux d'occupation redevient un test qu'il faudra prendre en compte afin d'éviter une decomposition

abusive de I'espace de travail.

8. ADAPTABILITE DES ALGORITHMES AUX OBJETS.

Toutes les scènes utilisées pour tester notre algorithme d'optimisation ont été développees sous le

système de C.A.O. S.A.C.A.D.O., Système Adaptatif de Conception et d'Assistance au Développement

par Ordinateur qui s'appuie sur deux concepts de base: convivialité et ouverture. La convivialité repose

sur un dialogue souple, qui permet à I'utilisateur de construire des objets avec un minimum de

contraintes, et cela, sans faire appel à un langage informatique. De plus, I'ouverture lui permet de définir

un dialogue qui lui soit adapté, c'est-àdire correspondant le mieux au contexte dans lequel il évolue.

Actuellement SACADO propose une version 2D et une version 3D s'appuyant sur un modèle par les

limites dont le constructeur de base est I'extrusion. Pour apporter plus de realisme aux images, dont les

objets sont modélisés par les limites, nous avons développé au laboratoire un algorithme de lissage basé

sur une interpolation des normales donnant un résultat équivalent au lissage de Phong [LAN 9U.

Nous avons présenté aux paragraphes précédents une méthode d'optimisation qui ne pouvait être

appliquée qu'aux objets modélisés par des faces planes. Pour mettre en oeuvre un algorithme général, il

a fallu adapter les optimisations aux caractéristiques des objets.

Dans la majorité des systèmes de synthèse d'images, la même technique de décomposition sert à

calculer toutes les scènes. Or, une scène peut être constituée d'objets de tous types: faces planes,

surfaces gauches, quadriques. Une seule technique d'optimisation du tracé de rayons n'est pas toujours

adaptee à tous ces t)?es de modélisation. Plutôt que de définir une methode générale, nous avonspréferé opter pour une analyse différente en fonction de la forme et des caractéristiques optiques de

I'objet.

Pour permettre I'affichage d'objets quelconques il fallait que les algorithmes puissent s'adapter aucontenu de la scene. La méthode d'optimisation que nous avons définie ne pouvant s'appliquer qu'aux

surfaces planes, il a fallu définir un algorithme capable d'adapter les calculs à I'objet étudié. Cetûe

adaptabilité porte à la fois sur les caractéristiques .optiques de I'objet et sur les caracteristiquesgeométriques.

On utilisera par exemple I'optimisation que nous avons définie pour traiter les objets à faces planes

et nous passerons à une optimisation plus conventionnelle, comme les englobants sphériques par

't7

Page 81: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

exemple, quand nous analyserons tout autre q/pe d'objets. Cette notion d'adapter les algorithmes auxtypes des objets n'est pas obligatoirement nouvelle. Déjà en 82, mais pour une application différente,Crow [CRO 82] propose une méthode qui en deux étapes détecte des groupes d'objets indépendants etleur affecte une priorité d'affichage. Pour chacun des groupes il utilise I'algorithme de visibiliæ le plusapproprié' On retrouve aussi une notion d'adaptabilité dans les travaux de Jahami IJAH 9U qui utiliseun mixage des algorithmes de tracé de rayons et d'Atherton pour visualiser une scène avec la méthode laplus adaptee. Il calcule en fait séparément deux images. La première, rangee dans la base T& ne prenden compte que les objets ne pouvant être traités que par le tracé de rayons: les objets réfléchissants,transparents et de révolution. Pour réaliser ce premier calcul, la méthode est obligée de tenir compte detous les éléments.

La seconde image, rangée dans la base AT, ne représente que les objets analysables par I'algorithmed'Atherton, à savoir les objets opaques à faces planes. L'image finale est le résultat de la fusion des deuxbases d'images. La méthode, très intéressante dans le principe, traite très difficilement les problèmesd'interaction entre les réflexions, les réfractions et les ombres portées. L'éclatement de la scène enplusieurs bases pour lesquelles on utilise des algorithmes diftërents, rend difficile la prise en compte decontraintes entre objets appartenant à des bases différentes. C'est pourquoi nous avons préferé utiliserun unique algorithme de rendu, à savoir le tracé de rayons, que nous appliquons avec des méthodesd'optimisations différentes en fonction des caractéristiques optiques et geométriques des objets.

8.1. Adaptabilité aux caractéristiques optiques des objets.

Indépendamment des contraintes liées à la forme, U àe*roae d'optimisation que nous avonsprésentée ne pouvait être appliquée aux objets transparents que si ceux-ci avaient un coefficient deréfraction égal à un. Pour toutes les autres formes de réfraction nous devons adapûer lesoptimisations. Dès qu'un rayon coupe un objet transparent ne correspondant pas aux caractéristiquesd'une optimisation par décomposition, on considérera que la forme d'optimisation des rayonssecondaires devient, et ceci simplement pour I'objet en cours d'étude, les englobants (frgure Z4).

Page 82: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Un e déco mp o sition ada ptat iv e 79

miroirobjet opaque

recherche de l'intersectionsuivante en utilisant lesenglobants

objet transparentcoefficient de réfractiondifferentde I

ecran

observateur

rayons primairesuti l isant Iadécomposition

recherche de I'intersectionsuivante en utilisantla décomposition

figure24: modification du type d'optimisation

Lorsque I'on réalise une modification de la méthode d'optimisation, elle doit être conservée pour

toute l'étude du rayon même si celui-ci coupe, par la suite, un objet pour lequel on a retenu une

optimisation par décomposition. En effet, une décomposition sur les faces est effectuee soit pour

I'observateur principal soit pour un observateur secondaire, I'orientation du rayon étudié ne

correspond pas, sauf cas particuliers, à la direction qui a servie à la décomposition (figure 25).

TruTOlr

objet opaque

myon utlisisant unedæomposition

nyon utilisant lesenglobants

écran

observateur

rayoos primairesutilisant hd&ompositon

figure 25: adaptabilité de l'optimisation au rayon

Page 83: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Un e dé co mp o sition adq pt ativ e

Nous venons de présenter de quelle manière nous apportons une solution au traitement des objets

transparents ayant un coefficient de réfraction difiërent de un. L'adaptation aux caractéristiques

optiques est possible car l'algorithme de. rendu reste identique quel que soit le genre de la

décomposition mis en oeuvre. Il reste à présenter de quelle manière nous pouvons adapter les

optimisations aux caractéristiques géométriques des objets,

8.2. Adaptabilité aux caractéristiques géométriques des objets.

Dans la mesure où aucune méthode de modélisation ne permet de représenter simplement et

complètement tous les types d'objet, il serait intéressant de pouvoir faire cohabiter au sein d'un même

système des objets modélisés aussi bien par ses limites que p:r leurs equations mathématiques.

Actuellement, seul un algorithme de tracé de rayons, avec des adaptations pour les modèles CSG

(ray-casting) permet de calculer I'illumination globale d'une scène, avec des effets optiques

complexes, sans modification préalable de la représentation de I'objet. Nécessitant simplement

cornme information les coordonnées du point d'intersection et la normale en ce point, il autorise la

combinaison de plusieurs formes de représentations des objets au sein d'une même scène. Il suffit

d'adapter I'algorithme d'intersection au mode de description de I'objet, ce qui bien souvent le plus

difficile.

Dans un souci d'homogénéité et d'amélioration des temps de calcul, nous avons choisi d'adapter

les méthodes d'optimisation aux objets, tout en conservant comme algorithme d'affichage I'algorithme

de tracé de rayons. D'une manière générale, on cherche à associer automatiquement la forme

d'optimisation la plus adaptée à la définition des objets.

Lorsque I'objet analysé est constitué de faces planes, nous pouvons mettre en oeuwe la méthode

de décomposition adaptative que nous avons définie. Par contre lorsqu'un objet possede des faces

gauches la normale à la face n'est plus unique, il devient possible de trouver un unique observateur

symétrique (figure 26)

ObServateur ObServateurt

a

observateursecondaire

frgare 26:. recherche d'un observateur secondaire

80

Page 84: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

U n e déco m po sirion a da pt otiv e

La méthode de lissage développee au laboratoire simule, à partir d'une face plane, la courbure de

la surface en interpolant les normales aux sommets (figure 27). Nous devions donc gérer, au sein

d'une même scène, des objets corutitués exclusivement de faces planes et de "faux" objets de

révolution.

nomale rcelle

frgare 27 : interpolation des normales

Pour traiter les objets comportant des faces non planes nous avons la même démarche que pour

les objets transparents. Lorsque le rayon coupe un objet réfléchissant sur lequel la décomposition

adaptative ne peut être appliquée, nous choisissons, pour calculer les rayons secondaires une

méthode d'optimisation utilisant des englobants, et ceci pour I'analyse complète de I'objet,

(figure 28).

Obscwet€u

figure 28: adaptabilité à la forme de I'objet

8 l

Page 85: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Une décomposition adoptative

9. CONCLUSION

Le tracé de rayons n'est qu'une méthode parmi d'autres pour la visualisation en CAO. On peut

souhaiter mettre à la disposition de I'opérateur un certain nombre de méthodes plus ou moins rapides et

donnant des résultats de plus ou moins bonne qualité (ne serait-ce qu'en limitant la profondeur de I'arbre

de rayons dans le tracé de rayons). Les systèmes de CAO devraient être capable d'adapter leurs

méthodes de visualisation en fonction des caractéristiques de la scène, de la qualité des résultats et des

temps de réponse souhaités : cette adaptabilité passe, tout en utilisant la décomposition, par une mise en

oeuwe conjointe ou pas de plusieurs types d'algorithme.

La méthode que nous avons présentée n'a pas la prétention de résoudre tous les problèmes liés à la

cohabitation de plusieurs algorithmes au sein d'un même système de visualisation. Cependant nous

apportons un certain nombre de solutions permettant de définir un outil souple et convivial. Pour que le

système soit le plus généraliste possible nous avons souhaité approfondir d'une part I'analyse du contenu

de la scène et d'autre part I'adaptabilité des algorithmes à la modélisation des objets.

Ces deux notions semblent fondamentales à un système ouvert, capable d'adapter ses algorithmes de

visualisation à la scène étudiée en tenant compte à la fois des désirs de I'opérateur. Nous avons integré

ces deux idees aux différentes étapes de la décomposition adaptative.

La première de ces étapes consiste en une pré-analyse de contenu basee sur la recherche de

propagation d'une pyramide de visualisation. A I'intérieur de ces zones une analyse du contenu guide

une décomposition récursive dont [e but est de diminuer localement la complexité de la scène. Cette

analyse prend en compte plusieurs paramètres liés au nombre d'objets, à leur répartition dans la scène et

à la probabilité que ceux-ci ont de se couper. L'élargissement de l'éventail des caractéristiques analysées

permet d'affiner les connaissances du contenu et d'adapter les subdivisions pour que celles-ci puissent

être le plus optimales possible.

La seconde étape consiste en une application selective du tracé de rayons. L'utilisation des

projections d'objets pennet de limiær le calcul d'intersections uniquement aux zones susceptibles de

contenir de l'information. De plus, nous apportons une solution au problème principal de la propagation

d'un cône de visualisation, que I'on retrouve classiquement dans le beam tracing, en adaptant

automatiquement les optimisations utilisées en fonction de la forme et des caractéristiques optiques des

objets étudiés.

Une telle approche doit permettre de limiter les temps de calcul grâce à :

- une importante baisse du nombre de rayons calculés inutilement. L'utilisation des projections

pour calculer les diftrents t)æes de rayon (primaires,secondaires et ombrage) permet de restreindre le

domaine de représentation de I'objet donc de limiter le nombre de rayons lancés.

82

Page 86: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Un e déc ompo sîtion o da ptat iv e

- une importante diminution du nombre d'objets testé pour chaque intersection. En effet,

effectuer la décomposition d'un espace de travail en recherchant les subdivisions les plus appropriees au

contexte de travail, au nombre, à la forme et la répartition des objets permet de construire des sous-

espaces plus adaptes à I'application efficace d'un algorithme de rendu.

- une organisation des calculs liée aux caractéristiques des objets. Savoir rationaliser les

calculs effectués permet définir des priorités aux traitements et d'apporter une efficacité différente, dans

la mesure où elle n'est pas exclusivement calculatoire, aux calculs des intersections rayon-objet.

83

Page 87: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validotion de la methode 84

Chanitre 4

VALIDATION DE LA METHODE

Présentation des résultats

I. INTRODUCTION

Audelà de I'intérêt théorique des méthodes d'optimisation, un point de passage obligé pour la validation de

concepts reste le développement d'une application. Pour que les évaluations soient explicites nous avons voulu

détacher les tests des calculs de toutes considérations matérielles. En effet, les temps de calcul sont trop

dépendants des performances de la machine, de la qualité de programmation, de la manière dont sont

représentés les objets. C'est pourquoi nous avons préféré exposer un bilan comparatif plutôt que de foumir une

suiæ rébarbative de temps de calcul dont I'interprétation, trop souvent ambiguë, peut fausser les conclusions.

Nous avons implanté une méthode test où les seules optimisations sont I'utilisation des englobants sur les

objets. Tous les calculs de la decomposition adaptative seront comparés aux résultats obtenus par une

méthode utilisant uniquement les englobants.

2. PRESENTATION DES CONDITIONS DE TEST

Pour que les comparaisons puissent être significatives, nous avons développe la décomposition adaptative à

partir de I'algorithme utilisant les englobants. L'optimisation est en fait une couche supérieure faisant appel

aux mêmes primitives de base que la méthode des englobants. Les procédures de calcul d'intersecûon rayons

faces, d'affichage, ... sont identiques. Les scènes choisies présentent des caracteristiques plus liees à la

mécanique qu'au design et les objets ne sont pin en situation dans un environnement complexe. Toutes les

scènes ont été modélisees à partir de SACADO (Système Adaptatif de Conception et d'Aide au Développement

par Ordinateur), développé au Laboratoire de Recherche en Informatique de Metz. Ces conditions permettent

d'obtenir une integrite sur les conditions de réalisation des tests et apportent plus de credibiliæ à I'interprétation

des résultats.

Page 88: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Volidotion de la methode

La version actuelle de SACADO est écrite en PASCAL sur une station de travail SUN Sparc2 GS

utilisant le système d'exploitation UNIX. Les images sont affichées sur un écran 1280x1024 pixels et

disposant de 24 plans de bits pour la couleur.

Un des soucis permanent de SACADO est de pouvoir être porté très facilement. C'est pourquoi, la partie

logiciel graphique de base a été écrite en utilisant la norme Xll. Cela garantit une indépendance totale par

rapport au matériel.

Pour la partie "rendu", une interface utilisateur spécifique a éte cræe. "L'habillage" Openlook est utilisé

pour conserver le même aspect que l'ensemble des applications de I'environnement de développement

OpenWindows. Cette interface permet le déplacement en temps réel de I'observateur dans la scène en

représentation fil de fer, la description rapide et facile des sources lumineuses et des caractéristiques des

objets. Cependant, Xll souffre d'un inconvénientmajeur. S'il offietoutes les fonctionnalités nécessaires à la

réalisation d'une application graphique, elles restent néanmoins de bas niveau. Cela ne facilite pas l'écriture

d'une interface utilisateur qui soit à la fois performante et conviviale et qui profite au maximum du

multifenêtrage. L'utilisation d'outils tels que les widgets (windows gadgets), qui, aujourd'hui, ne sont pas

encore normalisés mais dont I'emploi tend tout de même à se généraliser, pallie cet inconvénient. Les boutons,

ascenseurs et autres popupmenus permettent de concevoir des interfaces utilisateur très conviviales, de plus ils

diminuent considérablement le temps de développement. Un exemple de fenêtres est présenté en annexe 3.

Pour la partie "rendu", une interface utilisateur spécifique a été créée. Les widgets Openlook sont utilisés

pour conserver le même aspect que I'ensemble des applications de I'environnement de développement

OpenWindows. Cette interface permet le déplacement en temps reel de I'observateur dans la scene en

représentation fil de fer, la description rapide et facile des sources lumineuses et des caractéristiques des

objets. Une partie importante de cette interface est consacrée au paramétrage du tracé de rayons. Pour chaque

type de rayon (primaire, secondaire et ombrage ), I'utilisateur a le choix entre plusieurs types d'optimisations.

De même pour la decomposition adaptative, il peut combiner les tests d'arrêt et modifier les valeurs limites, ce

qui permet à I'utilisateur d'employer au mieux sa connaissance de la scène pour augmenter I'efficacité

d'algorithme.

Grâce à une telle interface, I'affichage realiste d'une scène n'est plus uniquement l'étape finale dans la

creation d'un objet, mais fait aussi partie intégrante de l'étape de conception. L'utilisateur peut vérifier

visuellement et de manière realiste la validité de son objet à chaque phase de la conception.

85

Page 89: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validation de la mahode

Pour juger plus précisément des performances et des limites de la méthode nous avons séparé les tests enplusieurs catégories. La première partie (le paragraphe 3) présente une série de tests s'appliquant à des scènes

dont la géométrie des objets est plutôt favorable à la décomposition adaptative. L'ensemble des objets

réfléchissants et transparents sont de type parallépipèdique. Nous avons cree des scènes types dont les

fonctionnalités mecaniques sont plus que douteuses mais à I'intérieur desquelles ont retrouve des types de faces

très diftërentes cornme les faces trouees ou les faces concaves.

Nous présenterons dans une seconde partie (paragraphe 4) un ensemble de résultats liés à des scènes moinsfavorables à I'application d'une optimisation par décomposition. Ces scènes servent aussi à montrer

I'adaptabilité des algorithmes aux caractéristiques géométriques et optiques des objets, les performances

baissant très sensiblement pour des scènes très défavorables .

Les principaux modèles utilisés pour valider la méthode sont présentés à I'annexe l.

Tous le temps que nous donnons représentent des temps de calcul effectifs et non des temps CPU tout

simplement p:rce que les diftrences de temps CPU n'étaient pas assez significatives pour des calculs d'images

rapides.

3. PRESENTATION DE LA METIIODE GENERALE

Nous donnons la signification de toutes les notations que nous utiliserons pour les différents tests.

86

nomtailleoptrmTtailTnbobTvideTtauxnbofen

taurLcprétraiteprimprim Esec

est le nom du modèle (se référer à I'annexe l)est la taille de I'image, 500 signifiera que I'image est de 500 par 500est lioptimisation choisie, E pour englobant et D pour décomposition adaptativeprise en compte du test sur la taille minimale des sous-fenêtresprise en compte du test sur le nombre d'objets minimum par sous-fenêtreprise en compte du test sur la présence de sous-fenêtres videsprise en compte du test sur le taux d'occupation de la fenêtrereprésente le- nombre d'objet par sous-fenêtrereprésente la taille de la sous-fenêtre minimale en pixels (une taille de 100 représente

une sous-fenêtre de l0 par l0 pixels)représente le taux d'occupation de la fenêtre étudiéele calcul tient compte du lissage des objets de révolutionle calcul tient compte des faces concavestemps du prétraiæment quiest essentiellement le temps des decompositionstemps de calcul de I'image incluant le temps de prétraitementnombre de rayons primaires calculésnombre d'intersections effectives pour les rayons primairesnombre de rayons secondaires calculés

Tvide

Page 90: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validûion de b methode

sec E : nombre d'intersections effectives pour les rayons secondairesomb : nombre de rayons d'ombrage calculésomb E : nombre d'intersections effectives pour les rayons d'ombrage

Afin de simplifier la présentation de certains calculs les information inutiles seront absentes des tableaux.

3.1. Optimisation des rayons primaires et d'ombrages

Nous présentons dans un premier temps un comparatif entre une optimisation par englobants et une

optimisation par décomposition uniquement pour les rayons primaires et les rayons d'ombrage. Les scènes

testees ne sont constituées que d'objets opaques. Plutôt que de présenter une liste interminable de chiffies

nous avons préféré limiter le nombre d'exemples à trois mais choisir ces exemples de telle manière que nous

retrouvions un large éventail de faces représentatives.

Le premier modèle présenté est celui des haltères. Cette scène a comme particularité de posséder des

objets parallépipediques et des objets de révolution, ceux-ci présentant de grandes disparités au niveau de la

taille des faces et certaines des faces des "poids" sont concaves.

Le second modèle possède des caractéristiques similaires si ce n'est que I'objet ne possède aucune face

concave.

Le troisième modèle représentant un ensemble de sphères, est un exemple classique où tous les objets

sont de révolution.

3.1.1. Les caractéristiques de la décomposition

Nous n'avons pas souhaité faire apparaître ici l'influence des tests de décomposition sur les temps de

calcul. Nous reviendrons plus en détail sur I'influence des paramètres de décomposition au

paragraphe 5.

Les caracteristiques retenues pour les tests d'arrêt sont :

nom taille ooti Ttail Inbob Ttaux Tvide nbo fen taux L chalæres 500 E x xhaltères 500 D x X x x 20 200 60 x xescalier

snhères

500 E x

escalier

sohères

500 D x X x x 20 200 60 X

87

Page 91: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

IValidation de lo méthode 88

3.1.2. Les temps de calcul

Les diftrents temps de calcul sont présentés en heures,

incluent de temps de prétraitement

en minutes ou en secondes. Le temps de traitement

sphères 500 E l2h 50 ' 2567 52540 5 8025 7 5t31625 26r

sphères 500 D 36" l 2 ' 30 " 7 486r 5 8025 5 8675 261

3.f3. Interprétationdesrésultats

Le graphique cidessous présente un histogramme des variations des temps de calcul (exprimés en

minutes) pour chacun des trois modèles. La variation des valeurs entre la méthode des englobants et celle

de décomposition est si importante que les graphiques des résultats de décomposition sont fortement

aplatis. Nous aurions pu atténuer cette différence en prenant une échelle de valeurs logarithmique mais

nous pensons qu'une importante disparité entre les colonnes symbolise mieux les diffërences exprimées par

les calculs.

Tempe de calcul

I 400I 200I 000800600400200

englobants 0décompo

sphères escaliers

On constate que le gain de temps est de 98.7% pour le modèle des haltères et de 98.22Yo pour I'escalier

et de 98.3% pour les sphères. Pour I'ensemble de scènes que nous avons testees, le gain de temps calculé

uniquement sur les rayons primaires et d'ombrage n'est jamais descendu en deçà de 94oÂ. Les gains

minimaux ont été obtenus pour des scènes dont le taux de remplissage de I'image était proche des 100%,

dans ces conditions, la décomposition adaptative ne peut isoler des zones vides d'information, le gain de

temps est du uniquement à la diminution de la complexité dans chacune des sous-fenêtres, les performances

ont donc naturellement tendance à baisser.

nom taille optlm pré trarte pnm prim E omb omb E

haltères 500 E 22h 18 t57700700 48120 r95 99728 6325

haltères 500 D 29" 17'20" 74766 48t20 50452 632s

escalier 500 E 3h 45', 73794254 97 537 25t05370 20010

escalier 500 D 8 4' 06" t0327 4 97 537 155810 20010

Page 92: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Volidation de la methode 89

Une comparaison tout aussi importante est celle effectuée sur le nombre de rayons calculés. Si le

nombre d'intersections effectives est identique pour les deux méthodes d'optimisation, le nombre de rayons

calculés est par contre très diftérent.

La complexité de I'algorithme de base du trace de rayons est en O(F). Pour une image de PxP pixels

contenant F faces, le nombre de calculs d'intersections est de PxPxF. Pour les modèles analysés, le nombre

théorique des rayons primaires est de 2.7675 108 pour les sphères, de 0.735 108 pour les escaliers et de

1.75 108 pour les haltères.

Si I'on exprime le nombre de rayons primaires calculés par rapport au nombre de rayons primaires

effectifs, le taux de calcul de rayons "inutiles" est de 99.993o2o pour les sphères, de 99.87v" pour les escaliers

etde99.97v" pour les haltères. L'utilisation des englobants ne diminue pas fortement ces chiftes puisque

nous obtenons des taux de 99.98n pour les sphères, de 99.85x pour les escaliers et de 99.96N pour les

haltères.

Si I'on regarde maintenant l'histogramme présentant un comparatif entre les rayons effectifs primaires

des deux méthodes, on remarque que le taux de rayons "inutiles" chute très fortement lors de I'utilisation de

la décomposition adaptative.

Rayons primaires

300000000

250000000

200000000

I 50000000

l 00000000

50000000

0

bou les

Il devient égal à 46ozo pour les haltères, à 6z pour les escaliers et à 32v" pour les sphères. Le fort

pourcentage realisé pour le calcul des escaliers est dû à deux choses. La première est que la scène ne

comporte que des éléments dont la forme est bien approchée par le volume englobant parallépipèdique. La

seconde est que les objets sont relativement concentrés, ce qui permet d'avoir très peu de rayons ne coupant

aucun objet. De manière générale on se situe plus aux alentours de 30 ozo de rayons calculés inutilement.

pnm

D

pnm

E

Page 93: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validation de la méthode 90

Bien que les sources lumineuses soient définies comme un observateur, nous ne retrouvons p:!s au

niveau des rayons d'ombrage les mêmes rapports de valeurs que pour les rayons primaires. L'histogramme

cidessous possède une configuration similaire à celui des rayons primaires mais les rapports de valeurs

sont moins importants.

Rayonc d 'ombrage

Le taux de rayons d'ombrage calculés inutilement avec la méthode des englobants est respectivement

de99.97u" pour les haltères, de 99.99v" pour les sphères et de 99.93v" pour les escaliers. Le même calcul

effectué avec la méthode de décomposition donne des résultats de 88x pour les haltères, de99.6v" pour les

sphères et de 87ozo pour les escaliers. La très mauvaise performance des rayons d'ombrage des sphères est

due au fait que la source lumineuse est placée pratiquement sur I'oeil, les objets étant éclairés plein champ,

le nombre de rayons d'ombrage effectif devient très faible par rapport au nombre de rayons calculés (autant

que de rayons primaires). Dans ces conditions, les résultats ne sont pas très significatifs, le gain moyen

calculé sur I'ensemble des scènes traité est plus proche de 80ozo.

3.1.4. Conclusion

Les résultats de tests ont montré tout l'intérêt de I'application d'une décomposition adaptative aux rayons

primaires et aux rayons d'ombrage. La méthode a permis de diminuer considérablement les temps de calcul

en limitant I'application de I'algorithme à des zones spécifiques. Les temps de prétraitement ne sont

aucunement pénalisant. En effet, pour I'image des haltères qui est une des images calculee le plus

rapidement, le temps de décomposition ne représente que 3x du temps total, il n'est plus que de l,2x pour

la scène du moyeu et représente moins de 0.5o2" pour la scène de la bouteille. Audelà des temps de calcul le

point important est la forte diminution des rayons primaires inutiles et à un degré moindre, les rayons

d'ombrage. La méthode idéale étant celle qui permettra d'obtenir un pourcentage de rayons non effectifs

égal à zéro. Toutes les images sont référencées à I'annexe2.Le graphique cidessous présente les gains de

temps pour différents taux d'occupation de I'image.

Page 94: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validation de la méthode 9 t

1 0 0

g4 9 5

a

I

ns

90

e

n8 5

o/o

80

25.% 5096 75* 100%

taux d'occupation de I'inuge

3.2. Optimisation des rayons primaires, d'ombrages et réfléchis

Si la forme des objets n'influe pas le choix de I'optimisation des rayons primaires et d'ombrage, elle va

déterminer le choix des options retenues pour les rayons réfléchis ou réfractés. On a vu au chapitre 3 que

nous ne pouvions pas rechercher d'observateur symétrique si I'objet était de révolution. Si le cas se

présente, nous changeons automatiquement la méthode d'optimisation pour analyser I'objet en ne

considérant que les englobants. Ceci entraîne une dégradation des performances, nous proposons, à travers

plusieurs exemples, d'évaluer I'influence de la géométrie des objets spéculaires sur les temps de calcul des

lmages.

3.2.1. Les caractéristiques de la décomposition

Comme pour le paragraphe 3.1 nous limitons la présentation des résultats aux exemples

caractéristiques permettant de montrer les avantages et les problèmes liés à la méthode. La première

scène (escalier), la plus favorable, ne contiendra que des faces réfléchissantes planes. La seconde

(bouteille) sera un panaché de faces réfléchissantes planes et de révolution. Enfin toujours la scène des

sphères où tous les objets réfléchissants seront de révolution.

Les caractéristiques retenues pour les tests d'arrêt sont :

nom taille optl Ttail Tnbob Ttaux Tvide nbo fen taux L

escalier 500 E X

escalier 500 D X X X X 20 200 60 X

bouteille 500 E X

bouteille 500 D X X X X t0 400 60 X

sphères 500 E X

sphères 500 D X X X X l0 400 60 X

Page 95: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validation de lo méthode 92

3.2.2. Les temps de calcul

Les tableaux ci-dessous présentent les temps de calcul des différentes images référencées en

annexe 2.

Temps de calcul ouand 33% des sphères sont réfléchissantes

Temps de calcul quand 100% des sphères sont réfléchissantes

Temos de calcul de la scène bouteille avec uniouement le plateau réfléchissant

Temos de calcul de la scène bouteille avec plateau et velres réfléchissants

nom taille opttm pré trarte pnm prim E sec SEC E omb omb E

escalier 500 E 5h 06' 7 4977 350 77777 2086 I 800 607 5 22950 r50 I 0825

escalier 500 D 14" g' 30" 92326 77777 70724 607 5 83 850 I 0825

emDS qe CalCUl qUanq J J7o OeS SpnerES Son rgrrgc

nom taille optim pre trarte pnm prim E sec SEC E omb omb E

sphères500 E zrh 15' 3 3 05 12400 12437 4 53987472 6899 1683761502224

sphères 500 D 17" 3h30' 15865 I 12437 4 53987472 6899 131273 2224

emps Oe CalCul quan0 LUUTo qes Spneres SCnt rgilecnrssan

nom taille optlm pre trarte pnm prim E sec SEC E omb omb E

sphères 500 E 26h 20'. 3 3 05 12400 12437 4 16118870423348 186923t25 4897

sphères 500 D 17" rOh 12' 15865 I t2437 4 t 6 l 1 8 8 7 0 4 23348 r47722 4897

emDs oe calcul oe la scene Doutellle avec unlquement te plateau re ecrussan

nom taille opttm pré trarte pnm prim E sec SEC E omb omb E

bouteille 500 E 34h 5465 I 8575 8 1043 105649900I 8588 181317250117786

bouteille 500 D 3h 06 t24951 8 1043 48572322 1 8 5 8 8 99631 I 1786

em calcul oe ta scene ute e a ec

nom taille optlm pre trarte pnm prim E sec SEC E omb omb E

bouteille 500 E 36h 55 5465 I 8575 8 1043 t4379530024180 t9203237 5 l3 80

bouteille500 D 35" 5h l 0 t24951 81403 855 26214 24180 I 65223 l3 80

Page 96: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validation de la methode 93

3.2.3. Interprétation des résultats

3.2.3.1. Scènes ne contenant que des objets réfléchissants de révolution

Le cas le moins favorable à I'application d'une décomposition adaptative reste une scène ne

contenant que des objets réfléchissants de révolution. Nous nuancerons cette affirmation en precisant

que seuls les calculs liés aux rayons secondaires diminuent les temps de calcul, les optimisations

appliquées aux rayons primaires et, à un degré moindre, aux rayons d'ombrage permettant toujours

de diminuer les coûts de traitement dans les proportions définies au paragraphe 3.l.

La visualisation des temps de calcul pour une scène dont 33ozo des objets sont spéculaires montre

une différence sensible entre les temps des englobants et les temps des decompositions. Avec un tiers

d'objets réfléchissant les gains chutent en moyenne aux alentours de 83ozo, ils ne représentent plus

que 62u"pour une scène où tous les objets sont de révolution et réfléchissants.

Temps de calcul

330Â

Ternps de calcull00o/o

Sphères

Englobants

Cette différence est encore plus marquée si I'on compare les histogrammes des difiérents types de

rayons.

Comparaison des Rayons

33o/o

500000000

Englobants

Decompo

Englobants

Page 97: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validation de la méthode 94

Comparaison des Rayonst00%

Englobants

3 50000000

300000000250000000200000000I 50000000I 00000000500000000Decompo

On remarque que la dégradation des temps de calcul est essentiellement due au fait que le nombrede rayons secondaires calculés est identique pour les deux méthodes d,optimisation. Ladécomposition adaptative n'est plus appliquée que sur les rayons primaires et d'ombrage.

3'2'3'2' Scènes contenant des objets réfléchissants de type plan et des objets derévolution

La deuxième série de tests a été effectuée sur des scènes plus représentatives d'une certaineréalité' En effet, il est courant de trouver au sein d'une même image des objets spéculaires derévolution et des objets spéculaires de type plan. Pour des scènes où cohabitent les deux formes desurfaces réfléchissantes, il est possible de réaliser une application partielle et sélective de ladécomposition adaptative. Une analyse du contenu singularise I'optimisation appliquée à chacun desobjets et particularise les choix effectués pour chacune des faces. Afin de valider la méthode dedécomposition adaptative sur de telles sortes des scènes nous avons défini le modèle de la bouteilleoù I'on trouve des objets strictement de révolution comme les verres ou la bouteille et des objetsmixtes cornme le plateau présentant la particularité d'avoir des grandes faces planes réfléchissantes(le fond) et de petites faces de révolution (les bords).

Comme pour la scène des sphères nous avons graduellement augmenté le nombre d,objetsréfléchissants de révolution. La première série de calculs présentés au paragraphe 3.2.2correspond àla scène de la bouteille où seul le plateau est réfléchissant. Une représentation des temps de calculmontre la dégradation des performances en fonction du pourcentage d'objets spéculaires derévolution pris en compte pour la scène de la bouteille. Si le calcul ne prend en compte que Z1otod'objets spéculaires ( uniquement le plateau), les gains de temps par rapport à ta méthode desenglobants est de I'ordre de 9lozo. Ce gain avoisine les 87x si I'on considère comme réfléchissant tousles objets de révolution de Ia scène.

Page 98: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validation de lo méthode 95

Gains suivant le pourcentage d'objet de révolution

9 l

90

E988878685

2Ao/o

Cette diminution des performances corrobore la tendance exprimée lors de l'analyse de scènes ne

contenant que des objets de révolution. Cependant, la présence d'importantes faces planes

réfléchissantes, donc la possibilité d'appliquer une décomposition adaptative, permet de conserver en

moyenne des gains proches de 90y". Cette dégradation des performances se retrouve au niveau des

rayons secondaires et d'ombrage calculés inutilement. Les histogrammes cidessous présentent cette

variation en fonction du pourcentage d'objets réfléchissant de la scène.

Comparabon des Rayons

secondsires

Pourcentage de rayons secondaires

calculés inutilement

La baisse de performance est nettement moins sensible au niveau des rayons d'ombrage.

Le rapport entre le nombre de rayons calculés par la méthode des englobants et par la méthode de

décomposition est toujours aussi important. Nous n'effectuons ici aucune analyse sur le nombre de

rayons d'ombrage calculés inutilement par les deux méthodes, cette valeur est peu significative, le

nombre d'intersections effectives étant trop dépendant de la position des sources lumineuses.

100

100%

Page 99: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

IValidation de la methode 96

Comparaison des Rayons

d'ombrage

Englobants

Decompo

3.2.3.3. Scènes ne contenant que des objets réfléchissants de type plan

Le cas le plus favorable à I'utilisation d'une optimisation par décomposition est une scène ou toutes

les faces spéculaires sont planes. On retrouve des différences identiques aussi bien au niveau des temps

de calcul qu'au niveau des rayons primaires, des rayons d'ombrage mais aussi des rayons secondaires

réfractés. Les histogrammes cidessous visualisent pour les quatre paramètres les rapports de valeurs

pour la scène de I'escalier.

Temps de calcul

400

escalier

3002001000

Temps ETemps D

Rayons primaires

800000006000000040000000200000000

escalier

Ravons secondaires

escalier

Secon E

Rayons ombrage

escalier-

3000000020000000100000000

Ombr E Ombr D

Page 100: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validotion de la methode

L'information importante que I'on doit ressortir de I'analyse des histogrammes est que lon a,

grandeur d'échelle mis à part, une variation pratiquement identique des rayons primaires, d'ombrage et

secondaires. Cet écart entre les méthodes est de 98.8% pour les rayons primaires, de 97% pour les

rayons secondaires et les rayons d'ombrage. Cette variation quasiment lineaire fait que les

performances, au niveau des temps de calcul, ne sont pas dégradees si les faces réflechissantes

appartiennent à des objets de type plan. Le gain moyen pour I'ensemble des scènes testees ne contenant

que des objets opaques est de I'ordre de 98v". Nous retrouvons les mêmes performances pour des scènes

ne contenant que des miroirs plans puisque les gains avoisinent les 97x toujours par rapport à la

méthode des englobants. Il semble utile de préciser que les temps de décomposition varient suivant les

mêmes proportions et que le coût global de prétraitement n'a jamais excedé 4oz" du temps total, pour les

images les calculs les plus rapides (quelques minutes) et reste nettement inferieur à lz" pour des images

nécessitant des temps de calculs de I'ordre de I'heure.

3.2.4. Conclusion

L'application de la décomposition adaptative aux scènes contenant des objets spéculaires a montré

que les performances étaient fortement liées à la géométrie des objets. Pour des scènes ne contenant que

des objets de révolution réfléchissants, I'utilisation des englobants comme unique optimisation des

rayons secondaires pénalise fortement les temps de calcul. L'idéal serait d'utiliser une méthode

d'optimisation plus adaptæ au traitement des rayons secondaires comme les octree. Néanmoins, pour

I'ensemble des scènes que nous avons analysées, le gain le plus faible, pour des scènes entièrement

composees d'objets de révolution, approche les 60ozo. Par contre si la scène contient des surfaces

speculaires de type plan et de révolution, on mélange pour les rayons secondaires des optimisations par

décomposition et des optimisations utilisant des englobants, dans ces conditions, les gains avoisinent les

80ozo. On retrouve le même niveau de performance identique aux rayons primaires et d'ombrage, pour les

rayons secondaires, si la scène ne contient que des miroirs de type plan. Dans ce cas la courbe des gains

est pratiquement lineaire et la dégradation des performances liees à I'utilisation d'une décomposition

adaptative est pratiquement nulle. Le graphique cidessous récapitule les gains de temps pour les

différents types d'objets réfléchissants en faisant varier la proportion d'objets speculaires à l'intérieur

d'une même scène.

97

Page 101: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validation de la m&hode 98

*- iliroir-# Mixtc-tF iliroir Plan

1009 g sa. 9 0t 8 5n

80t 7 s

70

" 6 8n80

"h 5550

o% 30% 60% 1@96

taux de presence des formes de miroir

3.3. optimisation des rayons primaires, d'ombrage et réfractés

Comme nous avons analysé I'influence de la géométrie des objets spéculaires sur le temps de calcul,nous nous proposons de réaliser la même démarche pour les objets transparents. Nous avions défini leslimites de I'application de la décomposition adaptative aux objets transparents au chapitre 3. Comme pourles objets spéculaires nous avons choisi un nombre limité d'exemples de scènes couwant le plus largeéventail possible de situations. Pour cela nous présentons les calculs realisés sur deux scenes type: la poulieet les haltères (voir annexe l).

3.3.1. Les caractéristiques de la décomposition

Comme pour le paragraphe 3.1 nous limitons la présentation des résultats aux exemplescaracteristiques permettant de montrer les avantages et les problèmes liés à la méthode. Nous avonschoisi, pour illustrer nos propos, le modèle des haltères et celui de la poulie.

nom taille opti Ttail Tnbob Ttaux Tvide nbo fen taux L chaltères 500 E x xhaltères 500 D X X x x t0 100 60 x Xpoulie 500 E x xpoulie 500 D X x x x l 0 400 60 x x

Page 102: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validdion de la methode

3.3.2. les temps de calcul

Nous avons choisi la scène des haltères parce qu'elle permet de représenter les cas extrêmes à

I'application de la méthode de decomposition. La surface parallépipèdique symbolise une vitre à travers

laquelle nous apercevons un ensemble d'objets. Nous analyserons cette scene pour un coefficient de

transparence différent de I et pour un coefficient égal à L

Le premier point correspond à une situation où une scène entièrement we à travers une vitre est

déformee par la diftaction de la lumière dans la matière. Dans ces conditions, on ne peut utiliser la

decomposition adaptative pour calculer les rayons réfractés, elle ne pourra s'appliquer qu'aux rayons

primaires et d'ombrage et uniquement pour I'objet transparent.

La seconde image calculee sera toujours la scene des haltères we à travers une vitre mais cette fois,

le coefficient de réfraction sera égal à L L'image ne subit aucune déformation due à la réfraction, nous

pouvons utiliser une optimisation par décomposition.

La deuxième scène analysée sera celle de la poulie pour laquelle plusieurs pièces seront

transparentes. Nous avons choisi ce modèle pour représenter des images où des objets seront

partiellement vus à travers des surfaces transparentes.

Le coefficient de difiérent de I

Le coefficient de différent

Le coefficient

99

T

est

nom taille ontin pre traite Dnm orim E sec sec E omb omb E

haltères 500 E 90h 53' 1785 17500 158000223370000 t65275225t93t50 t65275

haltères 500 D 45" 3 lh 28' 160000 158000223370000 t65275 225t93150 165275

Le coefficient de est à l

nom taille ontin Dre traite Dnm Drim E sec sec E omb omb E

haltères 500 E 92h 1785 17500 170973 223370000t75758 225t93r50 t96502

haltères 500 D l ' 7 " 53' r91565 t70973 34t946 175758 346731 196502

est drttérent <le I (0.

nom taille ootin pre traite Dnm prim E sec sec E omb omb E

ooulie 500 E 300 h 28790700 r7756r408261600295t441025 13250(397r24

noulie 500 D l ' 54 ' 85h 2s l00r 177561223370000 295t44 9962tr 397r24

de est a

nom taille f,Dtrm Dre traiæ Dnm orim E s9c sec E omb omb E

ooulie 500 E 300 h 28790700 I 1756140E261600295r44 r02132500397t24poulie 500 D 26" 78h 25 l00 l 1775612207s4196295144 9454t0 397t24

Page 103: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validation de la methode 100

3.3.3. Interprétation des résultats

Analyse des valeurs

Lorsque les caractéristiques des objets permettent la mise en oeuvre de la méthode de

décomposition, on retrouve un peu les mêmes niveaux de performances, que ce soit pour les rayons

primaires, réfléchis ou réfractés. Les diffërents graphiques présentés cidessous confirment la

tendance que I'on dégageait de I'analyse des rayons primaires et réfractés lorsque le coefficient de

réfraction est égal à l. On remarque par contre que la diftrence des temps de calcul entre une

optimisation par décomposition et une optimisation par englobant se réduit pour retrouver des gains

proches de 60ozo.

Temps de celcul Tempr de celcul

6000

5000

4000

Englobentr20001000

0 Decompo

coefficient = I

On retrouve les mêmes tendances

et les intersections effectives.

Etude der reyonrcoelllcient = I

coefficient <> I

si on analyse le comparatif entre les rayons primaires calculés

Etude der reyonrcoefficient o I

Par contre, le comparatifdes rayons secondaires présente une toute autre configuration.

Page 104: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validation de la methode

La diffërence au niveau des temps de calcul s'explique essentiellement par la différence du

nombre de rayons secondaires calculés. Lorsque le coefficient de I'objet transparent est différent de

un, on ne peut plus appliquer une optimisation par décomposition adaptative, nous sonrmes obligés

de calculer les rayons réfractés en utilisant uniquement les englobants d'objets.

Nous retrouvons la même forme de graphique pour les rayons d'ombrage.

Etude der reyontcoeflicient = I

Rayonr d'ombragecoefficient = I

Etude der reyonrcoeflicient o I

Rayonr d'ombragecoeffcient o I

250000000

200000000

150000000

100000000

50000000

3.3.4. Conclusion

Nous avons choisi deux exemples significatifs permettant de mettre en évidence l'importante

variation possible des gains en fonction des caractéristiques optiques des matériaux. Temps de calcul à

l'appui, on remarque que les objets transparents restent ce qu'il y a de plus pénalisant pour la méthode.

Ceci s'explique par la nécessité de calculer le rayon qui traverse la matière. Néanmoins, les gains sont

fortement dépendants du coefficient de réfraction des objets transparents. Dans certain cas les rayons

traversent la matière sans subire de déviation nous pouvons appliquer la méthode de décomposition

adaptative. Dans ce cas on retrouve des niveaux de performance supérieur ù 95"t". Par contre si le

coefficient de réfraction est diffërent de un, les gains peuvent, en fonction du pourcentage d'objets

transparents de la scène, chuter jusqu'à des valeurs avoisinant les 65ozo.

Page 105: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validotion de la méthode 102

4. INFLUENCE DES TESTS D'ARRET

Dans I'optique d'une adaptation automatique des tests et de leur valeur à la scène, nous avons étudié

I'influence des tests sur le temps de calcul afin de trouver le meilleur compromis possible en fonction du

nombre d'objets et de leur répartition. Une première partie de l'étude a consisté à trouver les meilleures valeurs

pour les tests de "fenêtre minimum","nb obiets","taux d'occupation".Une seconde partie a consisté àtrouver

la meilleure organisation des tests d'arrêt en fonction du contenu de la scene. Nous proposons ensuite une

organisation et des valeurs pour les tests d'arrêt en fonction d'un type de scène. Les choix proposés ne sont que

la conclusion d'une suite de tests effectués sur des scènes types, ils seront donc sujet à débat.

4.1. Recherche des yaleurs à attribuer aux pâramètres

Afin de trouver le meilleur compromis pour les valeurs des tests d'arrêt, nous avons choisi des scènes

différentes de part I'organisation et la taille des faces des objets. Pour chacune de ces scènes nous avons fait

varier un à un les différents paramètres et nous avons relevé les temps de calcul pour chacune des images.

4.1.1. Variation du nombre d'objets par sous-fenêtre

Nous avons analysé dans un premier temps l'influence du nombre d'objets maximum dans une sous-

fenêtre de décomposition. Nous avons effectué une analyse sur I'ensemble des scenes mais nous ne

présentons les résultats chiffrés que de deux exemples significatifs, à savoir I'escalier et les sphères. La

première des deux scènes est constituée à la fois de grandes faces planes et de petites faces de

révolution, la scène présente à la fois une grande concentration d'objets au niveau de l'æ<e de I'escalier et

des zones ne contenant que très peu d'objets. La seconde scène à comme particularité de présenter des

zones bien séparees dans lesquelles on trouve des concentrations importantes de faces toujours de petites

dimensions.

Pour effectuer les relevés de temps de calcul, nous avons fixé les autres paramètres à savoir la taille

de la fenêtre minimale et le taux d'occupation.

Escalier: 284 faces . tous les obiets sont opaques, taille de I'image 200X200

Nb Obiets Fenêtre min Taux Prétraitement Traiæment

40 200 60 5u 2'.12"

30 200 60 7" r'32"

20 200 60 12" 58"

l 0 200 60 l5 ' 43"

) 200 60 21" L',23"

Page 106: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validatian de Ia méthode 103

: 1296 faces tous les ob sont taille de 200x200

Nb Obiets Fenêtre min Taux Prétraitement Traitement

40 200 60 36trr1 l4'2r"

30 200 60 45u', l0 '38"

20 200 60 I r05 rr l 1'.45"

l0 200 60 l'37" 6'38"

) 200 60 1 '5 I " 8'10u

Afin de réaliser une analyse comparative plus explicite nous regroupons sur un même graphique les

courbes des temps de calcul trouvées pour I'ensemble des scenes testees.

Une analyse des résultats fait ressortir une valeur pour laquelle les temps de calcul présentent un

extremum. En deçà d'un nombre d'objets se situant aux environs de 10, la courbe des calculs a tendance

à s'infléchir et à remonter. Cette augmentation s'explique par les temps d'évaluation d'un arbre de

decomposition plus important. Ce n'est aucunement un accroissement du temps de decomposition qui

pénalise le plus les résultats, celui n'excède pas quelques secondes. Le ralentissement des calculs est du

uniquement à l'évaluation accrue de I'arbre de décomposition.

4.1.2. Variation de la valeur du taux d'occupation

Il est relativement difficile d'évaluer seule I'influence de la variation du taux d'occupation sur les

temps de calcul. En effet ce paramètre n'est jamais utilisé comme test d'arrêt unique, il se combine

obligatoirement avec la taille de la sous-fenêtre ou le nombre d'objets.

22e 2 06reEru.Ë 14

Et,o 1 0; 8+6ô 4F 2

o

l

Page 107: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validotion de la methode

La valeur affectee au taux d'occupation va varier en fonction du type de scène analysée. Nous

n'avons pas trouvé une valeur, comme pour le test nombre d'objets ou le test taille minimale de la

fenêtre, qui puisse convenir pour tous les types de scène. Si les objets de la scène ont tendance à être

concentrés sur une partie de I'image, donner une valeur élevée au taux d'occupation, associé au

paramètre nombre d'objets va permettre de limiter rapidement la décomposition. Par contre si les objets

sont clairsemés, attribuer une valeur faible au taux d'occupation va faire apparaître plus facilement des

zones vides d'information. C'est pourquoi nous avons utilisé un taux d'occupation de I'ordre de 7(hz" pour

des images comme la poulie, les escaliers, taux que nous avons ramené ù 40v' pour des scènes

présentamt une séparation nette des objets comme les sphères ou même certaines vues du moyeu.

4.1.3. Variation de la taille de la sous-fenêtre

La taille de la sous-fenêtre est certainement le paramètre le plus influent pour la décomposition

adaptative. Si les deux tests précédents, à savoir le taux d'occupation et le nombre d'objets minimum,

n'étaient que des tests d'orientation, celui de la taille minimale de la subdivision est en plus un test

d'arrêt. Il se situe, dans I'analyse, au même niveau quefenêffe vide etéIément unique. La constitution

d'une maquette [GAR 9l] avait permis de déterminer une sous fenêtre en deçà de laquelle les

performances se détérioraient. Cette première étude, appliquee uniquement aux rayons primaires et

d'ombrage, faisait ressortir que le meilleur compromis de taille pour une subdivision minimale était le

10000 ème d'une fenêtre originale de 1000 par 1000 pixels soit une sous-fenêtre de 100 pixels. Nous

avons souhaité confirmer ces résultats en analysant I'influence de la taille de cette sous-fenêtre non

seulement sur les rayons primaires et d'ombrage mais aussi sur les rayons secondaires. Pour cela nous

avons choisi un jeu de tests ou les scènes présentaient obligatoirement des objets spéculaires ou

transparents. Afin de mieux juger de I'influence du test nous nous sommes placés dans des conditions

favorables à la décomposition adaptative, c'est à dire que toutes les faces spéculaires sont planes et les

faces transparentes ont un coefficient de réfraction égal à un. Nous ne présentons que deux résultats

chiffiés correspondants à la scène de I'escalier, nous ferons apparaître uniquement sur le graphique les

résultats de I'analyse des autres scènes.

104

Escalier: 284 faces. le sol est réflechissant. taille de 500x500

Nb Obiets Fenêtre min Taux Prétraitement Traitement

l0 2500 (50x50) 60 3 n 2l'12"

l0 900 (30x30) 60 7" 14'23"

10 400 (20x20) 60 12" 7'.20"

Page 108: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validûion de la méthode 105

l0 100 ( l0xl0) 60 23" 5 '06u

l0 50 (10x5) 60 33 ' 5',54u

l0 l0 (5x2) 60 4 l ' 6'35n

l0 5 (5xl) 60 l ' l0u l l '

i

Escalier: 284 faces. le sol

Nous présentons I'ensemble des résultats sur les graphiques cidessous.

80726456

ternns ce fftraitement 32

900 400 100 50 10

Analyse des objets spéculaires

est taille de I'image 500x500

Nb Obiets Fenêtre min Taux Prétraitement Traitement

l0 2500 (50x50) 60 7" 4l'12"

l0 900 (30x30) 60 l l ' 28 ' l3n

l0 400 (20x20) 60 I 9uu 2l'28"

l0 100 ( lOxl0) 60 27" I l ' 2 l u

l0 50 (10x5) 60 39' r2'34ul0 l0 (5x2) 60 5 l ' l4'55n

l0 5 (5xl) 60 1'30u l8 '35'

Page 109: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validqtion de la méthode 106

__l

9688807264

temps o" 13traitement 40

L'allure générale des deux séries de courbes confirme les résultats trouvés lors de la réalisation de lapremière maquette. On trouve une valeur de seuil se situant dans un intervalle allant de 50 à 100. En

deçà d'une sous-fenêtre de ceffe valeur, la méthode de décomposition adaptative est fortement pénalisee.

Les temps de calcul augmentent fortement si I'on décompose jusqu'à obtenir des sous-fenêtres proches

du pixel. En effet, I'arbre de decomposition devenant plus profond et les sous-fenêtres plus petites, à la

fin de l'étude d'une subdivision on devra à nouveau parcourir l'arborescence afin de trouver la plus petite

sous-fenêtre contenant le prochain point d'intersection. Une recherche sur un arbre quaternaire a une

complexité qui est O(H) où H est la hauteur de I'arbre, répéter cette recherche pour les rayons primaires,

d'ombrage, secondaires et d'ombrage secondaire diminue les performances globales de la méthode.

4.1.4. Conclusion

Une analyse effectuée sur les diftrents paramètres de la décomposition a permis de trouver un

ensemble de valeurs pour lesquelles les performances semblent optimum. Il est évident que ces valeurs

sont spécifiques à I'application que nous avons développée et ne peuvent être généralisees sansprécaution à toutes les méthodes utilisant des décompositions. Cependant on a montré, chiffies à I'appui,qu'un échantillonnage excessif peut intrduire une explosion des temps de calcul et que la meilleure

sous-fenêtre se situe entre 50 et 100 pixels. On a montré qu'il était plus intéressant de traiter

"intelligemment" des sous-fenêtres contenant un nombre d'objets proche de l0 plutôt que de décomposer

abusivement sans tenir compte du contenu des subdivisions.

4.2. Choir des tests d'arrêt

Toujours dans un souci d'améliorer des performances de calcul nous nous sommes inænogés sur la

necessité d'avoir en pennanence tous les tests liés à la decomposition ? Est-il possible de dégager, des

scàres analysees, un certain nombre de caractéristiques permettânt de limiter le nombre de tests mis enoeuvre ?

Page 110: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validûion de la méthode

Si nous avons défini ces tests dans un cadre global il est évident que nous pouvons trouver desscènes très particulières pour lesquelles nous avons la capacité de limiter la prise en compte de certainstests. L'idéal serait qu'une analyse détermine automatiquement quels seront les tests nécessaires à unedécomposition optimale. Dans la version actuelle de la decomposition adaptative le choix estentièrement laissé à l'initiative de I'opérateur, il a la possibilité de modifier les tests mis en oeuvre ensélectionnant simplement le champ test à l'écran. Nous ne prétendons pas donner ici une liste exhaustivedes scènes pour lesquelles nous pouvons restreindre les tests mis en oeuwe, ceci sera I'objet d'une étudeultérieure. Nous essayons seulement de mettre en évidence des situations particulières pour lesquellesune rapide analyse peut encore améliorer les traitements.

4.2.1. Scènes occupant toute la fenêtre

Il est courant de trouver, dans les images de synthèse dédiées à la conception artistique plus qu'enCAO mécanique, des scènes ne présentant aucune zone vide d'information. pour ce genre de scene letestdefenêtre vide perdtout son sens et devient obsolète. Il devient alors inutile de le considérer lors dela décomposition. Il semble évident que la non prise en compte d'un tel test n'aura pas, dans ce cas, unerépercussion importante sur le temps global de calcul. En effet, ne pi6 considérer le test de fenêtre videpeut éventuellement diminuer les temps de prétraitement mais ceux-ci ne représentent souvent qu'uneinfime partie du temps total de calcul d'image. L'intérêt est d'affiner une analyse en exploitant au mieuxdes connaissances issues d'une analvse du contenu.

4.2.2. Scènes ne contenant qu'un objet.

C'est un exemple de scènes particulières où seul le test objet unique est à considérer. Les tests lesrTaux,fenêtre min etnb objets ne sont plus significatifs. Là encore, l'influence sur les temps de calcul est àdémontrer, cependant il semble que les optimisations à venir dewont obligatoirement passer par unemeilleure compréhension du contenu. Audelà d'une simple optimisation de I'utilisation de tests, il fautcomprendre qu'une analyse adaptative permet de rationaliser les traitements même si ceux que nous avonsdécrit peuvent sembler parfois simplistes.

4,2.3. Scènes où les objets sont séparés

La dernière forme d'organisation des objets permettant de sélectionner plus particulièrement certainstests est une scène où les objets sont séparés. La figure cidessous présente une scène composee dequatre objets n'ayant aucune intersection entre eux.

107

Page 111: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validation de la méthode 108

fenêtre

E',;l G;-lI I

gl [1_lL'utilisation du test de taux d'occupation devient inutile à condition de choisir pour le test nb Objets

une valeur inferieure à 4. Une decomposition de la scène isolera les quatre objets et permettra de

simplifier le traitement à I'intérieur de chacune des sous-fenêtres. Là encore, I'exemple choisi peut

sembler simpliste mais il est plus important de retenir la démarche plus que le résultat.

4.2.4. Conclusion

Bien que nous n'ayont pas effectué une étude chiffrée de I'inlluence d'une prise en compte partielle

des tests d'arrêt, nous pensons qu'il est important d'adapter les tests liés à la décomposition. Nous avons

dégagé une liste non exhaustive de situations pour lesquelles tous les tests n'étaient pas obligatoires.

Etre en mesure de trouver automatiquement, pour une scène quelconque, le meilleur compromis au

niveau des tests d'arrêt reste une idée très intéressante qui peut sans doute être étendu à des notions plus

générales comme par exemple la déduction automat:que des optimisations à mettre en oeuwe. On peut

imaginer un système capable de deduire automatiquement, en fonction d'une analyse du contenu, quels

sont les formes d'optimisation les plus adaptées à la situation rencontrée.

5. CONCLUSION

Les résultats obtenus ont montré tout I'intérêt d'une décomposition souple capable de s'adapter au contenu

de la scène analysee et aux compétences de I'opérateur. La séparation entre le traitement de la decomposition

et la gestion des tests d'arrêt permet de personnaliser le prétraitement à chacune des scènes donc d'optimiser les

traitements.

Il semble important de faire ressortir deux points forts de la méthode:

Page 112: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Validdion de la méthode

- La décomposition, qui peut être appliquée comme une tâche peut être considéree comme un modèle pour

I'accélération d'un grand nombre d'algorithmes de visualisation au moins pour le traitement des rayons

primaires et d'ombrage. Bien que son adaptabilité aux caractéristiques puisse encore être améliorée les gains

mesurés sur un ensemble de scènes représartatives ont prouvé la validite de la méthode. Ceux-ci varient,

suivant les caractéristiques geométriques et optiques des objets, entre 60 et99y..

- L'adaptabilité des algorithmes aux caractéristiques a permis d'améliorer la qualité de rendu liéegénéralement à un modèle à faces planes. Il est important que les algorithmes de visualisation ne soient pas

monotypes. La possibilité de modifier en oours de traitement les algorithmes d'optimisation ou de rendu sera

sans doute une nécessité pour les développements futurs. Iæ tracé de rayons n'étant qu'une méthode parmi

d'autres pour la visualisation en CAO on peut imaginer que le concept d'adaptabilité peut être élargi à des

notions de choix d'algorithmes ou de qualité de rendu.

109

Page 113: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Conclasion l l 0

Conclusion

Nous avons proposé avec la méthode de décomposition adaptative un principe d'analyse qui prolonge

les travaux antérieurs sur les optimisations par décomposition. En implantant fortement la notion

d'adaptabilité nous définissons une méthode d'analyse différente aussi bien dans la manière d'analyser le

contenu d'une scène que dans le choix des techniques d'optimisation à mettre en oeuwe. Nous avons vu

que la souplesse d'adaptation des algorithmes d'optimisation aux caractéristiques géométriques et

optiques des objets permettait de simuler correctement des effets lumineux complexes tout en ayant une

définition simple de la scène.

Plutôt qu'une décomposition statique de I'espace, utilisable pour l'étude des rayons primaires et

secondaires, par exemple une décomposition de type octree, nous avons préferé une decomposition qui

puisse s'adapter simplement à ce que pouvait voir I'observateur. En realité, la décomposition adaptative

sépare le traitement de ce qui est vu et de ce qui est éclairé. La décomposition associée aux difiërentes

sources lumineuses est indépendante du point de vue, il n'est donc pas nécessaire de la recalculer, si,

lors de la définition d'une animation, seul I'observateur est déplacé. Une decomposition spatiale ne

permet pas une application sélective des différents t)?es de rayons. En effet on est obligé pour chacun

des rayons primaires, secondaires et d'ombrage, de rechercher une intersection en effectuant la traversée

de la structure. Par contre, I'utilisation des projections d'objets permet de limiter le lané de rayons aux

strictes zones contenant de I'information. Il aurait été cependant très intéressant de pouvoir réaliser une

comparaison chiftée des deux approches.

La propagation d'une pyramide de visualisation a permis l'utilisation d'une décomposition surfacique

pour optimiser le calcul des rayons réfléchis ou réfractés. Cependant la méthode connaît des limiæs liees

essentiellement à la geométrie des objets et au coefficient de réfraction des objets transparents. Le

mixage de méthode d'optimisation a permis d'apporter une solution satisfaisante à ce problème en

effectuant automatiquement le choix de la méthode la plus adaptee aux contraintes de I'objet.

Page 114: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Conclusian

La réalisation a permis de valider les concepts et le bilan chiffré a confirmé I'intérêt de la méthode.

Un comparatif des images a montré la fidélité des résultats obtenus par rapport à une méthode plus

conventionnelle de traitement des rayons. Audelà des performances chronométriques, le point le plus

important reste le faible taux de rayons calculés inutilement. C'est-àdire que nous avons été en mesure

de cibler correctement les parties de I'image où se localisait I'information. L'application de I'algorithme

de tracé de rayons ne s'est pas faite de manière aveugle, la conjonction d'une analyse "réfléchie" et

adaptative de la scène ainsi que d'une application sélective d'algorithme favorise un accroissement

important des performances.

Les applications futures dewont sans aucun doute integrer dans leur fonctionnalité la modularité et

I'intéractivité. Nous avons partiellement incorporé ces deux notions en essayant de développer un outil

souple et convivial.

La modularité doit permettre une adaptation des algorithmes au t)?e de scène traite. Il est

difficilement concevable que les applications à venir ne soient pas en mesure de choisir I'algorithme le

plus adapte à chaque étape de la réalisation d'une image de synthèse. Cette notion se retrouve dans la

méthode de décomposition adaptative développee au LRIM. En effet, I'algorithme de visualisation

choisit actuellement la méthode d'optimisation la mieux adaptee à I'objet en cours de traitement. Cette

notion doit pouvoir facilement s'élargir à des concepts de plus haut niveau par exemple trouver le

meilleur algorithme de visualisation en fonction du modèle de représentation des objets.

L'interactivité doit permettre à I'opérateur d'agir simplement sur les paramètres de calcul de I'image

par exemple le modèle d'éclairage ou le niveau de réalisme recherché. L'interface que nous avons créxie

va dans ce sens en permettant à I'opérateur de choisir et de modifier de nombreux paramètres liés soit à

la décomposition, soit à la forme d'optimisation ou encore au modèle d'éclairement.

Nos recherches futures vont s'articuler autour de deux points importants. Le premier consistera à

augmenter la notion d'adaptabilité. La prochaine version de SACADO integrera un modeleur hybride

GSG Æ-REP. Nous souhaiterions, après une analyse de la scène la plus automatique possible, que le

module de visualisation choisisse les algorithmes les plus adaptes en fonction de caractéristiques fixees

par l'opérateur comme les temps de réponse ou le degré de réalisme. Le second point, enfin, serait de

porter la decomposition adaptative sur une machine à architecture parallèle. Associer à chacunes des

subdivisions un processeur devrait permettre d'améliorer les performances des algorithmes actuels.

Cependant afin d'éviter les problèmes liés à la communication entre processus il semble plus souhaitable

que chaque proc€sseur ait une connaissance globale de la scene ou mieux une restriction du contenu à

chaque sous-fenêtre. Les principes de décomposition et de propagation de faisceau semblent bien se

prêter à une telle approche.

l l l

Page 115: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Références b ibliogr ap h iq u es Lt2

Réferen ces bibliosraph iq ues

Page 116: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Réfé r en ce s b ib I iog rap h i q u es

Ouvrages de référence

AN INTRODUCTION TO RAY TRACING par Glassner A. éditions Academie press Londres

ALGORITHMES POAR L'INFOGRAPHIE par Rogers D.F. éditions Mac Graw Hill

COMPWER GRAPHICS: hînciples and proctices par Foley J. Van Dam Feiner A. Hughes J.editions Addison Weslev

LA CFAO par Gardan Y. editions Hermes Paris

L/l SYNTHESE D'IMAGE par Peroche B. Argence J. Ghazanfarpour D. Michelucci D.editions Hermes Paris

I t 3

Page 117: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Référ en c e s b ib liog ap h i q u e s 114

Références bibliographiques

[AMA 84] Amanatides J. "Ray tracing with cones" Compt. Graph. l8(3) 129-135 juillet 1984

[AKI 9l] Akimoto Takaaki, Mase kenji,Yasuhito Suenaga "Pixel-selected ray tracing" IEEECompt.Graph. & Appl. 14-22 juillet l99l

[APP 68] APPEL A. "Some techniques for shading machine renderings of solids" AFIPSconf. proc. Vol32 3745 1968

IARV 87] Arvo J., Kirk d. "Fast ray tracing by ray classification" Compt. Graph. 2l(4) 55-64 juillet 1987

[BOU 87] Bouatouch, Madini, Priol, Arnaldi "A new algorithm of space tracing using aCSG model" Eurographics 65-77 1987

[BOU 88] Bouatouch, Priol, Arnaldi "subdivision spatiale et modélisation CSG pour lelancé de rayon" Micad 88 391-407 1988

[BRO 84] Bronsvoort, Van Wijk, Jansen "Two methods for improving the eflicient of raytracing in solide modeling" Compt. Aided Desing 16 51-55 1984

[CAT 74] Catnul E.E "A subdivision algorithm for computer display of curved surfaces"Ph.D. thesis, University of Utha Computer science departement Salt lake ctt 1974

[CRO 82] Crow F.C. "A more flexible image generation environmentrr Computer Graphics16(3) pages 9 à 18 1982

ICLE S8l Cleary j., Wyvill G. "Analyse of an algorithm for fast ray tracing usinguniforme space subdivision" The Visual Compt. 4 65-83 1988

ICOH 85] Cohen M., Greenberg D.P. "The hemi-cube : A radiosity solution for complexenvironement" Computer Graphics no 19 vol 3 pages 3140 Juillet 1985SIGGRAPH'85

[COH 88] Cohen M., Chen E., Wallace R. Greenberg D.P. rrA progressive refinement approachto fast radiosity image generationf' Computer Graphics n" 22 vol4 pages 75-84 Aout1988 SIGGRAPH'88

[COH 92] Cohen D., Kaufinan A., Yagel R. I'Discrete Ray Tracing" pages 19 à 28IEEEComputer Graphics & Applications septembre 1992

[DEV 88] Deviller O., Puech C. Sillion F. "Efliciency of space subdivision structure for raytracing" Rapport de recherche 88-2 laboratoire d'informatique de I'ENS 45 rued'Ulm. 75230 Paris cedex 05 France mars 88

Page 118: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Réfé r en ces b ih Ii ogroph iq u es

[DEV 90J Deviller O., "The macro-région: an efficient space subdivision structure for raytracing'f Eurographics 27 -39 1990

[DIP 84] Dippe M., Swensen J. "An adaptative subdivision algorithm and parallelearchitecture for realistic image synthesis" Compt Graph vol l8 (3) 149-158 juillet1984

[EXC 37] Excoffier T., Tosan E. "une méthode d'optimisation pour le tracer de rayons"Micad 549-563 1987

IFUJ 851 Fujimura K. Kunii T.L. "A hierarchical space indexing method" dans Kunii edCompt. Graph.: Visual and art Poceeding of computer graphics tokyo'85 conferenceSpringer Verlag 2l-34 1985

[FUJ 86] Fujimoto A. Tanaka T. Iwata K. "ARTS: accelerated ray-tracing systeme" IEEECompt. Graph. Appl 6(a) 16-26 Avril 1986

[GAR 90] Gardan Y. Paul J.C. Vivian R. " Amélioration du calcul des images de synthèse parune analyse de la scène " GROPLAN 90 pages I à 13

IGAR 9ll Gardan Y. Lanuel Y. Vivian R. " Une décomposition adaptative pour le tracé derayons : méthode et résultats " GROPLAN 9l pages 47 à57

IGEB 6U Gebhart B. "Heat transfert" Mc Graw-Hill New York 1961

IGER 861 Gervautz M., "Three improvements of ray tracing algorithm for CSG trees'Compt. Graph. l0(4) 333-339 1986

IGHA 92] Ghazanfarpour D. "visualisation réaliste par lancer de pyramides et subdivisionadaptative'r Micad 1992

[GLA 84] Glassner A.S., "Space subdivision for fast ray tracing" IEEE Compt. Graph. &Appl a(10) 15-22 octobre 1984

IGRE 861 Greenberg D.P:, Haines E.A., "The light buffer: a shadows testing accelerator"Compt. Graph. & Appl. 6(9) 6-16 septembre 1986

[GOR 84] Goral C., Torrance K., Greenberg D.P., Battaile B. " Modeling the interaction oflight betwen diffuse surfaces" Computer Graphics no l8 vol 3 pages IL9-127 Juillet1984 SIGGRAPH'84

[HEC 841 Heckbert P.S., Hanrahan P., "Beam tracing polygonat objects" Compt. Graph.l8(3) ll9-r27 juillet 1984

IFIEG 87] Hegron G., "Dynamic management of 3D scenes" Eurographics'ï7 529-542

IJAH 9U Jahami G. "Pour un système de synthèse d'image souple et évolutifl'These dedocteur de l'université de Saint Etienne 2l Mars l99l

UAN 861 Jansen F.W. "Data structures for ray tracing" dans data structure for rastergraphics, proceeding workshop Eurographics seminars Springer verlag 1986 57-73

115

Page 119: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Réfërences b ib lîograp hiq ues

UEV 891 Jevans D., Wryill8., 'rAdaptative voxel subdivision for ray tracing" Compt.Interface'89 164-172

IJOY 86] Joy K.I. " Ray tracing parametric surface patches utilizing numerical techniquesand ray coherence" Siggraph'86279-285 1986

IKAP 86] Kaplan M.R "Space tracing a constany time ray trâcer". State of the art inimage Synthesis" (Siggraph '85 course note) vol I I juillet 85

[KAJ 82] IGjya J. T. "Ray tracing parametric patches" ACM computer graphics vol 16No3

IKAY 79] Kay D., Greenberg D.P. "Transparencey for computer synthesized images"Computer Graphics n" 13 vol2 pages 158-164 Août 1979 SIGGRAPH'79

IKAY 86] Kay T., Kajiya T. " Ray tracing complex scenes" Siggraph '86 269-278 1986

[Kt N 85] Kunii L.T. et Wyvill G. "CSG and ray tracing using fonctional primitives" danscomputer generated images Proceedings of graphics' ( Springer Verlag 137-1521985

ILAN 9U Lanuel Y. "Une méthode de lissage pour le tracé de rayons" Laboratoire derecherche en informatique de Metz note interne

[MAU 9U Maurel H., Moisan 8., Jessel J.P, Duthen Y., Caubet R., "Génération deséquences animées rendues par lancer de rayons" GROS PLAN 9l 57-64 1981

[NEM 86] Nemoto K., "An adaptative subdivision by sliding boundary surfaces for fast raytracing" Graphics interfaces 43-48 1986

[OHf 87] Ohta M., Maekawa M, "Ray coherence theorem and constant time ray tracingalgorithm" Compt. Graph. (Proc of CG international'87) 303-314 1987

[PLIE 88] Puech C. Devillers O. "Une subdivision spatiale en deux étapes pour le tracé derayon" Rapport de recherche laboratoire d'informatique de I'ENS 45 rue d'Ulm,

75230 Paris cedex 05 France 88

IROT 821 Roth S.D., "Ray casting for modeling solids" Compt. Graph. & Image Proc. 18109-144 r982

[SAH 89] Sahnoune M. "Contribution à I'intégration des surfaces gauches dans les modèlesde solide" Thèse de I'université de Metz décembre 89

[SAM 84] Samet H. "The quadtree and related hiérarchical data structure" ComputingSurveys l6juin 1984 187-260

ISAM 89] Samet H. "Neighbor finding in images represented by octree" CGVIP 46(3) 367-386 juin 89

[SED 84] Sederberg J.M., Anderson D.C., " Ray tracing for steiner patches" Compt.Graph. l8(3) 159-164 juillet 1984

l l 6

Page 120: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Référen ce s b ib I i og raph iq u es Lt7

lsEw 861

lsHr E7l

lsrl, 8el

lSl.IY 871

lTHr eOl

lToR eOl

wTV eU

njrv eu

fwv e3l

[wAL 87]

[wAN e2]

[wAR 6e]

[wEr 87]

lwEG 841

lwHr sol

lwHr 80l

Sweeney M.A.J and Bartels R.H "Ray tracing free-form b-spline surfaces" IEEECimpt. Graph. Appl6(2) 4l-49 Fevrier I986

Shinya M., Takahashi r. Naito S., "Principtes and applications of pencil tracing"Compt Graph. 2l(4) 45-S4juiltet 87

Sillion F. "simulation de l'éclairage pour la synthèse d'image : réalisme etinteractivité" Thèse de doctorat en sciences Université de Paris sud centre d'orsay juin1989Snyder J.M. et Barr A.H. "Ray tracing complex models containing surfacetessellations" Siggraph 87 I l9-128

Thirion J.P "nata structures based on binary representation for ray tracing"Eurographics'90 53 l-541

Torres E. rroptimisation of the binary space partition algorithme (BSp) for thesualisation of dynamic scene" Eurographics'90 507-541

vivian R., Gardan Y. "Amélioration du calcul des images de synthèses par uneanalyse adaptative de la scène" Rapport de recherche 9l(l) L.R.I. de Metz U.F.RM.I.M. ile du Saulcy 57000 Metz

vivian R., Gardan Y. "Décomposition adaptative: méthode et résultats" Rapportde recherche 9l(2) L.R.I. de Metz u.F.R M.I.M. ile du S.aulcy 57000 Metz

vivian R. Gardan Y. LanuelY. " optimisation du tracé de rayons, une approcheoriginale et adaptative située entre le ray-tracing et le beam-tracing " MICAD 93

wallace J., cohen M., Greenberg D.P. "A two-pass solution to the renderingequation: a synthesis of ray-tracing and radiosity methods" Computer Graphics n"2l vol2 pages 3ll-320 Juillet 1987 SIGGRAPH'82

wanger L., Ferwerda J., Greenberg D.P., "Perceiving spatiat Rerationships incomputer generated images" pages 44 à 55 IEEE Computer Graphics & ApplicationMai 1992

warnock J.E., "A hidden surface algorithm for computer generated halftonepictures" technical report UTAH university june 1969

weiller K. et Atherton P. "Hidden surface removal using polygon area sorting"Proceeding of Siggraph'ï7 214-222

weghost H. , Hooper G. et Greenberg D.P. "Improved computational methodsfor ray-tracing" ACM TOG 3(l) 52-69 janvier 1984

Rubin S., whitted r. "A 3-dimensional representation for fast rendering ofcomplex scenes" Compt. Graph. l4(3) I l0-l 16 juillet 80

Witted T. " An improved illumination model for shaded display" Communication of ACMno 23 pages 343-349 1980

Page 121: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Références b ib liogr a p h iq u e s

IWIV 86] Wyvill G., Kunii T.L., Shira S.N, "Space subdivision for ray tracing in CSG"IEEE Compt. Graph. & Applic. 6(4)28-34 awil 1986

1 1 8

Page 122: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Annexe I : Modèles de teg u9

ANNEXE I

LES MODELES UTILISES POUR LES TESTS

Nous présentons les modèles les plus importants utilisés pour valider la méthode. Les objets sontreprésentes en filaires avec une élimination partielles des faces cachees.

ENSEMBLE DES SPHERES

Nb Objets :9

NbFaces 21296

Faces Concaves : NON

Faces Trouées : NON

- - sowor- ) obhc- t -!r.r.-.J - tkht n-, .Jn..or!!o.tr-.) .arrtr.r;

@@@@@@@@@

Page 123: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

AnnueI:Modèlesdeteû120

MOYEU DE RENAULT 5

Nb Objets : 6

Nb Faces :612

Faces Concaves : NON

Faces Trouees : OUI

I -SourclJ._ l -ObJets- l - tmegr.- l -Fkhlr r : . . . ) Tr .c.d l r .yont . - I eul t t ! , I

Page 124: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Annæe I : Modèles de test T2L

POULIE

Nb Objets :9

Nb Faces : 1107

Faces Concaves : OUI

Faces Trouées : OUI

- - souror.- l - obr.tr- I - tmagr-) _ Fkhtors... l. T.ro drr.flonr- l - q",tt rJ

Page 125: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Annæe1:Modèlesdeteg 122

HALTERES IMPOSSIBLES

Nb Objets :5

Nb Faces : 7fi)

Faces Concaves: OUI

Faces Trouées : NON

- - sourcrs-. l -obJetr... J - tmrgr.- l - Fkhl.rr.., l - Tno drrryons.- l - eultorj

Page 126: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Annqe I : Modèles de test t23

BOUTEILLE

Objets :5

Faces 22143

Faces Concaves : NON

Feces Trouées : NON

Page 127: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

AnnæeI:Modèlesdeteg t24

ESCALIER

Objets : 17

Faces r294

Faces Concaves : NON

Faces Trouées : NON

- . sources... ) . objas... I -!t.r*J -ll.hl."-) . Tnce de ravons"' I quittet )

Page 128: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Annexe 2 : Images de réference t25

ANNEXE 2

IMAGES DE REFERENCE

Page 129: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

\Annexe 2 : Images de référence r26

ENGLOBANTS:

DECOMPOSITION:

MOYEU DE R5 SANS EFFET OPTIQUE

Page 130: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Annexe 2 : Images de référence 127

HALTERES REFLECHISSANTS

Temps utilisateur

34h 45 '

44',

ENGLOBANITS.

DECOMPOSITION:

Page 131: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Annexe 2 : Images de référence 128

BOUTEILLE REFLEXIONS MULTIPLES

Temps utilisqteur

ENGLOBANITS:

DECOMPOSITION:

36h 55'

5h l0 '

Page 132: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Annexe 2 : Images de référence 129

TRANSPARENCE AVEC COEF - I

Temps utilisqteur

300h

78h

ENGLOBANTS:

DECOMPOSITION:

Page 133: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Anne.xe 2 : Images de référence130

TRANSPARENCE AVEC COEF <> I

Temps utilisateur

ENGLOBANTS:

DECOMPOSITTON:

300h

85h

Page 134: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Annexe3 : Interface XI I 1 3 l

ANNEXE 3

INTERFACE GRAPHIQUE DE L'APPLICATION

.# Hodl f lcat lon objcts

Oble t ; . l

Coeff lc ient Dl f fus : 9.50

Coeff lc iant Speculairu : 0.00

Èletcriau : 0

Cocff lc lent de Trensptrenc!: 9.00

Ind lcc do Rcf rac t lon : 9 .00

R: 255 0 0t L -

B : e 0 0 0

.-Û{ i lodlflcetlon so

Nombru Sources : - l

tumeru Sourcc :

X :

Y :

l o- a

R: 2ss 0 0c : €_ 00 0B : . 0 0 0 0

.# Tail le Ecran

Largeur: 200.

Heuteur: 200.

.€

Profondeur Max:

M o d e l e d ' e c l a l r u m e n t :

Rayons pr lmeiæs :

Rayons d 'Ombrage:

Rayons Sacondeiæs :

D e r o m U o s i t l o r r :

N b o l r i p t :

T a i l l e t . f i l r e n p i x r , l :

T ; l u x O t : r r r U e n % :

Tracc dc Rayons

t ng fobants 5pher iques I Oecompos i t ion

Engfobants Spher iques I L igh t8 u t fe r I Oecorpos i t ion

Eng lobants SOher iques I Oecomgoc i t ion

Rcsolut lon t lght8uf fcr : e_

Llssege z Û

Concevc: E

.# Hodi f lcat lon Vlsac

Observateur M ire

X : . 1 0 0 X : Iy : . 1 0 0 y : p

Z z . 1 0 0 l z g

Longl tude: 225 0--0La t l t udc ; . 125 0H-0Dlstanæ Focalc: 500 0-{-0

Pos l t lonncment t @

O Flchlcr da peremrtns :

tr Ffchler dcr cerectcrlstlqurs :

Page 135: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser

Il fait froid dans le scriptorium, j'ai mal au pouce. Je laisse c€t ecrit, je ne sais pour qui, je ne sais plus à proposde quoi: stat rosa pristina nomine, nomina nuda tenemus.

Umberto ECO" le nom de la rose "

Page 136: LIENS Code de la Propriété Intellectuelle. articles L 122. 4docnum.univ-lorraine.fr/public/UPV-M/Theses/1993/... · Ensuite, l'évolution des algorithmes qui permet de modéliser