940 resultados para MESH
Composição química e classes de lipídios em peixe de água doce Curimatã comum, Prochilodus cearensis
Resumo:
O presente trabalho teve como objetivo obter dados quantitativos sobre as classes de lipídios presentes no filé de curimatã, Prochilodus cearensis. Os lipídios totais (LT) foram fracionados em classes de lipídios neutros (LN), gliceroglicolipídios (GL) e glicerofosfolipídios (PL) através de cromatografia em coluna aberta de sílica gel 60 (70-230 mesh). As análises foram realizadas em quatro lotes de amostras contendo cada uma três exemplares, adquiridos em feiras livres de Fortaleza-CE, nos meses de março, maio, junho e julho de 1998. Os LT representaram em média 3,8% em relação ao peso fresco da amostra. A classe lipídica dominante foi de LN com média de 75,1% dos LT ou 2,9g/100g de filé. Os GL e PL contribuíram em média com 1,6% (61mg/100g de filé) e 23,3% (885mg/100g de filé), respectivamente. A composição química centesimal apresentou média de 76,3% de umidade, 18,6% de proteína total e 1,3% de cinza.
Resumo:
As increasing efficiency of a wind turbine gearbox, more power can be transferred from rotor blades to generator and less power is used to cause wear and heating in the gearbox. By using a simulation model, behavior of the gearbox can be studied before creating expensive prototypes. The objective of the thesis is to model a wind turbine gearbox and its lubrication system to study power losses and heat transfer inside the gearbox and to study the simulation methods of the used software. Software used to create the simulation model is Siemens LMS Imagine.Lab AMESim, which can be used to create one-dimensional mechatronic system simulation models from different fields of engineering. When combining components from different libraries it is possible to create a simulation model, which includes mechanical, thermal and hydraulic models of the gearbox. Results for mechanical, thermal, and hydraulic simulations are presented in the thesis. Due to the large scale of the wind turbine gearbox and the amount of power transmitted, power loss calculations from AMESim software are inaccurate and power losses are modelled as constant efficiency for each gear mesh. Starting values for simulation in thermal and hydraulic simulations were chosen from test measurements and from empirical study as compact and complex design of gearbox prevents accurate test measurements. In further studies to increase the accuracy of the simulation model, components used for power loss calculations needs to be modified and values for unknown variables are needed to be solved through accurate test measurements.
Resumo:
Kandidaatintyössä tutkittiin kolmen hitsatun palstalevyliitoksen väsymiskestävyyttä äärellisten elementtien menetelmällä. Tutkimuksen pääpaino oli 2D-mallin antamien tulosten suppenevuudessa kolmella eri elementtikoolla ja kolmessa eri mittasuhdetapauksessa. Tutkimustuloksissa havaittiin noin 5 % muutos harvimman ja tiheimmän elementtiverkon tulosten välillä. Tutkimuksessa havaittiin myös että muutos harvimman ja tiheimmän elementtiverkon tuloksissa pieneni hiukan mitä suurempia kappaleet ja niiden hitsausliitokset olivat.
Resumo:
The objective of this research was to test the addition of soymilk residue, also known as okara, to a molded sweet biscuit (MSB). The okara was provided by two soymilk producing companies whose production systems are based on hot disintegration of decorticated (company B) or non-decorticated (company A) soybeans and separation of the soymilk. Okaras A and B were dehydrated in a flash dryer and then ground to a flour (< 200 mesh). The okara flours showed high protein (35 g.100 g-1 dwb), lipid (17 g.100 g-1 dwb), and fiber (17 to 21 g.100 g-1 dwb) contents. The water holding capacity, protein solubility, emulsifying capacity, emulsion stability and isoflavone contents found in flour A were significantly higher (p < 0.05) than in flour B. The formulation of MSB, replacing 30% (w/w) of the wheat flour with okara flour was tested. The results of the physical measurements, brittleness and water activity of the MSB with flours A and B did not differ significantly (p < 0.05) from those of the standard. The color, flavor and overall quality of the MSB with 30% of okara flour B did not differ significantly from those of the standard biscuit, demonstrating its potential for application in confectionery products.
Resumo:
The aim of this work was to calibrate the material properties including strength and strain values for different material zones of ultra-high strength steel (UHSS) welded joints under monotonic static loading. The UHSS is heat sensitive and softens by heat due to welding, the affected zone is heat affected zone (HAZ). In this regard, cylindrical specimens were cut out from welded joints of Strenx® 960 MC and Strenx® Tube 960 MH, were examined by tensile test. The hardness values of specimens’ cross section were measured. Using correlations between hardness and strength, initial material properties were obtained. The same size specimen with different zones of material same as real specimen were created and defined in finite element method (FEM) software with commercial brand Abaqus 6.14-1. The loading and boundary conditions were defined considering tensile test values. Using initial material properties made of hardness-strength correlations (true stress-strain values) as Abaqus main input, FEM is utilized to simulate the tensile test process. By comparing FEM Abaqus results with measured results of tensile test, initial material properties will be revised and reused as software input to be fully calibrated in such a way that FEM results and tensile test results deviate minimum. Two type of different S960 were used including 960 MC plates, and structural hollow section 960 MH X-joint. The joint is welded by BöhlerTM X96 filler material. In welded joints, typically the following zones appear: Weld (WEL), Heat affected zone (HAZ) coarse grained (HCG) and fine grained (HFG), annealed zone, and base material (BaM). Results showed that: The HAZ zone is softened due to heat input while welding. For all the specimens, the softened zone’s strength is decreased and makes it a weakest zone where fracture happens while loading. Stress concentration of a notched specimen can represent the properties of notched zone. The load-displacement diagram from FEM modeling matches with the experiments by the calibrated material properties by compromising two correlations of hardness and strength.
Resumo:
Although local grape growers view bird depredation as a significant economic issue, the most recent research on the problem in the Niagara Peninsula is three decades old. Peer-reviewed publications on the subject are rare, and researchers have struggled to develop bird-damage assessment techniques useful for facilitating management programmes. I used a variation of Stevenson and Virgo's (1971) visual estimation procedure to quantify spatial and temporal trends in bird damage to grapes within single vineyard plots at two locations near St. Catharines, Ontario. I present a novel approach to managing the rank-data from visual estimates, which is unprecedented in its sensitivity to spatial trends in bird damage. I also review its valid use in comparative statistical analysis. Spatial trends in 3 out of 4 study plots confirmed a priori predictions about localisation in bird damage based on optimal foraging from a central location (staging area). Damage to grape clusters was: (1) greater near the edges of vineyard plots and decreased with distance towards the center, (2) greater in areas adjacent to staging areas for birds, and (3) vertically stratified, with upper-tier clusters sustaining more damage than lower-tier clusters. From a management perspective, this predictive approach provides vineyard owners with the ability to identify the portions of plots likely to be most susceptible to bird damage, and thus the opportunity to focus deterrent measures in these areas. Other management considerations at Henry of Pelham were: (1) wind damage to ice-wine Riesling and Vidal was much higher than bird damage, (2) plastic netting with narrow mesh provided more effective protection agsiinst birds than nylon netting with wider mesh, and (3) no trends in relative susceptibility of varietals by colour (red vs green) were evident.
Resumo:
This investigation has three purposes I to make a comparative chemical study on sediment cores collected for Lake Lisgar (man-made lake in an urban center) and Lake Hunger (natural basin in a rural community) encompassing the time since European settlement I to determine the postglacial chemical history of Lake Hunger, and to determine the vegetational history of the Lake Hunger area from postglacial time to the present. The minus 80 mesh fraction of 108 soil samples and 18 stream sediment samples collected in the vicinity of Lakes' Lisgar and Hunger were analyzed for cold hydrochloric acid soluble lead, zinc, nickel, cobalt, copper, aluminum, sodium, potassium, calcium, magnesium, iron and manganese. Lacustrine sediments from 5 boreholes in the Lake Lisgar basin were collected. Boreholes 1, 2, 3, and 4 were analyzed for palynological and chemical information and Borehole 5 was subjected to pollen and ostracode analysis. Lacustrine sediments from 6 boreholes in the Lake Hunger basin were collected. Palyno- -logical and chemical analysis were performed on Boreholes 1, 2, 3, 4, and 6 and Borehole 5 was analyzed for pollen. In addition, radiocarbon dates were obtained on sediment samples from Boreholes 4 and 5. A total of 8 surface samples were collected from the margins of the Lake Hunger basin and these were chemically analyzed in the laboratory. All of the lacustrine sediments were ashed and analyzed for cold hydrochloric acid soluble lead, zinc, nickel, cobalt, copper, aluminum, sodium, potassium, calcium, magnesium, iron and manganese using a Perkin Elmer 40) Atomic Absorption spectrophotometer. The results . obtained for the 12 elements were expressed as parts per million in dry sediments. It was found that man's influence on the element distribution patterns in the sediments of Lake Lisgar appeared to be related to his urbanizing developments within the lake vicinity, whereas, the rural developments in the vicinity of lake Hunger appeared to have had little effect on the element distribution patterns in the lake sediments. The distribution patterns of lead, zinc, nickel, cobalt, aluminum, magnesium, sodium and potassium are similar to the % ash curve throughout postglacial time indicating that the rate of erosion in the drainage basin is the main factor which controls the concentration of these elements in the sediments of Lake Hunger. The vegetational history, from palynological analysis, of Lake Hunger from postglacial time to the present includes the following stages: tundra, open spruce forest, closed boreal forest, deciduous forest and the trend towards the re-establishment of pine following the clearing of land and the subsequent settlement of the Lake Hunger area by European settlers. The concentrations of some elements (cobalt, nickel, iron, manganese, calcium, magnesium, sodium and potassium) in the sediments of Lake Hunger appears to be higher during pre-cultural compared to post-cultural times. At least one complete postglacial record of the chemical history within a lake basin is necessary in order to accurately assess man's effects on his environment.
Resumo:
To investigate the thennal effects of latent heat in hydrothennal settings, an extension was made to the existing finite-element numerical modelling software, Aquarius. The latent heat algorithm was validated using a series of column models, which analysed the effects of penneability (flow rate), thennal gradient, and position along the two-phase curve (pressure). Increasing the flow rate and pressure increases displacement of the liquid-steam boundary from an initial position detennined without accounting for latent heat while increasing the thennal gradient decreases that displacement. Application to a regional scale model of a caldera-hosted hydrothennal system based on a representative suite of calderas (e.g., Yellowstone, Creede, Valles Grande) led to oscillations in the model solution. Oscillations can be reduced or eliminated by mesh refinement, which requires greater computation effort. Results indicate that latent heat should be accounted for to accurately model phase change conditions in hydrothennal settings.
Resumo:
Généralement, les problèmes de conception de réseaux consistent à sélectionner les arcs et les sommets d’un graphe G de sorte que la fonction coût est optimisée et l’ensemble de contraintes impliquant les liens et les sommets dans G sont respectées. Une modification dans le critère d’optimisation et/ou dans l’ensemble de contraintes mène à une nouvelle représentation d’un problème différent. Dans cette thèse, nous nous intéressons au problème de conception d’infrastructure de réseaux maillés sans fil (WMN- Wireless Mesh Network en Anglais) où nous montrons que la conception de tels réseaux se transforme d’un problème d’optimisation standard (la fonction coût est optimisée) à un problème d’optimisation à plusieurs objectifs, pour tenir en compte de nombreux aspects, souvent contradictoires, mais néanmoins incontournables dans la réalité. Cette thèse, composée de trois volets, propose de nouveaux modèles et algorithmes pour la conception de WMNs où rien n’est connu à l’ avance. Le premiervolet est consacré à l’optimisation simultanée de deux objectifs équitablement importants : le coût et la performance du réseau en termes de débit. Trois modèles bi-objectifs qui se différent principalement par l’approche utilisée pour maximiser la performance du réseau sont proposés, résolus et comparés. Le deuxième volet traite le problème de placement de passerelles vu son impact sur la performance et l’extensibilité du réseau. La notion de contraintes de sauts (hop constraints) est introduite dans la conception du réseau pour limiter le délai de transmission. Un nouvel algorithme basé sur une approche de groupage est proposé afin de trouver les positions stratégiques des passerelles qui favorisent l’extensibilité du réseau et augmentent sa performance sans augmenter considérablement le coût total de son installation. Le dernier volet adresse le problème de fiabilité du réseau dans la présence de pannes simples. Prévoir l’installation des composants redondants lors de la phase de conception peut garantir des communications fiables, mais au détriment du coût et de la performance du réseau. Un nouvel algorithme, basé sur l’approche théorique de décomposition en oreilles afin d’installer le minimum nombre de routeurs additionnels pour tolérer les pannes simples, est développé. Afin de résoudre les modèles proposés pour des réseaux de taille réelle, un algorithme évolutionnaire (méta-heuristique), inspiré de la nature, est développé. Finalement, les méthodes et modèles proposés on été évalués par des simulations empiriques et d’événements discrets.
Resumo:
Depuis quelques années, la recherche dans le domaine des réseaux maillés sans fil ("Wireless Mesh Network (WMN)" en anglais) suscite un grand intérêt auprès de la communauté des chercheurs en télécommunications. Ceci est dû aux nombreux avantages que la technologie WMN offre, telles que l'installation facile et peu coûteuse, la connectivité fiable et l'interopérabilité flexible avec d'autres réseaux existants (réseaux Wi-Fi, réseaux WiMax, réseaux cellulaires, réseaux de capteurs, etc.). Cependant, plusieurs problèmes restent encore à résoudre comme le passage à l'échelle, la sécurité, la qualité de service (QdS), la gestion des ressources, etc. Ces problèmes persistent pour les WMNs, d'autant plus que le nombre des utilisateurs va en se multipliant. Il faut donc penser à améliorer les protocoles existants ou à en concevoir de nouveaux. L'objectif de notre recherche est de résoudre certaines des limitations rencontrées à l'heure actuelle dans les WMNs et d'améliorer la QdS des applications multimédia temps-réel (par exemple, la voix). Le travail de recherche de cette thèse sera divisé essentiellement en trois principaux volets: le contrôle d‟admission du trafic, la différentiation du trafic et la réaffectation adaptative des canaux lors de la présence du trafic en relève ("handoff" en anglais). Dans le premier volet, nous proposons un mécanisme distribué de contrôle d'admission se basant sur le concept des cliques (une clique correspond à un sous-ensemble de liens logiques qui interfèrent les uns avec les autres) dans un réseau à multiples-sauts, multiples-radios et multiples-canaux, appelé RCAC. Nous proposons en particulier un modèle analytique qui calcule le ratio approprié d'admission du trafic et qui garantit une probabilité de perte de paquets dans le réseau n'excédant pas un seuil prédéfini. Le mécanisme RCAC permet d‟assurer la QdS requise pour les flux entrants, sans dégrader la QdS des flux existants. Il permet aussi d‟assurer la QdS en termes de longueur du délai de bout en bout pour les divers flux. Le deuxième volet traite de la différentiation de services dans le protocole IEEE 802.11s afin de permettre une meilleure QdS, notamment pour les applications avec des contraintes temporelles (par exemple, voix, visioconférence). À cet égard, nous proposons un mécanisme d'ajustement de tranches de temps ("time-slots"), selon la classe de service, ED-MDA (Enhanced Differentiated-Mesh Deterministic Access), combiné à un algorithme efficace de contrôle d'admission EAC (Efficient Admission Control), afin de permettre une utilisation élevée et efficace des ressources. Le mécanisme EAC prend en compte le trafic en relève et lui attribue une priorité supérieure par rapport au nouveau trafic pour minimiser les interruptions de communications en cours. Dans le troisième volet, nous nous intéressons à minimiser le surcoût et le délai de re-routage des utilisateurs mobiles et/ou des applications multimédia en réaffectant les canaux dans les WMNs à Multiples-Radios (MR-WMNs). En premier lieu, nous proposons un modèle d'optimisation qui maximise le débit, améliore l'équité entre utilisateurs et minimise le surcoût dû à la relève des appels. Ce modèle a été résolu par le logiciel CPLEX pour un nombre limité de noeuds. En second lieu, nous élaborons des heuristiques/méta-heuristiques centralisées pour permettre de résoudre ce modèle pour des réseaux de taille réelle. Finalement, nous proposons un algorithme pour réaffecter en temps-réel et de façon prudente les canaux aux interfaces. Cet algorithme a pour objectif de minimiser le surcoût et le délai du re-routage spécialement du trafic dynamique généré par les appels en relève. Ensuite, ce mécanisme est amélioré en prenant en compte l‟équilibrage de la charge entre cliques.
Resumo:
Reprendre contact avec les réalités de l’âme, rouvrir la source où l’être rejaillit éternellement : tel est l’idéal occulte, inavouable, d’où procède la poétique d’Hubert Aquin. Depuis sa jeunesse, Aquin s’emploie clandestinement à défaire les mailles de la conscience et à rebrousser chemin vers les arrière-plans ténébreux du Moi, vers le Plérôme de la vie nue. Il manœuvre pour se mettre au service de l’intentionnalité impersonnelle inscrite au plus profond de sa psyché, pour devenir l’instrument du vouloir aveugle « qui opère en lui comme une force d’inertie ». Son œuvre ne s’accomplit pas dans le texte, mais à rebours du texte, voire à rebours du langage ; elle se déploie sur le terrain d’une confrontation enivrée avec le Négatif — avec la Parole sacrée issue de l’abîme. En d’autres termes, elle prend la forme d’une Gnose, c’est-à-dire d’un exercice de dé-subjectivation, de destruction de soi, consistant à réaliser la connaissance participative de l’empreinte imaginale scellée derrière les barreaux de la finitude. Essentiellement consacrée à l’analyse de la dimension gnostique de l’œuvre d’Hubert Aquin, cette thèse vise à montrer que la connaissance du hiéroglyphe mystérieux gravé au fond de l’âme n’est pas une sinécure. Il s’agit plutôt d’un opus contra naturam qui comporte bien des risques (en tout premier lieu celui d’une inflation psychique). Pourtant, ce travail est aussi, aux yeux de l’auteur, le seul véritablement digne d’être accompli, celui qui donne à l’homme le moyen de se soustraire à l’engloutissement de la mort et la possibilité de renaître. Comme l’écrit Aquin dans un texte de jeunesse, l’ouverture inconditionnelle au Négatif (la destruction de soi) est « une façon privilégiée d’expérimenter la vie et un préalable à toute entreprise artistique » ; elle correspond à « un mode supérieur de connaissance », à un savoir « impersonnel » qui offre immédiatement le salut.
Resumo:
Ces dernières années, les technologies sans fil ont connu un essor fulgurant. Elles ont permis la mise en place de réseaux sans fil à hautes performances. Les réseaux maillées sans fil (RMSF) sont une nouvelle génération de réseaux sans fil qui offrent des débits élevés par rapport aux réseaux Wi-Fi (Wireless Fidelity) classiques et aux réseaux ad-hoc. Ils présentent de nombreux avantages telles que leur forte tolérance aux pannes, leur robustesse, leur faible coût etc. Les routeurs des RMSF peuvent disposer de plusieurs interfaces radio et chaque interface peut opérer sur plusieurs canaux distincts, c’est des RMSF multiples-radios, multiples-canaux. Ce type de réseau peut accroître de manière considérable les performances des RMSF. Cependant plusieurs problèmes subsistent et doivent être résolus notamment celui du routage. Le routage dans les RMSF demeure un défi majeur. Le but des protocoles de routage est de trouver les meilleures routes i.e. des routes qui maximisent les débits et minimisent les délais, lors de l’acheminement du trafic. La qualité des routes dans les RMSF peut être fortement affectée par les interférences, les collisions, les congestions etc. Alors les protocoles doivent être en mesure de détecter ces problèmes pour pouvoir en tenir compte lors de la sélection des routes. Plusieurs études ont été dédiées aux métriques et aux protocoles de routage dans les RMSF afin de maximiser les performances de celles ci. Mais la plupart ne prennent pas en considération toutes les contraintes telles que les interférences, le problème des stations cachées etc. Ce mémoire propose une nouvelle métrique de routage pour RMSF. Nous avons mis en place une nouvelle métrique de routage pour RMSF appelée MBP (Metric Based on Probabilities). Cette métrique est destinée aux RMSF mono-radio ou multiples-radios. Elle permet d’éviter les routes à forte ii interférence. Les résultats des simulations ont montré que MBP présente des améliorations par rapport à certaines métriques : ETT, WCETT et iAWARE qui sont connues dans le domaine.
Resumo:
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.
Resumo:
Le réalisme des images en infographie exige de créer des objets (ou des scènes) de plus en plus complexes, ce qui entraîne des coûts considérables. La modélisation procédurale peut aider à automatiser le processus de création, à simplifier le processus de modification ou à générer de multiples variantes d'une instance d'objet. Cependant même si plusieurs méthodes procédurales existent, aucune méthode unique permet de créer tous les types d'objets complexes, dont en particulier un édifice complet. Les travaux réalisés dans le cadre de cette thèse proposent deux solutions au problème de la modélisation procédurale: une solution au niveau de la géométrie de base, et l’autre sous forme d'un système général adapté à la modélisation des objets complexes. Premièrement, nous présentons le bloc, une nouvelle primitive de modélisation simple et générale, basée sur une forme cubique généralisée. Les blocs sont disposés et connectés entre eux pour constituer la forme de base des objets, à partir de laquelle est extrait un maillage de contrôle pouvant produire des arêtes lisses et vives. La nature volumétrique des blocs permet une spécification simple de la topologie, ainsi que le support des opérations de CSG entre les blocs. La paramétrisation de la surface, héritée des faces des blocs, fournit un soutien pour les textures et les fonctions de déplacements afin d'appliquer des détails de surface. Une variété d'exemples illustrent la généralité des blocs dans des contextes de modélisation à la fois interactive et procédurale. Deuxièmement, nous présentons un nouveau système de modélisation procédurale qui unifie diverses techniques dans un cadre commun. Notre système repose sur le concept de composants pour définir spatialement et sémantiquement divers éléments. À travers une série de déclarations successives exécutées sur un sous-ensemble de composants obtenus à l'aide de requêtes, nous créons un arbre de composants définissant ultimement un objet dont la géométrie est générée à l'aide des blocs. Nous avons appliqué notre concept de modélisation par composants à la génération d'édifices complets, avec intérieurs et extérieurs cohérents. Ce nouveau système s'avère général et bien adapté pour le partionnement des espaces, l'insertion d'ouvertures (portes et fenêtres), l'intégration d'escaliers, la décoration de façades et de murs, l'agencement de meubles, et diverses autres opérations nécessaires lors de la construction d'un édifice complet.
Resumo:
Les réseaux maillés sans fil (RMSF), grâce à leurs caractéristiques avantageuses, sont considérés comme une solution efficace pour le support des services de voix, vidéo et de données dans les réseaux de prochaine génération. Le standard IEEE 802.16-d a spécifié pour les RMSF, à travers son mode maillé, deux mécanismes de planifications de transmission de données; à savoir la planification centralisée et la planification distribuée. Dans ce travail, on a évalué le support de la qualité de service (QdS) du standard en se focalisant sur la planification distribuée. Les problèmes du système dans le support du trafic de voix ont été identifiés. Pour résoudre ces problèmes, on a proposé un protocole pour le support de VoIP (AVSP) en tant qu’extension au standard original pour permettre le support de QdS au VoIP. Nos résultats préliminaires de simulation montrent qu’AVSP offre une bonne amélioration au support de VoIP.