23 resultados para Modélisation de la vitesse du vent

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Suite à un stage avec la compagnie Hatch, nous possédons des jeux de données composés de séries chronologiques de vitesses de vent mesurées à divers sites dans le monde, sur plusieurs années. Les ingénieurs éoliens de la compagnie Hatch utilisent ces jeux de données conjointement aux banques de données d’Environnement Canada pour évaluer le potentiel éolien afin de savoir s’il vaut la peine d’installer des éoliennes à ces endroits. Depuis quelques années, des compagnies offrent des simulations méso-échelle de vitesses de vent, basées sur divers indices environnementaux de l’endroit à évaluer. Les ingénieurs éoliens veulent savoir s’il vaut la peine de payer pour ces données simulées, donc si celles-ci peuvent être utiles lors de l’estimation de la production d’énergie éolienne et si elles pourraient être utilisées lors de la prévision de la vitesse du vent long terme. De plus, comme l’on possède des données mesurées de vitesses de vent, l’on en profitera pour tester à partir de diverses méthodes statistiques différentes étapes de l’estimation de la production d’énergie. L’on verra les méthodes d’extrapolation de la vitesse du vent à la hauteur d’une turbine éolienne et l’on évaluera ces méthodes à l’aide de l’erreur quadratique moyenne. Aussi, on étudiera la modélisation de la vitesse du vent par la distributionWeibull et la variation de la distribution de la vitesse dans le temps. Finalement, l’on verra à partir de la validation croisée et du bootstrap si l’utilisation de données méso-échelle est préférable à celle de données des stations de référence, en plus de tester un modèle où les deux types de données sont utilisées pour prédire la vitesse du vent. Nous testerons la méthodologie globale présentement utilisée par les ingénieurs éoliens pour l’estimation de la production d’énergie d’un point de vue statistique, puis tenterons de proposer des changements à cette méthodologie, qui pourraient améliorer l’estimation de la production d’énergie annuelle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse est divisée en trois chapitres. Le premier explique comment utiliser la méthode «level-set» de manière rigoureuse pour faire la simulation de feux de forêt en utilisant comme modèle physique pour la propagation le modèle de l'ellipse de Richards. Le second présente un nouveau schéma semi-implicite avec une preuve de convergence pour la solution d'une équation de type Hamilton-Jacobi anisotrope. L'avantage principal de cette méthode est qu'elle permet de réutiliser des solutions à des problèmes «proches» pour accélérer le calcul. Une autre application de ce schéma est l'homogénéisation. Le troisième chapitre montre comment utiliser les méthodes numériques des deux premiers chapitres pour étudier l'influence de variations à petites échelles dans la vitesse du vent sur la propagation d'un feu de forêt à l'aide de la théorie de l'homogénéisation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La méthode de projection et l'approche variationnelle de Sasaki sont deux techniques permettant d'obtenir un champ vectoriel à divergence nulle à partir d'un champ initial quelconque. Pour une vitesse d'un vent en haute altitude, un champ de vitesse sur une grille décalée est généré au-dessus d'une topographie donnée par une fonction analytique. L'approche cartésienne nommée Embedded Boundary Method est utilisée pour résoudre une équation de Poisson découlant de la projection sur un domaine irrégulier avec des conditions aux limites mixtes. La solution obtenue permet de corriger le champ initial afin d'obtenir un champ respectant la loi de conservation de la masse et prenant également en compte les effets dûs à la géométrie du terrain. Le champ de vitesse ainsi généré permettra de propager un feu de forêt sur la topographie à l'aide de la méthode iso-niveaux. L'algorithme est décrit pour le cas en deux et trois dimensions et des tests de convergence sont effectués.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Avec la complexité croissante des systèmes sur puce, de nouveaux défis ne cessent d’émerger dans la conception de ces systèmes en matière de vérification formelle et de synthèse de haut niveau. Plusieurs travaux autour de SystemC, considéré comme la norme pour la conception au niveau système, sont en cours afin de relever ces nouveaux défis. Cependant, à cause du modèle de concurrence complexe de SystemC, relever ces défis reste toujours une tâche difficile. Ainsi, nous pensons qu’il est primordial de partir sur de meilleures bases en utilisant un modèle de concurrence plus efficace. Par conséquent, dans cette thèse, nous étudions une méthodologie de conception qui offre une meilleure abstraction pour modéliser des composants parallèles en se basant sur le concept de transaction. Nous montrons comment, grâce au raisonnement simple que procure le concept de transaction, il devient plus facile d’appliquer la vérification formelle, le raffinement incrémental et la synthèse de haut niveau. Dans le but d’évaluer l’efficacité de cette méthodologie, nous avons fixé l’objectif d’optimiser la vitesse de simulation d’un modèle transactionnel en profitant d’une machine multicoeur. Nous présentons ainsi l’environnement de modélisation et de simulation parallèle que nous avons développé. Nous étudions différentes stratégies d’ordonnancement en matière de parallélisme et de surcoût de synchronisation. Une expérimentation faite sur un modèle du transmetteur Wi-Fi 802.11a a permis d’atteindre une accélération d’environ 1.8 en utilisant deux threads. Avec 8 threads, bien que la charge de travail des différentes transactions n’était pas importante, nous avons pu atteindre une accélération d’environ 4.6, ce qui est un résultat très prometteur.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les mesures cosmologiques les plus récentes ont montré la présence d’un type de matière exotique constituant 85% de la masse de l’univers. Ce type de matière non baryonique serait formé de particules neutres, non relativistes, massives et interagissant faiblement avec la matière baryonique. L’ensemble des candidats est regroupé sous le nom générique WIMP (Weakly Interactive Massive Particles). L’expérience PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une expérience utilisant des détecteurs à seuil d’énergie contenant des gouttelettes surchauffées constituées de C4F10. Cette technique de détection est basée sur le principe de la chambre à bulles. Le projet PICASSO a pour but de détecter directement une particule de matière sombre. Le principe de détection est qu’une particule de matière sombre interagissant avec le liquide actif engendre un recul nucléaire du 19F. L’énergie de recul serait suffisante pour engendrer une transition de phase accompagnée d’un signal acoustique enregistrée par des senseurs piézoélectriques. Dans le cadre de ce mémoire, une simulation du taux de comptage de l’étalonnage des détecteurs PICASSO soumis à des neutrons monoénergétiques a été effectuée en utilisant la théorie de Seitz qui décrit les critères pour qu’une transition de phase ait lieu pour un liquide en état de surchauffe. De plus, un modèle calculant le signal acoustique émis lors d’une transition de phase engendré par différents types de radiations a été créé permettant de caractériser la discrimination entre différents bruits de fond en fonction de l’énergie de seuil. Finalement, un outil d’analyse, la localisation des évènements, a été utilisé pour appliquer des coupures sur le volume dans le but d’améliorer la discrimination alpha-neutron.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il est rapporté que la biodisponibilité orale de l’amoxicilline chez le porc est environ trois fois moindre que chez l’homme. Pour élucider les raisons de cette différence, la pharmacocinétique artérielle, veineuse porte et urinaire de cet antibiotique a été caractérisée à des doses intragastriques de 4 à 30 mg/kg et différents modèles compartimentaux physiologiques ont été conçus pour l’analyse des données. La biodisponibilité orale de l’amoxicilline est maximale à 4 mg/kg, avec une valeur moyenne de 52%. Les différences porto-systémiques de concentrations plasmatiques d’amoxicilline et la clairance urinaire ont permis de démontrer une augmentation de la clairance hépatique jusqu’à la dose de 30 mg/kg. Un modèle compartimental comprenant deux voies parallèles d’absorption (de type Michaelis- Menten d’accessibilité limitée dans le temps et d’ordre 1), deux compartiments de distribution (central et périphérique) deux voies d’élimination (excrétions urinaire et biliaire) est celui qui prédit le mieux les données observées. Ces résultats mettent en évidence le rôle prépondérant du transporteur saturable PepT1 dans l’absorption orale de l’amoxicilline administrée à faible dose, ainsi que l’importance croissante de l’absorption passive lors d’administration à forte dose.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les systèmes sensoriels encodent l’information sur notre environnement sous la forme d’impulsions électriques qui se propagent dans des réseaux de neurones. Élucider le code neuronal – les principes par lesquels l’information est représentée dans l’activité des neurones – est une question fondamentale des neurosciences. Cette thèse constituée de 3 études (E) s’intéresse à deux types de codes, la synchronisation et l’adaptation, dans les neurones du cortex visuel primaire (V1) du chat. Au niveau de V1, les neurones sont sélectifs pour des propriétés comme l’orientation des contours, la direction et la vitesse du mouvement. Chaque neurone ayant une combinaison de propriétés pour laquelle sa réponse est maximale, l’information se retrouve distribuée dans différents neurones situés dans diverses colonnes et aires corticales. Un mécanisme potentiel pour relier l’activité de neurones répondant à des items eux-mêmes reliés (e.g. deux contours appartenant au même objet) est la synchronisation de leur activité. Cependant, le type de relations potentiellement encodées par la synchronisation n’est pas entièrement clair (E1). Une autre stratégie de codage consiste en des changements transitoires des propriétés de réponse des neurones en fonction de l’environnement (adaptation). Cette plasticité est présente chez le chat adulte, les neurones de V1 changeant d’orientation préférée après exposition à une orientation non préférée. Cependant, on ignore si des neurones spatialement proches exhibent une plasticité comparable (E2). Finalement, nous avons étudié la dynamique de la relation entre synchronisation et plasticité des propriétés de réponse (E3). Résultats principaux — (E1) Nous avons montré que deux stimuli en mouvement soit convergent soit divergent élicitent plus de synchronisation entre les neurones de V1 que deux stimuli avec la même direction. La fréquence de décharge n’était en revanche pas différente en fonction du type de stimulus. Dans ce cas, la synchronisation semble coder pour la relation de cocircularité dont le mouvement convergent (centripète) et divergent (centrifuge) sont deux cas particuliers, et ainsi pourrait jouer un rôle dans l’intégration des contours. Cela indique que la synchronisation code pour une information qui n’est pas présente dans la fréquence de décharge des neurones. (E2) Après exposition à une orientation non préférée, les neurones changent d’orientation préférée dans la même direction que leurs voisins dans 75% des cas. Plusieurs propriétés de réponse des neurones de V1 dépendent de leur localisation dans la carte fonctionnelle corticale pour l’orientation. Les comportements plus diversifiés des 25% de neurones restants sont le fait de différences fonctionnelles que nous avons observé et qui suggèrent une localisation corticale particulière, les singularités, tandis que la majorité des neurones semblent situés dans les domaines d’iso-orientation. (E3) Après adaptation, les paires de neurones dont les propriétés de réponse deviennent plus similaires montrent une synchronisation accrue. Après récupération, la synchronisation retourne à son niveau initial. Par conséquent, la synchronisation semble refléter de façon dynamique la similarité des propriétés de réponse des neurones. Conclusions — Cette thèse contribue à notre connaissance des capacités d’adaptation de notre système visuel à un environnement changeant. Nous proposons également des données originales liées au rôle potentiel de la synchronisation. En particulier, la synchronisation semble capable de coder des relations entre objets similaires ou dissimilaires, suggérant l’existence d’assemblées neuronales superposées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cet article décrit une procédure de modélisation du phénomène de dispersion de la concentration du dioxyde de nitrogène (NO2) en utilisant la technique du perceptron multicouche (MLP). Notre objectif est de prouver que la concentration du NO2 est une variable autorégressive et expliquée par des variables météorologiques. Pour ce faire, nous avons procédé par trois étapes : dans la première étape nous avons utilisé la variable concentration NO2 uniquement, dans la seconde étape nous avons utilisé les variables météorologiques uniquement et dans la troisième étape nous avons utilisé la concentration du NO2 combinée avec les variables météorologiques. Les résultats ont montré que le troisième cas est plus performant que les deux autres ce qui prouve notre hypothèse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Beaucoup de personnes consomment des drogues d’abus de façon récréative ou expérimentale dans leur vie, mais peu d’entre elles développent une toxicomanie. Nous avons exploré, chez le rat, deux facteurs impliqués dans la transition vers la toxicomanie, soit la vitesse à laquelle la drogue parvient au cerveau et le fait d’être sous traitement antipsychotique. Dans une première étude, notre objectif était de déterminer si augmenter la vitesse de livraison de la cocaïne (0.5 mg/kg) par auto-administration intraveineuse (i.v.; livrée en 5 secondes dans un groupe versus 90 secondes dans l’autre) mènerait à une plus grande consommation de celle-ci lors d’un accès prolongé (6 h/j versus 1 h/j), et à une plus grande motivation à obtenir la drogue telle que mesurée sous un ratio de renforcement progressif à une vitesse différente (10 secondes). Nous avons trouvé que le groupe 5 s consommait plus de cocaïne que le groupe 90 s en accès prolongé, mais aussi en accès limité. Cependant, la motivation des deux groupes était la même à la vitesse de 10 s, ainsi qu’à leurs vitesses initiales. Nous pensons que ceci peut être dû à une forme de plasticité du système méso-cortico-limbique survenue suite à l’auto-administration en accès prolongé en conjonction avec l’augmentation de consommation, chez les deux groupes, rendant impossible une distinction de leur motivation. Dans une deuxième série d’études nous avons émis l’hypothèse que l’antipsychotique typique, halopéridol (HAL, 0.5 mg/kg/j), et non l’atypique, aripiprazole (ARI, 1 mg/kg/j), un modulateur dopaminergique, induirait une augmentation de la poursuite de récompense conditionnée (RC) et de la locomotion (LOCO) en réponse à l’amphétamine (AMPH). Cependant, nous avons trouvé une augmentation chez le groupe HAL, mais non ARI, de la réponse RC, trois semaines, mais non une semaine post traitement, ainsi qu’une augmentation de la LOCO, chez le groupe HAL, mais non ARI, une semaine mais non trois semaines post traitement. L’incohérence des résultats entre les deux tests (RC et LOCO) rend leur interprétation difficile. Ces études restent à être explorées d’avantage afin de pouvoir en tirer des conclusions plus éclairées quant à l’impact de la vitesse d’administration de la cocaïne et du traitement antipsychotique sur le développement d’une toxicomanie.