13 resultados para multispecies gillnet small-scale fishery
em Université de Montréal, Canada
Resumo:
Cette thèse examine les impacts sur la morphologie des tributaires du fleuve Saint-Laurent des changements dans leur débit et leur niveau de base engendrés par les changements climatiques prévus pour la période 2010–2099. Les tributaires sélectionnés (rivières Batiscan, Richelieu, Saint-Maurice, Saint-François et Yamachiche) ont été choisis en raison de leurs différences de taille, de débit et de contexte morphologique. Non seulement ces tributaires subissent-ils un régime hydrologique modifié en raison des changements climatiques, mais leur niveau de base (niveau d’eau du fleuve Saint-Laurent) sera aussi affecté. Le modèle morphodynamique en une dimension (1D) SEDROUT, à l’origine développé pour des rivières graveleuses en mode d’aggradation, a été adapté pour le contexte spécifique des tributaires des basses-terres du Saint-Laurent afin de simuler des rivières sablonneuses avec un débit quotidien variable et des fluctuations du niveau d’eau à l’aval. Un module pour simuler le partage des sédiments autour d’îles a aussi été ajouté au modèle. Le modèle ainsi amélioré (SEDROUT4-M), qui a été testé à l’aide de simulations à petite échelle et avec les conditions actuelles d’écoulement et de transport de sédiments dans quatre tributaires du fleuve Saint-Laurent, peut maintenant simuler une gamme de problèmes morphodynamiques de rivières. Les changements d’élévation du lit et d’apport en sédiments au fleuve Saint-Laurent pour la période 2010–2099 ont été simulés avec SEDROUT4-M pour les rivières Batiscan, Richelieu et Saint-François pour toutes les combinaisons de sept régimes hydrologiques (conditions actuelles et celles prédites par trois modèles de climat globaux (MCG) et deux scénarios de gaz à effet de serre) et de trois scénarios de changements du niveau de base du fleuve Saint-Laurent (aucun changement, baisse graduelle, baisse abrupte). Les impacts sur l’apport de sédiments et l’élévation du lit diffèrent entre les MCG et semblent reliés au statut des cours d’eau (selon qu’ils soient en état d’aggradation, de dégradation ou d’équilibre), ce qui illustre l’importance d’examiner plusieurs rivières avec différents modèles climatiques afin d’établir des tendances dans les effets des changements climatiques. Malgré le fait que le débit journalier moyen et le débit annuel moyen demeurent près de leur valeur actuelle dans les trois scénarios de MCG, des changements importants dans les taux de transport de sédiments simulés pour chaque tributaire sont observés. Ceci est dû à l’impact important de fortes crues plus fréquentes dans un climat futur de même qu’à l’arrivée plus hâtive de la crue printanière, ce qui résulte en une variabilité accrue dans les taux de transport en charge de fond. Certaines complications avec l’approche de modélisation en 1D pour représenter la géométrie complexe des rivières Saint-Maurice et Saint-François suggèrent qu’une approche bi-dimensionnelle (2D) devrait être sérieusement considérée afin de simuler de façon plus exacte la répartition des débits aux bifurcations autour des îles. La rivière Saint-François est utilisée comme étude de cas pour le modèle 2D H2D2, qui performe bien d’un point de vue hydraulique, mais qui requiert des ajustements pour être en mesure de pleinement simuler les ajustements morphologiques des cours d’eau.
Resumo:
Il est généralement admis que la vision joue un rôle prépondérant dans la formation des représentations spatiales. Qu’advient-il alors lorsqu’un individu est atteint de cécité? Dans le premier volet de cette thèse, les habiletés spatiales des personnes aveugles ont été examinées à l’aide de différentes tâches et comparées à celles de personnes voyantes effectuant les mêmes tâches avec les yeux bandés. Dans une première étude, les capacités de rotation mentale ont été évaluées à l’aide d’une épreuve d’orientation topographique tactile. Les résultats obtenus montrent que les personnes aveugles parviennent généralement à développer des capacités de rotation mentale similaires à celles de personnes voyantes et ce, malgré l’absence d’information de nature visuelle. Dans une seconde étude, nous avons utilisé différentes tâches spatiales nécessitant l’utilisation de la locomotion. Les résultats obtenus montrent que les personnes aveugles font preuve d’habiletés supérieures à celles de voyants lorsqu’elles doivent apprendre de nouveaux trajets dans un labyrinthe. Elles parviennent également à mieux reconnaître une maquette représentant un environnement exploré précédemment. Ainsi, l’absence de vision ne semble pas entraver de manière significative la formation de concepts spatiaux. Le second volet de cette thèse s’inscrit dans la lignée des études sur la plasticité cérébrale chez les personnes aveugles. Dans le cas présent, nous nous sommes intéressés à l’hippocampe, une structure profonde du lobe temporal dont le rôle au plan spatial a été établi par de nombreuses études animales ainsi que par des études cliniques chez l’humain incluant l’imagerie cérébrale. L’hippocampe joue un rôle particulièrement important dans la navigation spatiale. De plus, des changements structuraux de l’hippocampe ont été documentés en relation avec l’expérience des individus. Par exemple, l’étude de Maguire et al. (2000) a mis en évidence de telles modifications structurelles de l’hippocampe chez des chauffeurs de taxi. À l’instar de ces derniers, les personnes aveugles doivent emmagasiner de nombreuses informations au sujet de leur environnement puisqu’elles ne peuvent bénéficier de la vision pour mettre à jour les informations sur celui-ci, sur leur position dans l’espace et sur la position des objets se trouvant hors de leur portée. Nous avons montré, pour la première fois, une augmentation du volume des hippocampes chez les personnes aveugles en comparaison avec les personnes voyantes. De plus, cette augmentation de volume était positivement corrélée à la performance à une tâche d’apprentissage de trajets. Les résultats présentés dans cette thèse permettent d’appuyer les études antérieures qui soutiennent que les personnes aveugles parviennent à compenser leur déficit et à développer des habiletés spatiales comparables, voire supérieures, à celles de personnes voyantes. Ils permettent également d’apporter un éclairage nouveau sur le concept de plasticité cérébrale présent chez cette population en montrant pour la première fois un lien entre le volume de l’hippocampe et les habiletés spatiales chez les personnes aveugles.
Resumo:
Les siliciures métalliques constituent un élément crucial des contacts électriques des transistors que l'on retrouve au coeur des circuits intégrés modernes. À mesure qu'on réduit les dimensions de ces derniers apparaissent de graves problèmes de formation, liés par exemple à la limitation des processus par la faible densité de sites de germination. L'objectif de ce projet est d'étudier les mécanismes de synthèse de siliciures métalliques à très petite échelle, en particulier le NiSi, et de déterminer l’effet de l’endommagement du Si par implantation ionique sur la séquence de phase. Nous avons déterminé la séquence de formation des différentes phases du système Ni-Si d’échantillons possédant une couche de Si amorphe sur lesquels étaient déposés 10 nm de Ni. Celle-ci a été obtenue à partir de mesures de diffraction des rayons X résolue en temps et, pour des échantillons trempés à des températures critiques du processus, l’identité des phases et la composition et la microstructure ont été déterminées par mesures de figures de pôle, spectrométrie par rétrodiffusion Rutherford et microscopie électronique en transmission (TEM). Nous avons constaté que pour environ la moitié des échantillons, une réaction survenait spontanément avant le début du recuit thermique, le produit de la réaction étant du Ni2Si hexagonal, une phase instable à température de la pièce, mélangée à du NiSi. Dans de tels échantillons, la température de formation du NiSi, la phase d’intérêt pour la microélectronique, était significativement abaissée.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
L’aréthuse bulbeuse (Arethusa bulbosa L.) est une orchidée tourbicole rare au Québec de par la petite taille de ses populations et les pressions qui pèsent sur son habitat. L’aréthuse est reconnue comme étant intolérante aux changements édaphiques de son habitat, notamment en regard du drainage. Afin de déterminer si l’aréthuse est une bonne espèce indicatrice de l’intégrité écologique des tourbières, cette étude compare des parcelles où l’espèce est présente et où elle est absente. Au cours des étés 2009 et 2010, 37 tourbières du Québec méridional ont été échantillonnées. Des analyses discriminantes ont mis en évidence les facteurs naturels ou d’origine anthropique qui expliquent le mieux la différence entre les quatre types de parcelles. Aussi, la recherche d’espèces indicatrices de la présence de l’aréthuse a été réalisée grâce à la méthode INDVAL. Les résultats montrent que l’aréthuse pousse principalement dans des tourbières présentant des conditions minérotrophes, ce qui est appuyé par le pH élevé et la présence de plantes indicatrices de minérotrophie dans les parcelles contenant l’aréthuse. Cette dernière semble aussi profiter d’une certaine atténuation de la lumière par des arbres dispersés ou par les strates plus basses. Finalement, certaines perturbations de faible ampleur semblent être bénéfiques pour l’aréthuse, ce qui ne permet pas d’affirmer qu’elle est une bonne espèce indicatrice de l’intégrité écologique des tourbières.
Resumo:
Nous analysons les oscillations torsionnelles se développant dans une simulation magnétohydrodynamique de la zone de convection solaire produisant des champs magnétiques de type solaire (champs axisymétriques subissant des inversions de polarités régulières sur des échelles temporelles décadaires). Puisque ces oscillations sont également similaires à celles observées dans le Soleil, nous analysons les dynamiques zonales aux grandes échelles. Nous séparons donc les termes aux grandes échelles (force de Coriolis exercée sur la circulation méridienne et les champs magnétiques aux grandes échelles) de ceux aux petites échelles (les stress de Reynolds et de Maxwell). En comparant les flux de moments cinétiques entre chacune des composantes, nous nous apercevons que les oscillations torsionnelles sont maintenues par l’écoulement méridien aux grandes échelles, lui même modulé par les champs magnétiques. Une analyse d’échange d’énergie confirme ce résultat, puisqu’elle montre que seul le terme comprenant la force de Coriolis injecte de l’énergie dans l’écoulement. Une analyse de la dynamique rotationnelle ayant lieu à la limite de la zone stable et de la zone de convection démontre que celle-ci est fortement modifiée lors du passage de la base des couches convectives à la base de la fine tachocline s’y formant juste en-dessous. Nous concluons par une discussion au niveau du mécanisme de saturation en amplitude dans la dynamo s’opérant dans la simulation ainsi que de la possibilité d’utiliser les oscillations torsionnelles comme précurseurs aux cycles solaires à venir.
Resumo:
Cette recherche a porté sur quelques enjeux importants liés à la gestion des aires marines protégées (AMP) en Indonésie en examinant comment celles-ci sont en mesure d'adapter leurs politiques afin de mieux répondre à l'évolution des conditions socioéconomiques et écologiques, quels ont été les impacts socioéconomiques de ces aires, et quelles sont les préoccupations environnementales des acteurs locaux dont les moyens de subsistance dépendent des ressources règlementées. Le «livelihoods framework » a servi de guide pour notre analyse des changements socioéconomiques dans la région, tandis que la notion d’« environmentality » d’Agrawal a fourni les bases théoriques pour l'examen de la formation de sujets environnementaux au parc national de Karimunjawa. Cette étude a montré que les changements de politique apportés au plan de la gestion du parc sont un pas dans la bonne direction, mais que les objectifs importants liés sa cogestion n'ont jamais été entièrement réalisés dans la pratique. Les résultats montrent également que d'importants changements socioéconomiques surviennent dans le parc, de nombreux pêcheurs se tournent vers des moyens de subsistance alternatifs, afin de compenser la baisse des prises de poissons. Enfin, cette étude a révélé que d'importants changements positifs dans les préoccupations environnementales sont survenus depuis la modification du zonage du parc, mais que ceux-ci ne se sont pas entièrement traduits en conformité avec les règles et règlements de l'AMP.
Resumo:
L’extraction aurifère est l’une des activités humaines qui a fortement accru l’émission de contaminants métalliques dans l’environnement. Le mercure (Hg), l’arsenic (As) et le sélénium (Se) sont 3 polluants métalliques de grande toxicité environnementale. En milieu aquatique, ils peuvent subir des transformations menant à des composés capables de bioaccumulation et de bioamplification. Il peut en résulter des concentrations 106 fois celle mesurée dans l’eau chez les poissons et les organismes situés en haut des chaînes alimentaires posant de ce fait de graves menaces pour la santé de ces organismes ainsi que leurs consommateurs y compris les humains. Cette étude a évalué les teneurs en Hg, As et Se dans les milieux aquatiques au Burkina Faso, une région d’Afrique sub-saharienne soumise à une exploitation minière intensive. Le risque potentiel pour les organismes aquatiques et les humains a été évalué en considérant les effets des interactions antagonistes Se/Hg et As/Se. La bioaccumulation et le transfert du Hg et du Se dans les réseaux trophiques sont également décrits. L’exposition au Hg de poissons par les humains a été également évalué au laboratoire par mesure de la bioaccessibilité comme équivalent de la biodisponibilité par simulation de la digestion humaine. En général, les milieux aquatiques étudiés étaient peu affectés par ces 3 métal(loïd)s bien que certaines espèces de poisson issus des réservoirs les plus profonds indiquent des teneurs de Hg au dessus de 500 ngHg/g (poids frais) recommandé par l’OMS. Ces niveaux sont susceptibles de présenter des risques toxicologiques pour les poissons et pour leurs consommateurs. En considérant l’antagonisme Se/Hg, 99 % des échantillons de poisson seraient moins exposés à la toxicité du Hg dû à la présence simultanée du sélénium dans le milieu et pourraient être consommés sans risque. Cependant, les effets potentiels de l’antagonisme As/Se pourraient réduire les effets bénéfiques du Se et ramener cette proportion à 83 %. L’application des mesures de signatures en isotopes stables d’azote (δ15N) et de carbone (δ13C) des organismes aquatiques a permis le traçage des voies de transfert du Hg et du Se dans les réseaux trophiques. On y observe des chaînes trophiques très courtes (3 - 4 niveaux trophiques) et des poissons majoritairement benthiques. L’approche isotopique n’a cependant pas permis de détecter les variations saisonnières des niveaux de contamination en Hg des poissons. L’exploration des contenus stomacaux des poissons a permis de mieux expliquer la baisse des concentrations en Hg et Se observées chez certains poissons au cours de la saison sèche en lien avec la variation de la composition des proies que l’analyse isotopique n’a pas cerné. L’étude suggère que l’analyse de contenus stomacaux ainsi que l’étude de la dynamique des communautés d’invertébrés couplées à celle des métaux pourraient améliorer la compréhension du fonctionnement des écosystèmes étudiés. Enfin, l’évaluation expérimentale de l’exposition au Hg indique que les modes de traitement avant consommation ainsi que l’usage de composés alimentaires tels le thé, le café lors de repas de poisson par certaines communautés humaines ont un impact sur la bioaccessibilité du Hg de poisson. Ces résultats, sous réserve de validation par des modèles animaux, suggèrent la prise en compte des habitudes alimentaires des communautés dans l’élaboration adéquat des avis de consommation de poisson.
Resumo:
Le réseau Internet s’avère être un outil important pour les juristes. Il rend possible la constitution d’une base de données juridiques, la création de revues de droit, la mise sur pied de forums de discussion sur les questions de droit, la diffusion d’ouvrages, etc. Le réseau Internet facilite les recherches en droit, car grâce aux bases des données, les juristes peuvent facilement accéder notamment aux textes légaux et réglementaires, à la jurisprudence et aux textes de doctrine. Cependant, Internet peut également servir à résoudre les conflits qui surviennent dans les rapports entre les internautes ou entre les internautes et les opérateurs du réseau Internet. La cyberjustice existe déjà, à petite échelle. L’on peut se permettre de mentionner le Centre de médiation et d’arbitrage de l’OMPI, le Virtual Magistrate, l’Online Ombuds Office, le CyberTribunal et le Règlement Uniforme de l’ICANN. S’il faut saluer les efforts qui ont abouti à l’existence de ces instances de cyberjustice, il convient pourtant de reconnaître leurs limites. En effet, ces diverses formes de cyberjustice ont un caractère privé et demeurent incapables d’assurer la répression des infractions. Ensuite, elles ne tiennent pas compte du déséquilibre des rapports entre télétravailleurs et employeurs, puisqu’elles reconnaissent à ces deux groupes des droits équivalents quant au choix de la juridiction et des règles applicables. Enfin, en l’état actuel de la cyberjustice, le sens de la justice est sacrifié à la célérité. Certains droits reconnus aux parties — celui de jouir d’un double degré de juridiction en particulier — sont ignorés. Ces faits montrent bien la nécessité de concevoir des modèles d’institutions plus appropriés en vue de l’instauration d’un certain ordre dans le réseau Internet. C’est dans cette optique que la présente étude offre quelques modèles de juridictions virtuelles, dont une juridiction virtuelle répressive.
Resumo:
Des preuves archéopalynologiques directes appuient maintenant l’hypothèse d’une lente adaptation horticole durant la néolithisation amérindienne de la région de Montréal. Les sites archéologiques Hector-Trudel (BhFl-1a) de Pointe-du-Buisson et Séminaire de Saint-Sulpice (BjFj-18) dans le Vieux-Montréal ont été retenus pour élaborer une méthodologie archéopalynologique d’étude des sols archéologiques. Cela a permis de caractériser l’impact de la présence humaine sur l'environnement végétal des sites et d’identifier des indices de culture et de gestion de plantes allogènes et indigènes. Un complexe horticole de production à petite échelle de maïs (Zea mays), de tournesol (Helianthus annuus) et de petit tabac (Nicotiana rustica) et une forme de gestion des arbustes à petits fruits sont identifiés au site Hector-Trudel durant le Sylvicole moyen tardif (500 à 1000 A.D.). Ces cultigènes sont aussi identifiés au site du Séminaire pour la fin du Sylvicole supérieur ancien (1200 à 1300 A.D.), dans des proportions toutefois plus importantes, et une activité de gestion forestière au profit des arbres à noix et du tilleul d’Amérique (Tilia americana), reflet des pratiques d’entretien des champs cultivés, témoignent d’une évolution dans les comportements
Resumo:
Ce petit échantillon d’une étude ethnographique, fait à partir de la méthode d’observation participante, interroge la nature de la tendance de la mode auprès de jeunes citadins au coeur d'un centre urbain francophone du Canada. Les participants identifient un « look » comme étant emblématique du Plateau, un arrondissement de Montréal qui est démographiquement divers et contenant beaucoup de commerces dynamiques. Le Plateau a été promu par les organisations de la ville de Montréal comme le point central de la mode, arts et culture. Locaux ou simples touristes voient le Plateau comme un environnement aidant à la transformation personnelle et à l’autoréalisation, particulièrement chez les locaux de 18-30 ans. Plus particulièrement, les membres appartenant à cette tranche d’âge conçoivent leurs propres interprétations de la mode et participent à un certains nombres de projets créatifs en vue de réaliser d’authentiques et véritables expressions de soi. Cependant, à cause de la commercialisation de la mode présentée pour les consommateurs du Plateau, la jeune population perçoit le courant dominant du « hipster » comme n’étant plus l’authentique représentation à leur course à l’authenticité individuelle dans un monde en perpétuel globalisation. La chercheuse a découvert l’existence d’une idéologie de l’individu restreint à ce quartier. Vu l’animosité présente parmi la population locale du Plateau pour le courant principal hipster, l’ensemble de ces données montrent qu’il y a un besoin d’une meilleure compréhension de la relation entre la commercialisation de la mode occidentale et de ces acheteurs au niveau de l’individu et au niveau local dans les espaces urbaine en perpétuel globalisation. Le contexte de la mode dans cet environnement est contraint par l’hypothèse de la valeur qu'être différent est imaginé et digne d’intérêt dans cette communauté si et seulement si quelqu’un est confiant au point de se tenir debout avec ses idéaux au milieu des autres.
Resumo:
Le réseau magnétique consiste en un ensemble de petites concentrations de flux magnétique sur la photosphère solaire. Vu sa petite échelle de taille et de flux, à la limite de détection, son comportement n'est connu que depuis récemment. Les interactions du réseau sont pourtant cruciales afin de comprendre la dynamo et l'irradiance solaires, car beaucoup de caractérisques du réseau dépendent de ces interactions. De plus, le réseau est la principale contribution magnétique surfacique à l'irradiance solaire. Les modèles existants du réseau ne tenaient jusqu'à maintenant pas compte des interactions du réseau. Nous avons tenté de combler cette lacune avec notre modèle. Nos simulations impliquent une marche aléatoire en 2D de tubes de flux magnétiques sur la photosphère solaire. Les tubes de flux sont injectés puis soumis à des règles de déplacement et d'interaction. L'injection se fait à deux échelles, respectivement la plus petite et la plus grande observables: les tubes de flux élémentaires et les taches solaires. Des processus de surface imitant ceux observés sont inclus, et consistent en l'émergence, la coalescence, l'annulation et la submergence de flux. La fragmentation des concentrations n'est présente que pour les taches, sous forme de désintégration libérant des tubes de flux. Le modèle est appliqué au cycle solaire 21 (1976-1986, le mieux documenté en termes de caractéristiques de taches solaires. Il en résulte des réponses à deux questions importantes en physique solaire. La première est: l'injection de flux magnétique à deux échelles très distinctes peut-elle conduire à une distribution de flux en loi de puissance comme on l'observe, si l'on inclut des processus de surface qui retraitent le flux? Cette question est étroitement liée à l'origine de la dynamo solaire, qui pourrait produire ladite distribution. Nous trouvons qu'on peut effectivement produire une telle distribution avec ce type d'injection et ce type de processus de surface. Cela implique que la distribution de flux observée ne peut servir à déterminer quel type de dynamo opère dans le Soleil. La deuxième question à laquelle nous avons apporté un élément de réponse est celle à savoir combien de temps il faut au réseau pour retrouver son état d'activité de base. Cet état a été observé lors du minimum de Maunder en 1645-1715 et touche de près la question de l'influence de l'activité solaire sur le climat terrestre. Le récent minimum d'activité est considéré par certains comme ayant atteint cet état. Nous trouvons plutôt que ça n'a pas été le cas. En effet, le temps de relaxation du réseau que nous avons calculé est supérieur au temps écoulé entre la fin du dernier cycle solaire d'activité et celui de l'amorce du présent cycle.
Resumo:
Cette thèse est divisée en trois chapitres. Le premier explique comment utiliser la méthode «level-set» de manière rigoureuse pour faire la simulation de feux de forêt en utilisant comme modèle physique pour la propagation le modèle de l'ellipse de Richards. Le second présente un nouveau schéma semi-implicite avec une preuve de convergence pour la solution d'une équation de type Hamilton-Jacobi anisotrope. L'avantage principal de cette méthode est qu'elle permet de réutiliser des solutions à des problèmes «proches» pour accélérer le calcul. Une autre application de ce schéma est l'homogénéisation. Le troisième chapitre montre comment utiliser les méthodes numériques des deux premiers chapitres pour étudier l'influence de variations à petites échelles dans la vitesse du vent sur la propagation d'un feu de forêt à l'aide de la théorie de l'homogénéisation.