209 resultados para Chauffe-eau électrique
Resumo:
Nous étudions la recombinaison radiative des porteurs de charges photogénérés dans les puits quantiques InGaN/GaN étroits (2 nm). Nous caractérisons le comportement de la photoluminescence face aux différentes conditions expérimentales telles la température, l'énergie et la puissance de l'excitation et la tension électrique appliquée. Ces mesures montrent que l'émission provient d'états localisés. De plus, les champs électriques, présents nativement dans ces matériaux, n'ont pas une influence dominante sur la recombinaison des porteurs. Nous avons montré que le spectre d'émission se modifie significativement et subitement lorsque la puissance de l'excitation passe sous un certain seuil. L'émission possède donc deux ``phases'' dont nous avons déterminé le diagramme. La phase adoptée dépend à la fois de la puissance, de la température et de la tension électrique appliquée. Nous proposons que la phase à basse puissance soit associée à un état électriquement chargé dans le matériau. Ensuite, nous avons caractérisé la dynamique temporelle de notre échantillon. Le taux de répétition de l'excitation a une influence importante sur la dynamique mesurée. Nous concluons qu'elle ne suit pas une exponentielle étirée comme on le pensait précédemment. Elle est exponentielle à court temps et suit une loi de puissance à grand temps. Ces deux régimes sont lié à un seul et même mécanisme de recombinaison. Nous avons développé un modèle de recombinaison à trois niveaux afin d'expliquer le comportement temporel de la luminescence. Ce modèle suppose l'existence de centres de localisation où les porteurs peuvent se piéger, indépendamment ou non. L'électron peut donc se trouver sur un même centre que le trou ou sur n'importe quel autre centre. En supposant le transfert des porteurs entre centres par saut tunnel on détermine, en fonction de la distribution spatiale des centres, la dynamique de recombinaison. Ce modèle indique que la recombinaison dans les puits InGaN/GaN minces est liée à des agglomérats de centre de localisation.
Resumo:
La présente étude porte sur l’évaluation d’une méthode d’acquisition de la solution de sol présente à l’interface sol-racine, dans la rhizosphère. Cette interface constitue le lieu privilégié de prise en charge par les plantes des contaminants, tels que les métaux traces. Comme les plantes acquièrent ces éléments à partir de la phase liquide, la solution de sol de la rhizosphère est une composante clé pour déterminer la fraction de métaux traces biodisponibles. La microlysimétrie est la méthode in situ la plus appropriée pour aborder les difficultés liées à l’échelle microscopique de la rhizosphère. Ainsi, dans les études sur la biodisponibilité des métaux traces au niveau de la rhizosphère, les microlysimètres (Rhizon©) gagnent en popularité sans, toutefois, avoir fait l’objet d’études exhaustives. L’objectif de cette étude est donc d’évaluer la capacité de ces microlysimètres à préserver l’intégrité chimique de la solution, tout en optimisant leur utilisation. Pour ce faire, les microlysimètres ont été soumis à une série d’expériences en présence de solutions et de sols, où la quantité de solution prélevée et le comportement des métaux traces (Cd, Cu, Ni, Pb, Zn) ont été étudiés. Les résultats montrent que les microlysimètres fonctionnent de façon optimale lorsque le contenu en eau du sol est au-dessus de la capacité au champ et lorsqu’il y a peu de matière organique et d’argile. Les sols sableux ayant un faible contenu en C organique reproduisent mieux le volume prélevé et la solution sous la capacité au champ peut être récoltée. L’utilisation des microlysimètres dans ces sols est donc optimale. Dans les essais en solution, les microlysimètres ont atteint un équilibre avec la solution après 10 h de prélèvement. En respectant ce délai et les conditions optimales préalablement établies (pH acide et COD élevé), les microlysimètres préservent la composition chimique de la solution. Dans les essais en sol, cet équilibre n’a pas été atteint après dix jours et huit prélèvements. Le contenu en matière organique et l’activité microbienne semblent responsables de la modification des concentrations en métaux au cours de ces prélèvements, notamment, dans l’horizon FH où les microlysimètres performent très mal. En revanche, dans l’horizon B, les concentrations tendent à se stabiliser vers la fin de la série de prélèvements en se rapprochant des valeurs de référence. Bien que des valeurs plus élevées s’observent pour les microlysimètres, leurs concentrations en métaux sont comparables à celles des méthodes de référence (extrait à l’eau, lysimètres de terrain avec et sans tension). En somme, les microlysimètres se comportent généralement mieux dans l’horizon B. Même si leur utilisation est plus optimale dans un sol sableux, cet horizon est privilégié pour de futures études sur le terrain avec les microlysimètres.
Resumo:
Le sujet général de cette thèse est l’étude de la fonctionnalisation covalente des nanotubes de carbone (CNT) et son application en électronique. Premièrement, une introduction au sujet est présentée. Elle discute des propriétés des CNT, des différentes sortes de fonctionnalisation covalente ainsi que des principales techniques de caractérisation utilisées au cours de la thèse. Deuxièmement, les répercussions de la fonctionnalisation covalente sur les propriétés des nanotubes de carbone monoparoi (SWNT) sont étudiées. Deux types de fonctionnalisation sont regardés, soit le greffage de groupements phényles et le greffage de groupements dichlorométhylènes. Une diminution de l’absorption optique des SWNT dans le domaine du visible-proche infrarouge est observée ainsi qu’une modification de leur spectre Raman. De plus, pour les dérivés phényles, une importante diminution de la conductance des nanotubes est enregistrée. Troisièmement, la réversibilité de ces deux fonctionnalisations est examinée. Il est montré qu’un recuit permet de résorber les modifications structurales et retrouver, en majorité, les propriétés originales des SWNT. La température de défonctionnalisation varie selon le type de greffons, mais ne semble pas affectée par le diamètre des nanotubes (diamètre examinés : dérivés phényles, Ømoyen= 0,81 nm, 0,93 nm et 1,3 nm; dérivés dichlorométhylènes, Ømoyen = 0,81 nm et 0,93 nm). Quatrièmement, la polyvalence et la réversibilité de la fonctionnalisation covalente par des unités phényles sont exploitées afin de développer une méthode d’assemblage de réseaux de SWNT. Celle-ci, basée sur l’établissement de forces électrostatiques entre les greffons des SWNT et le substrat, est à la fois efficace et sélective quant à l’emplacement des SWNT sur le substrat. Son application à la fabrication de dispositifs électroniques est réalisée. Finalement, la fonctionnalisation covalente par des groupements phényles est appliquée aux nanotubes de carbone à double paroi (DWNT). Une étude spectroscopique montre que cette dernière s’effectue exclusivement sur la paroi externe. De plus, il est démontré que la signature électrique des DWNT avant et après la fonctionnalisation par des groupements phényles est caractéristique de l’agencement nanotube interne@ nanotube externe.
Resumo:
Une fois ingérées par un insecte sensible, les toxines insecticides du bacille de Thuringe doivent être activées par les protéases intestinales de cet insecte. Leur premier domaine, un ensemble de sept hélices-α amphipathiques, est responsable de leur insertion dans la membrane luminale de certaines cellules de l’intestin médian, ce qui crée des pores peu sélectifs. La toxicité et la capacité à former des pores d’une telle toxine, la Cry9Ca, de ses mutants simples R164A et R164K et d’un fragment de 55 kDa résultant d’un clivage protéolytique au niveau de son résidu 164 ont été étudiées à l’aide d’une combinaison de modélisation par homologie, de bioessais, d’expériences de gonflement osmotique avec des vésicules de membrane en bordure en brosse de larves de sphinx du tabac et de mesures électrophysiologiques sur des intestins isolés. Ni les mutations simples ni le clivage protéolytique n’ont altéré la toxicité de la Cry9Ca. Dans une solution à faible force ionique, toutefois, la formation des pores dépend fortement du pH : une augmentation de celui-ci de 6,5 à 10,5 a entraîné une baisse irrégulière et par étapes successives de la perméabilité membranaire. Les quatre préparations de toxine ont néanmoins dépolarisé la membrane apicale d’intestins médians fraîchement isolés baignant dans une solution contenant 122 mM de KCl à pH 10,5. L’activité de la Cry9Ca, et des mutants R164A et R164K, a été grandement stimulée lorsque les expériences ont été effectuées en présence de suc intestinal, de lipides extraits d’un volume équivalent de suc intestinal ou d’un cocktail d’inhibiteurs de protéases solubles dans l’eau. De plus, le rôle des boucles inter-hélicales du Domaine I lors de l’insertion dans la membrane a été étudié avec des mutants doubles de la Cry9Ca dont les mutations introduisaient, neutralisaient ou renversaient une charge électrique. À l’exception de trois d’entres eux, tous ces mutants ont conservé une toxicité et une capacité à former des pores comparables à celles de la toxine parentale. L’ensemble de ces résultats suggère que le micro-environnement de l’intestin médian contribue à minimiser l’influence des charges de surface portées par les résidus des boucles inter-hélicales du Domaine I sur la capacité des toxines du bacille de Thuringe à former des pores. Il indique aussi que, d’une part, selon le site de clivage et les conditions expérimentales utilisées, des protéolyses supplémentaires de la toxine Cry9Ca activée peuvent soit stimuler, soit nuire à son activité et que, d’autre part, le suc intestinal du sphinx du tabac contient probablement un inhibiteur de protéases qui pourrait jouer un rôle important dans l’activité des toxines du bacille de Thuringe.
Resumo:
Dans la première partie, nous présentons les résultats de l'étude du supraconducteur sans inversion de symétrie LaRhSi3 par spectroscopie muonique. En champ nul, nous n'avons pas détecté de champ interne. Ceci indique que la fonction d'onde de l'état supraconducteur n'est pas dominée par l'état triplet. Les mesures en champ transverse de 35G présentent une transition en accord avec la transition de phase attendue sous le champ critique Hc1. Nous avons répété ces mesures pour un champ entre Hc1 et Hc2, 150G. Le spectre obtenu pour ces mesures conserve l'asymétrie et relaxe rapidement à basse température tel que prédit pour un supraconducteur dans la phase d'Abrikosov. Néanmoins, les relaxations produites par ce balayage en température présentent une transition à près de 2 fois la température critique attendue. Dans la deuxième partie de ce mémoire, nous donnons l'interprétation des résultats de la diffraction neutronique inélastique par l'étude des champs électriques cristallins. Ces mesures ont été effectuées sur des aimants frustrés SrHo2O4 et SrDy2O4 sous la forme de poudre. L'étude des niveaux produits par les champs cristallins par la méthode des opérateurs de Stevens indique une perte du moment cinétique dans les deux matériaux. Pour le SrDy2O4, l'état fondamental serait constitué de quatre états dégénérés quasi accidentellement qui portent un moment magnétique total non-nul. Toute fois, nos mesures de susceptibilité magnétique ne montrent aucun ordre au-dessus de 50mK. Pour le SrHo2O4, le fondamental est formé d'une paire accidentelle. Nous obtenons un moment magnétique de 6.94(8)$\mu_B$ ce qui s'accorde avec les données expérimentales.
Resumo:
Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.
D'objet de risée à symbole de l'Amérique : la télévision à travers le cinéma américain (1970 à 1999)
Resumo:
Cette analyse dresse le portrait des différentes représentations de la télévision à travers le cinéma américain de 1970 à 1999. Ce travail porte sur un corpus de quatorze films et s’intéresse à quatre dimensions de la télévision : l’appareil électrique, le téléspectateur, le contenu et l’univers professionnel. Les hypothèses soulevées sont que la télévision est majoritairement présentée de façon négative, que les représentations s’inscrivent dans un contexte culturel précis et qu’il y a un consensus entre les écrits universitaires et les cinéastes au sujet de l’écran cathodique. Bien que certaines critiques soient récurrentes d’une décennie à l’autre, il y a une évolution des représentations. Dans les années 1970, la télévision est un objet de risée. Son contenu est caricaturé et les professionnels qui travaillent pour la télévision sont personnifiés comme des êtres incompétents. Dans les années 1980, le petit écran est montré comme un objet dangereux. Sa très grande popularité en ferait un puissant diffuseur idéologique qui transforme tout en spectacle même la mort. Cette même popularité servira de prétexte aux cinéastes des années 1990 pour utiliser la télévision comme symbole de l’Amérique. Le portrait est peu flatteur : une Amérique corrompue, violente et en manque d’idéaux. Cette analyse montre également qu’au fil des décennies, les mêmes idées circulent entre cinéastes et penseurs américains. Enfin, cette attitude par rapport à la télévision est d’ailleurs symptomatique d’un mépris de l’élite intellectuel envers l’art populaire.
Resumo:
Les colonnes de plasma entretenues par un champ électrique (continu ou alternatif) à haute pression (p > 10 Torr) sont affectées par les phénomènes de contraction (réduction de la section radiale de la décharge) et de filamentation (fragmentation de la section de plasma en plusieurs filaments). La compréhension de ces phénomènes ainsi que le développement d’une méthode pouvant les supprimer demeurent une étape essentielle pour l’optimisation de certains procédés plasma. Dans cette optique, un premier objectif de notre travail était de déterminer les mécanismes à l’origine de la contraction et de la filamentation dans les décharges créées dans des gaz rares. Ainsi, nous avons montré que dans les plasmas micro-ondes contractés la cinétique de la décharge est contrôlée par les ions moléculaires et que la contraction est liée à l’influence du gradient de la température du gaz sur la concentration de ces ions. De plus, nous avons mis en évidence que la filamentation apparaît lorsque l’inhomogénéité radiale du champ électrique devient importante. Dans un second temps, nous avons développé une méthode de décontraction et de défilamentation de la décharge, qui consiste à ajouter à une décharge initiale de gaz rare des traces d’un autre gaz rare de plus faible potentiel d’ionisation. Dans le cas des plasmas décontractés, nous avons démontré que la cinétique de la décharge n’est plus contrôlée par les ions moléculaires, ce qui confirme bien l’importance de ces ions dans la description de la contraction. Pour terminer, nous avons étendu à la pression atmosphérique la technique d’absorption optique de mesure de densité des états métastables et résonnants à l’aide d’une lampe spectrale, ce qui n’avait été réalisé jusqu’ici que pour des pressions inférieures à 10 Torr. Ces états jouent un rôle essentiel dans l’ionisation des décharges contractées alors que dans les décharges décontractées leur désexcitation par les atomes du gaz adjuvant est l’étape fondamentale du processus de changement de cinétique menant à la décontraction.
Resumo:
La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.
Resumo:
Les sels d’imidazolium ont un rôle important dans certaines protéines et acides nucléiques et ont été utilisés à de nombreuses reprises dans des assemblages supramoléculaires en raison de leurs propriétés uniques. Les sels de diimidazolium dérivés sont toutefois moins connus. Ils ont pour l’instant uniquement été utilisés comme des précurseurs de carbènes N-hétérocycliques. Ils sont donc à la base de plusieurs catalyseurs utilisés pour des réactions de couplage croisés mais leurs propriétés sont toutefois méconnues dans le cadre de la chimie supramoléculaire. Cette classe de composés a nottament attiré notre attention en raison de la facilité de modification de leurs propriétés physico-chimiques par modification de leur structure chimique. L’objectif général des travaux présentés dans cette thèse est l’étude des propriétés supramoléculaires des sels de diimidazolium disubstitués en solution (aqueuse ou organique), ainsi qu’en phase solide ou cristal-liquide. L’influence de l’espaceur entre les deux noyaux imidazolium ainsi que l’influence des substituants latéraux et des contre-ions a été étudiée. Dans un premier temps, les propriétés de complexation des sels de diimidazolium à des macrocycles sont étudiées. Les sels bromure sont étudiés en solution aqueuse avec plusieurs cyclodextrines et le cucurbit[7]uril, et les sels hexafluorophosphate sont étudiés en solution organique pour leur complexation avec l’éther couronne DB24C8 et un calix[4]arène. Cette nouvelle classe de composés a montré de très bonnes propriétés de complexation à ces différents macrocycles en solution et a également permis de contrôler différents assemblages supramoléculaires à l’interface air-eau. Dans un deuxième temps, l’étude des sels de phénylènediimidazolium a permis de modifier les propriétés de complexation en solution pour obtenir la formation de complexes multiples avec le cucurbit[7]util en solution aqueuse. Cette même famille de composés a également permis la formation de cristaux liquides ioniques lorsque les substituants sont des chaînes alkyles plus longues. La résolution de plusieurs structures cristallines de différents sels de diimidazolium a finalement permis de comprendre la nature des interactions intermoléculaires à l’état cristallin. La recherche présentée dans cette thèse a donc permis une étude détaillée des propriétés supramoléculaires des sels de diimidazolium dans tous les états de la matière qui leur sont accessibles.
Resumo:
Cette thèse porte sur l'analyse bayésienne de données fonctionnelles dans un contexte hydrologique. L'objectif principal est de modéliser des données d'écoulements d'eau d'une manière parcimonieuse tout en reproduisant adéquatement les caractéristiques statistiques de celles-ci. L'analyse de données fonctionnelles nous amène à considérer les séries chronologiques d'écoulements d'eau comme des fonctions à modéliser avec une méthode non paramétrique. Dans un premier temps, les fonctions sont rendues plus homogènes en les synchronisant. Ensuite, disposant d'un échantillon de courbes homogènes, nous procédons à la modélisation de leurs caractéristiques statistiques en faisant appel aux splines de régression bayésiennes dans un cadre probabiliste assez général. Plus spécifiquement, nous étudions une famille de distributions continues, qui inclut celles de la famille exponentielle, de laquelle les observations peuvent provenir. De plus, afin d'avoir un outil de modélisation non paramétrique flexible, nous traitons les noeuds intérieurs, qui définissent les éléments de la base des splines de régression, comme des quantités aléatoires. Nous utilisons alors le MCMC avec sauts réversibles afin d'explorer la distribution a posteriori des noeuds intérieurs. Afin de simplifier cette procédure dans notre contexte général de modélisation, nous considérons des approximations de la distribution marginale des observations, nommément une approximation basée sur le critère d'information de Schwarz et une autre qui fait appel à l'approximation de Laplace. En plus de modéliser la tendance centrale d'un échantillon de courbes, nous proposons aussi une méthodologie pour modéliser simultanément la tendance centrale et la dispersion de ces courbes, et ce dans notre cadre probabiliste général. Finalement, puisque nous étudions une diversité de distributions statistiques au niveau des observations, nous mettons de l'avant une approche afin de déterminer les distributions les plus adéquates pour un échantillon de courbes donné.
Resumo:
Cette recherche porte sur les origines et les effets de la dégradation de l’environnement dans le désert de Thar, au Rajasthan en Inde. Elle expose les processus politico-économiques qui conditionnent la gestion des ressources naturelles dans la région du Marwar depuis l’indépendance de l’Inde à aujourd’hui. Les modes de gestion des ressources environnementales et agraires dans le contexte du système jagirdari, un système foncier domanial qui prévalait dans la région avant l’indépendance de l’Inde, sont d’abord présentés. S’en suit une analyse de la manière dont les diverses idéologies liées au développement postcolonial ont reconfiguré le paysage socio-administratif et environnemental de la région. Ces transformations ont engendré des désordres écologiques qui ont donné lieu à une crise environnementale et agraire qui connaît son paroxysme avec les nombreux déficits pluviométriques qui sévissent depuis la dernière décennie dans la région. À partir d’une recherche de terrain effectuée dans la communauté de Givas, l’impact – au plan physique et métaphysique – de ces problèmes environnementaux sur la population locale est examiné. L’étude porte également sur les réponses à ces changements, soit les stratégies de subsistance adoptées par la population locale, de même que les interventions déployées par une organisation non gouvernementale et par l’État indien – à travers le National Rural Employment Guarantee Act (NREGA). L’analyse démontre que l’expérience de la dégradation de l’environnement, à travers ses effets et les stratégies d’adaptation qui s’en suivent, est tributaire de facteurs politiques, économiques et socioculturels et donc différenciée selon le genre, la classe et la caste.
Resumo:
Le réseau de distribution aérien, ou plus simplement le réseau de poteaux de bois et ses câbles, est encore aujourd’hui omniprésent dans la majorité des villes du Québec. Pour plusieurs, le réseau de poteaux d’utilité publique semble appartenir à une autre époque. Pourtant, les poteaux et câbles ne sont pas près de disparaître, au contraire, ils ne cessent de se transformer. Depuis peu, de plus en plus d’équipements s’ajoutent sur le réseau: boîtiers techniques, nombre de câbles, appareillages au sommet des poteaux, antennes de communication, etc. Bien que les équipements du réseau de distribution aérien soient des éléments produits industriellement, ceux-ci intègrent rarement les services du design industriel au moment de leur conception initiale. Cette recherche étudie le système de distribution aérien sous l’angle de la « pensée design ». L’intention de cette étude est d’analyser les impacts de la présence du réseau aérien en milieux urbains et a pour objectif d’orienter les pratiques de conception de ce type d’équipements. Pour ce faire, dans une optique transdisciplinaire, diverses approches ont été sollicitées dont: l’approche systémique, l’approche paysage et les approches des partenaires des réseaux. Au moyen d’une recherche documentaire et d’observations faites sur le terrain, la recherche vise à dresser un portrait général du réseau de distribution aérien et les défis qui y sont associés. La recherche expose, dans un état des lieux, les résultats issus des questions analytiques de recherche suivantes: de quoi est composé le réseau de distribution aérien, quels sont les intervenants sur le réseau, quelles sont leurs interactions, quels sont les points de vue des différentes catégories d’acteurs en relation avec le réseau, quels sont les impacts reliés à la présence du réseau en milieux urbains et quelle a été son évolution au fil des années. Dans la perspective de l’approche design, chercher à comprendre une problématique de façon plus large permet de s’assurer que l’on répond au bon problème, que l’on considère tous les facteurs en cause visant ainsi à réduire les répercussions négatives sur les contextes de vie actuels et futurs. Les principaux constats de cette recherche démontrent que la composition du réseau de distribution, avant même de considérer les nouveaux usages et l’ajout de nouveaux équipements, présente des lacunes importantes. La gestion entre les divers partenaires du réseau de distribution pose aussi problème. L’ajout de nouveaux équipements sur le réseau, combiné aux multiples équipements apparaissant sur les voies publiques laisse entrevoir l’atteinte d’un niveau de saturation des milieux urbains. Les façons de faire hermétiques et «cristallisées» des partenaires du réseau ne collent pas avec les initiatives et aspirations générales en matière d’aménagement. En étudiant la problématique du réseau de distribution par le biais de la pensée design, l’approche design cherche à déceler, de façon proactive, les opportunités de design qui permettront de mieux gérer l’apparition et l’intégration des nouveaux équipements sur les poteaux. Cette démarche permet d’envisager des solutions qui visent à limiter les répercussions collatérales une fois en contexte et qui, du même coup, adressent des problématiques connexes. Finalement, à la lumière de l’état des lieux, cette recherche propose des critères de conception de futurs réseaux de distribution, élaborés dans l’esprit de l’approche design.
Resumo:
Le vieillissement normal est souvent associé à des changements cognitifs négatifs, notamment sur les performances cognitives. Cependant, des changements comportementaux et cérébraux positifs ont aussi été observés. Ces modifications indiquent l’existence d’une plasticité cérébrale dans le vieillissement normal. Ainsi, plusieurs facteurs ont été étudiés afin de mieux connaitre les modulateurs de cette plasticité dite positive. La plupart des études évaluant ce phénomène ont utilisé la technique d’imagerie par résonance magnétique alors que la technique des potentiels évoqués a été beaucoup moins utilisée. Cette technique est basée sur les enregistrements de l’activité électrique cérébrale très sensible aux changements anatomiques associés au vieillissement et permet donc d’observer de manière précise les variations du décours temporel des ondes éléctrophysiologiques lors du traitement des informations. Les travaux de cette thèse visent à étudier les modifications de plasticité cérébrale induites par des facteurs protecteurs/préventifs du vieillissement normal et notamment lors de la réalisation de tâches impliquant le contrôle attentionnel, grâce à l’analyse de signaux électroencéphalographiques en potentiels évoqués. Dans un premier temps, une description de l’analyse des données EEG en potentiels évoqués sera fournie, suivie d’une revue de littérature sur le contrôle attentionnel et les facteurs de plasticité dans le vieillissement normal (Chapitre 1). Cette revue de littérature mettra en avant, d’une part la diminution des capacités de contrôle de l’attention dans le vieillissement et d’autre part, les facteurs protecteurs du vieillissement ainsi que la plasticité cérébrale qui leur est associée. Ces facteurs sont connus pour avoir un effet positif sur le déficit lié à l’âge. La première étude de ce projet (Chapitre 2) vise à définir l’effet d’un facteur de réserve cognitive, le niveau d’éducation, sur les composantes des potentiels évoqués chez les personnes âgées. Cette étude mettra en avant une composante des potentiels évoqués, la P200, comme indice de plasticité lorsqu’elle est liée au niveau d’éducation. Cet effet sera observé sur deux tâches expérimentales faisant intervenir des processus de contrôle attentionnel. De plus, une différence d’épaisseur corticale sera observée : les personnes âgées ayant un plus haut niveau d’éducation ont un cortex cingulaire antérieur plus épais. La deuxième étude (Chapitre 3) cherche à déterminer, chez les personnes âgées, les modifications comportementales et en potentiels évoqués induites par trois entraînements cognitifs, entrainements visant l’amélioration de processus attentionnels différents : l’attention focalisée, l’attention divisée, ainsi que la modulation de l’attention. Au niveau comportemental, les entraînements induisent tous une amélioration des performances. Cependant, l’entraînement en modulation de l’attention est le seul à induire une amélioration du contrôle attentionnel. Les résultats éléctrophysiologiques indiquent la N200 comme composante sensible à la plasticité cérébrale à la suite d’entraînements cognitifs. L’entraînement en modulation de l’attention est le seul à induire une modification de cette composante dans toutes les conditions des tests. Les résultats de ces études suggèrent que les facteurs protecteurs du vieillissement permettent des changements positifs observés en potentiels évoqués. En effet, nous mettons en évidence des phénomènes de plasticité cérébrale des personnes âgées qui diffèrent selon leurs origines. L’impact de ces résultats ainsi que les limites et perspectives futures seront présentés en fin de thèse (Chapitre 4).
Resumo:
Cette thèse est composée de trois essais en économie forestière. Les deux premiers s'intéressent à la fixation de la redevance optimale à laquelle fait face le propriétaire d'une ressource forestière dans un contexte d'information asymétrique. Le troisième analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. La gestion des ressources forestières implique souvent la délégation des droits de coupe par le propriétaire forestier à une entreprise exploitante. Cette délégation prend la forme d'un contrat de concession par lequel le propriétaire forestier octroie les droits d'exploitation aux compagnies forestières, en contrepartie d'une redevance (transfert monétaire). L'octroie des droits d'exploitation s'effectue généralement sous plusieurs modes, dont les plus répandus sont les appels d'offres publics et les contrats de gré à gré, où le propriétaire forestier et la firme exploitante spécifient entre autres la redevance dans les clauses d'exploitation de la forêt. Pour déterminer le mécanisme optimal (choix de la firme, âge de coupe et redevance), le propriétaire forestier a idéalement besoin de connaître les coûts de coupe et de reboisement. Or en réalité, les firmes sont mieux informées sur leurs coûts que le propriétaire forestier. Dans ce contexte d'information asymétrique, le mécanisme optimal doit donc prendre en considération des contraintes informationnelles. Les deux premiers essais caractérisent, sous ces conditions, l'âge de coupe optimal (la rotation optimale) et la redevance optimale. Le premier essai examine le contrat optimal quand le propriétaire forestier cède les droits de coupes à une firme par un accord de gré à gré ou par une procédure d'appel d'offre public au second prix. L'analyse du problème est menée premièrement dans un contexte statique, dans le sens que les coûts de coupe sont parfaitement corrélés dans le temps, puis dans un contexte dynamique, où les coûts sont indépendants dans le temps. L'examen en statique et en dynamique montre que la rotation optimale va satisfaire une version modifiée de la règle de Faustmann qui prévaudrait en information symétrique. Cette modification est nécessaire afin d'inciter la firme à révéler ses vrais coûts. Dans le cas statique, il en résulte que la rotation optimale est plus élevée en information asymétrique qu'en situation de pleine information. Nous montrons également comment le seuil maximal de coût de coupe peut être endogénéisé, afin de permettre au propriétaire d'accroître son profit espéré en s'assurant que les forêts non profitables ne seront pas exploitées. Nous comparons ensuite la redevance optimale en information asymétrique et symétrique. Les redevances forestières dans un arrangement de gré à gré étant généralement, en pratique, une fonction linéaire du volume de bois, nous dérivons le contrat optimal en imposant une telle forme de redevance et nous caractérisons la perte en terme de profit espéré qui résulte de l'utilisation de ce type de contrat plutôt que du contrat non linéaire plus général. Finalement, toujours dans le contexte statique, nous montrons à travers un mécanisme optimal d'enchère au second prix qu'en introduisant ainsi la compétition entre les firmes le propriétaire forestier augmente son profit espéré. Les résultats obtenus dans le contexte dynamique diffèrent pour la plupart de ceux obtenus dans le cas statique. Nous montrons que le contrat optimal prévoit alors que chaque type de firme, incluant celle ayant le coût le plus élevé, obtient une rente strictement positive, laquelle augmente dans le temps. Ceci est nécessaire pour obtenir la révélation à moindre coût à la période courante du véritable type de la firme. Comme implication, la rotation optimale s'accroît aussi dans le temps. Finalement, nous montrons qu'il y a distorsion en asymétrique d'information par rapport à l'optimum de pleine information même pour le coût le plus bas (la réalisation la plus favorable). La concurrence introduite dans le premier essai sous forme d'enchère au second prix suppose que chaque firme connaît exactement son propre coût de coupe. Dans le deuxième essai nous relâchons cette hypothèse. En réalité, ni le propriétaire forestier ni les firmes ne connaissent avec précision les coûts de coupe. Chaque firme observe de manière privée un signal sur son coût. Par exemple chaque firme est autorisée à visiter un lot pour avoir une estimation (signal) de son coût de coupe. Cependant cette évaluation est approximative. Ainsi, le coût de chaque firme va dépendre des estimations (signaux) d'autres firmes participantes. Nous sommes en présence d'un mécanisme à valeurs interdépendantes. Dans ce contexte, la valeur d'une allocation dépend des signaux de toutes les firmes. Le mécanisme optimal (attribution des droits d'exploitation, redevance et âge de coupe) est exploré. Nous déterminons les conditions sous lesquelles le mécanisme optimal peut être implémenté par une enchère au second prix et dérivons la rotation optimale et le prix de réserve dans le contexte de ce type d'enchère. Le troisième essai de la thèse analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. L'un des principaux arguments qui milite en faveur du recours au recyclage est que cela entraînerait une réduction de la coupe de bois, épargnant ainsi des arbres. L'objectif est donc d'aboutir à un nombre d'arbres plus important qu'en l'absence de recyclage. L'idée d'accroître le stock d'arbre tient au fait que les forêts génèrent des externalités: elles créent un flux de services récréatifs, freinent l'érosion des sols et des rives des cours d'eau et absorbent du dioxyde de carbone présent dans l'atmosphère. Étant donné la présence d'externalités, l'équilibre des marchés résulterait en un nombre d'arbre insuffisant, justifiant donc la mise en oeuvre de politiques visant à l'accroître. Le but de ce troisième essai est de voir dans quelle mesure la promotion du recyclage est un instrument approprié pour atteindre un tel objectif. En d'autres mots, comment le recyclage affecte-t-il à long terme la surface de terre en forêt et l'âge de coupe? Nous étudions cette question en spécifiant un modèle dynamique d'allocation d'un terrain donné, par un propriétaire forestier privé, entre la forêt et une utilisation alternative du terrain, comme l'agriculture. Une fois les arbres coupés, il décide d'une nouvelle allocation du terrain. Il le fait indéfiniment comme dans le cadre du modèle de Faustmann. Le bois coupé est transformé en produit final qui est en partie recyclé comme substitut du bois original. Ainsi, les outputs passés affectent le prix courant. Nous montrons que, paradoxalement, un accroissement du taux de recyclage réduira à long terme la surface forestière et donc diminuera le nombre d'arbres plantés. Par contre l'âge de coupe optimal va s'accroître. L'effet net sur le volume de bois offert sur le marché est ambigu. Le principal message cependant est qu'à long terme le recyclage va résulter en une surface en forêt plus petite et non plus grande. Donc, si le but est d'accroître la surface en forêt, il pourrait être préférable de faire appel à d'autres types d'instruments de politique que celui d'encourager le recyclage.