444 resultados para Spectroscopie proche de l’infrarouge
Resumo:
Abstract: It is well established that ionizing radiation induces a variety of damage in DNA by direct effects that are mediated by one-electron oxidation and indirect effects that are mediated by the reaction of water radiolysis products, e.g., hydroxyl radicals (•OH). In cellular DNA, direct and indirect effects appear to have about an equal effect toward DNA damage. We have shown that ϒ-(gamma) ray irradiation of aqueous solutions of DNA, during which •OH is the major damaging ROS can lead to the formation several lesions. On the other hand, the methylation and oxidative demethylation of cytosine in CpG dinucleotides plays a critical role in the gene regulation. The C5 position of cytosine in CG dinucleotides is frequently methylated by DNA methyl transferees (DNMTs) and constitutes 4-5% of the total cytosine. Here, my PhD research work focuses on the analysis of oxidative base modifications of model compounds of methylated and non methylated oligonucleotides, isolated DNA (calf-thymus DNA) and F98 cultured cell by gamma radiation. In addition, we identified a series of modifications of the 2-deoxyribose moiety of DNA arising from the exposure of isolated and cellular DNA to ionizing radiation. We also studied one electron oxidation of cellular DNA in cultured human HeLa cells initiated by intense nanosecond 266 nm laser pulse irradiation, which produces cross-links between guanine and thymine bases (G*-T*). To achieve these goals, we developed several methods based on mass spectrometry to analyze base modifications in isolated DNA and cellular DNA.
Resumo:
Cette thèse porte sur l’agir professionnel d’enseignants dans la gestion des difficultés “ordinaires” d’apprentissage, notamment à travers les gestes professionnels qu’ils peuvent mobiliser pour aider les élèves à les surmonter. L’originalité de cette étude réside dans sa capacité à documenter, à l’appui d’assises conceptuelles pertinentes, le “paradigme manquant” (Roiné, 2014) dans les analyses actuelles sur les difficultés d’apprentissage, tout en se démarquant des approches dites pathologisantes. En d’autres termes, elle s’efforce de déplacer le centre de gravité de l’interprétation des difficultés d’apprentissage vers la sphère pédagogique et didactique tout en œuvrant à la définition d’un agir spécifique dans le cadre de la classe. Au sein de cette approche, qui se veut psychopédagogique (Benoît, 2005), les difficultés d’apprentissage sont considérées comme normales et inhérentes à l’apprentissage, ce qui met l’agir enseignant au centre des solutions à envisager. En cherchant à documenter la manière dont ce type de difficultés peut être pris en compte dans le cadre même de la classe, nous avons défini la notion de difficultés “ordinaires” d’apprentissage et mobilisé le concept d’agir professionnel (Jorro, 2004, 2006a ; Jorro et Crocé-Spinelli, 2010). Ce dernier s’articule autour de quatre gestes professionnels (les gestes langagiers, les gestes de mise en scène des savoirs, les gestes éthiques et les gestes d’ajustement dans la situation). Nous avons inscrit notre démarche dans le cadre de la théorie historique-culturelle proposée par Vygotski (1997, 2016) dans la mesure où le concept de zone de développement le plus proche contient en soi, à notre sens, la notion de difficulté, d’une part, et d’accompagnement (agir) de la part de l’enseignant, d’autre part. À l’instar d’autres travaux portant sur l’agir professionnel d’enseignants, la présente recherche, portant sur une étude de cas (Savoie-Zajc, 2011), permet de poser quelques hypothèses signifiantes quant à l’impact des gestes professionnels mobilisés par un enseignant pour intervenir auprès d’élèves éprouvant des difficultés “ordinaires” d’apprentissage en contexte de classe. Cette étude tend à montrer aux acteurs de l’éducation que l’agir enseignant peut détenir tout le potentiel nécessaire au développement d’une approche psychopédagogique visant à intervenir dans la gestion des difficultés “ordinaires” d’apprentissage, sans qu’il soit systématiquement nécessaire d’externaliser leur prise en charge ou de recourir aux professionnels du soin (Morel, 2014).
Resumo:
La vitesse des ondes de cisaillement est généralement mesurée en laboratoire en utilisant des éléments piézoélectriques comme les bender elements (BE). Cependant, ces techniques présentent certains problèmes au niveau de l’émission à la fois des ondes primaires et de cisaillement, les effets de champ proche, les effets de bords, et l’incertitude au niveau de l’interprétation du signal. Une nouvelle technique, baptisée technique des anneaux piézoélectriques (P-RAT) a été développée dans le laboratoire géotechnique de l'Université de Sherbrooke afin de minimiser / éliminer les difficultés associées aux autres techniques, en particulier, la pénétration des échantillons, obligatoire pour la technique BE. Cette étude présente une description de la technique P-RAT ainsi que les résultats des simulations numériques réalisées avec le code informatique COMSOL afin d'étudier l'interaction entre les composantes du P-RAT et l'échantillon testé (sol ou solide). L’étude démontre l’efficacité du concept de la méthode P-RAT et présente des modifications pour améliorer la fiabilité et la performance de la méthode P-RAT afin d’étendre son applicabilité dans le domaine du génie civil. L’implémentation de la dernière génération de P-RAT dans une cellule triaxiale et une autre œdométrique était l’aboutissement de cette étude.
Resumo:
Cette étude a été réalisée par le WorldFish Center dans le cadre de sa collaboration avec le WWF et le projet CARPE de l’USAID. La chaîne de commercialisation du poisson a été suivie des zones de production jusqu’au principal marché final. La région au centre de cette étude est le lac Ntomba ainsi qu’une partie du fleuve Congo. Ceci correspond à la partie nord de la section du Paysage Lac Télé - Lac Tumba de la République Démocratique du Congo. Toutes les étapes de la chaîne de commercialisation du poisson ont été prises en compte dans cette étude. Les stratégies des acteurs présents à chaque étape ainsi que les dynamiques les associant à la chaîne ont été utilisées pour refléter le fonctionnement de la chaîne de commercialisation du poisson et identifier ses spécificités. La pêche est une activité saisonnière de grande importance dans la région du lac Ntomba et la partie proche du fleuve Congo. La majorité des habitants de la région constituent leurs moyens d’existence d’un panachage d’activités, dont la séquence semble être rythmée essentiellement par l’opportunité et le climat. Presque aucun service n’est offert dans cette région où les activités économiques sont réduites et n’ont le plus souvent qu’une faible productivité. Cependant, la chaîne de commercialisation du poisson supporte un large éventail d’acteurs différents et représente un secteur d’une grande importance pour la région. Cette région périphérique est reliée au reste de l’économie nationale par une série de marchés et de nombreux différents types d’acteurs. Assurer ce lien représente de sérieuses difficultés et comporte des risques importants tandis que les marges de profits sont le plus souvent minces. Cependant, il semblerait que, de manière générale, le marché se développe et les liens se renforcent, même si cette évolution est plus discrète dans les lieux les plus isolés.
Resumo:
Ce projet de recherche mené en collaboration industrielle avec St-Jean Photochimie Inc. / PCAS Canada vise le développement et la caractérisation de dérivés dipyrrométhène pour des applications dans le domaine du photovoltaïque. La quête du récoltage des photons se situant dans le proche-infrarouge a été au centre des modifications structurales explorées afin d’augmenter l’efficacité de conversion des cellules solaires de type organique et à pigments photosensibles. Trois familles de composés intégrant le motif dipyrrométhène ont été synthétisées et caractérisées du point de vue spectroscopique, électrochimique, structural ainsi que par modélisation moléculaire afin d’établir des relations structures-propriétés. La première famille comporte six azadipyrrométhènes au potentiel de coordination tétradentate sur des centres métalliques. Le développement d’une nouvelle voie synthétique asymétrique combinée à l’utilisation d’une voie symétrique classique ont permis d’obtenir l’ensemble des combinaisons de substituants possibles sur les aryles proximaux incluant les noyaux 2-hydroxyphényle, 2-méthoxyphényle et 2- pyridyle. La modulation du maximum d’absorption dans le rouge a pu être faite entre 598 et 619 nm. De même, la présence de groupements méthoxyle ou hydroxyle augmente l’absorption dans le violet (~410 nm) tel que démontré par modélisation. La caractérisation électrochimique a montré que les dérivés tétradentates étaient en général moins stables aux processus redox que leur contre-parti bidentate. La deuxième famille comporte dix dérivés BODIPY fusionnés de façon asymétrique en position [b]. L’aryle proximal a été modifié de façon systématique afin de mieux comprendre l’impact des substituents riches en électron et de la fusion de cycles aromatiques. De plus, ces dérivés ont été mis en relation avec une vaste série de composés analogues. Les résultats empiriques ont montré que les propriétés optoélectroniques de la plateforme sont régies par le degré de communication électronique entre l’aryle proximal, le pyrrole sur lequel il est attaché et le noyau indolique adjacent à ce dernier. Les maximums d’absorption dans le rouge sont modulables entre 547 et 628 nm et la fluorescence des composés se situe dans le proche- infrarouge. L’un des composé s’est révélé souhaitable pour une utilisation en photovoltaïque ainsi qu’à titre de sonde à pH. La troisième famille comporte cinq complexes neutres de RuII basés sur des polypyridines et portant un ligand azadipyrrométhène cyclométalé. Les composés ont montré une forte absorption de photons dans la région de 600 à 800 nm (rouge à proche- infrarouge) et qui a pu être étendue au-delà de 1100 nm dans le cas des dérivés portant un ligand terpyridine. L’analyse des propriétés optoélectroniques de façon empirique et théorique a montré un impact significatif de la cyclométalation et ouvert la voie pour leur étude en tant que photosensibilisateurs en OPV et en DSSC. La capacité d’un des complexes à photo-injecter un électron dans la bande de conduction du semi-conducteur TiO2 a été démontré en collaboration avec le groupe du Pr Gerald J. Meyer à University of North Carolina at Chapel Hill, premier pas vers une utilisation dans les cellules solaires à pigments photosensibles. La stabilité des complexes en solution s’est toutefois avérée problématique et des pistes de solutions sont suggérées basées sur les connaissances acquises dans le cadre de cette thèse.
Resumo:
Les transactions sur les valeurs mobilières ainsi que leur mise en garantie se font bien au-delà des frontières nationales. Elles impliquent une multitude d’intervenants, tels que l’émetteur, un grand nombre d’intermédiaires disposés en structure pyramidale, un ou des investisseurs et, bien évidemment, les bénéficiaires desdites valeurs mobilières ou garanties. On peut aussi signaler l’existence de nombreux portefeuilles diversifiés contenant des titres émis par plusieurs émetteurs situés dans plusieurs états. Toute la difficulté d’une telle diversité d’acteurs, de composantes financières et juridiques, réside dans l’application de règles divergentes et souvent conflictuelles provenant de systèmes juridiques d’origines diverses (Common Law et civiliste). De nombreux juristes, de toutes nationalités confondues, ont pu constater ces dernières années que les règles de création, d’opposabilité et de réalisation des sûretés, ainsi que les règles de conflit de lois qui aident à déterminer la loi applicable à ces différentes questions, ne répondaient plus adéquatement aux exigences juridiques nationales dans un marché financier global, exponentiel et sans réelles frontières administratives. Afin de résoudre cette situation et accommoder le marché financier, de nombreux textes de loi ont été révisés et adaptés. Notre analyse du droit québécois est effectuée en fonction du droit américain et canadien, principales sources du législateur québécois, mais aussi du droit suisse qui est le plus proche de la tradition civiliste québécoise, le tout à la lueur de la 36e Convention de La Haye du 5 juillet 2006 sur la loi applicable à certains droits sur des titres détenus auprès d'un intermédiaire. Par exemple, les articles 8 et 9 du Uniform Commercial Code (UCC) américain ont proposé des solutions modernes et révolutionnaires qui s’éloignent considérablement des règles traditionnelles connues en matière de bien, de propriété, de sûreté et de conflits de lois. Plusieurs autres projets et instruments juridiques dédiés à ces sujets ont été adoptés, tels que : la Loi uniforme sur le transfert des valeurs mobilières (LUTVM) canadienne, qui a été intégrée au Québec par le biais de la Loi sur le transfert de valeurs mobilières et l’obtention de titres intermédiés, RLRQ, c.T-11.002 (LTVMQ) ; la 36e Convention de La Haye du 5 juillet 2006 sur la loi applicable à certains droits sur des titres détenus auprès d'un intermédiaire; la Loi fédérale sur le droit international privé (LDIP) suisse, ainsi que la Loi fédérale sur les titres intermédiés (LTI) suisse. L’analyse de ces textes de loi nous a permis de proposer une nouvelle version des règles de conflit de lois en matière de sûretés et de transfert des titres intermédiés en droit québécois. Cette étude devrait susciter une réflexion profonde du point de vue d’un juriste civiliste, sur l’efficacité des nouvelles règles québécoises de sûretés et de conflit de lois en matière de titres intermédiés, totalement inspirées des règles américaines de Common Law. Un choix qui semble totalement ignorer un pan du système juridique civiliste et sociétal.
Resumo:
International audience
Resumo:
La conchyliculture, et principalement l’élevage de l’huître creuse, Crassostrea gigas, constitue la principale activité aquacole française. Cette activité repose, en grande partie, sur le recrutement naturel de l’espèce qui assure 60 à 70% des besoins en jeunes huîtres (naissain) : cette activité de collecte s’appelle le captage. Les deux principaux centres de captage en France sont les bassins d’Arcachon et de Marennes-Oléron. Or, depuis une dizaine d'années, sur le bassin d'Arcachon, le captage devient très variable: à des années de captage nul (par exemple 2002, 2005, 2007) ou faible (2009, 2010, 2011) succèdent des années excellentes voire pléthoriques (2003, 2006, 2008, 2012, 2014). A Marennes-Oléron, cette variabilité existe, mais s’avère beaucoup moins marquée. En outre, à la faveur du lent réchauffement des eaux, le captage peut désormais se pratiquer de plus en plus vers le nord. Ainsi, la baie de Bourgneuf, mais aussi la rade de Brest sont devenues, depuis quelques années, des secteurs où un nombre croissant d’ostréiculteurs pratiquent le captage avec succès, mais avec, là aussi, des irrégularités dans le recrutement qu’il convient de comprendre. Enfin, depuis la crise des mortalités de 2008, il se développe aussi sur la lagune de Thau une volonté de pratiquer le captage. Afin de mieux comprendre les facteurs de variations du captage, l’Ifremer a mis en place, à la demande du Comité National de la Conchyliculture, un réseau national de suivi de la reproduction : le Réseau Velyger. Créé en 2008 sur financements européens et financé désormais par la Direction des Pêches Maritimes et de l’Aquaculture, ce réseau apporte, chaque année, sur les écosystèmes cités précédemment, une série d’indicateurs biologiques (maturation, fécondité, date de ponte, abondance et survie larvaire, intensité du recrutement, survie du naissain) dont l’analyse croisée avec des indicateurs hydrologiques et climatiques permet progressivement de mieux appréhender les causes de variabilité du recrutement de l’huître creuse en France, modèle biologique et espèce clé de la conchyliculture française. Ce rapport présente donc les résultats 2015 de ce réseau d’observation et fait appel, pour la partie hydro-climatique, à des données acquises par d’autres réseaux régionaux et nationaux. Il détaille et analyse par site toutes les caractéristiques du cycle de reproduction de l’huître creuse : maturation et fécondité des adultes, période de ponte, abondance et survie des larves, intensité du captage et mortalités précoces. Il fournit ensuite une interprétation et une synthèse des résultats 2015 à la lueur des résultats des années antérieures. Ainsi, pour l’année 2015, on retient les faits majeurs suivants : • Sur le plan hydro-climatique, cette année se caractérise par un hiver doux et un printemps dans les normales, suivis d’un été là aussi très proches des normales à quelques exceptions près : l’étang de Thau affiche tout au long de l’été des températures largement excédentaires. Compte tenu d’une pluviométrie là aussi proche des normales, les concentrations en phytoplancton sont restées à un niveau moyen de la rade de Brest aux pertuis charentais et plutôt déficitaires dans le bassin d’Arcachon et la lagune de Thau. • En termes de biologie, ces conditions hydro-climatiques se sont traduites, chez les populations d’huîtres adultes, par des indices de condition, proxy de la fécondité, généralement proches des moyennes, avec toujours l’existence d’un gradient nord-sud observé chaque année, corrélativement à la concentration en phytoplancton. En outre, l’absence d’excédent thermique au printemps et en début d’été n’a pas permis de ponte précoce (à l’exception de la lagune de Thau), elle a même été plutôt tardive surtout dans le bassin d’Arcachon. • Sur la façade atlantique, les températures de l’eau lors du développement larvaire des principales cohortes ont été plutôt basses (inférieures à 20°C en rade de Brest et inférieures à 21°C ailleurs) et donc la vitesse de croissance larvaire a été ralentie et la survie amoindrie. Les rendements larvaires ont été effectivement très bas (e.g. 0,002 % à Arcachon). In fine, il y a eu peu de larves grosses dans l’eau, ce qui s’est traduit par un captage faible à modéré. Une exception tout de même : dans la lagune de Thau, les températures caniculaires tout au long de l’été ont permis une concentration moyenne de larves ‘grosses’ modérée (80 larves/1,5m3). Cependant, les méthodes et les techniques de captage sont encore en cours d’optimisation sur ce secteur et cette année, malgré cette présence de larves grosses, le captage est resté faible (< 10 naissains par coupelle à l’automne). • En conséquence, l’année 2015, se caractérise par un captage globalement « faible à modéré » dans tous les secteurs s’échelonnant autour de 10 naissains/coupelle dans la lagune de Thau et en baie de Bourgneuf à plus de 200 naissains/coupelle dans les pertuis charentais. Enfin, à partir de l’ensemble des résultats acquis depuis 2008, ce rapport fournit en conclusion une série de recommandations à prendre en compte pour préserver le captage dans les années à venir.
Resumo:
Depuis 2008, des mortalités massives d’huîtres creuses âgées de moins d’un an sont relevées sur le littoral français dès que la température de l’eau de mer atteint le seuil de 16°C. Ces mortalités de naissains sont associées à la détection du virus OsHV-1 μVar. Des travaux de qualification zoo-sanitaire menés depuis 2010 ont montré qu’un lot de naissains issus du captage naturel sur deux était infecté par le virus bien avant l’apparition des mortalités dans le milieu naturel, mais qu’a contrario les naissains d’écloserie expertisés présentaient une fréquence plus faible de portage latent. Dans ce contexte de crise zoo-sanitaire chronique, l’objectif de notre étude consistait à obtenir une information du statut zoo-sanitaire OsHV-1 μVar des populations de naissains du captage 2013 à l’échelle national. Ce travail avait pour finalité de permettre l’identification précoce des zones de captage associées à un risque de mortalité due à l’infection par OsHV-1 μVar. La méthodologie de l’épreuve thermique de laboratoire (ETL) correspond en une période de 1 mois d’isolement des naissains à évaluer en conditions contrôlées de laboratoire. Lors de cette période la température de l’eau de mer est maintenue constante à 21°C et la mortalité est relevée tous les 10 jours. La survie finale associée à des analyses qPCR permettent de qualifier le statut sanitaire en terme de portage OsHV-1 μVar de l’échantillon (statut infecté ou non infecté). Entre février et mars 2014, vingt et un échantillons de naissains âgés de 5 à 7 mois ont été échantillonnés dans six sites du littoral français (étang de Thau, bassin d’Arcachon, pertuis Charentais, baie de Bourgneuf, baie de Vilaine et rade de Brest) pour être qualifiés par ETL au site expérimental Ifremer d’Argenton. Les résultats de la campagne 2014 de qualification zoo-sanitaire confirment qu’en période hivernale, dans le milieu naturel, des naissains de captage peuvent être infectés par OsHV-1 μVar sans développement apparent de maladies ni mortalité. En revanche en ETL, ces lots de naissains infectés par OsHV-1 μVar présentent des taux de mortalité importants. Ainsi, sur les 20 échantillons de naissains de captage étudiés, onze ont révélé des maladies en ETL avec des mortalités cumulées variant de 16 % à 80 %. Ce ratio d’un échantillon sur deux de naissains infectés par OsHV-1 μVar demeure proche de celui observé de 2010 à 2013 lors des travaux précédents qui avaient permis de définir l’ETL. les six sites étudiés ont montré des résultats contrastés. En effet, les résultats se sont révélés favorables pour l’étang de Thau et la baie de Bourgneuf et défavorables dans le cas de la rade de Brest et la Baie de Vilaine. Pour ces deux derniers sites, tous les échantillons de naissains testés ont montré de fortes mortalités pendant l’ETL. Des différences s’observent également intra-site, notamment à Marennes Oléron avec 1 échantillon sur 3 infectés par OsHV-1 μVar ou dans pour Arcachon avec 3 échantillons sur 5. Dans le contexte préoccupant de l’épizootie actuelle, nos résultats confirment que certains lots de naissains de captage sont infectés par OsHV-1 μVar dès les mois de février-mars et pourrait être des acteurs actifs dans le déclenchement annuel du processus infectieux en milieu naturel quand la température de l’eau dépasse 16°C. Par ailleurs, notre étude démontre qu’il serait possible chaque année d’obtenir une qualification sanitaire précoce des zones de captage. Cela permettrait d’améliorer la gestion des risques liés aux transferts de naissains infectés par OsHV-1 μVar dans les différents bassins de production.
Resumo:
Les polygones à coin de glace sont très répandus dans la zone du pergélisol continu. Lorsque le ruissellement d’eau de fonte nivale s’infiltre de façon concentrée dans une cavité, il peut initier le processus de thermo-érosion du pergélisol (notamment des coins de glace) pouvant mener à la formation de ravins. Dans la vallée de Qalikturvik sur l’Ile Bylot (NU, Canada), le développement de ravins de thermo-érosion dans un milieu de polygones à coins de glace entraîne comme impact : i. la réorganisation des réseaux de drainage impliquant un assèchement des milieux humides en marge des chenaux d’érosion, ii. des variations dans le régime thermique et de l’humidité de proche-surface et iii. la prise en charge et le déplacement des sédiments vers l’extérieur du bassin-versant. L’objectif de cette thèse vise à approfondir les connaissances géomorphologiques propres au ravinement par thermo-érosion, d’examiner, caractériser et quantifier les impacts du ravinement (tel que sus-mentionné en i. ii. iii.) et le rôle de celui-ci dans une optique d’évolution du paysage périglaciaire à l’échelle temporelle de l’année à la décennie. Les ravins sont dynamiques : un ravin en particulier déclenché en 1999 et étudié depuis s’érodait à une vitesse de 38 à 50 m/a durant sa première décennie d’existence, pour atteindre une longueur totale de ~750 m et une surface érodée de ~25 000 m² en 2009. Des puits sont localisés près des zones de ravinement actives ; des levées alluviale, mares et polygones effondrés dans les zones stabilisées post-perturbation. Sur la terrasse de polygones recouvrant le plancher de la vallée au site à l’étude, 35 ravins furent identifiés et 1401 polygones furent perturbés avec 200 000 m³ de sols transportés. Une amélioration du drainage, une dégradation de la capacité de rétention de l’humidité, une transition d’un écoulement de ruissellement vers un écoulement canalisé caractérise les aires ravinées et leurs environs. Les polygones intacts sont homogènes d’un à l’autre et dans leurs centres ; les polygones perturbés ont une réponse hétérogène (flore, humidité et régime thermique). Les milieux érodés hétérogènes succèdent aux milieux homogènes et deviennent le nouvel état d’équilibre pour plusieurs décennies.
Resumo:
Alors que les activités anthropiques font basculer de nombreux écosystèmes vers des régimes fonctionnels différents, la résilience des systèmes socio-écologiques devient un problème pressant. Des acteurs locaux, impliqués dans une grande diversité de groupes — allant d’initiatives locales et indépendantes à de grandes institutions formelles — peuvent agir sur ces questions en collaborant au développement, à la promotion ou à l’implantation de pratiques plus en accord avec ce que l’environnement peut fournir. De ces collaborations répétées émergent des réseaux complexes, et il a été montré que la topologie de ces réseaux peut améliorer la résilience des systèmes socio-écologiques (SSÉ) auxquels ils participent. La topologie des réseaux d’acteurs favorisant la résilience de leur SSÉ est caractérisée par une combinaison de plusieurs facteurs : la structure doit être modulaire afin d’aider les différents groupes à développer et proposer des solutions à la fois plus innovantes (en réduisant l’homogénéisation du réseau), et plus proches de leurs intérêts propres ; elle doit être bien connectée et facilement synchronisable afin de faciliter les consensus, d’augmenter le capital social, ainsi que la capacité d’apprentissage ; enfin, elle doit être robuste, afin d’éviter que les deux premières caractéristiques ne souffrent du retrait volontaire ou de la mise à l’écart de certains acteurs. Ces caractéristiques, qui sont relativement intuitives à la fois conceptuellement et dans leur application mathématique, sont souvent employées séparément pour analyser les qualités structurales de réseaux d’acteurs empiriques. Cependant, certaines sont, par nature, incompatibles entre elles. Par exemple, le degré de modularité d’un réseau ne peut pas augmenter au même rythme que sa connectivité, et cette dernière ne peut pas être améliorée tout en améliorant sa robustesse. Cet obstacle rend difficile la création d’une mesure globale, car le niveau auquel le réseau des acteurs contribue à améliorer la résilience du SSÉ ne peut pas être la simple addition des caractéristiques citées, mais plutôt le résultat d’un compromis subtil entre celles-ci. Le travail présenté ici a pour objectifs (1), d’explorer les compromis entre ces caractéristiques ; (2) de proposer une mesure du degré auquel un réseau empirique d’acteurs contribue à la résilience de son SSÉ ; et (3) d’analyser un réseau empirique à la lumière, entre autres, de ces qualités structurales. Cette thèse s’articule autour d’une introduction et de quatre chapitres numérotés de 2 à 5. Le chapitre 2 est une revue de la littérature sur la résilience des SSÉ. Il identifie une série de caractéristiques structurales (ainsi que les mesures de réseaux qui leur correspondent) liées à l’amélioration de la résilience dans les SSÉ. Le chapitre 3 est une étude de cas sur la péninsule d’Eyre, une région rurale d’Australie-Méridionale où l’occupation du sol, ainsi que les changements climatiques, contribuent à l’érosion de la biodiversité. Pour cette étude de cas, des travaux de terrain ont été effectués en 2010 et 2011 durant lesquels une série d’entrevues a permis de créer une liste des acteurs de la cogestion de la biodiversité sur la péninsule. Les données collectées ont été utilisées pour le développement d’un questionnaire en ligne permettant de documenter les interactions entre ces acteurs. Ces deux étapes ont permis la reconstitution d’un réseau pondéré et dirigé de 129 acteurs individuels et 1180 relations. Le chapitre 4 décrit une méthodologie pour mesurer le degré auquel un réseau d’acteurs participe à la résilience du SSÉ dans lequel il est inclus. La méthode s’articule en deux étapes : premièrement, un algorithme d’optimisation (recuit simulé) est utilisé pour fabriquer un archétype semi-aléatoire correspondant à un compromis entre des niveaux élevés de modularité, de connectivité et de robustesse. Deuxièmement, un réseau empirique (comme celui de la péninsule d’Eyre) est comparé au réseau archétypique par le biais d’une mesure de distance structurelle. Plus la distance est courte, et plus le réseau empirique est proche de sa configuration optimale. La cinquième et dernier chapitre est une amélioration de l’algorithme de recuit simulé utilisé dans le chapitre 4. Comme il est d’usage pour ce genre d’algorithmes, le recuit simulé utilisé projetait les dimensions du problème multiobjectif dans une seule dimension (sous la forme d’une moyenne pondérée). Si cette technique donne de très bons résultats ponctuellement, elle n’autorise la production que d’une seule solution parmi la multitude de compromis possibles entre les différents objectifs. Afin de mieux explorer ces compromis, nous proposons un algorithme de recuit simulé multiobjectifs qui, plutôt que d’optimiser une seule solution, optimise une surface multidimensionnelle de solutions. Cette étude, qui se concentre sur la partie sociale des systèmes socio-écologiques, améliore notre compréhension des structures actorielles qui contribuent à la résilience des SSÉ. Elle montre que si certaines caractéristiques profitables à la résilience sont incompatibles (modularité et connectivité, ou — dans une moindre mesure — connectivité et robustesse), d’autres sont plus facilement conciliables (connectivité et synchronisabilité, ou — dans une moindre mesure — modularité et robustesse). Elle fournit également une méthode intuitive pour mesurer quantitativement des réseaux d’acteurs empiriques, et ouvre ainsi la voie vers, par exemple, des comparaisons d’études de cas, ou des suivis — dans le temps — de réseaux d’acteurs. De plus, cette thèse inclut une étude de cas qui fait la lumière sur l’importance de certains groupes institutionnels pour la coordination des collaborations et des échanges de connaissances entre des acteurs aux intérêts potentiellement divergents.
Resumo:
Vladimir S. Soloviev (1853-1900) était un philosophe russe, poète et dissident de la période prérévolutionnaire. Comme celle de beaucoup de ses contemporains prérévolutionnaires russes, la pensée de Soloviev fut constamment sollicitée par la réfection imminente de l’État russe dans un futur très proche. Dans le contexte de cette époque, un examen des fondements théoriques du système juridique était peut-être inévitable. Néanmoins, dans la pensée russe, c’est seulement avec Soloviev que le droit cessa d’être un sujet spécialisé dans le domaine de l’administration, ne concernant guère les grands enjeux de société, et devint intimement lié au développement même de la philosophie morale et sociale. Au sein du projet philosophique systématique que propose Soloviev, le concept de l’unitotalité est envahissant, en termes épistémologique et social. Une pierre d’assise également fondamentale est le concept philosophico-religieux de la divino-humanité, à travers lequel la source de la dignité humaine est ultimement exprimée. La philosophie juridique de Soloviev, contenue pour l’essentiel dans un traité intitulé La Justification du bien : essai de philosophie morale (1897), a pour principal objet l’interaction entre le droit et la morale. Alors que l’objet et la portée du droit peuvent être directement déduits de principes moraux, le droit ne peut pas coïncider exactement avec la morale, compte tenu de son caractère plus limité, fini et coercitif. Pour Soloviev, le droit doit imposer un niveau minimum du bien en fournissant les conditions de base (par ex. la primauté du droit, le droit à une existence digne, la liberté de conscience) pour le libre développement des facultés humaines sans transposer directement en lui la plénitude complète du bien. La principale motivation de Soloviev réside dans la prémisse théologique sous-jacente que le bien ne peut jamais être complètement subsumé sauf par un acte conscient de liberté personnelle. En tandem, Soloviev souligne le rôle progressiste de l’État pour favoriser le libre perfectionnement humain. En tant que tel, Soloviev nous fournit certaines voies innovatrices dans le façonnement de la relation tant théorique que pratique entre le droit et la religion. À l’encontre d’un compromis entre objets, c’est-à-dire un arrangement de type interculturel situé entre fragmentation culturelle (multiculturalisme idéologique) et assimilation antireligieuse (laïcité militante), l’analyse de Soloviev présente la nécessité d’une conciliation temporelle, dans une perspective historique beaucoup plus large, où la laïcité est considérée non pas comme une finalité ontologique en soi, figée dans le temps, mais comme un moyen au service d’une destinée humaine en cours d’actualisation. Le cadre philosophico-juridique de Soloviev peut être utilement mis en dialogue avec des auteurs contemporains comme Stephen L. Carter, Charles Taylor, John Witte Jr, Ronald Dworkin et Jürgen Habermas. La contribution potentielle de Soloviev sur la place de la religion dans la société russe contemporaine est également mentionnée, avec un accent particulier sur le réexamen critique de l’héritage durable de la notion byzantine de la symphonie entre l’Église et l’État. Enfin, une théorie du fédéralisme inspirée par Soloviev est développée en appliquant, sur une base comparative, des avancées théoriques dans le domaine de l’histoire juridique global à l’évolution constitutionnelle du Canada et d’Israël.
Resumo:
La compréhension des interrelations entre la microstructure et les processus électroniques dans les polymères semi-conducteurs est d’une importance primordiale pour leur utilisation dans des hétérostructures volumiques. Dans cette thèse de doctorat, deux systémes diffèrents sont étudiés ; chacun de ces systèmes représente une approche diffèrente pour optimiser les matériaux en termes de leur microstructure et de leur capacité à se mettre en ordre au niveau moléculaire. Dans le premier système, j’ai effectué une analyse complète des principes de fonctionnement d’une cellule photovoltaïque hybride à base des nanocristaux d’oxyde de zinc (ZnO) et du poly (3-hexylthiophène) (P3HT) par absorption photoinduite en régime quasi-stationnaire (PIA) et la spectroscopie PIA en pompage modulé dépendant de la fréquence. L’interface entre le donneur (le polymère P3HT) et l’accepteur (les nanoparticules de ZnO), où la génération de charges se produit, joue un rôle important dans la performance des cellules photovoltaïques hybrides. Pour améliorer le mécanisme de génération de charges du P3H: ZnO, il est indispensable de modifier l’interface entre ses constituants. Nous avons démontré que la modification d’interface moléculaire avec cis-bis (4, 40 - dicarboxy-2, 20bipyridine) ruthénium (II) (N3-dye) et a-Sexithiophen-2 yl-phosphonique (6TP) a améliorée le photocourant et la performance dans les cellules P3HT: ZnO. Le 6TP et le N3 s’attachent à l’interface du ZnO, en augmentant ainsi l’aire effective de la surface donneur :accepteur, ce qui contribue à une séparation de charge accrue. De plus, le 6TP et le N3 réduisent la densité de pièges dans le ZnO, ce qui réduit le taux de recombinaison des paires de charges. Dans la deuxième partie, jai introduit une matrice hôte polymérique de polystyréne à masse molaire ulra-élevée, qui se comporte comme un solide pour piéger et protéger une solution de poly [2-méthoxy, 5- (2´-éthyl-hexoxy) -1,4-phénylènevinylène- PPV] (MEHPPV) pour utilisation dans des dispositifs optoèlectroniques quantiques. Des travaux antérieurs ont montré que MEH-PPV en solution subit une transition de conformation, d’une conformation enroulé à haute température (phase bleue) à une conformation de chaîne étendue à basse température (phase rouge). La conformation de la chaîne étendue de la solution MEH-PPV favorise les caractéristiques nécessaires à l’amélioration des dispositifs optoélectroniques quantiques, mais la solution ne peut pas être incorporées dans le dispositif. J’ai démontré que la caractéristique de la phase rouge du MEH-PPV en solution se maintient dans une matrice hôte polymérique de polystyrène transformé de masse molaire très élevée, qui se comporte comme un solide (gel de MEH-PPV/UHMW PS), par le biais de la spectroscopie de photoluminescence (PL) dépendant de la température (de 290K à 80 K). La phase rouge du gel MEH-PPV/UHMW PS se manifeste par des largeurs de raie étroites et une intensité augmentée de la transition 0-0 de la progression vibronique dans le spectre de PL ainsi qu’un petit décalage de Stokes entre la PL et le spectre d’absorption à basse température. Ces approches démontrent que la manipulation de la microstructure et des propriétés électroniques des polymères semi-conducteurs ont un impact direct sur la performance de dispositifs pour leurs développements technologiques continus.
Resumo:
Les antimoniures sont des semi-conducteurs III-V prometteurs pour le développement de dispositifs optoélectroniques puisqu'ils ont une grande mobilité d'électrons, une large gamme spectrale d'émission ou de détection et offrent la possibilité de former des hétérostructures confinées dont la recombinaison est de type I, II ou III. Bien qu'il existe plusieurs publications sur la fabrication de dispositifs utilisant un alliage d'In(x)Ga(1-x)As(y)Sb(1-y) qui émet ou détecte à une certaine longueur d'onde, les détails, à savoir comment sont déterminés les compositions et surtout les alignements de bande, sont rarement explicites. Très peu d'études fondamentales sur l'incorporation d'indium et d'arsenic sous forme de tétramères lors de l'épitaxie par jets moléculaires existent, et les méthodes afin de déterminer l'alignement des bandes des binaires qui composent ces alliages donnent des résultats variables. Un modèle a été construit et a permis de prédire l'alignement des bandes énergétiques des alliages d'In(x)Ga(1-x)As(y)Sb(1-y) avec celles du GaSb pour l'ensemble des compositions possibles. Ce modèle tient compte des effets thermiques, des contraintes élastiques et peut aussi inclure le confinement pour des puits quantiques. De cette manière, il est possible de prédire la transition de type de recombinaison en fonction de la composition. Il est aussi montré que l'indium ségrègue en surface lors de la croissance par épitaxie par jets moléculaires d'In(x)Ga(1-x)Sb sur GaSb, ce qui avait déjà été observé pour ce type de matériau. Il est possible d'éliminer le gradient de composition à cette interface en mouillant la surface d'indium avant la croissance de l'alliage. L'épaisseur d'indium en surface dépend de la température et peut être évaluée par un modèle simple simulant la ségrégation. Dans le cas d'un puits quantique, il y aura une seconde interface GaSb sur In(x)Ga(1-x)Sb où l'indium de surface ira s'incorporer. La croissance de quelques monocouches de GaSb à basse température immédiatement après la croissance de l'alliage permet d'incorporer rapidement ces atomes d'indium et de garder la seconde interface abrupte. Lorsque la composition d'indium ne change plus dans la couche, cette composition correspond au rapport de flux d'atomes d'indium sur celui des éléments III. L'arsenic, dont la source fournit principalement des tétramères, ne s'incorpore pas de la même manière. Les tétramères occupent deux sites en surface et doivent interagir par paire afin de créer des dimères d'arsenic. Ces derniers pourront alors être incorporés dans l'alliage. Un modèle de cinétique de surface a été élaboré afin de rendre compte de la diminution d'incorporation d'arsenic en augmentant le rapport V/III pour une composition nominale d'arsenic fixe dans l'In(x)Ga(1-x)As(y)Sb(1-y). Ce résultat s'explique par le fait que les réactions de deuxième ordre dans la décomposition des tétramères d'arsenic ralentissent considérablement la réaction d'incorporation et permettent à l'antimoine d'occuper majoritairement la surface. Cette observation montre qu'il est préférable d'utiliser une source de dimères d'arsenic, plutôt que de tétramères, afin de mieux contrôler la composition d'arsenic dans la couche. Des puits quantiques d'In(x)Ga(1-x)As(y)Sb(1-y) sur GaSb ont été fabriqués et caractérisés optiquement afin d'observer le passage de recombinaison de type I à type II. Cependant, celui-ci n'a pas pu être observé puisque les spectres étaient dominés par un niveau énergétique dans le GaSb dont la source n'a pu être identifiée. Un problème dans la source de gallium pourrait être à l'origine de ce défaut et la résolution de ce problème est essentielle à la continuité de ces travaux.
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.