20 resultados para Fibrose de la couche sous-épithéliale
em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada
Resumo:
Résumé : De même degré d’importance que les paramètres de formulation, les conditions de consolidation sont des facteurs déterminants pour la durabilité des bétons conventionnels vibrés. Dans le cas des bétons autoplaçants (BAP), grâce à leur grande fluidité, la mise en place dans les coffrages a lieu par écoulement libre sous l’effet de leur poids propre. Leur consolidation se fait sans vibration grâce à leurs caractéristiques rhéologiques. Il est donc légitime de penser que les caractéristiques rhéologiques des BAP peuvent avoir une influence importante sur les propriétés qui déterminent la durabilité. Cette thèse étudie les liens possibles entre les caractéristiques rhéologiques des BAP et leur durabilité vis-à-vis du transport des agents agressifs. Dix-sept formulations de BAP couvrant une large gamme de caractéristiques rhéologiques et se différenciant uniquement par leur dosage en adjuvants ont été étudiées à cet effet. Trois modèles rhéologiques classiques ont été mis en œuvre pour la détermination des paramètres rhéologiques des bétons étudiés. L’essai de sorptivité et dans une moindre mesure l’essai de carbonatation accélérée ont été utilisés comme indicateur de durabilité vis-à-vis du transport des agressifs. La durabilité de la couche superficielle au contact respectivement avec le coffrage en bois et en PVC a été étudiée et les résultats ont été comparés à la durabilité du béton à cœur. Cette étude a été faite en tenant compte des échanges hydriques et de l’arrangement granulaire au droit du coffrage. D’autre part, l’étude de la durabilité de la couche superficielle dans des conditions de mise en place proches du chantier a été faite sur 6 poutres partiellement armées longues de 2 m ainsi que sur 3 bétons semi-autoplaçants légèrement vibrés. Les résultats montrent qu’il existe une corrélation forte entre la viscosité plastique du modèle Bingham modifié ou le coefficient de consistance du modèle Herschel-Bulkley et la sorptivité. Très probablement, la viscosité agit sur le volume relatif des pores capillaires de gros diamètres. L’étude spécifique de la couche superficielle a montré que sa sorptivité dépend du type de coffrage utilisé à cause des éventuels échanges hydriques opérés entre le béton et la surface du coffrage. De plus, l’arrangement granulaire au droit du coffrage est également influencé. Ainsi, la sorptivité de la couche superficielle au contact du PVC est proche mais inférieure à celle du béton à cœur. La sorptivité de la couche superficielle au contact du bois est significativement inférieure à celle de la couche superficielle au contact du PVC tout en restant corrélé avec la viscosité plastique du modèle Bingham modifié ou le coefficient de consistance du modèle Herschel-Bulkley.
Resumo:
Le numéro 1 (printemps 2015) contient : partie 1 : Les idéologies linguistiques dans la tradition de la presse périodique. Partie 2 : Enjeux sociaux et politiques des questions de langue et de norme
Resumo:
Destruction de la couche d'ozone, effet de serre, encombrement des sites d'enfouissement, voilà des sujets d'actualité abordés quotidiennement dans les médias. La société de consommation qui a apporté le confort matériel au citoyen, aujourd'hui détruit son environnement et diminue sa qualité de vie. Peut-on rester de glace devant les eaux dans lesquelles il n'est plus permis de se baigner? Devant un soleil qui augmente les risques de cancer ? Devant la qualité de l'air qui se dégrade ? Le citoyen peut, de plus en plus, constater de fait la dégradation de son milieu de vie. Les préoccupations concernant l'environnement du citoyen, qui est aussi un consommateur, se traduisent-ils comportements d'achat ? Comme le mentionne Driscoll (1991), les responsables du marketing doivent déterminer les actions et les compromis que certains consommateurs sont prêts à faire lorsqu'ils achètent un produit. L'objectif de la présente étude est donc de clarifier l'influence du critère environnemental, par rapport au degré de connaissance et d'implication des sujets, sur la perception de la valeur du produit et sur l'intention d'achat du consommateur vis-à-vis les produits "verts". De plus, l'étude permettra d'évaluer l'efficacité de stratégie de prix, de marque, d'efficacité et d'écologie dans le cadre d'une planification de marketing pour les produits environnementaux. Pour réaliser ce travail trois produits sont évalués par un échantillon probabiliste de la ville de Sherbrooke, soit; piles AA, nettoyant tout usage et savon à lessive. Les répondants à l'étude ont été regroupés selon deux niveaux de connaissance et d'implication, soit faible ou élevé. Ce travail débute par une revue de la littérature, suivie de la description de la méthodologie utilisée. Pour sa part, le chapitre 5 se consacre à la présentation et à la discussion des résultats de l'étude. La conclusion présente les limites de l'étude et les implications pour les gens d'affaires.
Resumo:
On entend souvent affirmer que l'agressivité et la violence s'amplifient de nos jours. Comme la plupart des sociétés modernes, le Québec n'échappe pas à la recrudescence de la violence sous toutes ses formes. Ses manifestations sont de plus en plus fréquentes et elles affectent l'éducation dès l'école primaire. À l'école De La Chanterelle, où je suis directrice, notre milieu scolaire (parents, professeurs et direction) s'inquiète depuis quelques temps des différentes manifestations de violence observables dans nos murs. Les explications de ce phénomène demeurent confuses et parfois contradictoires et de là les solutions difficiles à trouver. Par ailleurs, selon Jean-Marc Domenach, l'agressivité et la violence dans le milieu scolaire ne seraient pas plus grave aujourd'hui qu'autrefois. "La condition humaine en a toujours été une de violence. Ce qu'il y a de nouveau, c'est qu'on cherche aujourd'hui une racine commune aux manifestations de violence. La conscience de la violence, l’intolérance de la violence sont des phénomènes récents". […]
Resumo:
Cette étude vise à établir des liens entre la situation de plafonnement de carrière et l'incongruence vocationnelle. De façon plus spécifique, il s'agit de vérifier, au moyen d'une étude, la relation entre la situation de plafonnement de carrière, largement étudiée jusqu'à présent par plusieurs auteurs et la congruence des intérêts. Ces auteurs s'interrogent sur la question des ressources humaines (tels par exemple Tremblay, Cardinal, Lamoureux, Hoyt, Charest) de laquelle, nous tenterons d'établir la congruence des intérêts professionnels en lien avec la typologie de Holland. Holland prévoit (6) six types: Réaliste (R), Investigateur (I), Artistique (A), Social (S), Entreprenant (E), et Conventionnel (C). Ces types peuvent être octroyés sur deux plans distinctifs. Il est en effet possible de définir le patron typologique sur les plans environnemental et individuel. C'est à partir de ces deux patrons typologiques, constitués de trois lettres, qu'on établira la correspondance entre les données provenant de l'individu et de l'environnement. C'est donc à partir de celles-ci que l'on peut calculer le niveau de congruence, en appliquant l'indice de lachan qui constitue une mesure de congruence. Deux instruments de mesure inclus dans une batterie d'inventaires seront donc proposés à soixante travailleurs de la Ville de Montréal. Il s'agit premièrement d'une grille d'évaluation élaborée à partir de critères spécifiques issus d'enquêtes différentes liées au plafonnement de carrière. L'instrument de mesure comporte sept échelles : le temps et l'âge, des informations relatives au travail, le positionnement par rapport aux collègues de travail, l'impact du changement sur l'individu, les rémunérations et • conditions salariales, la formation, les intérêts et loisirs reliées à la profession. Le plafonnement de carrière tel que nous le percevons, constitue un concept complexe nécessitant une vision systémique ; c'est-à-dire que le problème doit être considéré dans son ensemble, à savoir l'individu et son environnement. La deuxième étape consiste en la passation de l'inventaire des préférences professionnelles, abrégé (I.P.P.A.). Pour chacune des personnes évaluées, un patron typologique de l'environnement professionnel sera établi à partir du Codes Holland pour C. C. D. P. Les résultats obtenus par l'intermédiaire de l'I.P.P A. et transférés en types par l'intermédiaire du Guide : Codes Holland pour C.C.D.P., seront soumis à l'indice de lachan qui évalue la congruence entre deux séries de données. Le score du niveau de congruence sera par la suite confronté au score obtenu par l'intermédiaire de la grille/questionnaire par une simple corrélation. De cette façon, nous pourrons établir les liens et ainsi vérifier l'hypothèse de recherche. Cette recherche se propose donc d'identifier des plateaux de carrière à l'aide de la grille/questionnaire, pour ensuite vérifier s'il existe véritablement des liens entre la situation de plafonnement de carrière et la congruence d'intérêts. Cette démarche tend à confirmer l'hypothèse suivante : l'incongruence entre les intérêts individuels et ceux du milieu est responsable du plafonnement de carrière. En ce sens, elle entraîne entre autres une démotivation de l'individu à s'impliquer dans son travail, à mettre ses connaissances à jour. La présence du plafonnement de carrière peut décourager l'organisation et l'entourage immédiat de travail à justifier un accroissement des responsabilités ou toutes autres mobilités. Cette situation peut entraîner un malaise important tant chez l'employé que dans l'environnement de travail. La méthodologie proposée permet d'envisager la problématique sous différents angles, • étant donné que le plafonnement de carrière est à la fois la cause et l'effet d'un ensemble de facteurs difficilement mesurables.
Resumo:
Cette étude des relations ville-campagne prolonge la réflexion amorcée à la suite d'un cours d'histoire régionale que donna Peter Southam. Ayant choisi d'analyser le développement économique de Coaticook dans une perspective strictement urbaine, je fis la découverte d'une carte qui se présenta comme une véritable révélation puisqu'elle traduisait toute la problématique sous-jacente à un espace polarisé. En effet, on pouvait découvrir, face à l'unité distincte de Coaticook, deux structures identiques, les municipalités de cantons de Barnston et de Barford, représentant, grâce à la présence des réseaux hydrographiques, routiers et ferroviaires, un terrain d'application idéale pour l'analyse des relations ville-campagne. De là est né notre intérêt d'analyser, dans un contexte ville-campagne, les fonctions de relations des deux entités spatiales en présence, l'une urbaine, l'autre rurale, évoluant en interaction toutes deux dans le cadre des Cantons de l'Est, région qui est elle-même étroitement intégrée à l'économie continentale nord-américaine. Au-delà de cette insertion à un espace économique plus vaste, notre étude se doit d'abord de rendre compte de la spécificité des deux entités spatiales. Le choix spatial de notre thèse est arbitraire et ne repose pas, par exemple, sur la zone d'influence de Coaticook bien que, et c'est là une des hypothèses que nous démontrerons plus tard, il est certain que le rayonnement de Coaticook dans un espace polarisé ne s'est pas limité aux cantons de Barnston et de Barford. Par ailleurs, si nous privilégions comme cadre spatial d'analyse l'échelle du territoire urbain et celle du canton selon leurs limites administratives respectives, nous envisagerons également l'échelle de la communauté villageoise comme l'un des axes principaux du rapport ville-campagne. Les divisions administratives ne s'étendant qu'à deux localités rurales (Dixville et Saint-Herménégilde), nous ne tenterons pas de délimiter l'aire villageoise des autres localités. Puisque nous nous intéressons davantage au phénomène villageois selon un critère fonctionnel, nous considérons alors le village "comme un lieu et une forme d'habitat dotés d'attributs et de fonctions distinctives". En fait, le choix spatial sera d'ordre documentaire puisqu'il est imposé par l'utilisation des recensements fédéraux (manuscrits et imprimés) et par l'utilisation des Mercantile Agency, sources principales sur lesquelles il sera plus facile de présenter une démonstration cohérente dans le temps comme dans l'espace. […]
Resumo:
[…] Depuis le succès, parfois trop galvaudé, de la Banque Grameen au Bengladesh, la microfinance est de plus en plus vue comme un des outils privilégiés de développement dans les pays où les capitaux sont rares. L'intérêt pour la microfinance a cumulé au Sommet sur le microcrédit tenu à Washington en février 1997. Le sommet a réuni une pléiade d'acteurs parmi les plus importants de la planète. Un objectif a fait consensus : atteindre 100 millions de familles pauvres de la planète d'ici 2005 et beaucoup d'argent en jeux. D'un autre côté, certains disent qu'il y a un danger à vouloir tourner un outil en une panacée et doutent de ce genre de déclaration typique des grands sommets. L'expansion de la microfinance serait trop rapide et aléatoire et «jeter» trop d'argent aux pauvres est la meilleure recette pour en assurer l'échec D'autres opposants disent également que la microfinance est en train de drainer beaucoup d'argent et d'efforts vers des programmes dont la viabilité est douteuse au détriment des programmes essentiels de santé et d'éducation. Cet essai vise essentiellement à dresser un portrait général de la microfinance dans le contexte du développement international. L'accent est mis sur l'évaluation de la performance de la microfinance sous deux angles : [1] Les performances financières et opérationnelles des institutions de microfinance (IMF). Ici, on considère l'institution comme l'objet de l'évaluation. L'objectif est d'évaluer la pérennité de l'institution, laquelle peut être estimée à travers des indicateurs (ratios) de viabilité financière, de la qualité du portefeuille, de la productivité et d'efficacité dans l'utilisation des actifs immobiles et des capitaux, etc. Plus précisément, on s'intéressera au rendement ajusté sur l'actif, au portefeuille à risque, à l'autosuffisance financière et opérationnelle. [2] Les impacts socio-économiques de la microfinance. Une des prétentions des adeptes de la microfinance est qu'elle puisse contribuer à réduire la pauvreté ou du moins à améliorer le sort des bénéficiaires de crédits. Dans cette optique, l'objet de l'évaluation n'est plus seulement l'institution, il devra aussi englober les effets sur les clients et parfois même sur l'environnement financier si l'objectif est d'amener les clients à intégrer éventuellement le marché financier formel. Or, il n'est pas aisé d'évaluer tous ces impacts de la microfinance. L'essai exposera la problématique entourant ces évaluations d'impacts. Les évaluations de la performance et des impacts sont devenues incontournables. Sans trop entrer en détails sur l'importance de ces évaluations, on peut relever au passage les éléments suivants : - Les bailleurs de fonds veulent savoir si leurs fonds sont utilisés efficacement et s'ils ont des impacts en fonction des objectifs fixés. - Les gestionnaires veulent mieux gérer leurs institutions et satisfaire les bailleurs. - Les organisations d'appuis techniques veulent mieux servir les IMF et avancer les connaissances. - Quant aux clients, on ne leur demande pas souvent leurs avis. Pourtant, ils sont les mieux placés pour connaître les impacts des crédits sur leurs conditions de vie. Les clients informés veulent aussi connaître les risques qu'ils encourent sur les prêts. Certains placent leurs épargnes dans les EMF, ils veulent donc connaître les rendements et les risques de leurs placements. […]
Resumo:
L’extrémité des chromosomes linéaires est une structure nucléoprotéique très conservée chez les organismes eucaryotes. Elle est constituée du télomère et des régions sous-télomériques répétées (STR) qui sont placées en amont du télomère. Chez la levure bourgeonnante, on trouve deux types de télomère, les télomères XY’ et les télomères X, qui se distinguent par la nature des STR positionnées en amont des répétitions télomériques. Le télomère et les STR sont liés par pas moins de dix protéines qui vont participer au maintien et à la régulation de l’extrémité chromosomique nécessaires à la stabilité du génome. Le télomère protège ainsi le chromosome de dégradations ou encore de fusions avec d’autres chromosomes. Le maintien de la taille du télomère est assuré par la télomérase, une transcriptase inverse, qui permet l’ajout de répétitions pour pallier leur perte lors de la phase de réplication durant le cycle cellulaire. Lorsque la télomérase est absente, deux types particuliers de cellules, les survivants de type I et les survivants de type II, peuvent maintenir leurs télomères grâce aux mécanismes de recombinaison homologue. Chez l’humain, les répétitions télomériques sont également liées par un certain nombre de protéines nécessaires au maintien de la stabilité de l’extrémité chromosomique. L’implication des télomères dans les processus de cancérisation, de vieillissement, mais également dans des maladies congénitales fait de cette structure un pivot dans le domaine de la recherche fondamentale. Dans 10 % des cas de cancers, l’allongement n’est pas dû à une réactivation de la télomérase comme c’est en général le cas, mais est inhérent à des processus de recombinaison homologue, comme chez la levure. Les homologies de séquences, de protéines, mais aussi de mécanismes de régulation des télomères avec les cellules humaines, font de S. cerevisiae un excellent modèle d’étude. Cette thèse se divise en trois chapitres. Les deux premiers traitent de l’interaction du complexe yKu avec les télomères de type XY’ dans le chapitre 1 puis de son interaction avec les télomères de type X dans le chapitre 2. Le chapitre 3 traite du comportement d’un type de survivant chez S. cerevisiae. Le chapitre 1 porte donc sur l’analyse des sites de liaison aux télomères XY’ du complexe yKu par la technique de ChEC in vivo. yKu intervient dans de nombreux processus de régulation des télomères, mais aussi dans un mécanisme de réparation des cassures double-brin de l’ADN (DSBs), la NHEJ (Non homologous end-joining). Les résultats présentés dans cette partie appuient un modèle dans lequel yKu aurait plusieurs sites de liaison aux télomères et dans les répétitions télomériques interstitielles. Nous supposons que la liaison du complexe se ferait lors de la formation d’une cassure de type « one-sided break » générée à la suite du passage de la fourche de réplication à l’intérieur des répétitions télomériques. Le chapitre 2 est également une étude des sites de liaison par la technique de ChEC in vivo du complexe yKu, mais cette fois-ci aux télomères X. Les observations faites dans cette partie viennent corroborer les résultats du chapitre 1 de la liaison de yKu à la jonction entre le télomère et les STRs, de plus elle met en évidence des interactions potentielles du complexe avec les éléments X laissant supposer l’existence d’un potentiel repliement du télomère sur la région sous-télomérique chez la levure. Enfin, le chapitre 3 est axé sur l’étude du comportement des survivants de type I, des cellules post-sénescences qui maintiennent leurs télomères par un processus de recombinaison homologue, le mécanisme de BIR (break-induced replication) en l’absence de télomérase. Les survivants de type I présentent une croissance lente liée à un arrêt du cycle cellulaire en phase G2/M qui dépend de la protéine de contrôle Rad9, dont l’activité est en général induite par des cassures double-brin. Ce chapitre a permis d’apporter des précisions sur la croissance lente probablement inhérente à un berceau télomérique très restreint chez ce type cellulaire.
Resumo:
Résumé : Dans les couverts forestiers, le suivi de l’humidité du sol permet de prévenir plusieurs désastres tels que la paludification, les incendies et les inondations. Comme ce paramètre est très dynamique dans l’espace et dans le temps, son estimation à grande échelle présente un grand défi, d’où le recours à la télédétection radar. Le capteur radar à synthèse d’ouverture (RSO) est couramment utilisé grâce à sa vaste couverture et sa résolution spatiale élevée. Contrairement aux sols nus et aux zones agricoles, le suivi de l’humidité du sol en zone forestière est très peu étudié à cause de la complexité des processus de diffusion dans ce type de milieu. En effet, la forte atténuation de la contribution du sol par la végétation et la forte contribution de volume issue de la végétation réduisent énormément la sensibilité du signal radar à l’humidité du sol. Des études portées sur des couverts forestiers ont montré que le signal radar en bande C provient principalement de la couche supérieure et sature vite avec la densité de la végétation. Cependant, très peu d’études ont exploré le potentiel des paramètres polarimétriques, dérivés d’un capteur polarimétrique comme RADARSAT-2, pour suivre l’humidité du sol sur les couverts forestiers. L’effet du couvert végétal est moins important avec la bande L en raison de son importante profondeur de pénétration qui permet de mieux informer sur l’humidité du sol. L’objectif principal de ce projet est de suivre l’humidité du sol à partir de données radar entièrement polarimétriques en bandes C et L sur des sites forestiers. Les données utilisées sont celles de la campagne terrain Soil Moisture Active Passive Validation EXperiment 2012 (SMAPVEX12) tenue du 6 juin au 17 juillet 2012 au Manitoba (Canada). Quatre sites forestiers de feuillus ont été échantillonnés. L’espèce majoritaire présente est le peuplier faux-tremble. Les données utilisées incluent des mesures de l’humidité du sol, de la rugosité de surface du sol, des caractéristiques des sites forestiers (arbres, sous-bois, litières…) et des données radar entièrement polarimétriques aéroportées et satellitaires acquises respectivement, en bande L (UAVSAR) à 30˚ et 40˚ et en bande C (RADARSAT-2) entre 20˚ et 30˚. Plusieurs paramètres polarimétriques ont été dérivés des données UAVSAR et RADARSAT-2 : les coefficients de corrélation (ρHHVV, φHHVV, etc); la hauteur du socle; l’entropie (H), l’anisotropie (A) et l’angle alpha extraits de la décomposition de Cloude-Pottier; les puissances de diffusion de surface (Ps), de double bond (Pd) extraites de la décomposition de Freeman-Durden, etc. Des relations entre les données radar (coefficients de rétrodiffusion multifréquences et multipolarisations (linéaires et circulaires) et les paramètres polarimétriques) et l’humidité du sol ont été développées et analysées. Les résultats ont montré que 1) En bande L, plusieurs paramètres optimaux permettent le suivi de l’humidité du sol en zone forestière avec un coefficient de corrélation significatif (p-value < 0,05): σ[indice supérieur 0] linéaire et σ[indice supérieur 0] circulaire (le coefficient de corrélation, r, varie entre 0,60 et 0,96), Ps (r entre 0,59 et 0,84), Pd (r entre 0,6 et 0,82), ρHHHV_30˚, ρVVHV_30˚, φHHHV_30˚ and φHHVV_30˚ (r entre 0,56 et 0,81) alors qu’en bande C, ils sont réduits à φHHHV, φVVHV et φHHVV (r est autour de 0,90). 2) En bande L, les paramètres polarimétriques n’ont pas montré de valeur ajoutée par rapport aux signaux conventionnels multipolarisés d’amplitude, pour le suivi de l’humidité du sol sur les sites forestiers. En revanche, en bande C, certains paramètres polarimétriques ont montré de meilleures relations significatives avec l’humidité du sol que les signaux conventionnels multipolarisés d’amplitude.
Resumo:
La construction des biosystèmes d’oxydation passive du méthane (BOPM) est une option économique et durable pour réduire les émissions de méthane des sites d’enfouissement de déchets et des effets subséquents du réchauffement climatique. Les BOPM sont constitués de deux couches principales: la couche d'oxydation du méthane (MOL) et la couche de distribution du gaz (GDL). L'oxydation du méthane se produit dans la MOL par les réactions biochimiques des bactéries méthanotrophes, et la GDL est construite sous la MOL pour intercepter et distribuer les émissions fugitives de biogaz à la base de la MOL. Fondamentalement, l'efficacité d'un BOPM est définie en fonction de l'efficacité d'oxydation du méthane dans la MOL. Par conséquent, il est indispensable de fournir des conditions adéquates pour les activités bactériennes des méthanotrophes. En plus des paramètres environnementaux, l'intensité et la distribution du biogaz influencent l'efficacité des BOPM, et ils peuvent rendre le matériau de la MOL - avec une grande capacité d'accueillir les activités bactériennes - inutilisables en termes d'oxydation du méthane sur place. L'effet de barrière capillaire le long de l'interface entre la GDL et la MOL peut provoquer des émissions localisées de méthane, due à la restriction ou la distribution non uniforme de l’écoulement ascendant du biogaz à la base de la MOL. L'objectif principal de cette étude est d'incorporer le comportement hydraulique non saturé des BOPM dans la conception des BOPM, afin d’assurer la facilité et la distribution adéquates de l'écoulement du biogaz à la base de la MOL. Les fonctions de perméabilité à l'air des matériaux utilisés pour construire la MOL des BOPM expérimentaux au site d’enfouissement des déchets de St Nicéphore (Québec, Canada), ainsi que celles d'autres de la littérature technique, ont été étudiés pour évaluer le comportement d'écoulement non saturé du gaz dans les matériaux et pour identifier le seuil de migration sans restriction du gaz. Ce dernier seuil a été introduit en tant que un paramètre de conception avec lequel le critère de conception recommandé ici, c’est à dire la longueur de la migration sans restriction de gaz (LMSG), a été défini. La LMSG est considérée comme la longueur le long de l'interface entre la GDL et la MOL où le biogaz peut migrer à travers la MOL sans restriction. En réalisant des simulations numériques avec SEEP/W, les effets de la pente de l'interface, des paramètres définissant la courbe de rétention d'eau, de la fonction de la conductivité hydraulique du matériau de la MOL sur la valeur de la LMSG (représentant la facilité d'écoulement du biogaz à l'interface) et de la distribution de l'humidité (et par conséquent celle du biogaz) ont été évalués. Selon les résultats des simulations, la conductivité hydraulique saturée et la distribution des tailles de pores du matériau de la MOL sont les paramètres les plus importants sur la distribution de l'humidité le long de l'interface. Ce dernier paramètre influe également sur la valeur du degré de saturation et donc la facilité du biogaz à la base de la MOL. La densité sèche du matériau de MOL est un autre paramètre qui contrôle la facilité d'écoulement ascendant du biogaz. Les limitations principales de la présente étude sont associées au nombre de matériaux de MOL testés et à l'incapacité de SEEP/W de considérer l'évapotranspiration. Toutefois, compte tenu des hypothèses raisonnables dans les simulations et en utilisant les données de la littérature, on a essayé de réduire ces limitations. En utilisant les résultats des expériences et des simulations numériques, des étapes et des considérations de conception pour la sélection du matériau de MOL et de la pente d'interface ont été proposées. En effet,le comportement hydraulique non saturé des matériaux serait intégré dans les nécessités de conception pour un BOPM efficace, de sorte que la capacité maximale possible d'oxydation du méthane du matériau de la MOL soit exploitée.
Resumo:
La catalyse est à la base de la fabrication de médicaments, de produits textiles, d‘engrais, des pots d’échappement, et une multitude d’autres applications de notre quotidien. En effet, dans les pays industrialisés jusqu’à 80% des produits manufacturés utilisés au quotidien ont nécessité au moins une étape de catalyse lors de leur fabrication. Outre être actif, il est primordial pour un catalyseur performant d’être résistant à la désactivation qui se traduit par la perte d’activité ou de sélectivité d’un catalyseur au cours du temps. La synthèse d’un matériau multifonctionnel permet de répondre à ces différents critères. L’objectif d’un design intelligent de matériaux est de mener à des effets synergiques de chacune des composantes. Pour un catalyseur, en plus d’être actif et sélectif pour le produit désiré, il faut en plus qu’il soit durable, stable dans le temps, et permette d’être réutilisable. L’objectif de ce projet est de faire une synthèse originale, simple et reproductible d’un catalyseur actif et résistant à la désactivation. De base, un catalyseur se compose d’un support et d’un matériau actif. La nature, la morphologie et l’agencement de ces derniers dictent le comportement chimique du catalyseur final. Comme matériau actif, les nanoparticules d’or sont très prisées en raison de leur potentiel de catalyse élevée pour de nombreuses réactions. Cependant, aux températures de fonctionnement de la catalyse, les nanoparticules d’or ont tendance à se désactiver par coalescence. Pour remédier à cela, il est possible de déposer une couche de silice mésoporeuse afin de protéger les NPs d’or des rudes conditions de réaction tout en étant perméables aux espèces réactives. Plusieurs types de matériaux peuvent servir de support aux nanoparticules d’or. À ce titre, les particules d’oxydes de fer magnétiques telles que la magnétite (Fe[indice inférieur 3]O[indice inférieur 4]) sont intéressantes pour leur potentiel hyperthermique, phénomène par lequel des nanoparticules (NPs) magnétiques transforment de l’énergie électromagnétique provenant d’un champ externe haute fréquence en chaleur, créant ainsi des nano-fours. Une première couche de silice est utilisée comme matrice de greffage afin de fixer les nanoparticules d’or sur la magnétite. La structure visée est illustrée à la Figure ci-dessous. Figure 1 Structure du catalyseur de Fe2O4@SiO2-Au-SiO2m (Ge, Zhang, Zhang, & Yin, 2008) Plusieurs avenues d’assemblage et de synthèse sont explorées pour chacune des composantes de la structure visée. Les avantages et inconvénients ainsi que des mécanismes sont proposés pour chaque voie de synthèse. Le matériau est utilisé comme catalyseur pour la réaction de réduction du 4-Nitrophénol par du NaBH4. Pour ce qui est de la synthèse de magnétite par voie solvothermique, il a été démontré qu’il était important d’être dans un milieu sous pression puisque l’étape limitante de la réaction est la solubilité des particules de magnétites dans le milieu. Cela est en accord avec le principe de mûrissement d’Ostwald selon lequel les petites particules ont tendance à se dissoudre dans le milieu et précipiter à la surface des plus grosses particules de façon à diminuer l’énergie interfaciale. Cette synthèse a été reproduite avec succès et a mené à la production de nanoparticules de Fe[indice inférieur 3]O[indice inférieur 4] sphériques creuses d’une taille de 150 [plus ou moins] 30nm. Ces sphères creuses ont été recouvertes d’une couche de silice dense par une méthode de Stöber modifiée. Le recouvrement forme des amas de particules et est non uniforme en raison de la présence de poly(éthlyène glycol) à la sur face de la magnétite, un adjuvant présent lors de sa synthèse afin d’améliorer la dispersion de la magnétite. La synthèse et le greffage d’AuNPs sont bien maîtrisés : les AuNPs ont une taille de 17 [plus ou moins] 6nm et la quantité d’or greffé est assez élevée. Ultimement, une méthode de greffage alternative tel que le greffage par croissance in situ de nanoparticules d’or pourrait être emprunté afin d’obtenir des particules plus petites. Pour ce qui est de la formation d’une couche de silice mésoporeuse, la méthode par calcination est une meilleure option que par gravure chimique en raison de sa sélectivité envers la couche externe de silice plus élevée ainsi que la formation apparente de pores.
Resumo:
Ce projet de recherche a permis d'étudier l'émission d'un rayonnement térahertz (THz) par des antennes photoconductrices (PC) émettrices de type micro-ruban coplanaire. Ces antennes sont fabriquées sur substrats d'arséniure de gallium semi-isolant (GaAs-SI) ou sur ce même substrat ayant subit un traitement d'implantation ionique aux protons suivi d'un recuit thermique (GaAs:H). L'influence de ce procédé de fabrication sur les propriétés du matériau photoconducteur et sur les caractéristiques de l'antenne émettrice a été étudiée. Des mesures de photoconductivité résolue en temps effectuées sur les deux types de substrat montrent que le procédé d'implantation/recuit a eu pour effet de diminuer le temps de vie des photoporteurs de 630 ps à environ 4 ps, tandis que la mobilité n'est réduite que d'un facteur maximum de 1,6. Cette valeur de la mobilité des photoporteurs a par ailleurs été estimée à environ 100 cm$^2$/(V.s) pour le substrat GaAs:H. Les mesures électriques effectuées sur les antennes fabriquées sur les deux types de substrat montrent que le procédé d'implantation/recuit permet d'augmenter la résistivité de la couche active du dispositif d'un facteur 10 (elle passerait de 10$^{8}$ $\Omega$.cm pour le GaAs-SI à 10$^9$ $\Omega$.cm pour le GaAs:H). Les courbes courant-tension, en obscurité et sous illumination, de ces antennes suggèrent également que la densité de pièges profonds est fortement augmentée suite au traitement d'implantation/recuit. L'étude des caractéristiques des diverses antennes a permis de montrer l'intérêt de ce procédé de fabrication. Pour les antennes fabriquées sur GaAs:H, la largeur de bande est améliorée (elle atteint environ 3 THz) et l'amplitude du champ THz émis est augmentée par un facteur 1,4 (dans les mêmes conditions expérimentales). Le rapport signal/bruit des traces THz mesurées sur les antennes les plus performantes est $>$ 200. Une plus grande résistivité et une densité de pièges profonds plus élevée, permet d'appliquer de plus fortes tensions de polarisation sur ces antennes GaAs:H. Finalement, nos résultats ont montré que les améliorations des caractéristiques d'émission de ces antennes THz sont corrélées à la présence d'un champ électrique local plus élevé du coté de l'anode du dispositif.
Resumo:
La recension des écrits scientifiques à laquelle nous avons procédé a souligné clairement de très hautes fréquences de redoublement chez les jeunes d’âge scolaire relevant des enseignements primaire et post-primaire, dans les ex-colonies françaises d’Afrique occidentale et centrale (Burkina-Faso, Sénégal, Gabon). Au Burkina Faso, le taux moyen de redoublement observé au post-primaire a été d’environ 30 % au cours du quinquennat 2007/2008 à 2012/2013. La région du Centre-Ouest est celle qui en a enregistré le taux le plus élevé (33,1 %) sur les treize régions administratives du pays au cours de la période mentionnée, ce qui a justifié son choix dans le cadre de cette étude. L’objectif général visait à déterminer, dans le microsystème qu’est l’école au post-primaire général public, les caractéristiques des représentations sociales (RS) et des modèles d’intervention éducative (MIE) valorisés chez des enseignants et des directions d’écoles qui sont en relation avec le redoublement d’élèves habitant la région ciblée. L’étude menée est quantitative et de type descriptif. Dans le cadre de celle-ci nous avons fait usage d’une démarche d’enquête par questionnaire auprès d’un échantillon de convenance, stratifié et pondéré constitué de 199 enseignantes et enseignants, incluant un membre du personnel de direction pour chacune des institutions de provenance des sujets (N = 14 directions). Le résultat majeur est spécifique aux enseignants titulaires du CAPES (diplôme pédagogique le plus élevé) qui travaillent dans les communes urbaines où les écoles présentent un seuil élevé de redoublement (21 % et plus). Il suggère des caractéristiques qui correspondent à des profils de valorisation élevés de la représentation positive du redoublement d’une part, et de celle de l’externalité des causes du phénomène, d’autre part. Les principales caractéristiques des MIE privilégiés par ces derniers rapportent, quant à elles, une valorisation moyenne ou faible du MIE 3 (hétérostructuration coactive) et concomitamment une valorisation élevée du MIE 4 (interstructuration cognitive). Cependant, les données recueillies auprès des directions d’écoles dont la taille sous-échantillonnale demeure restreinte n’ont permis qu’une interprétation limitée hors de laquelle notre discours s’avérerait hautement spéculatif. Les enseignants et les directions d’école pourront bénéficier de l’intégration des données issues de l’étude au plan de la formation continue. Ils pourront par conséquent questionner leurs pratiques pédagogiques et leurs attitudes au regard des causes et des effets réels du redoublement sur la réussite et la persévérance scolaire des jeunes au post-primaire. Cela dans un contexte, où la scolarisation de base obligatoire de 10 ans constitue un objectif visé à l’horizon 2025 par le gouvernement du Burkina Faso dans le cadre de la réforme éducative engagée depuis 2007.
Resumo:
Dans l'oeuvre contemporaine d'Alessandro Baricco, des références de toutes sortes attirent l'attention de ceux et celles qui s'intéressent aux récits et romans de l'écrivain italien. De cette esthétique néo-baroque, c'est la rencontre avec d'autres formes d'art qui nous a ici interpelée. Autant sur le plan formel que thématique, les références à la musique, à la peinture et au cinéma, entre autres, offrent de remarquables exemples d'intermédialité. Cette diversité de disciplines convoquées dans le texte de Châteaux de la colère (1995), Soie (1997), Océan mer (1998), City (2001) et Novecento : pianiste (1997), constitue l'originalité forte de l'oeuvre de Baricco. Ces formes artistiques produisent une ambiance qui plonge le lecteur dans le domaine de l'art et accorde à l'auteur la possibilité de déployer avec une grande maîtrise de moyens et d'effets son style unique. Les renvois intermédiatiques relevant principalement des personnages soutiennent les propos de Baricco au sujet de l'art : ils permettent d'établir l'importance qu'accorde ce dernier au métalangage artistique et à la création sous toutes ses formes. Par là, il devient possible de mieux comprendre sa propre oeuvre littéraire qui valorise, au détriment de la prétention réaliste, une fantaisie ludique qui relève du spectaculaire. Le premier chapitre présente les procédés formels au service de la musicalité dans l'écriture de Baricco et les personnages de musiciens - ou en lien avec la musique - qui évoquent cette forme artistique privilégiée. Dans le deuxième chapitre, il est question des moyens techniques qui permettent aux textes de Baricco de rappeler l'art pictural ainsi que des personnages qui, par le truchement de la peinture, tiennent un discours sur la création artistique. Dans le troisième et dernier chapitre, nous nous intéressons à la structure romanesque qui, par diverses stratégies formelles, imite le scénario. Les personnages qui renvoient à l'art dramatique sont aussi abordés, de façon à tenir compte de la vision artistique qu'ils mettent en place. Enfin, la conclusion nous permet, à la lumière des informations recueillies, de relever les effets entrainés i.e. [entraînés] par ces jeux intermédiatiques. Celle-ci est aussi pour nous l'occasion de dégager, en son caractère unitaire, la vision artistique à l'oeuvre chez Baricco.
Resumo:
La difficile insertion professionnelle des jeunes adultes de 16-25 ans, particulièrement ceux qui ne possèdent pas de formation spécialisée, a fait l'objet de nombreuses recherches. Au nombre des difficultés d'intégration au marché du travail qu'ils rencontrent, le manque d'éducation de base est souvent pointé du doigt. Les statistiques indiquent un lien de causalité entre l'analphabétisme et le taux de chômage. De plus, les données des différents centres d'éducation des adultes en Estrie révèlent que les jeunes adultes de 16-24 ans composent 35% des effectifs inscrits en alphabétisation. Cette situation est préoccupante. Elle incite au développement d'approches éducatives qui facilitent l'apprentissage des matières académiques de base, et qui sont mieux adaptées aux besoins et à la réalité de ces jeunes adultes. C'est dans cet esprit que nous développerons le présent essai. Pour ce faire, nous nous joignons à l'équipe de recherche du projet «Alpha-insertion professionnelle». Née d'une initiative du Centre de recherche sur l'éducation au travail (CRET) de l'Université de Sherbrooke, avec le soutien financier du Secrétariat national à l'alphabétisation - Développement des ressources humaines Canada, cette recherche-action vise à expérimenter auprès de jeunes adultes de 16-25 ans, inscrits en classe d'alphabétisation, une nouvelle gamme d'interventions éducatives dans un cadre de partenariats école-travail. Notre participation à ce projet consiste à recueillir l'appréciation de l'expérience partenariale par les enseignantes et les représentants du marché du travail qui ont agi comme partenaires dans cette collaboration à visée éducative. Le premier chapitre de notre essai développe la problématique de notre recherche. Elle comporte sept sous-parties. La première décrit la réalité du monde du travail et ses nouvelles exigences au plan de l'emploi, la seconde présente la situation des jeunes adultes de 16-25 ans sur le marché du travail et face aux habiletés académiques de base; une attention particulière est accordée aux individus de cette cohorte qui ont un bas niveau de qualification. Enfin, la troisième sous-partie relève les lacunes dans l'employabilité de ces jeunes adultes sans formation spécialisée. Comme notre recherche s'intéresse à l'exploration et à l'exploitation de nouvelles approches éducatives favorisant une meilleure éducation au travail de ces jeunes adultes, la quatrième sous-partie s'attarde à circonscrire le concept de partenariat, plus spécifiquement le partenariat école-travail. Cette sous-partie décrit également en quoi l'approche partenariale facilite l'apprentissage des matières académiques de base dans les programmes de transition. Enfin, la cinquième sous-partie, analyse la situation dans les programmes d'alphabétisation. S'en suit la sixième qui présente le projet «Alphainsertion professionnelle», lequel consiste en l'expérimentation d'une nouvelle gamme d'interventions éducatives dans un contexte de partenariat école-travail. Finalement, la septième sous-partie s'emploie à démontrer la pertinence et les objectifs de notre recherche. Le deuxième chapitre du document porte sur la méthodologie utilisée pour recueillir nos données, alors que le troisième chapitre présentera et analysera les résultats de ladite cueillette à la lumière des recherches et des théories intégrées dans la problématique. Finalement, nous conclurons en résumant et en dégageant les résultats significatifs qui sont porteurs de nouvelles avenues de recherche et d'innovations pédagogiques.