18 resultados para Lambeau performant
em Université de Montréal, Canada
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.
Resumo:
OBJECTIF: évaluer un modèle prédictif de prééclampsie associant des marqueurs cliniques, biologiques (Inhibine A, PP-13, hCG, ADAM12, PAPP-A et PlGF) et du Doppler des artères utérines (DAU) au 1er trimestre de la grossesse. METHODE : étude prospective de cohorte de 893 nullipares chez qui DAU et prélèvement sanguin étaient réalisés à 11-14 semaines. RESULTATS : 40 grossesses se sont compliquées de prééclampsie (4,5%) dont 9 de prééclampsie précoce (1,0%) et 16 de prééclampsie sévère (1,8%). Le meilleur modèle prédictif de la prééclampsie sévère associait les marqueurs cliniques, PAPP-A et PlGF (taux de détection 87,5% pour 10% de faux positif). Le DAU étant corrélé à la concentration de PAPP-A (r=-0,117 ; p<0,001), il n’améliorait pas la modélisation. CONCLUSION : la combinaison de marqueurs cliniques et biologiques (PlGF et PAPP-A) au 1er trimestre permet un dépistage performant de la prééclampsie sévère. Le DAU n’est pas un instrument efficace de dépistage au 1er trimestre dans cette population.
Resumo:
Contexte: Bien que plusieurs algorithmes pharmacogénétiques de prédiction de doses de warfarine aient été publiés, peu d’études ont comparé la validité de ces algorithmes en pratique clinique réelle. Objectif: Évaluer trois algorithmes pharmacogénomiques dans une population de patients qui initient un traitement à la warfarine et qui souffrent de fibrillation auriculaire ou de problèmes de valves cardiaques. Analyser la performance des algorithmes de Gage et al., de Michaud et al. ainsi que de l’IWPC quant à la prédiction de la dose de warfarine permettant d’atteindre l’INR thérapeutique. Méthodes: Un devis de cohorte rétrospectif fut utilisé afin d’évaluer la validité des algorithmes chez 605 patients ayant débuté une thérapie de warfarine à l’Institut de Cardiologie de Montréal. Le coefficient de corrélation de Pearson ainsi que l’erreur absolue moyenne ont été utilisés pour évaluer la précision des algorithmes. L’exactitude clinique des prédictions de doses fut évaluée en calculant le nombre de patients pour qui la dose prédite était sous-estimée, idéalement estimée ou surestimée. Enfin, la régression linéaire multiple a été utilisée pour évaluer la validité d’un modèle de prédiction de doses de warfarine obtenu en ajoutant de nouvelles covariables. Résultats : L’algorithme de Gage a obtenu la proportion de variation expliquée la plus élevée (R2 ajusté = 44 %) ainsi que la plus faible erreur absolue moyenne (MAE = 1.41 ± 0.06). De plus, la comparaison des proportions de patients ayant une dose prédite à moins de 20 % de la dose observée a confirmé que l’algorithme de Gage était également le plus performant. Conclusion : Le modèle publié par Gage en 2008 est l’algorithme pharmacogénétique le plus exact dans notre population pour prédire des doses thérapeutiques de warfarine.
Resumo:
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.
Resumo:
Ces travaux visent à étendre les applications de la résonance de plasmons de surface (SPR) L’objectif est d’offrir des outils diagnostics plus rapides, efficaces et simple d’utilisation pour diagnostiquer ou effectuer le suivi de conditions cliniques. Pour se faire, un nouveau type d’instrumentation SPR basé sur l’utilisation d’un prisme d’inversion (dove) a permis d’atteindre une limite de détection (LOD) de 10-6 unité d’indice de réfraction (RIU), une valeur comparable aux instruments commerciaux complexes tout en demeurant peu dispendieux, robuste et simple d’utilisation. Les travaux présentés dans cet ouvrage visent, dans un second temps, à réduire les interactions nonspécifiques (NSB) entre la surface des biocapteurs SPR et les composants de la matrice biologique complexe telles que: l’urine, le lysat cellulaire, le sérum et le sang. Ces dernières induisent des réponses empêchant l’utilisation de biocapteurs SPR en milieux complexes. Les acides aminés (AA) offrent une grande variété de propriétés physico-chimiques permettant la mise au point de monocouches auto-assemblées (SAM) aux propriétés diverses. Initialement, 19 des 20 acides aminés naturels ont été attachés à l’acide 3-mercaptopropionique (3-MPA) formant des SAMs peptidomimétiques. La quantité d’interactions nonspécifiques engendrées par ces différentes surfaces a été mesurée en exposant ces surfaces au sérum sanguin bovin complet variant de 400 ng/cm² jusqu’à 800 ng/cm². La détection à l’aide de ces surfaces de la β-lactamase (une enzyme responsable de la résistance aux antibiotiques au niveau μM) a démontré la possibilité d’employer ces surfaces pour bâtir des biocapteurs SPR. Des peptides de longueur allant de 2 à 5 résidus attachés à 3-MPA ont été synthétisés sur support solide. Cette étude a démontré que l’augmentation de la longueur des peptides formés d’AA résistants aux NBS accroit leur résistance jusqu’à 5 résidus. Le composé le plus performant de ce type (3-MPA-(Ser)5-OH) a permis d’atteindre 180 ng/cm². Cette valeur est similaire à celle des meilleures surfaces disponibles commercialement, notamment les surfaces de polyethylène glycol (PEG) à 100 ng/cm². Des surfaces de 3-MPA-(Ser)5-OH ont permis l’étalonnage de la β-lactamase et sa quantification directe dans un lysat cellulaire. La LOD pour ces biocapteurs est de 10 nM. Une troisième génération de surfaces peptidiques binaires a permis la réduction de la NSB jusqu’à un niveau de 23±10 ng/cm² une valeur comparable aux meilleures surfaces disponibles. Ces surfaces ont permis l’étalonnage d’un indicateur potentiel du cancer la metalloprotéinase-3 de matrice (MMP-3). Les surfaces formées de peptides binaires (3-MPA-H3D2-OH) ont permis la quantification directe de la MMP-3 dans le sérum sanguin complet. Une quatrième génération de surfaces peptidiques a permis de réduire davantage le niveau de NSB jusqu’à une valeur de 12 ± 11 ng/cm². Ces surfaces ont été modifiées en y attachant une terminaison de type acide nitriloacétique (NTA) afin d’y attacher des biomolécules marquées par six résidus histidines terminaux. Ces surfaces ont permis le développement d’une méthode rapide de balayage des ligands ciblant le « cluster of differenciation-36 » (CD36). L’étude d’électroformation des monocouches de peptide a permis de déterminer les conditions de formation optimales d’une couche de 3-MPA-HHHDD-OH permettant ainsi la formation de monocouches résistantes au NSB en moins de 6 minutes en appliquant un potentiel de formation de 200mV vs Ag/AgCl.
Resumo:
Cet article décrit une procédure de modélisation du phénomène de dispersion de la concentration du dioxyde de nitrogène (NO2) en utilisant la technique du perceptron multicouche (MLP). Notre objectif est de prouver que la concentration du NO2 est une variable autorégressive et expliquée par des variables météorologiques. Pour ce faire, nous avons procédé par trois étapes : dans la première étape nous avons utilisé la variable concentration NO2 uniquement, dans la seconde étape nous avons utilisé les variables météorologiques uniquement et dans la troisième étape nous avons utilisé la concentration du NO2 combinée avec les variables météorologiques. Les résultats ont montré que le troisième cas est plus performant que les deux autres ce qui prouve notre hypothèse.
Resumo:
Depuis les années 1980, la formation des enseignants a fait l’objet de réformes majeures dans la plupart des sociétés développées, souvent en étant directement articulée à un processus de «professionnalisation» (Tardif, Lessard & Gauthier, 1998). La professionnalisation de l’enseignement est aujourd’hui considérée comme un mouvement international (OCDE, 2005). Dans cette recherche de maîtrise, nous analysons la mise en œuvre de la professionnalisation et son articulation à l’organisation des programmes de formation des enseignants du primaire dans deux contextes : Finlande et Québec. L’intérêt d’une comparaison du Québec avec la Finlande découle des enquêtes PISA 2000, 2003, et 2006, qui ont permis de faire reconnaître le système éducatif finlandais comme l’exemple d’un système performant qui combine avec succès la qualité, l’équité et la cohésion sociale (Sahlberg, 2007). Or, parmi les nombreuses raisons présentées pour expliquer ce succès, une des plus importantes serait la formation des enseignants. En Finlande les enseignants réalisent une formation initiale de 5 ans. Mais au Québec les enseignants sont aussi hautement éduqués : ils réalisent une formation universitaire de 4 ans après deux années d’études pré-universitaires. Dans les deux contextes, les enseignants complètent 17 ans de scolarité. Quelles sont les similitudes et les différences entre les programmes de formation des enseignants du primaire en Finlande et au Québec? Comment et en quoi ce processus de professionnalisation, comme tendance internationale, a-t-il marqué les systèmes de formation d’enseignants finlandais et québécois ? Peut-on dégager, à partir de cette comparaison, des éléments d’un système de formation à l’enseignement de meilleure qualité pour le Québec?
Resumo:
The work done in this master's thesis, presents a new system for the recognition of human actions from a video sequence. The system uses, as input, a video sequence taken by a static camera. A binary segmentation method of the the video sequence is first achieved, by a learning algorithm, in order to detect and extract the different people from the background. To recognize an action, the system then exploits a set of prototypes generated from an MDS-based dimensionality reduction technique, from two different points of view in the video sequence. This dimensionality reduction technique, according to two different viewpoints, allows us to model each human action of the training base with a set of prototypes (supposed to be similar for each class) represented in a low dimensional non-linear space. The prototypes, extracted according to the two viewpoints, are fed to a $K$-NN classifier which allows us to identify the human action that takes place in the video sequence. The experiments of our model conducted on the Weizmann dataset of human actions provide interesting results compared to the other state-of-the art (and often more complicated) methods. These experiments show first the sensitivity of our model for each viewpoint and its effectiveness to recognize the different actions, with a variable but satisfactory recognition rate and also the results obtained by the fusion of these two points of view, which allows us to achieve a high performance recognition rate.
Resumo:
Facial Artery Musculomucosal Flap in Skull Base Reconstruction Xie L. MD, Lavigne F. MD, Rahal A. MD, Moubayed SP MD, Ayad T. MD Introduction: Failure in skull base defects reconstruction can have serious consequences such as meningitis and pneumocephalus. The nasoseptal flap is usually the first choice but alternatives are necessary when this flap is not available. The facial artery musculomucosal (FAMM) flap has proven to be successful in head and neck reconstruction but it has never been reported in skull base reconstruction. Objective: To show that the FAMM flap can reach some key areas of the skull base and be considered as a new alternative in skull base defects reconstruction. Methods: We conducted a cadaveric study with harvest of modified FAMM flaps, endoscopic skull base dissection and maxillectomies in 13 specimens. Measures were taken for each harvested FAMM flap. Results: The approximate mean area for reconstruction from the combination of the distal FAMM and the extension flaps is 15.90 cm2. The flaps successfully covered the simulated defects of the frontal sinus, the ethmoid areas, the planum sphenoidale, and the sella turcica. Conclusion: The FAMM flap can be considered as a new alternative in the reconstruction of skull base defects. Modifications add extra length to the traditional FAMM flap and can contribute to a tighter seal of the defect as opposed to the FAMM flap alone.
Resumo:
L’hypertension artérielle essentielle (HTA) est une pathologie complexe, multifactorielle et à forte composante génétique. L’impact de la variabilité dans le nombre de copies sur l’HTA est encore peu connu. Nous envisagions que des variants dans le nombre de copies (CNVs) communs pourraient augmenter ou diminuer le risque pour l’HTA. Nous avons exploré cette hypothèse en réalisant des associations pangénomiques de CNVs avec l’HTA et avec l’HTA et le diabète de type 2 (DT2), chez 21 familles du Saguenay-Lac-St-Jean (SLSJ) caractérisées par un développement précoce de l’HTA et de la dyslipidémie. Pour la réplication, nous disposions, d’une part, de 3349 sujets diabétiques de la cohorte ADVANCE sélectionnés pour des complications vasculaires. D’autre part, de 187 sujets de la cohorte Tchèque Post-MONICA (CTPM), choisis selon la présence/absence d’albuminurie et/ou de syndrome métabolique. Finalement, 134 sujets de la cohorte CARTaGENE ont été analysés pour la validation fonctionnelle. Nous avons détecté deux nouveaux loci, régions de CNVs (CNVRs) à effets quantitatifs sur 17q21.31, associés à l’hypertension et au DT2 chez les sujets SLSJ et associés à l’hypertension chez les diabétiques ADVANCE. Un modèle statistique incluant les deux variants a permis de souligner le rôle essentiel du locus CNVR1 sur l’insulino-résistance, la précocité et la durée du diabète, ainsi que sur le risque cardiovasculaire. CNVR1 régule l’expression du pseudogène LOC644172 dont le dosage est associé à la prévalence de l’HTA, du DT2 et plus particulièrement au risque cardiovasculaire et à l’âge vasculaire (P<2×10-16). Nos résultats suggèrent que les porteurs de la duplication au locus CNVR1 développent précocement une anomalie de la fonction bêta pancréatique et de l’insulino-résistance, dues à un dosage élevé de LOC644172 qui perturberait, en retour, la régulation du gène paralogue fonctionnel, MAPK8IP1. Nous avons également avons identifié six CNVRs hautement hérités et associés à l'HTA chez les sujets SLSJ. Le score des effets combinés de ces CNVRs est apparu positivement et étroitement relié à la prévalence de l’HTA (P=2×10-10) et à l’âge de diagnostic de l’HTA. Dans la population SLSJ, le score des effets combinés présente une statistique C, pour l’HTA, de 0.71 et apparaît aussi performant que le score de risque Framingham pour la prédiction de l’HTA chez les moins de 25 ans. Un seul nouveau locus de CNVR sur 19q13.12, où la délétion est associée à un risque pour l’HTA, a été confirmé chez les Caucasiens CTPM. Ce CNVR englobe le gène FFAR3. Chez la souris, il a été démontré que l’action hypotensive du propionate est en partie médiée par Ffar3, à travers une interférence entre la flore intestinale et les systèmes cardiovasculaire et rénal. Les CNVRs identifiées dans cette étude, affectent des gènes ou sont localisées dans des QTLs reliés majoritairement aux réponses inflammatoires et immunitaires, au système rénal ainsi qu’aux lésions/réparations rénales ou à la spéciation. Cette étude suggère que l’étiologie de l’HTA ou de l’HTA associée au DT2 est affectée par des effets additifs ou interactifs de CNVRs.
Resumo:
Symbole de modernité pendant la majeure partie du XXe siècle, la cigarette est depuis une trentaine d’années la cible d’interventions croissantes visant à réduire sa consommation. La lutte contre le tabac bénéficie d’un dispositif sans précédent qui fait office de cas d’école en santé publique, par son ampleur et par l’adhésion qu’il suscite. L’intérêt d’étudier cet objet réside ainsi dans la propriété essentielle de la lutte anti-tabac de relier un dispositif institutionnel et des motivations subjectives. Le dispositif anti-tabac (DAT) a en effet vocation à faire converger les prescriptions normatives d’un ensemble d’institutions et les désirs individuels, et y parvient manifestement dans une certaine mesure. Il permet dès lors d’aborder à la fois un travail sur les sociétés et un travail sur soi. Cette thèse entreprend une analyse sociologique du dispositif anti-tabac au Québec et vise à interroger les modalités et les fins de ce contrôle public de la consommation de tabac, en mettant au jour ses dimensions culturelles, symboliques et politiques. La santé publique apparaissant de nos jours comme lieu central de l’espace politique et social dans les sociétés contemporaines (Fassin et Dozon, 2001 :7), l’utopie d’un « monde sans fumée » se révèle selon nous tout à fait typique des enjeux qui caractérisent la modernité avancée ou « société du risque » (Beck, 2001, [1986]). Après avoir présenté le rapport historiquement ambivalent des pays occidentaux au tabac et ses enjeux, puis problématisé la question de la consommation de substances psychotropes dans le cadre d’une production et d’une construction sociale et culturelle (Fassin, 2005a), nous inscrivons le DAT dans le cadre d’une biopolitique de la population (Foucault, 1976; 1997; 2004b). À l’aune des enseignements de Michel Foucault, cette thèse consiste ainsi en l’analyse de discours croisée du dispositif institutionnel anti-tabac et de témoignages d’individus désirant arrêter de fumer, au regard du contexte social et politique de la société moderne avancée. Le DAT illustre les transformations à l’œuvre dans le champ de la santé publique, elles-mêmes caractéristiques d’une reconfiguration des modes de gouvernement des sociétés modernes avancées. La nouvelle biopolitique s’adresse en effet à des sujets libres et entreprend de produire des citoyens responsables de leur devenir biologique, des sujets de l’optimisation de leurs conditions biologiques. Elle s’appuie sur une culpabilité de type « néo-chrétien » (Quéval, 2008) qui caractérise notamment un des leviers fondamentaux du DAT. Ce dernier se caractérise par une lutte contre les fumeurs plus que contre le tabac. Il construit la figure du non-fumeur comme celle d’un individu autonome, proactif et performant et fait simultanément de l’arrêt du tabac une obligation morale. Par ce biais, il engage son public à se subjectiver comme citoyen biologique, entrepreneur de sa santé. L’analyse du DAT au Québec révèle ainsi une (re)moralisation intensive des questions de santé, par le biais d’une biomédicalisation des risques (Clarke et al., 2003; 2010), particulièrement représentative d’un nouveau mode d’exercice de l’autorité et de régulation des conduites dans les sociétés contemporaines, assimilée à une gouvernementalité néolibérale. Enfin, l’analyse de témoignages d’individus engagés dans une démarche d’arrêt du tabac révèle la centralité de la santé dans le processus contemporain d’individuation. La santé publique apparait alors comme une institution socialisatrice produisant un certain « type d’homme » centré sur sa santé et adapté aux exigences de performance et d’autonomie prévalant, ces éléments constituant désormais de manière croissante des clés d’intégration et de reconnaissance sociale.
Resumo:
La phytoextraction représente une solution environnementale prometteuse face au problème de contamination des sols en éléments traces (É.T). La présente étude s’intéresse aux différences intra et interspécifiques (S. purpurea, S. dasyclados, S. miyabeana) de trois cultivars de saule lorsqu’ils sont utilisés pour la phytoextration de six É.T. (As, Cd, Cu, Ni, Pb et Zn). Les objectifs sont (i) décrire les variations intrapécifiques du cultivar FISH CREEK (S. purpurea) lorsqu’il est utilisé pour la phytoextraction sur deux sites d’étude; et (ii) décrire les variations intra et interspécifiques des cultivars FISH CREEK (S. purpurea), SV1 (S. dasyclados) et SX67 (S. miyabeana) lorsqu’ils sont utilisés pour la phytoextraction d’un site d’étude. Les indicateurs de variations intra et interspécifiques sélectionnés sont les suivants : la biomasse totale, les concentrations en É.T. extraits et les facteurs de translocation (x ̅ pondérée des conc. É.T. dans les parties aériennes / conc. É.T. dans les racines). La contribution des propriétés du sol (degré de contamination, caractéristiques physicochimiques) à la phytoextraction a été évaluée. Les cultivars ont présenté des variations interspécifiques significatives. Cependant, les variations intraspécifiques sur un site d’étude étaient parfois plus importantes que celles mesurées entre les trois différents cultivars. L’amplitude des variations intraspécifiques que présentent le cultivar FISH CREEK sur deux sites d’étude est attribuée à l’influence du pH, de la minéralogie et au contenu en matière organique, lesquelles diffèrent entre les deux sites. Il a aussi été démontré que la phytoextraction des É.T. n’était pas systématiquement corrélée de façon positive avec le degré de contamination. Cela suggère que les concentrations en É.T. mesurées dans le sol ne peuvent pas expliquer à elles seules la variation des concentrations mesurées dans les tissus. L’implication des mécanismes de rétention dans le sol semblent être davantage responsable des variations observées. La compartimentation des É.T. suggère que le saule est efficace pour l’extraction du Cd et du Zn et qu’il est efficace pour la phytostabilisation de l’As, du Cu, du Ni, et du Pb. En ce qui concerne les quantités extraites, le cultivar FISH CREEK semble le plus performant dans la présente étude.
Resumo:
En se basant sur le principe organisationnel des deux types d’ensembles politiques rencontrés au Bénin, le but de cette recherche est d’explorer un ou des modèles conjoints, classiques et coutumiers, de participation en vue de promouvoir une démocratie participative plus proche des citoyens. Trois échelons spatiaux ont constitué le terrain de la recherche : l’Afrique, le Bénin centre et les milieux proches des anciennes royautés. La documentation et les données d’observations et d’entrevues ont été analysées par la démarche de théorisation ancrée et l’appréhension des phénomènes socio-spatiaux. Des quatre modèles originaux avec les critères endogènes d’appréciation de la participation mis en évidence et caractérisés dans les cultures du Bénin, deux, Togbésso-Hon-Togbassa et Daŋnou, émergent comme représentatifs des exigences d’une démocratie avec des formes territorialisées de la participation. La mise en perspective de la participation au Bénin avec les États d’Afrique montre une bonne performance qui le fait référencer comme le plus performant pour ses procédures et pratiques et comme source d’inspiration de mise en place des dispositifs participatifs dans le palmarès des grandes démocraties. Ses deux instruments de la décision, l’analyse participative et l’audience publique, restent perfectibles. La première, une innovation intéressante à encadrer, limite la participation à des acteurs choisis selon des critères généralement non énoncés. L’audience publique reste insatisfaisante par son inadéquation à la production de la décision collective et un modèle antinomique de la pensée politique africaine qui vise le consensus dans une démarche inclusive à essence délibérative sous forme de palabre. Fondement de la démocratie participative, la palabre offre le soubassement pour un modèle synergique basé sur les principes de délibération collective, d’offre de l’initiative de la décision au citoyen, de l’invitation aux débats et de l’écoute active (DROIE), d’un dispositif décisionnel flexible et adapté, au centre duquel se trouvent la délibération, le huis clos, la validation populaire et la reddition de compte, le recours et la réparation ainsi que le contrôle de qualité de la décision, essentiels à la gestion, et structurants à l’évaluation environnementale.
Resumo:
Il est évalué qu’entre 15 et 40 % des élèves surdoués performent à des niveaux inférieurs à leur potentiel (Seeley, 1994). Récemment, plusieurs chercheurs se sont plongés dans ce phénomène en tentant de l’expliquer. Par contre, une seule équipe de recherche s’est attardé sur l’impact des climats socioéducatifs sur la performance des surdoués, alors que ce lien est bien existant chez les jeunes non-doués. Cette recherche vise à explorer la relation possible entre les climats socioéducatifs, l’environnement familial et la performance scolaire chez les jeunes surdoués, afin de combler ce manque dans la littérature. Afin d’atteindre cet objectif, un échantillon de 1 885 participants de 3e secondaire provenant de la base de donnée de l’évaluation du programme SIAA furent étudiés afin de créer un modèle présentant l’effet des environnements sur la performance des jeunes surdoués, médié par la motivation. Nos résultats suggèrent que l’impact des environnements socioéducatifs et familiaux sur la performance des jeunes surdoués est minime, bien qu’il soit majeur chez les jeunes non-doués.