47 resultados para Théorie des matrices aléatoires


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La présence des contaminants organiques dans l’environnement est une problématique aux enjeux aussi bien scientifiques que politiques. Le caractère diffus et continu (différentes et multiples sources) de cette contamination ne permet pas à ces molécules biologiquement actives d’être soumises à une législation. Ces molécules, pouvant être très récalcitrantes, ne sont pas systématiquement éliminées par les systèmes de traitement des eaux conventionnels. Actuellement, de nouveaux procédés biotechnologiques basés sur des enzymes extracellulaires (e.g. Laccase) ou des champignons lignivores permettent l’élimination des composés les plus récalcitrants. Notre compréhension des mécanismes impliqués dans cette élimination reste incomplète. En effet, la biosorption et l’activité des enzymes extracellulaire sont les mécanismes les plus souvent mis en avant pour expliquer l’efficacité des procédés d’élimination fongique, mais ne sont pas capables d’expliquer les performances obtenues pour certains composés pharmaceutiques. Ces lacunes dans nos connaissances sur les mécanismes responsables de l’élimination fongique des contaminants organiques sont un frein à la pleine exploitation de ces procédés de traitement. De plus, il est forcé d’admettre qu’un grand nombre de travaux portant sur l’élimination fongique de contaminants organiques ont été réalisés dans des conditions de hautes concentrations, qui peuvent être peu représentatives des matrices environnementales. Ainsi, les effets observés à plus forte concentration peuvent etre le résultat dû au stress de l’organisme au contact des contaminants (toxicités). Cette thèse adresse deux questions ; ainsi quelle est l’influence des concentrations traces sur de tels procédés ? Et comment expliquer l’élimination de certains contaminants organiques lors des traitements fongiques ? Afin d’apporter des éléments de réponse sur les mécanismes mis en jeux lors de l’élimination fongique, les travaux présentés ici ont été réalisés sur un modèle de champignon lignivore connu pour ses propriétés en bioremediation. Dans un premier temps, un développement analytique permettant la quantification d’une sélection de contaminants organiques à l’état de traces a été réalisé. Cette méthode a permis d’effectuer des analyses de ces molécules à partir d’un seul échantillon environnemental de faible biomasse et à partir d’une seule injection instrumentale. Les résultats de cette thèse démontrent que l’élimination fongique de contaminants organiques résulte de mécanismes plus complexes que précédemment décrits. Notamment, la dégradation est fortement dépendante d’une étape initiale d’internalisation du contaminant par l’organisme ciblé et de la dégradation intracellulaire. Les mécanismes impliqués peuvent ainsi donnés lieux à des réactions de conjugaison intracellulaire des molecules (glucuronide, glutathione). Les résultats démontrent également que ces procédés d’élimination fongique sont efficaces sur une large gamme de concentration en contaminants organiques. Cependant, les faibles concentrations modifient les propriétés physico-chimiques et biologiques de l’organisme testé (i.e. un changement de la morphologie et du profil de la production enzymatique). La réponse biologique n’étant pas directement proportionnelle a l’exposition en contaminant. Cette étude a permis d’accroitre notre compréhension des mécanismes impliqués dans la dégradation fongique de contaminants organiques. Ceci ouvre la voie à de nouvelles études portant sur les interactions entre processus intra — et extracellulaires. Cette thèse contribue également à l’amélioration des connaissances en offrant des outils de compréhension nécessaire à l’optimisation et au développement du potentiel de ces procédés biotechnologiques (ciblage et role des enzymes réeellement impliquées dans les réactions de biocatalyse).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans ce mémoire, nous étudions le comportement grégaire en le décomposant en cinq sources principales suggérées par Sias (2004). En utilisant la définition de Bikhchandani et Sharma (2001), nous nous intéressons particulièrement aux sources dites volontaires de la part des gestionnaires. La présence de problèmes d’agence et les cascades d’information semblent être les deux sources les plus présentes au sein des FCP. C’est l’analyse des structures des réseaux et des caractéristiques des six différents types de gestionnaires qui ont permis d’en arriver à cette conclusion.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'idée de développer des ateliers destinés aux enseignants sur le sujet des devoirs et des leçons est le résultat de multiples facteurs tant personnels que professionnels qui influencèrent l'orientation de cette recherche. Il en est presque une vérité de La Palice que d'affirmer que les devoirs et leçons sont à l'origine de bien des conflits entre parents et enfants. Dans les hautes sphères intellectuelles, ce sujet de recherche grandement répertorié n'a jamais réussi à faire un consensus. L'intérêt pour le sujet a pris des dimensions importantes dans ma pratique pédagogique lorsque j'ai été initiée à la théorie des Intelligences multiples durant un travail de rédaction pour une maison d'édition. Je fus à même de constater que cette théorie de l'intelligence au pluriel combinée à une approche ludique pouvait devenir un outil innovateur dans la façon de traiter les devoirs et les leçons à la maison. Prendre le temps de s'arrêter sur le sujet des devoirs et leçons a permis une infiltration discrète au coeur d'une problématique qui demeure d'actualité, et ce, depuis plusieurs années. J'ai été à même de constater rapidement que la controverse entourant le sujet des devoirs et leçons impliquait l'ensemble du milieu de l'éducation. Parents, enfants, enseignants, dirigeants et penseurs se retrouvent au coeur de cette tourmente. Il était primordial de cibler l'entité qui rejoignait l'ensemble des différents paliers concernés par le sujet, afin de pouvoir créer un outil de travail pouvant agir le plus largement sur le milieu. Les enseignants, par leur fonction, se situent au carrefour de la problématique découlant des devoirs et des leçons. C'est donc pour eux que j'ai consacré cette recherche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire porte sur la réception, par des lectrices de la génération X, de cinq oeuvres autofictionnelles écrites par les auteures québécoises Marie-Sissi Labrèche ( Borderline 2000 et La brèche 2003), Nelly Arcan (Putain 2001 et Folle 2004) et Mélikah Abdelmoumen (Le dégoût du bonheur 2001), lesquelles appartiennent à cette même génération. Leurs récits ont suscité un certain engouement public et obtenu un écho considérable dans la sphère médiatique et dans le milieu de la recherche universitaire. Les observateurs notent, de façon générale, que les narratrices autodiégétiques, alter ego des auteures, sont brutalement imparfaites, névrosées, mal dans leur peau, sexuellement soumises, assujetties aux désirs des hommes, et qu'elles ne parviennent pas à s'épanouir comme êtres humains, mais surtout, comme femmes. D'une part, les héroïnes rompent avec les représentations largement véhiculées dans les médias et dans la littérature québécoise contemporaine. D'autre part, leur profil correspond aux discours populaires sur la génération X, fréquemment qualifiée de génération sacrifiée, désabusée. Ma recherche, exploratoire, se fonde sur quatre approches théoriques : théorie des genres littéraires, théories de la réception, études féministes et gender studies, sociologie des générations. J'ai tenu cinq entretiens collectifs auprès de seize Québécoises de la génération X. J'ai réuni ces lectrices, qui s'étaient d'elles-mêmes intéressées aux récits, en petits groupe [i.e. groupes] de trois ou quatre participantes. Le compte-rendu et l'analyse de leurs discussions m'ont permis d'observer la portée sociale des récits éminemment personnels de Labrèche, d'Arcan et d'Abdelmoumen. Une interrogation m'a habitée du début à la fin de ma démarche : pourquoi et comment ces récits"parlent-ils", intellectuellement et émotionnellement, aux lectrices de la génération X? Je dégage de mon analyse quelques hypothèses interprétatives. D'abord, les lectrices ont du mal à distinguer les auteures et les narratrices. Elles tendent à appréhender les récits autofictionnels comme des autobiographies et elles procèdent à une lecture littérale des oeuvres. Ensuite, plus de la moitié des lectrices s'identifient, à différents degrés, aux narratrices. Comme ces dernières, les participantes à ma recherche affirment qu'elles ressentent une certaine pression sociale liée aux normes de beauté et de féminité et à l'hypersexualisation de l'espace public. En cela, leurs positions se rapprochent de celles du courant féministe radical. Cependant, les lectrices refusent d'être cantonnées dans un rôle de victime. Elles reprochent aux narratrices de s'autodétruire. Les femmes doivent, selon les participantes, se responsabiliser et se montrer critiques envers les modèles qui leur sont offerts. Enfin, les lectrices reconnaissent dans les héroïnes certains traits associés à la génération X. Elles attribuent en partie la souffrance des narratrices au contexte social dans lequel ces dernières évoluent. Mais elles estiment que cette souffrance est surtout tributaire de carences familiales. Les discussions des lectrices reflètent en quelque sorte leur propre appartenance à la génération X. Ainsi, l'importance qu'elles accordent à la sphère privée, par rapport à la sphère publique, constitue une des particularités des X qui ressort clairement des entretiens. Par ailleurs, leurs observations sont teintées d'un certain individualisme. Bref, à la lumière de mes résultats, je conclus que les récits autofictionnels de Marie-Sissi Labrèche, de Nelly Arcan et de Mélikah Abdelmoumen ont une certaine portée sociale, mais que leur écho résonne davantage sur le plan individuel, chez les lectrices qui s'identifient personnellement aux narratrices. Cela dit, les participantes semblent toutes avoir été portées à se questionner et à réfléchir, pendant et après leur lecture, sur l'identité féminine dans la société actuelle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Qu'on le déplore ou que l'on s'en félicite, la statistique est présente dans notre vie de tous les jours. Paradoxalement, les compétences pour l'appréhender semblent faire défaut, à tel point que plus d'un militent pour que la statistique fasse partie des compétences minimales de tout citoyen (statistical literacy). Mais au niveau de l'enseignement, de nombreux obstacles apparaissent quant à l'acquisition de ces compétences : ainsi, de multiples recherches ont-elles identifié maints obstacles, que ceux-ci soient d'ordre affectif ou cognitif. Toutefois ces recherches adoptent le point de vue de l'enseignant ou du chercheur et il n'en existe que peu qui se sont interrogées sur la représentation que les étudiants ont de la statistique. Tel est l'objectif général de la présente recherche. Après avoir caractérisé ce qu'est une représentation sociale et abouti à poser "qu'est statistique ce que l'on se donne comme étant statistique", une enquête a été menée en France auprès de 614 étudiants de différentes sections en Sciences humaines et sociales. Il s'en dégage qu'une vingtaine de mots rend compte de la statistique, tels mathématiques, pourcentages, chiffrs et calculs. Cependant, au-delà de ce discours commun, des différences apparaissent entre les sections quant aux mots utilisés pour caractériser la statistique : pour certains, les mots utilisés, peu nombreux, assimilent la statistique aux statistiques ; pour d'autres, elle est conçue comme des mathématiques utilisées dans le cadre d'études, de recherches. D'autres discours se distinguent soit par la proximité de la statistique avec la méthodologie du questionnaire, soit par son utilisation professionnelle : la référence aux mathématiques y est alors nettement atténuée. De ces résultats se dégagent des prolongements en termes de recherche (étude longitudinale de la représentation sociale de la statistique), en termes de pédagogie (conditions propices à la problématisation) et en termes de rapport au savoir (thêmata). Cette recherche invite les formateurs et les chercheurs en didactique à faire un pas de côté par rapport à leur propre représentation et à envisager celle potentiellement différente des apprenants ; à côté des chiffrs, il y a aussi des êtres.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La connectivité fonctionnelle est reconnue pour altérer la fréquence des rencontres entre les individus et potentiellement affecter les coûts en lien avec la recherche de partenaires sexuels. La structure du paysage peut conséquemment engendrer de la variation dans le succès reproducteur des individus et par le fait même, modifier les opportunités de sélection sexuelle. Le but de cette étude était d’identifier l’influence de la structure du paysage sur les patrons de paternités hors couple (EPP) chez l’Hirondelle bicolore (Tachycineta bicolor), un insectivore aérien en déclin depuis environ 30 ans au Québec. Plus précisément, il était question d’évaluer l’importance relative de la disponibilité spatiotemporelle des partenaires potentiels, de la perméabilité de l’environnement aux mouvements, des caractéristiques individuelles, et des interactions entre certaines de ces variables sur la probabilité qu’un mâle fertilise une femelle, sur le nombre de mâles hors couple ayant fertilisé une femelle et enfin, sur le nombre de jeunes hors couple produits par une femelle. Pour se faire, une approche spatialement explicite basée sur la théorie des circuits a été employée. La collecte de données s’est faite sur 8 saisons de reproduction au sein d’un réseau de 40 fermes (10 nichoirs/ferme) situé le long d’un gradient d’intensification agricole de manière à ce que les individus se retrouvent dans des conditions socioécologiques contrastées. Selon les résultats obtenus, la densité de partenaires potentiels non locaux (i.e. hors ferme, mais au sein d’un rayon de 15 km) a eu un effet négatif sur la probabilité que deux individus produisent des jeunes hors couple, probablement à cause de l’effet de dilution entre compétiteurs. Cette même variable a également induit une augmentation du nombre de pères hors couple non locaux et de leurs jeunes dans une couvée donnée, mais seulement lorsque la résistance aux déplacements était faible. La densité locale a pour sa part eu l’effet inverse, ce qui laisse penser que les femelles auraient tendance à se contenter de leurs voisins immédiats quand les coûts de recherche dans le paysage sont trop élevés en comparaison à ce qui est disponible à proximité. Quant aux caractéristiques individuelles, leurs effets semblent négligeables à l’exception faite de la charge parasitaire moyenne des mâles locaux, laquelle pousserait les femelles à chercher des mâles en dehors de la ferme lorsqu’elle est élevée. Ce facteur ne représente toutefois pas seulement un indice potentiel de la qualité des jeunes produits par ces mâles, mais aussi un risque direct de transmission de parasites lors de copulations hors couple. Somme toute, il semble que les patrons de EPP soient davantage affectés par les variables du paysage que par la morphologie et la condition physique des individus. Ces découvertes sont d’un intérêt particulier puisque la compréhension des effets de l’écologie sur les paternités hors couple est essentielle pour une meilleure connaissance de la sélection sexuelle, des stratégies d’appariement et par le fait même, des processus évolutifs. De plus, identifier le rôle joué par le paysage dans les stratégies sexuelles pourrait aider à élaborer des plans de conservation appropriés pour les espèces dont le déclin est attribuable à des changements dans l’environnement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les prescrits didactiques et le programme d’Histoire et éducation à la citoyenneté (Gouvernement du Québec, 2007) défendent actuellement des pratiques d’enseignement visant l’apprentissage de la pensée historique. Un apprentissage qui est défini comme une activité intellectuelle inscrite dans une démarche de résolution de problème, permettant de développer une compréhension plus approfondie des réalités sociales dans la perspective du temps (Martineau, 2010). Toutefois, les recherches indiquent que cet apprentissage serait variablement intégré aux pratiques effectives dans les classes d’histoire (Levstik, 2008), notamment au Québec (Boutonnet, 2013; Moisan, 2010). À cet égard, il semblerait y avoir un écart entre les finalités auxquelles les enseignants adhèrent et les situations d’enseignement-apprentissage qu’ils mettent en œuvre. Pour mettre en lumière cette variabilité, nous avons réalisé une recherche exploratoire visant à décrire les pratiques d’enseignement en histoire en troisième et en quatrième années du secondaire. À cette fin, nous avons eu recours aux théories des représentations sociales (Moscovici, 1976) et de l’attribution (Deschamps, 1996) permettant de recenser, dans le savoir commun des enseignants d’histoire, des éléments relatifs à l’apprentissage de la pensée historique. Ce savoir a été analysé en fonction de quatre types de variables : l’opinion, les dispositifs d’enseignement, les attributions et les attitudes individuelles à l’égard de l’apprentissage de la pensée historique. Les données ont été recueillies auprès d’un échantillon de convenance de huit enseignants, et elles ont été analysées dans le cadre d’une approche lexicométrique. La procédure de cueillette a consisté à réaliser quatre entrevues auprès de chacun de ces enseignants, lors des phases préactive et postactive de trois situations d’enseignement-apprentissage, pour identifier par la récurrence des discours des propriétés invariantes. Les données ont été interprétées en fonction de deux types de fondement théorique, relatifs aux théories de l’apprentissage, illustrant différentes manières d’apprendre à penser historiquement, et aux modèles de pratique, décrivant des dispositifs séquencés d’enseignement associés à cet apprentissage. De manière générale, les résultats révèlent la prédominance des théories de l’apprentissage de sens commun, socioconstructiviste et cognitivo-rationaliste, ainsi que des modèles de pratique fondés sur la conceptualisation et le tâtonnement empirique. Même si cette recherche ne peut être considérée représentative, elle a comme principale retombée scientifique de livrer une description de pratiques nuancée, exprimant différentes modulations de l’apprentissage de la pensée historique au niveau des pratiques. Cette recherche contribue à alimenter la réflexion auprès des chercheurs, des formateurs et des enseignants qui pourront mettre en perspective les pratiques actuelles relatives à un apprentissage des plus importants en histoire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La présente étude vise à définir le processus de transaction, des différentes composantes des coûts de transaction, et des différents moyens pour les mesurer. Plus particulièrement, cette étude porte sur l'utilité de l'évaluation des gestionnaires de portefeuille de l'Université de Sherbrooke par rapport aux coûts de transaction calculés par Abel Noser. Abel Noser est une firme de consultant de New York qui se spécialise dans l'évaluation des fonds de pension. Ils ont mesuré durant deux périodes, les commissions et l'impact de marché subi par des courtiers utilisés par les gestionnaires. L'objectif principal, voulait examiner s'il y avait eu une différence au niveau de l'impact de marché subi par les courtiers pour les deux périodes. Vu que les courtiers n'ont pas été avertis qu'ils étaient mesurés, on ne devrait pas trouver de différence significative. Par contre, s'il y a une différence entre les deux périodes, alors que les courtiers n'étaient pas informés, on pourra conclure que la mesure d'Abel Noser donne des résultats aléatoires puisque les courtiers ne sont pas sensés avoir cherché à contourner le système. La synthèse des résultats de la première hypothèse n'a pas permis de vérifier la validité de la mesure d'Abel Noser. Par contre, quand on se réfère aux critiques faites par plusieurs auteurs, la mesure d'Abel Noser peut porter à confusion. En conclusion, cette étude ne recommande donc pas au comité de retraite de l'Université de Sherbrooke d'utiliser les services d'Abel Noser.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le manque de motivation des ressources humaines dans les secteurs public et para-public est un aspect qui se manifeste par un plus grand désintéressement noté au niveau du personnel. Dans une période économique difficile où la productivité et la créativité sont recherchées afin de conserver une compétitivité, la motivation du personnel devient un grand sujet d'intérêt pour les directions. Cet essai présente la gestion des ressources humaines en mettant en relation les principes et théories sur la motivation au travail, sur le développement de la personne au travail et sur les besoins des collèges. Dans un premier temps, le problème de la motivation du personnel dans les collèges est abordé. Un bref survol de la naissance des collèges et de leur évolution dans le domaine des ressources humaines est fait, pour terminer avec un constat de la démotivation du personnel. Par la suite, les questions de recherche sont formulées ainsi que les objectifs poursuivis. Dans le chapitre suivant, plusieurs théories sont présentées. La théorie des besoins de A. MASLOW et la théorie des facteurs de F. HERZBERG illustrent les facteurs de motivation. Deux théories développementales sont ensuite présentées: les étapes du cheminement professionnel de Donald E. SUPER et les stades de développement de carrière de D. RIVERIN-SIMARD. Et finalement ce chapitre présente une revue de la littérature et des théories sur la planification des ressources humaines et sur l'évaluation de rendement qui y est relié. En quatrième partie, les bases méthodologiques sont présentées et illustrées par une expérience faite dans un collège régional. Finalement, une dernière partie présente une analyse des résultats suivie de recommandations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

[…] Cette étude débute par l'exposé des conditions spécifiques aux déficients auditifs pour l'acquisition du langage et par la présentation de nos hypothèses (Chapitre 1). Nous faisons ensuite un rappel des études antérieures et nous envisageons les implications méthodologiques de nos hypothèses (Chapitre 2). Nous présentons ensuite notre méthodologie pour le recueil et l'analyse des données (Chapitre 3). Étant données toutes les variables pouvant intervenir (émotivité des sujets, intelligence, facilité d'élocution, milieu familial...) nous vérifions l'homogénéité des corpus. Nous débutons par une analyse statistique permettant de donner les «mesures» des corpus : quantité de discours produit, complexité de ce discours, homogénéité entre les deux groupes linguistiques concernés... (Chapitre 4) Ensuite, nous observons la construction progressive des énoncés, ce qui est l'apanage de l'oral; cela implique donc l'étude de la construction du sens et de la forme grâce à des hésitations, des répétitions et des reprises; là aussi, il faut établir s'il y a homogénéité entre les sujets (Chapitre 5). Pour l'analyse «théorique» des corpus, nous privilégions la théorie des opérations énonciatives élaborée par Antoine Culioli, car elle présente l'avantage de lier un bon nombre de fonctionnements et de manifestations linguistiques, tels que la syntaxe, la sémantique et la morphologie. Nous présentons les grandes lignes de cette théorie dans le Chapitre 6. Nous nous intéressons alors à la façon dont nos sujets procèdent pour mettre en place le thème de leur énoncé. Cet aspect de l'étude concerne donc une dimension sémantique dans les corpus. Nous nous intéressons plus particulièrement aux structures utilisées pour la thématisation, ce qui nous amène à faire le lien avec la syntaxe (Chapitre 7). Enfin, nous nous intéressons au caractère homogène des «erreurs» et aux fonctionnements de la langue utilisée dans les corpus. Nous nous concentrons alors plus précisément sur les repérages effectués par les locuteurs afin de rendre leur discours référentiel (Chapitre 8) […]

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif global de cette étude est de déterminer l’impact de la crise de la dette souveraine européenne sur les titres boursiers des six banques d’importance systémique (D-Sibs) canadiennes et celles des pays PIIGS (Portugal, Irlande, Italie, Grèce & Espagne). À cet effet, nous avons échantillonné nos données entre le 1er janvier 2002 au 31 décembre 2015 pour séparer notre fenêtre temporelle en cinq sous-périodes et ce, dans le but d’isoler certains événements d’envergure systémique. Un des sous-objectifs vise à déterminer s’il y a eu un effet de contagion transfrontalier entre les institutions canadiennes et européennes. Pour chacune des cinq sous-périodes, nous avons donc construit des réseaux basés sur les relations de cointégration entre les prix hebdomadaires des titres boursiers des D-Sibs étudiées. Le second sous-objectif consiste à détecter la présence d’un comportement grégaire auprès des investisseurs, en temps de crise, à l’aide de régressions basées sur la dispersion moyenne entre les rendements de chaque titre et ceux d’un portefeuille de marché composé des D-Sibs canadiennes et des pays PIIGS. Cette étude démontre que la crise financière de 2008-2009 a davantage impacté les banques d’importance systémique intérieure canadiennes et des pays PIIGS, contrairement à la crise de la dette souveraine européenne. En effet, l’effet de contagion transfrontalier est davantage notable lors de la faillite de Lehman Brothers, alors que les turbulences de la crise européenne se sont, en général, limitées à ses frontières. De plus, le comportement grégaire est uniquement détectable lors de la crise des subprimes. Ceci implique que les investisseurs n’ont pas perçu les D-Sibs comme étant menacées par la situation financière précaire de la zone euro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé : Les photodiodes à avalanche monophotonique (SPAD) sont d'intérêts pour les applications requérant la détection de photons uniques avec une grande résolution temporelle, comme en physique des hautes énergies et en imagerie médicale. En fait, les matrices de SPAD, souvent appelés photomultiplicateurs sur silicium (SiPM), remplacent graduellement les tubes photomultiplicateurs (PMT) et les photodiodes à avalanche (APD). De plus, il y a une tendance à utiliser les matrices de SPAD en technologie CMOS afin d'obtenir des pixels intelligents optimisés pour la résolution temporelle. La fabrication de SPAD en technologie CMOS commerciale apporte plusieurs avantages par rapport aux procédés optoélectroniques comme le faible coût, la capacité de production, l'intégration d'électronique et la miniaturisation des systèmes. Cependant, le défaut principal du CMOS est le manque de flexibilité de conception au niveau de l'architecture du SPAD, causé par le caractère fixe et standardisé des étapes de fabrication en technologie CMOS. Un autre inconvénient des matrices de SPAD CMOS est la perte de surface photosensible amenée par la présence de circuits CMOS. Ce document présente la conception, la caractérisation et l'optimisation de SPAD fabriqués dans une technologie CMOS commerciale (Teledyne DALSA 0.8µm HV CMOS - TDSI CMOSP8G). Des modifications de procédé sur mesure ont été introduites en collaboration avec l'entreprise CMOS pour optimiser les SPAD tout en gardant la compatibilité CMOS. Les matrices de SPAD produites sont dédiées à être intégrées en 3D avec de l'électronique CMOS économique (TDSI) ou avec de l'électronique CMOS submicronique avancée, produisant ainsi un SiPM 3D numérique. Ce SiPM 3D innovateur vise à remplacer les PMT, les APD et les SiPM commerciaux dans les applications à haute résolution temporelle. L'objectif principal du groupe de recherche est de développer un SiPM 3D avec une résolution temporelle de 10 ps pour usage en physique des hautes énergies et en imagerie médicale. Ces applications demandent des procédés fiables avec une capacité de production certifiée, ce qui justifie la volonté de produire le SiPM 3D avec des technologies CMOS commerciales. Ce mémoire étudie la conception, la caractérisation et l'optimisation de SPAD fabriqués en technologie TDSI-CMOSP8G.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Croyant que la connaissance approfondie du style attributionnel des élèves inscrits au cégep pourrait être un pas de plus vers la connaissance des processus psycho-cognitifs de l'élève en situations d'apprentissage scolaire et également une piste d'intervention pour réduire les abandons et les échecs au collégial, nous avons élaboré et validé un questionnaire étudiant les attributions causales reliées à des situations scolaires, le QACSS. La présente recherche correspond à la première étape d'une étude portant sur le style attributionnel des cégépiens. Nous basant sur la théorie des attributions de Weiner et sur l'étude expérimentale de l'ASQ (Attributionnal Style Questionnaire) de Peterson et al. (1982), nous avons élaboré et procédé à l'expérimentation du QACSS auprès de 317 élèves de niveau collégial, inscrits dans divers programmes collégiaux, au secteur régulier. Nous présentons et analysons, dans ce rapport, les résultats obtenus lors de notre étude de validité et de fidélité et nous discutons des principales questions surgies lors de cette analyse. En conclusion, nous affirmons que le QACSS peut être considéré comme un outil fiable de la mesure des attributions causales reliées aux situations scolaires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le béton conventionnel (BC) a de nombreux problèmes tels que la corrosion de l’acier d'armature et les faibles résistances des constructions en béton. Par conséquent, la plupart des structures fabriquées avec du BC exigent une maintenance fréquent. Le béton fibré à ultra-hautes performances (BFUP) peut être conçu pour éliminer certaines des faiblesses caractéristiques du BC. Le BFUP est défini à travers le monde comme un béton ayant des propriétés mécaniques, de ductilité et de durabilité supérieures. Le BFUP classique comprend entre 800 kg/m³ et 1000 kg/m³ de ciment, de 25 à 35% massique (%m) de fumée de silice (FS), de 0 à 40%m de poudre de quartz (PQ) et 110-140%m de sable de quartz (SQ) (les pourcentages massiques sont basés sur la masse totale en ciment des mélanges). Le BFUP contient des fibres d'acier pour améliorer sa ductilité et sa résistance aux efforts de traction. Les quantités importantes de ciment utilisées pour produire un BFUP affectent non seulement les coûts de production et la consommation de ressources naturelles comme le calcaire, l'argile, le charbon et l'énergie électrique, mais affectent également négativement les dommages sur l'environnement en raison de la production substantielle de gaz à effet de serre dont le gas carbonique (CO[indice inférieur 2]). Par ailleurs, la distribution granulométrique du ciment présente des vides microscopiques qui peuvent être remplis avec des matières plus fines telles que la FS. Par contre, une grande quantité de FS est nécessaire pour combler ces vides uniquement avec de la FS (25 à 30%m du ciment) ce qui engendre des coûts élevés puisqu’il s’agit d’une ressource limitée. Aussi, la FS diminue de manière significative l’ouvrabilité des BFUP en raison de sa surface spécifique Blaine élevée. L’utilisation du PQ et du SQ est également coûteuse et consomme des ressources naturelles importantes. D’ailleurs, les PQ et SQ sont considérés comme des obstacles pour l’utilisation des BFUP à grande échelle dans le marché du béton, car ils ne parviennent pas à satisfaire les exigences environnementales. D’ailleurs, un rapport d'Environnement Canada stipule que le quartz provoque des dommages environnementaux immédiats et à long terme en raison de son effet biologique. Le BFUP est généralement vendu sur le marché comme un produit préemballé, ce qui limite les modifications de conception par l'utilisateur. Il est normalement transporté sur de longues distances, contrairement aux composantes des BC. Ceci contribue également à la génération de gaz à effet de serre et conduit à un coût plus élevé du produit final. Par conséquent, il existe le besoin de développer d’autres matériaux disponibles localement ayant des fonctions similaires pour remplacer partiellement ou totalement la fumée de silice, le sable de quartz ou la poudre de quartz, et donc de réduire la teneur en ciment dans BFUP, tout en ayant des propriétés comparables ou meilleures. De grandes quantités de déchets verre ne peuvent pas être recyclées en raison de leur fragilité, de leur couleur, ou des coûts élevés de recyclage. La plupart des déchets de verre vont dans les sites d'enfouissement, ce qui est indésirable puisqu’il s’agit d’un matériau non biodégradable et donc moins respectueux de l'environnement. Au cours des dernières années, des études ont été réalisées afin d’utiliser des déchets de verre comme ajout cimentaire alternatif (ACA) ou comme granulats ultrafins dans le béton, en fonction de la distribution granulométrique et de la composition chimique de ceux-ci. Cette thèse présente un nouveau type de béton écologique à base de déchets de verre à ultra-hautes performances (BEVUP) développé à l'Université de Sherbrooke. Les bétons ont été conçus à l’aide de déchets verre de particules de tailles variées et de l’optimisation granulaire de la des matrices granulaires et cimentaires. Les BEVUP peuvent être conçus avec une quantité réduite de ciment (400 à 800 kg/m³), de FS (50 à 220 kg/m³), de PQ (0 à 400 kg/m³), et de SQ (0-1200 kg/m³), tout en intégrant divers produits de déchets de verre: du sable de verre (SV) (0-1200 kg/m³) ayant un diamètre moyen (d[indice inférieur 50]) de 275 µm, une grande quantité de poudre de verre (PV) (200-700 kg/m³) ayant un d50 de 11 µm, une teneur modérée de poudre de verre fine (PVF) (50-200 kg/m³) avec d[indice inférieur] 50 de 3,8 µm. Le BEVUP contient également des fibres d'acier (pour augmenter la résistance à la traction et améliorer la ductilité), du superplastifiants (10-60 kg/m³) ainsi qu’un rapport eau-liant (E/L) aussi bas que celui de BFUP. Le remplacement du ciment et des particules de FS avec des particules de verre non-absorbantes et lisse améliore la rhéologie des BEVUP. De plus, l’utilisation de la PVF en remplacement de la FS réduit la surface spécifique totale nette d’un mélange de FS et de PVF. Puisque la surface spécifique nette des particules diminue, la quantité d’eau nécessaire pour lubrifier les surfaces des particules est moindre, ce qui permet d’obtenir un affaissement supérieur pour un même E/L. Aussi, l'utilisation de déchets de verre dans le béton abaisse la chaleur cumulative d'hydratation, ce qui contribue à minimiser le retrait de fissuration potentiel. En fonction de la composition des BEVUP et de la température de cure, ce type de béton peut atteindre des résistances à la compression allant de 130 à 230 MPa, des résistances à la flexion supérieures à 20 MPa, des résistances à la traction supérieure à 10 MPa et un module d'élasticité supérieur à 40 GPa. Les performances mécaniques de BEVUP sont améliorées grâce à la réactivité du verre amorphe, à l'optimisation granulométrique et la densification des mélanges. Les produits de déchets de verre dans les BEVUP ont un comportement pouzzolanique et réagissent avec la portlandite générée par l'hydratation du ciment. Cependant, ceci n’est pas le cas avec le sable de quartz ni la poudre de quartz dans le BFUP classique, qui réagissent à la température élevée de 400 °C. L'addition des déchets de verre améliore la densification de l'interface entre les particules. Les particules de déchets de verre ont une grande rigidité, ce qui augmente le module d'élasticité du béton. Le BEVUP a également une très bonne durabilité. Sa porosité capillaire est très faible, et le matériau est extrêmement résistant à la pénétration d’ions chlorure (≈ 8 coulombs). Sa résistance à l'abrasion (indice de pertes volumiques) est inférieure à 1,3. Le BEVUP ne subit pratiquement aucune détérioration aux cycles de gel-dégel, même après 1000 cycles. Après une évaluation des BEVUP en laboratoire, une mise à l'échelle a été réalisée avec un malaxeur de béton industriel et une validation en chantier avec de la construction de deux passerelles. Les propriétés mécaniques supérieures des BEVUP a permis de concevoir les passerelles avec des sections réduites d’environ de 60% par rapport aux sections faites de BC. Le BEVUP offre plusieurs avantages économiques et environnementaux. Il réduit le coût de production et l’empreinte carbone des structures construites de béton fibré à ultra-hautes performances (BFUP) classique, en utilisant des matériaux disponibles localement. Il réduit les émissions de CO[indice inférieur 2] associées à la production de clinkers de ciment (50% de remplacement du ciment) et utilise efficacement les ressources naturelles. De plus, la production de BEVUP permet de réduire les quantités de déchets de verre stockés ou mis en décharge qui causent des problèmes environnementaux et pourrait permettre de sauver des millions de dollars qui pourraient être dépensés dans le traitement de ces déchets. Enfin, il offre une solution alternative aux entreprises de construction dans la production de BFUP à moindre coût.