249 resultados para Dispositifs methodologiques
Resumo:
Les antimoniures sont des semi-conducteurs III-V prometteurs pour le développement de dispositifs optoélectroniques puisqu'ils ont une grande mobilité d'électrons, une large gamme spectrale d'émission ou de détection et offrent la possibilité de former des hétérostructures confinées dont la recombinaison est de type I, II ou III. Bien qu'il existe plusieurs publications sur la fabrication de dispositifs utilisant un alliage d'In(x)Ga(1-x)As(y)Sb(1-y) qui émet ou détecte à une certaine longueur d'onde, les détails, à savoir comment sont déterminés les compositions et surtout les alignements de bande, sont rarement explicites. Très peu d'études fondamentales sur l'incorporation d'indium et d'arsenic sous forme de tétramères lors de l'épitaxie par jets moléculaires existent, et les méthodes afin de déterminer l'alignement des bandes des binaires qui composent ces alliages donnent des résultats variables. Un modèle a été construit et a permis de prédire l'alignement des bandes énergétiques des alliages d'In(x)Ga(1-x)As(y)Sb(1-y) avec celles du GaSb pour l'ensemble des compositions possibles. Ce modèle tient compte des effets thermiques, des contraintes élastiques et peut aussi inclure le confinement pour des puits quantiques. De cette manière, il est possible de prédire la transition de type de recombinaison en fonction de la composition. Il est aussi montré que l'indium ségrègue en surface lors de la croissance par épitaxie par jets moléculaires d'In(x)Ga(1-x)Sb sur GaSb, ce qui avait déjà été observé pour ce type de matériau. Il est possible d'éliminer le gradient de composition à cette interface en mouillant la surface d'indium avant la croissance de l'alliage. L'épaisseur d'indium en surface dépend de la température et peut être évaluée par un modèle simple simulant la ségrégation. Dans le cas d'un puits quantique, il y aura une seconde interface GaSb sur In(x)Ga(1-x)Sb où l'indium de surface ira s'incorporer. La croissance de quelques monocouches de GaSb à basse température immédiatement après la croissance de l'alliage permet d'incorporer rapidement ces atomes d'indium et de garder la seconde interface abrupte. Lorsque la composition d'indium ne change plus dans la couche, cette composition correspond au rapport de flux d'atomes d'indium sur celui des éléments III. L'arsenic, dont la source fournit principalement des tétramères, ne s'incorpore pas de la même manière. Les tétramères occupent deux sites en surface et doivent interagir par paire afin de créer des dimères d'arsenic. Ces derniers pourront alors être incorporés dans l'alliage. Un modèle de cinétique de surface a été élaboré afin de rendre compte de la diminution d'incorporation d'arsenic en augmentant le rapport V/III pour une composition nominale d'arsenic fixe dans l'In(x)Ga(1-x)As(y)Sb(1-y). Ce résultat s'explique par le fait que les réactions de deuxième ordre dans la décomposition des tétramères d'arsenic ralentissent considérablement la réaction d'incorporation et permettent à l'antimoine d'occuper majoritairement la surface. Cette observation montre qu'il est préférable d'utiliser une source de dimères d'arsenic, plutôt que de tétramères, afin de mieux contrôler la composition d'arsenic dans la couche. Des puits quantiques d'In(x)Ga(1-x)As(y)Sb(1-y) sur GaSb ont été fabriqués et caractérisés optiquement afin d'observer le passage de recombinaison de type I à type II. Cependant, celui-ci n'a pas pu être observé puisque les spectres étaient dominés par un niveau énergétique dans le GaSb dont la source n'a pu être identifiée. Un problème dans la source de gallium pourrait être à l'origine de ce défaut et la résolution de ce problème est essentielle à la continuité de ces travaux.
Resumo:
Les réseaux de capteurs sont formés d’un ensemble de dispositifs capables de prendre individuellement des mesures d’un environnement particulier et d’échanger de l’information afin d’obtenir une représentation de haut niveau sur les activités en cours dans la zone d’intérêt. Une telle détection distribuée, avec de nombreux appareils situés à proximité des phénomènes d’intérêt, est pertinente dans des domaines tels que la surveillance, l’agriculture, l’observation environnementale, la surveillance industrielle, etc. Nous proposons dans cette thèse plusieurs approches pour effectuer l’optimisation des opérations spatio-temporelles de ces dispositifs, en déterminant où les placer dans l’environnement et comment les contrôler au fil du temps afin de détecter les cibles mobiles d’intérêt. La première nouveauté consiste en un modèle de détection réaliste représentant la couverture d’un réseau de capteurs dans son environnement. Nous proposons pour cela un modèle 3D probabiliste de la capacité de détection d’un capteur sur ses abords. Ce modèle inègre également de l’information sur l’environnement grâce à l’évaluation de la visibilité selon le champ de vision. À partir de ce modèle de détection, l’optimisation spatiale est effectuée par la recherche du meilleur emplacement et l’orientation de chaque capteur du réseau. Pour ce faire, nous proposons un nouvel algorithme basé sur la descente du gradient qui a été favorablement comparée avec d’autres méthodes génériques d’optimisation «boites noires» sous l’aspect de la couverture du terrain, tout en étant plus efficace en terme de calculs. Une fois que les capteurs placés dans l’environnement, l’optimisation temporelle consiste à bien couvrir un groupe de cibles mobiles dans l’environnement. D’abord, on effectue la prédiction de la position future des cibles mobiles détectées par les capteurs. La prédiction se fait soit à l’aide de l’historique des autres cibles qui ont traversé le même environnement (prédiction à long terme), ou seulement en utilisant les déplacements précédents de la même cible (prédiction à court terme). Nous proposons de nouveaux algorithmes dans chaque catégorie qui performent mieux ou produits des résultats comparables par rapport aux méthodes existantes. Une fois que les futurs emplacements de cibles sont prédits, les paramètres des capteurs sont optimisés afin que les cibles soient correctement couvertes pendant un certain temps, selon les prédictions. À cet effet, nous proposons une méthode heuristique pour faire un contrôle de capteurs, qui se base sur les prévisions probabilistes de trajectoire des cibles et également sur la couverture probabiliste des capteurs des cibles. Et pour terminer, les méthodes d’optimisation spatiales et temporelles proposées ont été intégrées et appliquées avec succès, ce qui démontre une approche complète et efficace pour l’optimisation spatio-temporelle des réseaux de capteurs.
Resumo:
En République Démocratique du Congo (RDC), les savanes couvrent 76,8 millions d’hectares et constituent le second type d’écosystème après les forêts denses qui représentent 10% des forêts au niveau mondial. Ces formations herbeuses et arbustives offrent des potentialités importantes de séquestration du dioxyde de carbone pouvant contribuer par le fait même à la lutte contre le réchauffement climatique. C’est dans cette optique que se situe cette thèse intitulée « Évolution naturelle de savanes mises en défens à Ibi-village sur le plateau des Bateke en République Démocratique du Congo» dans le cadre du projet puits carbone d’IBI-Bateke. L’objectif général de notre recherche est d’étudier l’évolution naturelle en absence de feu de savanes situées dans des zones climatiques avec précipitations abondantes. Le plateau des Bateke nous a servi d’analyse de cas. Les inventaires floristiques et dendrométriques de la strate arbustive et arborescente de nos dispositifs hiérarchiques, ont permis de suivre ce processus naturel en tenant compte du gradient écologique dans les trois types de formations végétales (îlot forestier, la galerie forestière et la plantation d’Acacia auriculiformis). Nous avons mis en défens des savanes arbustives du plateau des Bateke pour étudier leur évolution naturelle vers une forêt, leur établissement, qualité, régénération forestière et en déterminer le taux de séquestration du carbone à l’aide des équations allométriques de Chave et al. (2005). Nous avons obtenu des valeurs moyennes de 107,477 t/ha de biomasse totale soit 51,05 Mg C/ha dans la galerie forestière, 103,772 t/ha de biomasse totale soit 49,29 Mg C/ha dans l’Îlot forestier, et 22,336 t/ha de biomasse totale soit 10,60 Mg C/ha dans la plantation. La mise en défens a stimulé l’installation des espèces forestières, et par le fait même accéléré la production de biomasse et donc la fixation de carbone. La comparaison de la richesse et la diversité spécifiques de l’Îlot et la galerie montre 22 familles botaniques inventoriées avec 55 espèces dans l’îlot forestier contre 27 familles dont 58 espèces dans la galerie. L’analyse canonique réalisée entre les variables de croissance et les variables environnementales révèle qu’il existe effectivement des relations fortes d’interdépendance entre les deux groupes de variables considérées. Cette méthodologie appropriée à la présente étude n’avait jamais été évoquée ni proposée par des études antérieures effectuées par d’autres chercheurs au plateau des Bateke. Mots Clés : Galerie forestière, Îlot forestier, mise en défens, plantation d’Acacia auriculiformis, reforestation, régénération naturelle, République Démocratique du Congo, savanes.
Resumo:
Depuis ces dernières décennies, le domaine des biomatériaux a connu un essor considérable, évoluant de simples prothèses aux dispositifs les plus complexes pouvant détenir une bioactivité spécifique. Outre, le progrès en science des matériaux et une meilleure compréhension des systèmes biologiques a offert la possibilité de créer des matériaux synthétiques pouvant moduler et stimuler une réponse biologique déterminée, tout en améliorant considérablement la performance clinique des biomatériaux. En ce qui concerne les dispositifs cardiovasculaires, divers recouvrements ont été développés et étudiés dans le but de modifier les propriétés de surface et d’améliorer l’efficacité clinique des tuteurs. En effet, lorsqu’un dispositif médical est implanté dans le corps humain, son succès clinique est fortement influencé par les premières interactions que sa surface établit avec les tissus et les fluides biologiques environnants. Le recouvrement à la surface de biomatériaux par diverses molécules ayant des propriétés complémentaires constitue une approche intéressante pour atteindre différentes cibles biologiques et orienter la réponse de l’hôte. De ce fait, l’élucidation de l’interaction entre les différentes molécules composant les recouvrements est pertinente pour prédire la conservation de leurs propriétés biologiques spécifiques. Dans ce travail, des recouvrements pour des applications cardiovasculaires ont été créés, composés de deux molécules ayant des propriétés biologiques complémentaires : la fibronectine (FN) afin de promouvoir l’endothélialisation et la phosphorylcholine (PRC) pour favoriser l’hémocompatibilité. Des techniques d’adsorption et de greffage ont été appliquées pour créer différents recouvrements de ces deux biomolécules sur un polymère fluorocarboné déposé par traitement plasma sur un substrat en acier inoxydable. Dans un premier temps, des films de polytétrafluoroéthylène (PTFE) ont été utilisés en tant que surface modèle afin d’explorer l’interaction de la PRC et de la FN avec les surfaces fluorocarbonées ainsi qu’avec des cellules endothéliales et du sang. La stabilité des recouvrements de FN sur l’acier inoxydable a été étudiée par déformation, mais également par des essais statiques et dynamiques sous-flux. Les recouvrements ont été caractérisés par Spectroscopie Photoéléctronique par Rayons X, immunomarquage, angle de contact, Microscopie Électronique de Balayage, Microscopie de Force Atomique et Spectrométrie de Masse à Ionisation Secondaire à Temps de Vol (imagerie et profilage en profondeur). Des tests d’hémocompatibilité ont été effectués et l’interaction des cellules endothéliales avec les recouvrements a également été évaluée. La FN greffée a présenté des recouvrements plus denses et homogènes alors que la PRC quant à elle, a montré une meilleure homogénéité lorsqu’elle était adsorbée. La caractérisation de la surface des échantillons contenant FN/PRC a été corrélée aux propriétés biologiques et les recouvrements pour lesquels la FN a été greffée suivie de l’adsorption de la PRC ont présenté les meilleurs résultats pour des applications cardiovasculaires : la promotion de l’endothélialisation et des propriétés d’hémocompatibilité. Concernant les tests de stabilité, les recouvrements de FN greffée ont présenté une plus grande stabilité et densité que dans le cas de l’adsorption. En effet, la pertinence de présenter des investigations des essais sous-flux versus des essais statiques ainsi que la comparaison des différentes stratégies pour créer des recouvrements a été mis en évidence. D’autres expériences sont nécessaires pour étudier la stabilité des recouvrements de PRC et de mieux prédire son interaction avec des tissus in vivo.
Resumo:
Les télescopes de grande envergure requièrent des nouvelles technologies ayant un haut niveau de maturité technologique. Le projet implique la création d’un banc de test d’optique adaptative pour l’évaluation de la performance sur le ciel de dispositifs connexes. Le banc a été intégré avec succès à l’observatoire du Mont Mégantic, et a été utilisé pour évaluer la performance d’un senseur pyramidal de front d’onde. Le système a permis la réduction effective de la fonction d’étalement du point d’un facteur deux. Plusieurs améliorations sont possibles pour augmenter la performance du système.
Resumo:
Les systèmes d’actionnement couramment utilisés sur les systèmes de robotiques mobiles tels que les exosquelettes ou les robots marcheurs sont majoritairement électriques. Les batteries couplées à des moteurs électriques souffrent toutefois d’une faible densité de stockage énergétique et une faible densité de puissance, ce qui limite l’autonomie de ces dispositifs pour une masse de système donnée. Une étude comparative des systèmes d’actionnement potentiels a permis de déterminer que l’utilisation d’une source d’énergie chimique permettait d’obtenir une densité de stockage énergétique supérieure aux batteries. De plus, il a été déterminé que l’utilisation de la combustion directement dans un actionneur pneumatique souple permettrait d’obtenir une densité de puissance beaucoup plus élevée que celle des moteurs électriques. La conception, la fabrication et la caractérisation de plusieurs types d’actionneurs pneumatiques pressurisés directement par la combustion d’une source d’énergie chimique ont permis d’évaluer la faisabilité de l’approche, dans un contexte de robotique mobile, plus précisément pour des tâches de locomotion. Les paramètres permettant d’obtenir une efficacité énergétique élevée ont été étudiés. Il a été démontré que le ratio de compression et le ratio d’expansion doivent être optimisés. De plus, comme les pertes thermiques sont le mécanisme de perte dominant, le ratio d’équivalence devrait être réduit au minimum. Parmi les carburants usuels, l’hydrogène permet d’atteindre les valeurs de ratio d’équivalence les plus faibles, ce qui en fait un choix de carburant idéal. Les résultats expérimentaux ont été utilisés pour corréler un modèle analytique d’un actionneur pneumatique à combustion. Ce modèle analytique est par la suite utilisé pour vérifier la faisabilité théorique de l’utilisation de l’approche d’actionnement pour fournir la puissance à un dispositif d’assistance à la locomotion.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
L’ingénierie des biomatériaux a connu un essor prodigieux ces dernières décennies passant de matériaux simples à des structures plus complexes, particulièrement dans le domaine cardiovasculaire. Cette évolution découle de la nécessité des biomatériaux de permettre la synergie de différentes propriétés, dépendantes de leurs fonctions, qui ne sont pas forcément toutes compatibles. Historiquement, les premiers matériaux utilisés dans la conception de dispositifs médicaux étaient ceux présentant le meilleur compromis entre les propriétés physico-chimiques, mécaniques et biologiques que nécessitait leur application. Cependant, il se peut qu’un tel dispositif possède les bonnes propriétés physico-chimiques ou mécaniques, mais que sa biocompatibilité soit insuffisante induisant ainsi des complications cliniques. Afin d’améliorer ces propriétés biologiques tout en conservant les propriétés de volume du matériau, une solution est d’en modifier la surface. L’utilisation d’un revêtement permet alors de moduler la réponse biologique à l’interface biomatériau-hôte et de diminuer les effets indésirables. Ces revêtements sont optimisés selon deux critères principaux : la réponse biologique et la réponse mécanique. Pour la réponse biologique, les deux approches principales sont de mettre au point des revêtements proactifs qui engendrent l’adhérence, la prolifération ou la migration cellulaire, ou passifs, qui, principalement, sont inertes et empêchent l’adhérence de composés biologiques. Dans certains cas, il est intéressant de pouvoir favoriser certaines cellules et d’en limiter d’autres, par exemple pour lutter contre la resténose, principalement due à la prolifération incontrôlée de cellules musculaires lisses qui conduit à une nouvelle obstruction de l’artère, suite à la pose d’un stent. La recherche sur les revêtements de stents vise, alors, à limiter la prolifération de ces cellules tout en facilitant la ré-endothélialisation, c’est-à-dire en permettant l’adhérence et la prolifération de cellules endothéliales. Dans d’autres cas, il est intéressant d’obtenir des surfaces limitant toute adhérence cellulaire, comme pour l’utilisation de cathéter. Selon leur fonction, les cathéters doivent empêcher l’adhérence cellulaire, en particulier celle des bactéries provoquant des infections, et être hémocompatibles, principalement dans le domaine vasculaire. Il a été démontré lors d’études précédentes qu’un copolymère à base de dextrane et de poly(méthacrylate de butyle) (PBMA) répondait aux problématiques liées à la resténose et qu’il possédait, de plus, une bonne élasticité, propriété mécanique importante due à la déformation que subit le stent lors de son déploiement. L’approche de ce projet était d’utiliser ce copolymère comme revêtement de stents et d’en améliorer l’adhérence à la surface en formant des liens covalents avec la surface. Pour ce faire, cela nécessitait l’activation de la partie dextrane du copolymère afin de pouvoir le greffer à la surface aminée. Il était important de vérifier pour chaque étape l’influence des modifications effectuées sur les propriétés biologiques et mécaniques des matériaux obtenus, mais aussi d’un point de vue de la chimie, l’influence que cette modification pouvait induire sur la réaction de copolymérisation. Dans un premier temps, seul le dextrane est considéré et est modifié par oxydation et carboxyméthylation puis greffé à des surfaces fluorocarbonées aminées. L’analyse physico-chimique des polymères de dextrane modifiés et de leur greffage permet de choisir une voie de modification préférentielle qui n’empêchera pas ultérieurement la copolymérisation. La carboxyméthylation permet ainsi d’obtenir un meilleur recouvrement de la surface tout en conservant la structure polysaccharidique du dextrane. Le greffage du dextrane carboxyméthylé (CMD) est ensuite optimisé selon différents degrés de modification, tenant compte aussi de l’influence que ces modifications peuvent induire sur les propriétés biologiques. Finalement, les CMD précédemment étudiés, avec des propriétés biologiques définies, sont copolymérisés avec des monomères de méthacrylate de butyle (BMA). Les copolymères ainsi obtenus ont été ensuite caractérisés par des analyses physico-chimiques, biologiques et mécaniques. Des essais préliminaires ont montrés que les films de copolymères étaient anti-adhérents vis-à-vis des cellules, ce qui a permis de trouver de nouvelles applications au projet. Les propriétés élastiques et anti-adhérentes présentées par les films de copolymères CMD-co-PBMA, les rendent particulièrement intéressants pour des applications comme revêtements de cathéters.
Resumo:
La sténose aortique est la cardiopathie valvulaire la plus fréquente retrouvée chez les patients agés. Suite à l’apparition des symptômes, la survie des patients diminue de façon drastique en l’absence d’un remplacement valvulaire aortique. Cependant, une proportion considérable de ces patients n’est pas opérée en raison d’un risque chirurgical élevé, l’âge étant l’une des principales raisons de refus d’un remplacement valvulaire aortique chirurgical. Ce défaut dans la prise en charge des ces patients a favorisé le développement du remplacement valvulaire aortique par cathéter où implantation valvulaire aortique par cathèter (TAVR ou TAVI), qui a représenté une révolution dans le traitement de la sténose aortique. Cette intervention est actuellement un traitement de routine chez les patients à haut risque chirurgical atteints d’une sténose aortique, même si la chirurgie cardiaque n’est pas contre-indiquée. Ces dernières années ont vu un changement de profil des candidats potentiels vers une population à plus faible risque. Cependant, plusieurs préoccupations demeurent. L’une des plus importantes est la survenue des arythmies et de troubles de conduction, notamment le bloc de branche gauche et le bloc auriculo-ventriculaire, qui sont des complications fréquemment associées au TAVR. Malgré l’évolution de la technologie et le développement de nouveaux dispositifs réduisant le taux global de complications, aucune amélioration n’a pas été intégrée pour prévenir l’apparition de telles complications. De plus, l’utilisation de certains dispositifs de nouvelle génération semble être associée à un risque accru de troubles de conduction, et par conséquent, l’incidence de ces complications pourrait augmenter dans le futur. Cependant, L’impact et l’évolution de ces complications sont inconnus. Ce travail de recherche évalue l’incidence et l’évolution des troubles de conduction suite au TAVR et l’impact des blocs de branche gauche de novo et de l’implantation d’un pacemaker sur les résultats cliniques et échocardiographiques.
Resumo:
Abstract: Highway bridges have great values in a country because in case of any natural disaster they may serve as lines to save people’s lives. Being vulnerable under significant seismic loads, different methods can be considered to design resistant highway bridges and rehabilitate the existing ones. In this study, base isolation has been considered as one efficient method in this regards which in some cases reduces significantly the seismic load effects on the structure. By reducing the ductility demand on the structure without a notable increase of strength, the structure is designed to remain elastic under seismic loads. The problem associated with the isolated bridges, especially with elastomeric bearings, can be their excessive displacements under service and seismic loads. This can defy the purpose of using elastomeric bearings for small to medium span typical bridges where expansion joints and clearances may result in significant increase of initial and maintenance cost. Thus, supplementing the structure with dampers with some stiffness can serve as a solution which in turn, however, may increase the structure base shear. The main objective of this thesis is to provide a simplified method for the evaluation of optimal parameters for dampers in isolated bridges. Firstly, performing a parametric study, some directions are given for the use of simple isolation devices such as elastomeric bearings to rehabilitate existing bridges with high importance. Parameters like geometry of the bridge, code provisions and the type of soil on which the structure is constructed have been introduced to a typical two span bridge. It is concluded that the stiffness of the substructure, soil type and special provisions in the code can determine the employment of base isolation for retrofitting of bridges. Secondly, based on the elastic response coefficient of isolated bridges, a simplified design method of dampers for seismically isolated regular highway bridges has been presented in this study. By setting objectives for reduction of displacement and base shear variation, the required stiffness and damping of a hysteretic damper can be determined. By modelling a typical two span bridge, numerical analyses have followed to verify the effectiveness of the method. The method has been used to identify equivalent linear parameters and subsequently, nonlinear parameters of hysteretic damper for various designated scenarios of displacement and base shear requirements. Comparison of the results of the nonlinear numerical model without damper and with damper has shown that the method is sufficiently accurate. Finally, an innovative and simple hysteretic steel damper was designed. Five specimens were fabricated from two steel grades and were tested accompanying a real scale elastomeric isolator in the structural laboratory of the Université de Sherbrooke. The test procedure was to characterize the specimens by cyclic displacement controlled tests and subsequently to test them by real-time dynamic substructuring (RTDS) method. The test results were then used to establish a numerical model of the system which went through nonlinear time history analyses under several earthquakes. The outcome of the experimental and numerical showed an acceptable conformity with the simplified method.
Resumo:
Les prescrits didactiques et le programme d’Histoire et éducation à la citoyenneté (Gouvernement du Québec, 2007) défendent actuellement des pratiques d’enseignement visant l’apprentissage de la pensée historique. Un apprentissage qui est défini comme une activité intellectuelle inscrite dans une démarche de résolution de problème, permettant de développer une compréhension plus approfondie des réalités sociales dans la perspective du temps (Martineau, 2010). Toutefois, les recherches indiquent que cet apprentissage serait variablement intégré aux pratiques effectives dans les classes d’histoire (Levstik, 2008), notamment au Québec (Boutonnet, 2013; Moisan, 2010). À cet égard, il semblerait y avoir un écart entre les finalités auxquelles les enseignants adhèrent et les situations d’enseignement-apprentissage qu’ils mettent en œuvre. Pour mettre en lumière cette variabilité, nous avons réalisé une recherche exploratoire visant à décrire les pratiques d’enseignement en histoire en troisième et en quatrième années du secondaire. À cette fin, nous avons eu recours aux théories des représentations sociales (Moscovici, 1976) et de l’attribution (Deschamps, 1996) permettant de recenser, dans le savoir commun des enseignants d’histoire, des éléments relatifs à l’apprentissage de la pensée historique. Ce savoir a été analysé en fonction de quatre types de variables : l’opinion, les dispositifs d’enseignement, les attributions et les attitudes individuelles à l’égard de l’apprentissage de la pensée historique. Les données ont été recueillies auprès d’un échantillon de convenance de huit enseignants, et elles ont été analysées dans le cadre d’une approche lexicométrique. La procédure de cueillette a consisté à réaliser quatre entrevues auprès de chacun de ces enseignants, lors des phases préactive et postactive de trois situations d’enseignement-apprentissage, pour identifier par la récurrence des discours des propriétés invariantes. Les données ont été interprétées en fonction de deux types de fondement théorique, relatifs aux théories de l’apprentissage, illustrant différentes manières d’apprendre à penser historiquement, et aux modèles de pratique, décrivant des dispositifs séquencés d’enseignement associés à cet apprentissage. De manière générale, les résultats révèlent la prédominance des théories de l’apprentissage de sens commun, socioconstructiviste et cognitivo-rationaliste, ainsi que des modèles de pratique fondés sur la conceptualisation et le tâtonnement empirique. Même si cette recherche ne peut être considérée représentative, elle a comme principale retombée scientifique de livrer une description de pratiques nuancée, exprimant différentes modulations de l’apprentissage de la pensée historique au niveau des pratiques. Cette recherche contribue à alimenter la réflexion auprès des chercheurs, des formateurs et des enseignants qui pourront mettre en perspective les pratiques actuelles relatives à un apprentissage des plus importants en histoire.
Resumo:
Résumé : Malgré le nombre croissant de capteurs dans les domaines de la chimie et la biologie, il reste encore à étudier en profondeur la complexité des interactions entre les différentes molécules présentes lors d’une détection à l’interface solide-liquide. Dans ce cadre, il est de tout intérêt de croiser différentes méthodes de détection afin d’obtenir des informations complémentaires. Le principal objectif de cette étude est de dimensionner, fabriquer et caractériser un détecteur optique intégré sur verre basé sur la résonance plasmonique de surface, destiné à terme à être combiné avec d’autres techniques de détection, dont un microcalorimètre. La résonance plasmonique de surface est une technique reconnue pour sa sensibilité adaptée à la détection de surface, qui a l’avantage d’être sans marquage et permet de fournir un suivi en temps réel de la cinétique d’une réaction. L’avantage principal de ce capteur est qu’il a été dimensionné pour une large gamme d’indice de réfraction de l’analyte, allant de 1,33 à 1,48. Ces valeurs correspondent à la plupart des entités biologiques associées à leurs couches d’accroche dont les matrices de polymères, présentés dans ce travail. Étant donné que beaucoup d’études biologiques nécessitent la comparaison de la mesure à une référence ou à une autre mesure, le second objectif du projet est d’étudier le potentiel du système SPR intégré sur verre pour la détection multi-analyte. Les trois premiers chapitres se concentrent sur l’objectif principal du projet. Le dimensionnement du dispositif est ainsi présenté, basé sur deux modélisations différentes, associées à plusieurs outils de calcul analytique et numérique. La première modélisation, basée sur l’approximation des interactions faibles, permet d’obtenir la plupart des informations nécessaires au dimensionnement du dispositif. La seconde modélisation, sans approximation, permet de valider le premier modèle approché et de compléter et affiner le dimensionnement. Le procédé de fabrication de la puce optique sur verre est ensuite décrit, ainsi que les instruments et protocoles de caractérisation. Un dispositif est obtenu présentant des sensibilités volumiques entre 1000 nm/RIU et 6000 nm/RIU suivant l’indice de réfraction de l’analyte. L’intégration 3D du guide grâce à son enterrage sélectif dans le verre confère au dispositif une grande compacité, le rendant adapté à la cointégration avec un microcalorimètre en particulier. Le dernier chapitre de la thèse présente l’étude de plusieurs techniques de multiplexage spectral adaptées à un système SPR intégré, exploitant en particulier la technologie sur verre. L’objectif est de fournir au moins deux détections simultanées. Dans ce cadre, plusieurs solutions sont proposées et les dispositifs associés sont dimensionnés, fabriqués et testés.
Resumo:
Cette recherche porte sur le thème de l’accompagnement du développement de l’identité professionnelle pour le nouveau personnel enseignant en techniques humaines. Plus précisément, nous voulons mesurer l’impact d’un projet novateur, soit la création d’un groupe de soutien en période d’insertion professionnelle. La problématique s’articule principalement autour du fait que, dans les trois techniques humaines ciblées, les nouveaux professeurs et professeures sont embauchés d’abord et avant tout pour leurs compétences disciplinaires. À leur arrivée au collégial, leur emploi est précaire et leurs tâches morcelées. Malgré le fait qu’ils débutent dans un état d’urgence, cette transition professionnelle semble être laissée pour compte ainsi que le soutien psychologique. Ce contexte, qui favorise l’isolement, influence parfois la motivation à s’engager dans leur deuxième carrière. Au cégep de Sainte-Foy, il n’existe pas de mentorat départemental ni d’accompagnement spécifique. Seul le programme d’accueil et d’intégration offre une série d’activités obligatoires. Le cadre de référence présente deux classifications des besoins du nouveau personnel enseignant au collégial au regard des travaux de Raymond (2001) et Caplan, Clough, Ellis et Muncey (2009). La recension des écrits nous a également permis de distinguer l’insertion, l’identité et le développement professionnels. Les différents dispositifs d’insertion pédagogique des nouveaux enseignants ont également fait l’objet d’une recherche documentaire. Ces assises théoriques ont guidé le choix du développement de notre groupe de soutien sous l’angle d’une communauté d’apprentissage favorisant l’interaction entre pairs. Cet essai poursuit trois objectifs : 1) concevoir le processus d’accompagnement et la trousse éducative pour le groupe de soutien, 2) valider le processus d’accompagnement et la trousse éducative auprès d’un groupe de nouveaux professeurs et professeures provenant des trois techniques humaines et 3) analyser le point de vue de professeurs et professeures par rapport au processus d’accompagnement et à la trousse éducative proposés. Nos objectifs de recherche nécessitaient une méthodologie appropriée. Celleci repose sur une approche méthodologique qualitative, une posture épistémologique interprétative et une recherche de type recherche développement. Dix participantes ont pris part au processus d’accompagnement proposé soit : des entrevues individuelles semi-dirigées et des rencontres de groupe. Les données ont été recueillies grâce à des entrevues semi-dirigées, des rencontres de groupe de discussion, des autoévaluations des participantes ainsi qu’un questionnaire d’évaluation finale. La triangulation des méthodes de collecte de données a été utilisée afin d’assurer la rigueur de nos travaux. L’analyse de contenu s’est faite par l’entremise du logiciel Transana qui a aidé à la transcription des enregistrements, au codage et à la production de rapports synthèse. La dimension éthique a été au coeur de nos préoccupations et nous avons d’ailleurs pris plusieurs précautions à cet effet. Les données obtenues nous ont permis de répondre à notre question de recherche en démontrant que la création du groupe de soutien a eu des retombées positives sur le nouveau personnel enseignant en techniques humaines. Ce nouveau dispositif d’accompagnement a permis de raffiner la classification des besoins de notre cadre de référence. Les catégories émergentes ont révélé des spécificités propres à la deuxième carrière. La formule du groupe de soutien telle que mise à l’essai a, pour sa part, été fortement appréciée des participantes autant pour son fonctionnement que pour son contenu. L’ensemble de ce processus a bonifié la représentation de l’identité professionnelle de Gohier et al. (2001). Les données obtenues nous ont également permis de valider notre cadre d’intervention et de dégager des éléments favorisant la transférabilité des résultats obtenus. Nous pensons d’ailleurs que le groupe de soutien constitue une avenue pertinente et essentielle au sein de la communauté collégiale.
Resumo:
Les courriels Spams (courriels indésirables ou pourriels) imposent des coûts annuels extrêmement lourds en termes de temps, d’espace de stockage et d’argent aux utilisateurs privés et aux entreprises. Afin de lutter efficacement contre le problème des spams, il ne suffit pas d’arrêter les messages de spam qui sont livrés à la boîte de réception de l’utilisateur. Il est obligatoire, soit d’essayer de trouver et de persécuter les spammeurs qui, généralement, se cachent derrière des réseaux complexes de dispositifs infectés, ou d’analyser le comportement des spammeurs afin de trouver des stratégies de défense appropriées. Cependant, une telle tâche est difficile en raison des techniques de camouflage, ce qui nécessite une analyse manuelle des spams corrélés pour trouver les spammeurs. Pour faciliter une telle analyse, qui doit être effectuée sur de grandes quantités des courriels non classés, nous proposons une méthodologie de regroupement catégorique, nommé CCTree, permettant de diviser un grand volume de spams en des campagnes, et ce, en se basant sur leur similarité structurale. Nous montrons l’efficacité et l’efficience de notre algorithme de clustering proposé par plusieurs expériences. Ensuite, une approche d’auto-apprentissage est proposée pour étiqueter les campagnes de spam en se basant sur le but des spammeur, par exemple, phishing. Les campagnes de spam marquées sont utilisées afin de former un classificateur, qui peut être appliqué dans la classification des nouveaux courriels de spam. En outre, les campagnes marquées, avec un ensemble de quatre autres critères de classement, sont ordonnées selon les priorités des enquêteurs. Finalement, une structure basée sur le semiring est proposée pour la représentation abstraite de CCTree. Le schéma abstrait de CCTree, nommé CCTree terme, est appliqué pour formaliser la parallélisation du CCTree. Grâce à un certain nombre d’analyses mathématiques et de résultats expérimentaux, nous montrons l’efficience et l’efficacité du cadre proposé.
Resumo:
L’augmentation exponentielle de la demande de bande passante pour les communications laisse présager une saturation prochaine de la capacité des réseaux de télécommunications qui devrait se matérialiser au cours de la prochaine décennie. En effet, la théorie de l’information prédit que les effets non linéaires dans les fibres monomodes limite la capacité de transmission de celles-ci et peu de gain à ce niveau peut être espéré des techniques traditionnelles de multiplexage développées et utilisées jusqu’à présent dans les systèmes à haut débit. La dimension spatiale du canal optique est proposée comme un nouveau degré de liberté qui peut être utilisé pour augmenter le nombre de canaux de transmission et, par conséquent, résoudre cette menace de «crise de capacité». Ainsi, inspirée par les techniques micro-ondes, la technique émergente appelée multiplexage spatial (SDM) est une technologie prometteuse pour la création de réseaux optiques de prochaine génération. Pour réaliser le SDM dans les liens de fibres optiques, il faut réexaminer tous les dispositifs intégrés, les équipements et les sous-systèmes. Parmi ces éléments, l’amplificateur optique SDM est critique, en particulier pour les systèmes de transmission pour les longues distances. En raison des excellentes caractéristiques de l’amplificateur à fibre dopée à l’erbium (EDFA) utilisé dans les systèmes actuels de pointe, l’EDFA est à nouveau un candidat de choix pour la mise en œuvre des amplificateurs SDM pratiques. Toutefois, étant donné que le SDM introduit une variation spatiale du champ dans le plan transversal de la fibre, les amplificateurs à fibre dopée à l’erbium spatialement intégrés (SIEDFA) nécessitent une conception soignée. Dans cette thèse, nous examinons tout d’abord les progrès récents du SDM, en particulier les amplificateurs optiques SDM. Ensuite, nous identifions et discutons les principaux enjeux des SIEDFA qui exigent un examen scientifique. Suite à cela, la théorie des EDFA est brièvement présentée et une modélisation numérique pouvant être utilisée pour simuler les SIEDFA est proposée. Sur la base d’un outil de simulation fait maison, nous proposons une nouvelle conception des profils de dopage annulaire des fibres à quelques-modes dopées à l’erbium (ED-FMF) et nous évaluons numériquement la performance d’un amplificateur à un étage, avec fibre à dopage annulaire, à ainsi qu’un amplificateur à double étage pour les communications sur des fibres ne comportant que quelques modes. Par la suite, nous concevons des fibres dopées à l’erbium avec une gaine annulaire et multi-cœurs (ED-MCF). Nous avons évalué numériquement le recouvrement de la pompe avec les multiples cœurs de ces amplificateurs. En plus de la conception, nous fabriquons et caractérisons une fibre multi-cœurs à quelques modes dopées à l’erbium. Nous réalisons la première démonstration des amplificateurs à fibre optique spatialement intégrés incorporant de telles fibres dopées. Enfin, nous présentons les conclusions ainsi que les perspectives de cette recherche. La recherche et le développement des SIEDFA offriront d’énormes avantages non seulement pour les systèmes de transmission future SDM, mais aussi pour les systèmes de transmission monomode sur des fibres standards à un cœur car ils permettent de remplacer plusieurs amplificateurs par un amplificateur intégré.