11 resultados para mapping technique

em Université de Montréal, Canada


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les cartes sur ce document ont été toutes conçues par l'auteur avec la logiciel ARCGIS version 9.3.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La fibrillation auriculaire, l'arythmie la plus fréquente en clinique, affecte 2.3 millions de patients en Amérique du Nord. Pour en étudier les mécanismes et les thérapies potentielles, des modèles animaux de fibrillation auriculaire ont été développés. La cartographie électrique épicardique à haute densité est une technique expérimentale bien établie pour suivre in vivo l'activité des oreillettes en réponse à une stimulation électrique, à du remodelage, à des arythmies ou à une modulation du système nerveux autonome. Dans les régions qui ne sont pas accessibles par cartographie épicardique, la cartographie endocardique sans contact réalisée à l'aide d'un cathéter en forme de ballon pourrait apporter une description plus complète de l'activité auriculaire. Dans cette étude, une expérience chez le chien a été conçue et analysée. Une reconstruction électro-anatomique, une cartographie épicardique (103 électrodes), une cartographie endocardique sans contact (2048 électrodes virtuelles calculées à partir un cathéter en forme de ballon avec 64 canaux) et des enregistrements endocardiques avec contact direct ont été réalisés simultanément. Les systèmes d'enregistrement ont été également simulés dans un modèle mathématique d'une oreillette droite de chien. Dans les simulations et les expériences (après la suppression du nœud atrio-ventriculaire), des cartes d'activation ont été calculées pendant le rythme sinusal. La repolarisation a été évaluée en mesurant l'aire sous l'onde T auriculaire (ATa) qui est un marqueur de gradient de repolarisation. Les résultats montrent un coefficient de corrélation épicardique-endocardique de 0.8 (expérience) and 0.96 (simulation) entre les cartes d'activation, et un coefficient de corrélation de 0.57 (expérience) and 0.92 (simulation) entre les valeurs de ATa. La cartographie endocardique sans contact apparait comme un instrument expérimental utile pour extraire de l'information en dehors des régions couvertes par les plaques d'enregistrement épicardique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La cartographie peptidique est une technique de grande importance utilisée lors de l’identification des protéines et la caractérisation des modifications post-traductionnelles des protéines. Deux méthodes sont utilisées afin de couper les protéines en peptides pour la cartographie : les méthodes chimiques et les méthodes enzymatiques. Dans ce projet, l’enzyme chymotrypsine a été utilisée pour l’hydrolyse (la digestion) des liens peptidiques. Cependant, l’autoprotéolyse des enzymes peut augmenter la complexité des échantillons, rendant ainsi ardue l’obtention de pics résolus suite à l’apparition de pics non-désirés dans la carte peptidique. Par conséquent, nous avons utilisé la réticulation des enzymes protéolytiques par réaction avec le glutaraldéhyde (GA) donnant une enzyme insoluble afin de réduire l’autoprotéolyse. L’immobilisation de la chymotrypsine par GA a été effectuée selon une méthode rapportée précédemment par le groupe Waldron. L’électrophorèse capillaire (CE) couplée à l’absorption UV-visible a été utilisée pour la séparation et la détection de peptides et pour obtenir ainsi une cartographie peptidique. Deux tampons différents ont été évalués afin d’obtenir les meilleures conditions pour la digestion de substrats protéiques par la chymotrypsine libre (soluble) ou la GAchymotrypsine et l’analyse par CE. Les cartes des peptides autoprotéolytiques ont été comparées entre les deux formats de chymotrypsine. Afin d’améliorer la cartographie peptidique, nous avons évalué trois méthodes de conditionnement du capillaire CE et deux méthodes pour stopper la digestion. Le bicarbonate d’ammonium s’est avéré être le tampon optimal pour la digestion en solution et l’utilisation d’un bain d’acétone et de glace sèche s’est avérée être la méthode optimale pour stopper la digestion. Une solution de SDS, 25 mM, dans l’étape de rinçage a été utilisée après chaque analyse CE et a permis d’améliorer la résolution des cartes peptidiques. La comparaison entre l’autoprotéolyse de la chymotrypsine libre et de celle immobilisé par GA a été effectuée par des tests utilisant une gamme de six différentes combinaisons de conditions afin d’évaluer le temps (30 et 240 min) et la température de digestion (4, 24 et 37°C). Dans ces conditions, nos résultats ont confirmé que le GA-chymotrypsine réduit l’autoprotéolyse par rapport à l’enzyme libre. La digestion (à 37°C/240 min) de deux substrats modèles par la chymotrypsine libre et immobilisée en fonction de la température de dénaturation du substrat a été étudiée. iii Avant la digestion, les substrats (l’albumine de sérum bovine, BSA, et la myoglobine) ont été dénaturés par chauffage pendant 45 min à trois températures différentes (60, 75 et 90°C). Les résultats ont démontré que la dénaturation par chauffage du BSA et de la myoglobine n’a pas amélioré la cartographie peptidique pour la GA-chymotrypsine, tandis que la digestion de ceux-ci en présence de la chymotrypsine libre a amélioré de façon quantifiable à des températures élevées. Ainsi, le chauffage du substrat à 90°C avec l’enzyme soluble facilite le dépliement partiel du substrat et sa digestion limitée, ce qui a été mieux pour la myoglobine que pour la BSA.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce Texte Constitue un Survol des Differentes Approches Destines a Mesurer le Progres Technique. Nous Utilisons une Notation Uniforme Tout au Long des Demonstrations Mathematiques et Nous Faisons Ressortir les Hypotheses Qui Rendent L'application des Methodes Proposees Envisageable et Qui En Limitent la Portee. les Diverses Approches Sont Regroupees D'apres une Classification Suggeree Par Diewert (1981) Selon Laquelle Deux Groupes Sont a Distinguer. le Premier Groupe Contient Toutes les Methodes Definissant le Progres Technique Comme le Taux de Croissance D'un Indice des Outputs Divise Par un Indice des Inputs (Approche de Divisia). L'autre Groupe Inclut Toutes les Methodes Definissant le Progres Technique Comme Etant le Deplacement D'une Fonction Representant la Technologie (Production, Cout, Distance). Ce Second Groupe Est Subdivise Entre L'approche Econometrique,La Theorie des Nombres Indices et L 'Approche Non Parametrique. une Liste des Pricipaux Economistes a Qui L'on Doit les Diverses Approches Est Fournie. Cependant Ce Survol Est Suffisamment Detaille Pour Etre Lu Sans Se Referer aux Articles Originaux.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce rapport de recherche porte sur une étude s’intéressant au transfert des connaissances tacites chez les gestionnaires, c’est-à-dire le partage de ces connaissances et leur utilisation informelle, durant une situation de coordination dans un service municipal. La thèse est articulée autour des questions suivantes : Quelles sont les situations de coordination vécues par les gestionnaires municipaux? Quelles sont les sources de connaissances tacites partagées et utilisées? Quelles sont les relations de connaissances mobilisées de façon informelle lors du transfert des connaissances tacites? Quels sont les facteurs encourageant ou inhibant le transfert informel des connaissances tacites? À partir d’un modèle basé sur une approche situationnelle (Taylor, 1989 et 1991), nous avons revu la documentation touchant nos questions de recherche. Nous avons défini notamment la récursivité des connaissances et le réseau de connaissances, de même que présenté le modèle de la conversion des connaissances (Nonaka, 1994) et celui de l’actualisation de soi (St-Arnaud, 1996). Nous avons questionné 22 répondants à l’aide d’instruments de mesure qui combinent les techniques de l’incident critique, de l’entrevue cognitive et réflexive, le questionnement sur les réseaux organisationnels et l’observation participante. Tels des filets, ces instruments ont permis de traquer et d’obtenir des données d’une grande richesse sur les connaissances tacites et les comportements informels durant le transfert de connaissances en situation de coordination. Ces données ont été analysées selon une approche méthodologique essentiellement qualitative combinant l’analyse de contenu, la schématisation heuristique et l’analyse des réseaux sociaux. Nos résultats montrent que la complexité d’une situation de coordination conditionne le choix des mécanismes de coordination. De plus, les sources de connaissances sont, du point de vue individuel, le gestionnaire et ses artefacts, de même que son réseau personnel avec ses propres artefacts. Du point de vue collectif, ces sources sont réifiées dans le réseau de connaissances. Les connaissances clés d’une situation de coordination sont celles sur le réseau organisationnel, le contexte, les expériences en gestion et en situation complexe de coordination, la capacité de communiquer, de négocier, d’innover et celle d’attirer l’attention. Individuellement, les gestionnaires privilégient l’actualisation de soi, l’autoformation et la formation contextualisée et, collectivement, la coprésence dans l’action, le réseautage et l’accompagnement. Cette étude fournit un modèle valide du transfert contextualisé des connaissances qui est un cas de coordination complexe d’activités en gestion des connaissances. Ce transfert est concomitant à d’autres situations de coordination. La nature tacite des connaissances prévaut, de même que le mode informel, les médias personnels et les mécanismes d’ajustement mutuel. Les connaissances tacites sont principalement transférées au début des processus de gestion de projet et continuellement durant la rétroaction et le suivi des résultats. Quant aux connaissances explicites, les gestionnaires les utilisent principalement comme un symbole à la fin des processus de gestion de projet. Parmi les personnes et les groupes de personnes d’une situation de transfert contextualisé des connaissances, 10 % jouent des rôles clés, soit ceux d’experts et d’intermédiaires de personnes et d’artefacts. Les personnes en périphérie possèdent un potentiel de structuration, c’est-à-dire de connexité, pour assurer la continuité du réseau de connaissances organisationnel. Notre étude a élargi le modèle général de la complexité d’une situation (Bystrom, 1999; Choo, 2006; Taylor, 1986 et 1991), la théorie de la coordination (Malone et Crowston, 1994), le modèle de la conversion des connaissances (Nonaka, 1994), celui de l’actualisation de soi (St-Arnaud, 1996) et la théorie des réseaux de connaissances (Monge et Contractor, 2003). Notre modèle réaffirme la concomitance de ces modèles généraux selon une approche constructiviste (Giddens, 1987) où la dualité du structurel et la compétence des acteurs sont confirmées et enrichies.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rapport de recherche

Relevância:

20.00% 20.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de maîtrise en droit (LL.M.) option Droit, biotechnologies et société"

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les nanosciences et les nanotechnologies (NST) s’inscrivent dans un champ technoscientifique, le nanomonde, qui a pour socle l’hybridation autant conceptuelle que pratique entre le domaine de la nature et celui de la technique. Dans ce mémoire nous nous intéressons au basculement de la distinction entre le naturel et l’artificiel qui s’ensuit. Un retour socio-historique sur la construction du dualisme nature/artifice propre aux sociétés modernes nous aide alors à saisir les enjeux socio-culturels impliqués dans sa remise en question. La déconstruction, à travers la méthode d’analyse de discours, d’entretiens réalisés avec les principaux chercheurs en NST au Québec illustre empiriquement, tout en le systématisant, le double processus d’artificialisation de la nature et de naturalisation de la technique, pointé théoriquement comme caractéristique de la remise en cause de la distinction entre nature et artifice qu’opère le nanomonde. Nous suggérons que l’artificialisation de la nature et la naturalisation de la technique, loin d’être contradictoires, constituent des éléments d’une dynamique synergique dont le résultat est une désontologisation de la nature comme catégorie de la pensée et une déqualification du monde qui distingue l’activité humaine.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’intérêt marqué porté actuellement aux recherches NBIC (nano-bio-info-cognitivo technologies) visant l’optimisation des capacités humaines augure d’un profond bouleversement dans nos représentations du corps humain et du rapport humain-machine. Tour à tour, des travaux issus des domaines du génie génétique, de la pharmacologie, des biotechnologies ou des nanotechnologies nous promettent un corps moins sujet à la maladie, mieux « adapté » et surtout plus malléable. Cette construction en laboratoire d’un corps amélioré fait amplement écho aux préoccupations contemporaines concernant la santé parfaite, le processus de vieillissement, l’inaptitude, l’apparence, la performance, etc. En vue d’analyser les transformations qu’induisent ces recherches sur les représentations du corps, nous avons construit un modèle théorique appuyé, d’une part, sur des travaux en sociologie du corps et, d’autre part, sur des travaux en épistémologie des sciences. Puis, en scrutant différents textes de vulgarisation scientifique produits par des chercheurs transhumanistes – militant ouvertement en faveur d’une optimisation radicale des capacités humaines par le biais des technosciences –, il a été observé que les représentations du corps s’organisent autour de trois principaux noyaux. Le corps humain est présenté, dans ce discours, comme étant à la fois informationnel, technologiquement perfectible et obsolète. Cette représentation tripartite du corps permet aux transhumanistes d’ériger leur modèle d’action (i.e. amélioration des capacités physiques, intellectuelles, sensitives, émotionnelles, etc.) à titre de nécessité anthropologique. À leurs yeux, l’amélioration des conditions humaines doit passer par une mutation contrôlée de la biologie (i.e. une hybridation avec la machine) du fait que le corps serait « inadapté » au monde contemporain. Ainsi, les promesses NBIC, une fois récupérées par les chercheurs transhumanistes, se voient exacerbées et prennent une tonalité péremptoire. Ceci contribue vivement à la promotion du posthumain ou du cyborg, soit d’un individu transformé dans l’optique d’être plus robuste et intelligent, de moduler sa sensitivité et ses états émotifs et de vivre plus longtemps, voire indéfiniment. Enfin, situé à mi-chemin entre la science et la science-fiction, ce projet est qualifié de techno-prophétie en ce qu’il produit d’innombrables prévisions basées sur les avancées technoscientifiques actuelles et potentielles. Afin d’accroître l’acceptabilité sociale de leur modèle d’action, les transhumanistes ne font pas uniquement appel à la (potentielle) faisabilité technique; ils s’appuient également sur des valeurs socialement partagées, telles que l’autodétermination, la perfectibilité humaine, l’égalité, la liberté ou la dignité. Néanmoins, la lecture qu’ils en font est parfois surprenante et rompt très souvent avec les conceptions issues de la modernité. À leur avis, le perfectionnement humain doit s’opérer par le biais des technosciences (non des institutions sociales), sur le corps même des individus (non sur l’environnement) et en vertu de leur « droit » à l’autodétermination compris comme un droit individuel d’optimiser ses capacités. De même, les technosciences doivent, disent-ils, être démocratisées afin d’en garantir l’accessibilité, de réduire les inégalités biologiques et de permettre à chacun de renforcer son sentiment d’identité et d’accomplissement. L’analyse du discours transhumaniste nous a donc permis d’observer leurs représentations du corps de même que la résonance culturelle du projet qu’ils proposent.