228 resultados para Protocole standardisé


Relevância:

60.00% 60.00%

Publicador:

Resumo:

La technique de clonage par transfert nucléaire de cellules somatiques (SCNT) présente une page importante dans les annales scientifiques, mais son application pratique demeure incertaine dû à son faible taux de succès. Les anomalies placentaires et de développement fœtal se traduisent par des pertes importantes de gestation et des mortalités néonatales. Dans un premier temps, la présente étude a caractérisé les changements morphologiques des membranes fœtales durant la gestation clonée en les comparant à des gestations contrôles obtenues à partir de l’insémination artificielle. Les différentes anomalies morphologiques des placentomes telles que l’œdème chorioallantoique, la présence de zones hyperéchoiques et irrégulières dans la membrane amniotique et la présence de cellules inflammatoires dégénérées compromettent le développement fœtal normal de la gestation clonée. L’examen ultrasonographique représente une technique diagnostique importante pour faire le suivi d’une gestation et de caractériser les changements placentaires dans le cadre d’évaluation globale du bien-être fœtal. Le profil hormonal de trois stéroïdes (progestérone (P4), estrone sulfate (E1S), et œstradiol (E2)) et de la protéine B spécifique de gestation (PSPB) dans le sérum des vaches porteuses de clones SCNT a été déterminé et associé aux anomalies de gestations clonées. Une diminution de la P4 sérique au jour 80, une élévation du niveau de la concentration de la PSPB au jour 150, et une augmentation de la concentration d’E2 sérique durant le deuxième et troisième tiers de la gestation clonée coïncident avec les anomalies de gestation déjà reportées. Ces changements du profil hormonal associés aux anomalies phénotypiques du placenta compromettent le déroulement normal de la gestation clonée et gênent le développement et le bien-être fœtal. Sur la base des observations faites sur le placenta de gestation clonée, le mécanisme moléculaire pouvant expliquer la disparition de l’épithélium du placenta (l’interface entre le tissue maternel et le placenta) a été étudié. L’étude a identifié des changements dans l’expression de deux protéines d’adhérence (E-cadhérin et β-catenin) de cellules épithéliales pouvant être associées aux anomalies du placenta chez les gestations clonées. Le tissu de cotylédons provenant de gestations clonées et contrôles a été analysé par Western blot, RT-PCR quantitatif, et par immunohistochimie. Les résultats présentaient une diminution significative (p<0.05) de l’expression des dites protéines dans les cellules trophoblastiques chez les gestations clonées. Le RT-PCR quantitatif démontrait que les gènes CCND1, CLDN1 et MSX1 ciblés par la voie de signalisation de la Wnt/β-catenin étaient significativement sous exprimés. La diminution de l’expression des protéines E-cadherin et β-catenin avec une réduction de l’activation de la protéine β-catenin durant le période d’attachement de l’embryon peut potentiellement expliquer l’absence totale ou partielle de l’attachement des membranes fœtales au tissu maternel et éventuellement, l’insuffisance placentaire caractéristique des gestations clonées chez la vache. La caractérisation morphologique et fonctionnelle du placenta durant les gestations clonées à haut risque est essentielle pour évaluer le statut de la gestation. Les résultats de la présente étude permettront de prédire le développement et le bien-être fœtal de façon critique à travers un protocole standardisé et permettre des interventions médicales pour améliorer le taux de succès des gestations clonées chez les bovins.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’évaluation des risques est une étape incontournable pour l’approbation d’un protocole de recherche impliquant des êtres humains. Toutefois, cette évaluation est très difficile et beaucoup de spécialistes croient que les sujets sont insuffisamment protégés contre les expériences éthiquement inacceptables. Il est possible que les difficultés rencontrées lors de cette évaluation proviennent d’une mauvaise définition du concept de « risque », cette définition ignorant certaines caractéristiques fondamentales du risque qui remettent en question sa nature quantifiable et prévisible. Dans cet article, nous allons examiner cette hypothèse à travers trois éléments-clés de l’évaluation éthique des projets de recherches : 1) la quantification du risque, 2) l’anticipation du risque, et 3) l’établissement d’un niveau de risque à partir duquel une expérience devient éthiquement inacceptable.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Depuis 2002, le débat sur les risques associés à la thérapie génique est initié suite à l’annonce que deux enfants inclus dans un essai thérapeutique impliquant une thérapie génique ont développé des effets indésirables important. En Janvier 2005, le débat sur les risques reprit suite à l’interruption du protocole sur les enfants bulle du Pr Fischer à l’hôpital Necker de Paris. Nous avons donc étudié le processus impliqué ainsi que la réflexion éthique associée aux décisions d’arrêt de protocole de recherche. Notre travail a été mené par une équipe pluridisciplinaire combinant chercheurs en santé, généticiens et éthiciens. Nous avons étudié la participation des chercheurs, des patients, des institutions officielles, des comités d’éthique ainsi que des associations de patients dans le processus de décision d’interruption d’un protocole de recherche.Nous avons également analysé les critères jugés les plus pertinents dans l’arrêt d’un protocole de recherche. Enfin nous avons analysé le point de vue des personnes directement impliquées dans la thérapie génique au moyen d’un questionnaire. Toutes les personnes contactées ont présenté un poster de recherche au congrès de la Société Européenne de Thérapie Génique. 62 personnes d’autant d’équipes de recherche différentes, de 17 pays, sur les 350 contactés ont répondu. Selon eux, la décision d’arrêt d’un protocole de recherche doit être prise suite à une consultation des chercheurs, des patients, du ministère de tutelle, d’une agence nationale de régulation ou d’un comité d’éthique ; la légitimité étant accordée à des décisions prises en commun par les chercheurs, les patients et les comités d’éthique. Les incidents sérieux et de façon plus surprenante, les incidents moins graves sont jugés comme étant des critères suffisants pour interrompre un essai. Nous avons fini par analyser les conséquences éthiques, telles que balance bénéfice/risque, processus de régulation ou responsabilité, de ces critères sur l’arrêt d’un protocole de recherche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La rapide progression des technologies sans fil au cours de ces dernières années a vu naître de nouveaux systèmes de communication dont les réseaux véhiculaires. Ces réseaux visent à intégrer les nouvelles technologies de l’information et de la communication dans le domaine automobile en vue d’améliorer la sécurité et le confort sur le réseau routier. Offrir un accès Internet aux véhicules et à leurs occupants peut sans doute aider à anticiper certains dangers sur la route tout en rendant plus agréables les déplacements à bord des véhicules. Le déploiement de ce service nécessite que des messages soient échangés entre les véhicules. Le routage constitue un élément crucial dans un réseau, car définissant la façon dont les différentes entités échangent des messages. Le routage dans les VANETS constitue un grand défi car ces derniers sont caractérisés par une forte mobilité entraînant une topologie très dynamique. Des protocoles ont été proposés pour étendre Internet aux réseaux véhiculaires. Toutefois, la plupart d’entre eux nécessitent un coût élevé de messages de contrôle pour l’établissement et le maintien des communications. Ceci a pour conséquence la saturation de la bande passante entrainant ainsi une baisse de performance du réseau. Nous proposons dans ce mémoire, un protocole de routage qui s’appuie sur des passerelles mobiles pour étendre Internet aux réseaux véhiculaires. Le protocole prend en compte la mobilité des véhicules et la charge du réseau pour l’établissement et le maintien des routes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La présente recherche est constituée de deux études. Dans l’étude 1, il s’agit d’améliorer la validité écologique des travaux sur la reconnaissance émotionnelle faciale (REF) en procédant à la validation de stimuli qui permettront d’étudier cette question en réalité virtuelle. L’étude 2 vise à documenter la relation entre le niveau de psychopathie et la performance à une tâche de REF au sein d’un échantillon de la population générale. Pour ce faire, nous avons créé des personnages virtuels animés de différentes origines ethniques exprimant les six émotions fondamentales à différents niveaux d’intensité. Les stimuli, sous forme statique et dynamique, ont été évalués par des étudiants universitaires. Les résultats de l’étude 1 indiquent que les stimuli virtuels, en plus de comporter plusieurs traits distinctifs, constituent un ensemble valide pour étudier la REF. L’étude 2 a permis de constater qu’un score plus élevé à l’échelle de psychopathie, spécifiquement à la facette de l’affect plat, est associé à une plus grande sensibilité aux expressions émotionnelles, particulièrement pour la tristesse. Inversement, un niveau élevé de tendances criminelles est, pour sa part, associé à une certaine insensibilité générale et à un déficit spécifique pour le dégoût. Ces résultats sont spécifiques aux participants masculins. Les données s’inscrivent dans une perspective évolutive de la psychopathie. L’étude met en évidence l’importance d’étudier l’influence respective des facettes de la personnalité psychopathique, ce même dans des populations non-cliniques. De plus, elle souligne la manifestation différentielle des tendances psychopathiques chez les hommes et chez les femmes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Jusqu'à récemment, les patients souffrant d'épilepsie réfractaire aux traitements médicamenteux étaient destinés à un avenir incertain. Le recours à la chirurgie comme traitement alternatif offre l'espoir de mener un jour une vie normale. Pour déterminer si un patient peut bénéficier d’une intervention chirurgicale, une évaluation complète est cruciale. Les méthodes d’évaluation préchirurgicale ont connu des progrès importants au cours des dernières décennies avec le perfectionnement des techniques d’imagerie cérébrale. Parmi ces techniques, la spectroscopie proche infrarouge (SPIR), aussi connue sous le nom d’imagerie optique, présente de nombreux avantages (coût, mobilité du participant, résolution spatiale et temporelle, etc.). L’objectif principal de cette étude est de développer un protocole d'évaluation préchirurgicale de la mémoire. Une tâche de mémoire verbale incluant l’encodage, le rappel immédiat et le rappel différé de listes de mots a été administrée à dix adultes sains lors d’un enregistrement en imagerie optique. Les résultats obtenus suggèrent l’activation bilatérale des aires préfrontales antérieures et dorsolatérales ainsi que des aires temporales antérieures et moyennes. Les aires préfrontales et temporales antérieures semblent modulées par les différents processus mnésiques et la position du rappel dans le temps. La première fois qu’une liste est rappelée, l’activité hémodynamique est plus élevée que lors des rappels subséquents, et ce, davantage dans l’hémisphère gauche que dans l’hémisphère droit. Cette étude constitue la première étape dans le processus de validation du protocole à des fins cliniques auprès de patients épileptiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les champignons mycorhizien à arbuscules (CMA) sont des organismes pouvant établir des symbioses avec 80% des plantes terrestres. Les avantages d'une telle symbiose sont de plus en plus caractérisés et exploités en agriculture. Par contre, jusqu'à maintenant, il n'existe aucun outil permettant à la fois l'identification et la quantification de ces champignons dans le sol de façon fiable et rapide. Un tel outil permettrait, entre autres, de mieux comprendre les dynamiques des populations des endomycorhizes dans le sol. Pour les producteurs d'inoculum mycorhiziens, cela permettrait également d'établir un suivi de leurs produits en champs et d'avoir un contrôle de qualité de plus sur leurs inoculants. C'est ce que nous avons tenté de développer au sein du laboratoire du Dr. Hijri. Depuis environ une trentaine d'années, des outils d'identification et/ou de quantification ont été développés en utilisant les profiles d'acides gras, les isozymes, les anticorps et finalement l'ADN nucléaire. À ce jour, ces méthodes d’identification et de quantification sont soit coûteuses, soit imprécises. Qui plus est, aucune méthode ne permet à la fois la quantification et l’identification de souches particulières de CMA. L’ADN mitochondrial ne présente pas le même polymorphisme de séquence que celui qui rend l’ADN nucléaire impropre à la quantification. C'est pourquoi nous avons analysé les séquences d’ADN mitochondrial et sélectionné les régions caractéristiques de deux espèces de champignons mycorhiziens arbusculaires (CMA). C’est à partir de ces régions que nous avons développé des marqueurs moléculaires sous forme de sondes et d’amorces TaqMan permettant de quantifier le nombre de mitochondries de chacune de ces espèces dans un échantillon d’ADN. Nous avons ensuite tenté de déterminer une unité de quantification des CMA, soit un nombre de mitochondries par spore. C’est alors que nous avons réalisé que la méthode de préparation des échantillons de spores ainsi que la méthode d’extraction d’ADN avaient des effets significatifs sur l’unité de quantification de base. Nous avons donc optimisé ces protocoles, avant d’en e tester l’application sur des échantillons de sol et de racines ayant été inoculés avec chacune des deux espèces cibles. À ce stade, cet outil est toujours semi-quantificatif, mais il permet 9 l’identification précise de deux espèces de CMA compétentes dans des milieux saturés en phosphore inorganique. Ces résultats , en plus d’être prometteurs, ont permis d’augmenter les connaissances méthodologiques reliées à la quantification des CMA dans le sol, et suggèrent qu’à cause de leurs morphologies différentes, l’élaboration d’un protocole de quantification standardisé pour toutes les espèces de CMA demeure un objectif complexe, qui demande de nouvelles études in vivo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de M. Sc. en Sciences Infirmières option infirmière clinicienne