285 resultados para Laminated tapes


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le 29 juillet 1994, Megan Kanka, une jeune fille de sept ans de la municipalité de Hamilton au New Jersey, est enlevée, agressée sexuellement et tuée par ce qui se révélera être son voisin d’en face, Jesse Timmendequas. À l’époque, l’assaillant de Megan avait déjà fait l’objet de deux condamnations pour agression sexuelle. Suite à cette tragédie, les parents de Megan luttèrent pour la création d’une loi qui révélerait automatiquement au public l’identité et le lieu de résidence des délinquants sexuels. Moins de trois mois plus tard, la « Loi de Megan » était ratifiée. Ainsi un répertoire étatique centralisé de délinquants sexuels en partie disponible au public fut créé. Notre étude se centre sur ce cas et tente de comprendre comment une construction particulière de la délinquance sexuelle comme problème social mena à la réponse pénale spécifique qu’était la Loi de Megan. Pour ce faire, nous analysons les discours et argumentaires politiques en lien avec l’affaire. Huit entretiens avec différents acteurs impliqués dans le débat politique menant à la création de la loi de Megan furent effectués. Une analyse de plus de 150 articles de journaux et de quelques projets et textes de lois fut également effectuée. Nos résultats soulignent d’abord le rôle primordial qu’avait le contexte sociopolitique autant sur la construction du problème social de la délinquance sexuelle que sur la solution qui lui était liée. L’analyse du cas nous indique également que la dyade problème-solution s’élabora en conjonction, dans un cadre temporel uniforme, dont les seules étapes détectables sont celles du narratif de la mort de Megan et de l’élaboration concrète de la loi. En d’autres mots, la mort de Megan ne constituait qu’un point focal qui permit à des acteurs de mettre en pratique des concepts déjà largement partagés. L’étude conclue en liant le contexte sociopolitique du Canada à celui retrouvé dans notre étude de cas et suggère qu’une construction similaire de la délinquance sexuelle comme problème peut facilement être envisageable chez nous. Si personne ne souhaite l’occurrence d’une situation comparable à celle vécue par Megan Kanka et sa famille, cet élément nous apparaît comme étant celui qui propulserait réellement cette construction sur la place publique, à condition bien évidemment qu’une personne ou un groupe de personnes en fassent une question à débattre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les toxines de l’anthrax font partie de la famille des toxines A-B dans laquelle la moitié B se fixe à la membrane de la cellule permettant par la suite la translocation de la moitié A. Dans le cas de l’anthrax, la moitié B est représentée par le Protective Antigen (PA) et la moitié A par les deux protéines Edema Factor (EF) et Lethal Factor (LF). Après le recrutement par les récepteurs cellulaires (CMG2 et TEM8), PA s’organise en heptamère. Il peut fixer jusqu'à 3 ligands (EF et LF) avant d'être endocyté. Les modèles actuels de PA suggèrent que la baisse de pH à l’intérieur des endosomes permet un changement de conformation de la forme pré-pore vers la forme pore et que les ligands EF et LF passeraient au travers le pore pour entrer dans le cytoplasme. Cependant, le diamètre du pore est environ dix fois inférieur à celui des ligands (10 Å contre 100 Å). Un processus de folding/unfolding a été proposé mais demeure controversé. Afin d'identifier le processus de passage des facteurs EF et LF dans le cytoplasme, nous avons déterminé par cryo-microscopie électronique combinée avec l’analyse d’image les structures tridimensionnelles des complexes formés par PA et LF aux étapes prépore et pore. Par la suite, une étude complémentaire par dynamique moléculaire nous a permis de modéliser à haute résolution les différentes interactions qui ont lieu au sein du complexe. La structure 3D du complexe prépore combiné à 3 LF a été déterminée à une résolution de 14 Å. Nous avons aussi calculé une structure préliminaire du complexe pore également combiné à 3 LF Celles-ci n’ont jamais été résolues auparavant et leur connaissance permet d’envisager l’étude en profondeur du mécanisme infectieux de l’Anthrax in vivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La spectroscopie Raman est un outil non destructif fort utile lors de la caractérisation de matériau. Cette technique consiste essentiellement à faire l’analyse de la diffusion inélastique de lumière par un matériau. Les performances d’un système de spectroscopie Raman proviennent en majeure partie de deux filtres ; l’un pour purifier la raie incidente (habituellement un laser) et l’autre pour atténuer la raie élastique du faisceau de signal. En spectroscopie Raman résonante (SRR), l’énergie (la longueur d’onde) d’excitation est accordée de façon à être voisine d’une transition électronique permise dans le matériau à l’étude. La section efficace d’un processus Raman peut alors être augmentée d’un facteur allant jusqu’à 106. La technologie actuelle est limitée au niveau des filtres accordables en longueur d’onde. La SRR est donc une technique complexe et pour l’instant fastidieuse à mettre en œuvre. Ce mémoire présente la conception et la construction d’un système de spectroscopie Raman accordable en longueur d’onde basé sur des filtres à réseaux de Bragg en volume. Ce système vise une utilisation dans le proche infrarouge afin d’étudier les résonances de nanotubes de carbone. Les étapes menant à la mise en fonction du système sont décrites. Elles couvrent les aspects de conceptualisation, de fabrication, de caractérisation ainsi que de l’optimisation du système. Ce projet fut réalisé en étroite collaboration avec une petite entreprise d’ici, Photon etc. De cette coopération sont nés les filtres accordables permettant avec facilité de changer la longueur d’onde d’excitation. Ces filtres ont été combinés à un laser titane : saphir accordable de 700 à 1100 nm, à un microscope «maison» ainsi qu’à un système de détection utilisant une caméra CCD et un spectromètre à réseau. Sont d’abord présentés les aspects théoriques entourant la SRR. Par la suite, les nanotubes de carbone (NTC) sont décrits et utilisés pour montrer la pertinence d’une telle technique. Ensuite, le principe de fonctionnement des filtres est décrit pour être suivi de l’article où sont parus les principaux résultats de ce travail. On y trouvera entre autres la caractérisation optique des filtres. Les limites de basses fréquences du système sont démontrées en effectuant des mesures sur un échantillon de soufre dont la raie à 27 cm-1 est clairement résolue. La simplicité d’accordabilité est quant à elle démontrée par l’utilisation d’un échantillon de NTC en poudre. En variant la longueur d’onde (l’énergie d’excitation), différentes chiralités sont observées et par le fait même, différentes raies sont présentes dans les spectres. Finalement, des précisions sur l’alignement, l’optimisation et l’opération du système sont décrites. La faible acceptance angulaire est l’inconvénient majeur de l’utilisation de ce type de filtre. Elle se répercute en problème d’atténuation ce qui est critique plus particulièrement pour le filtre coupe-bande. Des améliorations possibles face à cette limitation sont étudiées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pour Simone Weil, le malheur est « quelque chose de spécifique, irréductible à toute autre chose, comme les sons, dont rien ne peut donner aucune idée à un sourd-muet ». Il s’apparente à un sacrement, à un rite sacré susceptible de rapprocher l’homme du divin. Et si la pensée weilienne se révèle non-conformiste pour aborder la figure du malheur, c’est parce qu’elle ne se limite pas à une tradition unique, mais trouve écho tant dans la religion chrétienne et le Nouveau Testament que dans la philosophie grecque de l’antiquité – principalement le stoïcisme et le platonisme – et dans certains textes orientaux tels que la Bhagavad-Gîtâ et le Tao Te King. Par un singulier amalgame de ces influences, Weil donne naissance à une méthode spirituelle dont une des étapes fondamentales est le malheur, thème très fécond pour dénouer et affronter le dialogue entre spiritualité et contemporanéité. Parce que cette méthode ne peut pleinement être appréhendée que sur la frontière de l’athéisme et de la croyance religieuse, approfondir ses implications permet d’interroger les traces du sacré dans les civilisations occidentales. Retracer les étapes de son développement permet également de sonder le rapport qu’entretiennent les hommes avec le malheur, ainsi que de porter un regard sensible sur une époque où l’actualité fait souvent état des malheureux alors que le malheur d’autrui semble être une réalité à fuir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La phagocytose est un processus cellulaire par lequel de larges particules sont internalisées dans une vésicule, le phagosome. Lorsque formé, le phagosome acquiert ses propriétés fonctionnelles à travers un processus complexe de maturation nommé la biogénèse du phagolysosome. Cette voie implique une série d’interactions rapides avec les organelles de l’appareil endocytaire permettant la transformation graduelle du phagosome nouvellement formé en phagolysosome à partir duquel la dégradation protéolytique s’effectue. Chez l’amibe Dictyostelium discoideum, la phagocytose est employée pour ingérer les bactéries de son environnement afin de se nourrir alors que les organismes multicellulaires utilisent la phagocytose dans un but immunitaire, où des cellules spécialisées nommées phagocytes internalisent, tuent et dégradent les pathogènes envahissant de l’organisme et constitue la base de l’immunité innée. Chez les vertébrés à mâchoire cependant, la transformation des mécanismes moléculaires du phagosome en une organelle perfectionnée pour l’apprêtement et la présentation de peptides antigéniques place cette organelle au centre de l’immunité innée et de l’immunité acquise. Malgré le rôle crucial auquel participe cette organelle dans la réponse immunitaire, il existe peu de détails sur la composition protéique et l’organisation fonctionnelles du phagosome. Afin d’approfondir notre compréhension des divers aspects qui relient l’immunité innée et l’immunité acquise, il devient essentiel d’élargir nos connaissances sur les fonctions moléculaire qui sont recrutées au phagosome. Le profilage par protéomique à haut débit de phagosomes isolés fut extrêmement utile dans la détermination de la composition moléculaire de cette organelle. Des études provenant de notre laboratoire ont révélé les premières listes protéiques identifiées à partir de phagosomes murins sans toutefois déterminer le ou les rôle(s) de ces protéines lors du processus de la phagocytose (Brunet et al, 2003; Garin et al, 2001). Au cours de la première étude de cette thèse (Stuart et al, 2007), nous avons entrepris la caractérisation fonctionnelle du protéome entier du phagosome de la drosophile en combinant diverses techniques d’analyses à haut débit (protéomique, réseaux d’intéractions protéique et ARN interférent). En utilisant cette stratégie, nous avons identifié 617 protéines phagosomales par spectrométrie de masse à partir desquelles nous avons accru cette liste en construisant des réseaux d’interactions protéine-protéine. La contribution de chaque protéine à l’internalisation de bactéries fut ensuite testée et validée par ARN interférent à haut débit et nous a amené à identifier un nouveau régulateur de la phagocytose, le complexe de l’exocyst. En appliquant ce modèle combinatoire de biologie systémique, nous démontrons la puissance et l’efficacité de cette approche dans l’étude de processus cellulaire complexe tout en créant un cadre à partir duquel il est possible d’approfondir nos connaissances sur les différents mécanismes de la phagocytose. Lors du 2e article de cette thèse (Boulais et al, 2010), nous avons entrepris la caractérisation moléculaire des étapes évolutives ayant contribué au remodelage des propriétés fonctionnelles de la phagocytose au cours de l’évolution. Pour ce faire, nous avons isolé des phagosomes à partir de trois organismes distants (l’amibe Dictyostelium discoideum, la mouche à fruit Drosophila melanogaster et la souris Mus musculus) qui utilisent la phagocytose à des fins différentes. En appliquant une approche protéomique à grande échelle pour identifier et comparer le protéome et phosphoprotéome des phagosomes de ces trois espèces, nous avons identifié un cœur protéique commun à partir duquel les fonctions immunitaires du phagosome se seraient développées. Au cours de ce développement fonctionnel, nos données indiquent que le protéome du phagosome fut largement remodelé lors de deux périodes de duplication de gènes coïncidant avec l’émergence de l’immunité innée et acquise. De plus, notre étude a aussi caractérisée en détail l’acquisition de nouvelles protéines ainsi que le remodelage significatif du phosphoprotéome du phagosome au niveau des constituants du cœur protéique ancien de cette organelle. Nous présentons donc la première étude approfondie des changements qui ont engendré la transformation d’un compartiment phagotrophe à une organelle entièrement apte pour la présentation antigénique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En octobre 2005, l’assemblée générale de l’UNESCO adoptait la Déclaration universelle sur la bioéthique et les droits de l’Homme. Le projet de cette déclaration a été élaboré par le Comité international de bioéthique (CIB) en consultation avec le Comité intergouvernemental de bioéthique (CIGB), les États membres, le comité interagences des Nations Unies, des organisations gouvernementales et non gouvernementales, des comités nationaux d’éthiques et de multiples acteurs impliqués en bioéthique. Cette déclaration faisait suite à deux autres textes sur le même sujet produits en 1997 et 2003, la Déclaration sur le génome humain et les droits de l’homme et la Déclaration internationale sur les données génétiques humaines. Les nouvelles questions éthiques que suscitaient les développements scientifiques et technologiques ainsi que la mondialisation de la recherche avaient incité cette organisation à se doter d’instruments normatifs pouvant rejoindre toutes les nations. Seule organisation mondiale ayant une vocation spécifique en éthique, l’UNESCO a voulu par cette dernière déclaration fournir à ses États membres un cadre normatif susceptible de les aider à formuler des lois et des lignes directrices. Ayant été impliquée, à titre de présidente du Comité international de bioéthique dans la préparation de cet instrument nous nous sommes posée la question suivante : Dans un contexte de mondialisation, une bioéthique qui vise le bien commun universel est-elle possible au sein de la diversité et de la pluralité culturelle des nations ? L’exemple de l’élaboration de la déclaration universelle sur la bioéthique et les droits de l’homme de l’UNESCO. Le bien commun étant un concept fréquemment mentionné et à peu près jamais défini clairement, il nous a semblé intéressant d’en retracer l’histoire et de dégager un cadre conceptuel qui a ensuite servi à étudier et dégager le sens donné à ces concepts dans la préparation de la déclaration. Un premier chapitre présente le contexte et la problématique. Le deuxième chapitre présente la revue de la littérature et la définition des concepts ainsi que le cadre conceptuel. Le troisième chapitre présente le cadre théorique et les données analysées et la méthodologie. Le quatrième chapitre présente l’analyse détaillée des différentes étapes de l’élaboration de la déclaration. Le cinquième chapitre présente la portée et les limites de la thèse et le cinquième chapitre la conclusion. Nous concluons que la déclaration en ayant utilisé une méthode de consultation, de délibération et de consensus pragmatique, offre un texte avec une vision d’un bien commun universel susceptible d’être utilisé dans tous les contextes culturels et par toutes les nations, spécialement les nations en développement. En effet, son architecture flexible et son souci de ne pas catégoriser les principes, mais plutôt de les utiliser en complémentarité les uns avec les autres, en fait un texte souple et adaptable au plan mondial. Ce travail pourra aussi contribuer à enrichir la réflexion et l’action des organisations internationales impliquées en bioéthique. Il pourra aussi inspirer les recherches actuelles en sciences politiques et en droit alors que sont explorés de nouveaux modèles de gouvernance et de nouvelles façons de construire les législations et les normes et de faire face aux défis actuels qui se posent aux droits de l’homme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement du système nerveux central (SNC) chez les vertébrés est un processus d'une extrême complexité qui nécessite une orchestration moléculaire très précise. Certains gènes exprimés très tôt lors du développement embryonnaire sont d'une importance capitale pour la formation du SNC. Parmi ces gènes, on retrouve le facteur de transcription à Lim homéodomaine Lhx2. Les embryons de souris mutants pour Lhx2 (Lhx2-/-) souffre d'une hypoplasie du cortex cérébral, sont anophtalmiques et ont un foie de volume réduit. Ces embryons mutants meurent in utero au jour embryonnaire 16 (e16) dû à une déficience en érythrocytes matures. L'objectif principal de cette thèse est de caractériser le rôle moléculaire de Lhx2 dans le développement des yeux et du cortex cérébral. Lhx2 fait partie des facteurs de transcription à homéodomaine exprimé dans la portion antérieure de la plaque neurale avec Rx, Pax6, Six3. Le développement de l'oeil débute par une évagination bilatérale de cette région. Nous démontrons que l'expression de Lhx2 est cruciale pour les premières étapes de la formation de l'oeil. En effet, en absence de Lhx2, l'expression de Rx, Six3 et Pax6 est retardée dans la plaque neurale antérieure. Au stade de la formation de la vésicule optique, l'absence de Lhx2 empêche l'activation de Six6 (un facteur de transcription également essentiel au développement de l'œil). Nous démontrons que Lhx2 et Pax6 coopèrent en s'associant au promoteur de Six6 afin de promouvoir sa trans-activation. Donc, Lhx2 est un gène essentiel pour la détermination de l'identité rétinienne au niveau de la plaque neurale. Plus tard, il collabore avec Pax6 pour établir l'identité rétinienne définitive et promouvoir la prolifération cellulaire. De plus, Lhx2 est fortement exprimé dans le télencéphale, région qui donnera naissance au cortex cérébral. L'absence de Lhx2 entraîne une diminution de la prolifération des cellules progénitrices neurales dans cette région à e12.5. Nous démontrons qu'en absence de Lhx2, les cellules progénitrices neurales (cellules de glie radiale) se différencient prématurément en cellules progénitrices intermédiaires et en neurones post-mitotiques. Ces phénotypes sont corrélés à une baisse d'activité de la voie Notch. En absence de Lhx2, DNER (un ligand atypique de la voie Notch) est fortement surexprimé dans le télencéphale. De plus, Lhx2 et des co-répresseurs s'associent à la chromatine de la région promotrice de DNER. Nous concluons que Lhx2 permet l'activation de la voie Notch dans le cortex cérébral en développement en inhibant la transcription de DNER, qui est un inhibiteur de la voie Notch dans ce contexte particulier. Lhx2 permet ainsi la maintenance et la prolifération des cellules progénitrices neurales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La stratégie de la tectonique moléculaire a montré durant ces dernières années son utilité dans la construction de nouveaux matériaux. Elle repose sur l’auto-assemblage spontané de molécule dite intelligente appelée tecton. Ces molécules possèdent l’habilité de se reconnaitre entre elles en utilisant diverses interactions intermoléculaires. L'assemblage résultant peut donner lieu à des matériaux moléculaires avec une organisation prévisible. Cette stratégie exige la création de nouveaux tectons, qui sont parfois difficiles à synthétiser et nécessitent dans la plupart des cas de nombreuses étapes de synthèse, ce qui empêche ou limite leur mise en application pratique. De plus, une fois formées, les liaisons unissant le corps central du tecton avec ces groupements de reconnaissance moléculaire ne peuvent plus être rompues, ce qui ne permet pas de remodeler le tecton par une procédure synthétique simple. Afin de contourner ces obstacles, nous proposons d’utiliser une stratégie hybride qui se sert de la coordination métallique pour construire le corps central du tecton, combinée avec l'utilisation des interactions plus faibles pour contrôler l'association. Nous appelons une telle entité métallotecton du fait de la présence du métal. Pour explorer cette stratégie, nous avons construit une série de ligands ditopiques comportant soit une pyridine, une bipyridine ou une phénantroline pour favoriser la coordination métallique, substitués avec des groupements diaminotriazinyles (DAT) pour permettre aux complexes de s'associer par la formation de ponts hydrogène. En plus de la possibilité de créer des métallotectons par coordination, ces ligands ditopiques ont un intérêt intrinsèque en chimie supramoléculaire en tant qu'entités pouvant s'associer en 3D et en 2D. En parallèle à notre étude de la chimie de coordination, nous avons ii examiné l'association des ligands, ainsi que celle des analogues, par la diffraction des rayons-X (XRD) et par la microscopie de balayage à effet tunnel (STM). L'adsorption de ces molécules sur la surface de graphite à l’interface liquide-solide donne lieu à la formation de différents réseaux 2D par un phénomène de nanopatterning. Pour comprendre les détails de l'adsorption moléculaire, nous avons systématiquement comparé l’organisation observée en 2D par STM avec celle favorisée dans les structures 3D déterminées par XRD. Nous avons également simulé l'adsorption par des calculs théoriques. Cette approche intégrée est indispensable pour bien caractériser l’organisation moléculaire en 2D et pour bien comprendre l'origine des préférences observées. Ces études des ligands eux-mêmes pourront donc servir de référence lorsque nous étudierons l'association des métallotectons dérivés des ligands par coordination. Notre travail a démontré que la stratégie combinant la chimie de coordination et la reconnaissance moléculaire est une méthode de construction rapide et efficace pour créer des réseaux supramoléculaires. Nous avons vérifié que la stratégie de la tectonique moléculaire est également efficace pour diriger l'organisation en 3D et en 2D, qui montre souvent une homologie importante. Nous avons trouvé que nos ligands hétérocycliques ont une aptitude inattendue à s’adsorber fortement sur la surface de graphite, créant ainsi des réseaux organisés à l'échelle du nanomètre. L’ensemble de ces résultats promet d’offrir des applications dans plusieurs domaines, dont la catalyse hétérogène et la nanotechnologie. Mots clés : tectonique moléculaire, interactions intermoléculaires, stratégie hybride, coordination métallique, diffraction des rayons-X, microscopie de balayage à effet tunnel, graphite, phénomène de nanopatterning, calculs théoriques, ponts hydrogène, chimie supramoléculaire, ligands hétérocycliques, groupements DAT, catalyse hétérogène, nanotechnologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude intitulée « utilisation des technologies de l’information et de la communication dans l’enseignement secondaire et développement des compétences des élèves en résolution de problèmes mathématiques au Burkina Faso » est une recherche descriptive de type mixte examinant à la fois des données qualitatives et quantitatives. Elle examine les compétences en résolution de problèmes mathématiques d’élèves du Burkina Faso pour révéler d’éventuelles relations entre celles-ci et l’utilisation des TIC par les élèves ou leur enseignant de mathématiques. L’intérêt de cette recherche est de fournir des informations aussi bien sur la réalité des TIC dans l’enseignement secondaire au Burkina que sur les effets de leur présence dans l’enseignement et l’apprentissage des mathématiques. Les éléments théoriques ayant servi à l’analyse des données sont présentés suivant trois directions : la résolution des problèmes, le développement des compétences, et les relations entre les TIC, le développement de compétences et la résolution de problèmes. Du croisement de ces éléments émergent trois axes pour le développement de la réponse apportée à la préoccupation de l’étude : 1) décrire l’utilisation de l’ordinateur par les élèves du Burkina Faso pour améliorer leur apprentissage des mathématiques ; 2) identifier des rapports éventuels entre l’utilisation de l’ordinateur par les élèves et leurs compétences en résolution de problèmes mathématiques ; 3) identifier des rapports entre les compétences TIC de l’enseignant de mathématiques et les compétences de ses élèves en résolution de problèmes. Les processus de la résolution de problèmes sont présentés selon l’approche gestaltiste qui les fait passer par une illumination et selon l’approche de la théorie de la communication qui les lie au type de problème. La résolution de problèmes mathématiques passe par des étapes caractéristiques qui déterminent la compétence du sujet. Le concept de compétence est présenté selon l’approche de Le Boterf. Les données révèlent que les élèves du Burkina Faso utilisent l’ordinateur selon une logique transmissive en le considérant comme un répétiteur suppléant de l’enseignant. Par la suite, il n’y a pas de différence significative dans les compétences en résolution de problèmes mathématiques entre les élèves utilisant l’ordinateur et ceux qui ne l’utilisent pas. De même, l’étude révèle que les enseignants présentant des compétences TIC n’ont pas des élèves plus compétents en résolution de problèmes mathématiques que ceux de leurs collègues qui n’ont pas de compétences TIC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Québec, des réseaux ont été implantés afin de contrer le manque d’intégration des services offerts aux personnes vivant avec un traumatisme cranio-cérébral (TCC). Toutefois, l’évaluation de leur performance est actuellement limitée par l’absence de description et de conceptualisation de leur performance. Le but de cette thèse est de poser les bases préliminaires d’un processus d’évaluation de la performance des réseaux TCC. Nos objectifs sont de 1) décrire les organisations, la nature et la qualité des liens ainsi que la configuration d’un réseau TCC; 2) connaître les perceptions des constituants du réseau quant aux forces, faiblesses, opportunités et menaces propres à cette forme organisationnelle; 3) documenter et comparer les perceptions de répondants provenant de divers types d’organisations quant à l’importance de 16 dimensions du concept de performance pour l’évaluation des réseaux TCC; 4) réconcilier les perceptions différentes afin de proposer une hiérarchisation consensuelle des dimensions de la performance. En utilisant la méthode de l’analyse du réseau social, nous avons décrit un réseau de petite taille, modérément dense et essentiellement organisé autour de quatre organisations fortement centralisées. Les constituants ont décrit leur réseau comme présentant autant de forces que de faiblesses. La majorité des enjeux rapportés étaient relatifs à l’Adaptation du réseau à son environnement et au Maintien des Valeurs. Par ailleurs, les représentants des 46 organisations membre d’un réseau TCC ont perçu les dimensions de la performance relatives à l’Atteinte des buts comme étant plus importantes que celles relatives aux Processus. La Capacité d’attirer la clientèle, la Continuité et la Capacité de s’adapter pour répondre aux besoins des clients étaient les trois dimensions les plus importantes, tandis que la Capacité de s’adapter aux exigences et aux tendances et la Quantité de soins et de services étaient les moins importants. Les groupes TRIAGE ont permis aux constituants de s’entendre sur l’importance accordée à chaque dimension et d’uniformiser leurs différentes perspectives. Bien que plusieurs étapes demeurent à franchir pour actualiser le processus d’évaluation de la performance des réseaux TCC québécois, nos travaux permettent de poser des bases scientifiques solides qui optimisent la pertinence et l’appropriation des résultats pour les étapes ultérieures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le sujet de l’avortement provoqué demeure encore tabou au Togo et la compréhension du phénomène reste incomplète. La présente étude vise à dresser un portrait complet de ses divers aspects dans la capitale togolaise, qui a connu une baisse importante de la fécondité au cours des dernières années. À partir des données des Enquêtes démographiques et de santé (EDS) de 1988 et 1998, et de celles de l’Enquête sur la planification familiale et l’avortement provoqué (EPAP) de 2002, l’étude montre que le recours à l’avortement est à la hausse à Lomé, bien que l’estimation de son ampleur dépende de la méthode utilisée. Plus de 32 % des femmes ayant déjà été enceintes ont déclaré avoir avorté au moins une fois. Toutefois, l’avortement est plus fréquent chez les jeunes, qui y ont recours de manière plus précoce et plus rapprochée que leurs aînées. En contribuant ainsi à la régulation des naissances, l’avortement réduit la fécondité de 10 à 12 %. En utilisant les données de l’EPAP, réalisée auprès de 4755 femmes âgées de 15-49 ans, nous avons aussi étudié le recours à l’avortement comme une séquence d’étapes débutant par l’exposition au risque de grossesse jusqu’au recours à l’avortement, en passant par une absence de pratique contraceptive et le fait qu’une grossesse qui survient soit déclarée « non désirée ». L’ethnie et la génération sont associées à certaines étapes de la séquence alors que la religion, la parité, le statut matrimonial et le niveau d’instruction sont associés aux quatre étapes. Ainsi, le risque élevé d’avorter chez les femmes instruites découle en fait de leur risque élevé à toutes les étapes. En étant moins à risque de grossesse, les femmes qui ont au moins deux enfants sont plus susceptibles que les nullipares, d’utiliser une contraception moderne, de déclarer une grossesse comme non désirée et d’avorter. Si plusieurs grossesses non désirées surviennent aux âges jeunes, c’est surtout le caractère « hors union » de la grossesse qui fait qu’elle est considérée comme « non désirée » et interrompue. En outre, les femmes qui ont déjà avorté ou utilisé une contraception sont plus enclines à recourir à un avortement. Les résultats montrent également que le partenaire soutient souvent la femme dans la décision d’avorter et s’acquitte des coûts dans la majorité des cas. Malgré le fait qu’ils soient illégaux, plus de 40 % des avortements sont pratiqués à Lomé dans des centres de santé, par un membre du personnel médical, et à l’aide du curetage ou de l’aspiration. Mais, la moitié de ces avortements (22 %) avait été tentée au préalable par des méthodes non médicales. Plusieurs avortements ont aussi lieu soit à domicile (36 %), soit chez des tradi-thérapeutes (24 %), grâce à des méthodes non médicales. Par ailleurs, près de 60 % des avortements ont entraîné des complications sanitaires, conduisant la majorité des femmes à une hospitalisation. Sur le plan psychologique et relationnel, nous avons montré que la plupart des avortements ont entraîné des regrets et remords, de même que des problèmes entre les femmes et leurs parents. Les parents soutiennent en fait peu les femmes dans la décision d’avorter et interviennent rarement dans le paiement des coûts. L’étude a enfin révélé que la loi sur l’avortement est peu connue. Cependant, être âgée de 25 ans ou plus, en union ou très instruite, connaître des méthodes contraceptives, le recours d’une parente ou amie à l’avortement sont associés, toutes choses égales par ailleurs, à une plus grande chance de connaître la loi. L’analyse, en appuyant des déclarations des professionnels de la santé et des femmes, montre que malgré sa forte prévalence à Lomé, le recours à l’avortement demeure largement stigmatisé. Les quelques professionnels et femmes qui se sont prononcés en faveur de sa légalisation pensent que celle-ci permettrait de « réduire les avortements clandestins et risqués ». En fait, ce sont les femmes les plus instruites, âgées de 25 ans ou plus, utilisant la contraception, ayant déjà avorté ou connaissant quelqu’un l’ayant fait, qui sont plus aptes à approuver la légalisation de l’avortement. Celles qui appartiennent aux églises de type « pentecôtiste », plus sévères quant aux relations sexuelles hors mariage, sont par contre moins susceptibles que les catholiques d’avoir une telle attitude positive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Davantage d’évaluations de projets internationaux dans les pays en développement se réalisent pour informer les décisions sur la base de données probantes. L’utilisation des résultats d’évaluation est remise en cause et pour y remédier des évaluations participatives qui incluent à certaines étapes du processus évaluatif des acteurs non évaluateurs sont proposées. Parmi celles-ci, les évaluations participatives pratiques visent principalement à améliorer l’utilisation du processus et des résultats des évaluations. Ces évaluations participatives pratiques seraient obstruées par des attitudes individuelles négatives, ou résistance individuelle au changement, et favorisées par des attitudes individuelles positives, ou propension. Cette thèse propose d’étudier la propension individuelle des gestionnaires envers les évaluations participatives pratiques d’intervention (EPP), les éléments influençant cette propension, et de caractériser des niveaux de propension des individus envers les EPP. Tout d’abord une revue de littérature a proposé une définition multidimensionnelle de la propension envers les EPP comme étant une attitude favorable envers la pratique des EPP qui se décline à chaque étape d’une évaluation sous les volets affectif et cognitif. Les dimensions identifiées théoriquement étaient : apprentissage, travail en groupe, emploi de méthodes systématiques, usage de l’esprit critique. Ces dimensions ont servi de cadre pour la partie empirique de la thèse. Une étude de cas multiples avec les gestionnaires d’une institution de santé en Haïti a été menée pour contextualiser la propension et identifier les éléments d’influence. Les données ont été recueillies à l’aide d’entrevues semi-structurées et de sources documentaires. L’analyse des données concernant l’apprentissage a révélé une prédominance des formes d’apprentissage par l’action et par l’observation. Le travail en groupe se retrouve ancré dans la pratique des gestionnaires administratifs et des gestionnaires cliniques. Les méthodes systématiques se reflètent principalement dans la consultation de plusieurs acteurs ayant de l’intérêt pour la problématique immédiate à solutionner plutôt que par l’outillage méthodologique. L’emploi de méthodes systématiques prend généralement la forme de consultation élargie d’avis pour régler une situation ou prend la forme de tentative de validation des informations reçues. L’esprit critique se déclenche sous stimulation lorsque l’image individuelle, professionnelle, corporative ou organisationnelle est touchée ou lors de suggestions jugées constructives. En plus de contextualiser quatre composantes de la propension individuelle envers les EPP, les gestionnaires se sont positionnés par rapport à la propension de leurs collègues sur la base de la réactivité, plus ou moins réactif vis-à-vis des composantes de la propension individuelle. Ainsi, la propension étudiée empiriquement a laissé émerger deux axes : un axe formalisation et un axe réactivité. L’axe formalisation reprend la contextualisation des quatre composantes de la propension individuelle envers les EPP, soit la forme d’expression des composantes. L’axe réactivité reprend le niveau d’activité déployé dans chaque composante de la propension individuelle, de réactif à plus proactif. De plus, des profils d’individus ayant différents niveaux de propension envers les EPP ont été développés. Des influences favorables et défavorables au niveau de propension envers les EPP ont été identifiées. L’originalité de cette thèse tient dans le fait de se positionner dans un courant récent de réflexion autour de la résistance aux changements et aux évaluations avec un regard positif et d’avoir défini théoriquement et appliqué empiriquement le concept pluridimensionnel de propension individuelle aux EPP. Des profils de niveau de propension individuelle aux EPP et les éléments d’influence favorables et défavorables associés peuvent servir d’outil de diagnostic aux types d’évaluation possibles, servir d’ajustement à la mise en place d’évaluations selon les interlocuteurs, permettre le suivi des changements de niveaux de propension pendant une EPP et servir de sources d’informations pour ajuster les plans d’évaluations participatives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.