983 resultados para Efficacité populationnelle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réaction du greffon contre l’hôte (GvHD) est une complication majeure de la transplantation de cellules souches hématopoïétiques (HSCT). Les traitements de prophylaxie contre le développement de la GvHD reposent essentiellement sur l’utilisation d’agents immunosuppresseurs, ce qui contribue à ralentir la reconstitution immunitaire post-greffe et à prolonger la durée de l’état immunosupprimé des patients. Le développement de prophylaxie pour la GvHD à base d’agents immunomodulateurs est ainsi privilégié. À l’aide d’un modèle murin xénogénique chez les souris NOD/scid-IL2rγ-/- (NSG), on a étudié le potentiel immunomodulateur des immunoglobulines intraveineuses (IVIG) dans la prévention de la GvHD, ainsi que leurs effets sur la qualité et la cinétique de la reconstitution immunitaire. On a déterminé qu’un traitement hebdomadaire d’IVIG peut effectivement réduire l’incidence de la GvHD, ainsi que la mortalité qui y est reliée, avec une efficacité similaire à celle obtenue avec la cyclosporine A, un immunosuppresseur couramment utilisé dans la prophylaxie de la GvHD. Par ailleurs, on a déterminé que le mécanisme d’action des IVIG dans la réduction de la GvHD est distinct de celui des immunosuppresseurs. De plus, on a démontré que les IVIG induisent l’expansion et l’activation des cellules NK présentes au sein du greffon, lesquelles sont nécessaires pour l’obtention de l’effet protecteur des IVIG contre le développement de la GvHD, et sont dépendantes de la présence de lymphocytes T activés. Grâce à un modèle murin humanisé, on a également démontré que le traitement hebdomadaire d’IVIG induit un délai transitoire de la reconstitution humorale, ce qui n’affecte toutefois pas la qualité globale de la reconstitution immunitaire. Ces résultats mettent cependant en doute la pertinence de l’utilisation des IVIG dans les protocoles cliniques de prophylaxie de la GvHD, puisque les immunosuppresseurs seront toujours utilisés, et qu’on a démontré que les IVIG ont besoin de lymphocytes T activés afin de prévenir efficacement le développement de la GvHD.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente thèse avait pour mandat d’examiner la question suivante : quels sont les indices visuels utilisés pour catégoriser le sexe d’un visage et comment sont-ils traités par le cerveau humain? La plupart des études examinant l’importance de certaines régions faciales pour la catégorisation du sexe des visages présentaient des limites quant à leur validité externe. L’article 1 visait à investiguer l’utilisation des indices achromatiques et chromatiques (sur l’axe xy) dans un contexte de plus grande validité externe. Pour ce faire, nous avons utilisé la technique Bubbles afin d’échantillonner l’espace xy de visages en couleurs n’ayant subi aucune transformation. Afin d’éviter les problèmes liés à la grande répétition des mêmes visages, nous avons utilisé un grand nombre de visages (c.-à-d. 300 visages caucasiens d’hommes et de femmes) et chaque visage n’a été présenté qu’une seule fois à chacun des 30 participants. Les résultats indiquent que la région des yeux et des sourcils—probablement dans le canal blanc-noir—est l’indice le plus important pour discriminer correctement le genre des visages; et que la région de la bouche—probablement dans le canal rouge-vert—est l’indice le plus important pour discriminer rapidement et correctement le genre des visages. Plusieurs études suggèrent qu’un indice facial que nous n’avons pas étudié dans l’article 1—les distances interattributs—est crucial à la catégorisation du sexe. L’étude de Taschereau et al. (2010) présente toutefois des données allant à l’encontre de cette hypothèse : les performances d’identification des visages étaient beaucoup plus faibles lorsque seules les distances interattributs réalistes étaient disponibles que lorsque toutes les autres informations faciales à l’exception des distances interattributs réalistes étaient disponibles. Quoi qu’il en soit, il est possible que la faible performance observée dans la condition où seules les distances interattributs étaient disponibles soit explicable non par une incapacité d’utiliser ces indices efficacement, mais plutôt par le peu d’information contenue dans ces indices. L’article 2 avait donc comme objectif principal d’évaluer l’efficacité—une mesure de performance qui compense pour la faiblesse de l’information disponible—des distances interattributs réalistes pour la catégorisation du sexe des visages chez 60 participants. Afin de maximiser la validité externe, les distances interattributs manipulées respectaient la distribution et la matrice de covariance observées dans un large échantillon de visages (N=515). Les résultats indiquent que les efficacités associées aux visages ne possédant que de l’information au niveau des distances interattributs sont un ordre de magnitude plus faibles que celles associées aux visages possédant toute l’information que possèdent normalement les visages sauf les distances interattributs et donnent le coup de grâce à l’hypothèse selon laquelle les distances interattributs seraient cuciale à la discrimination du sexe des visages. L’article 3 avait pour objectif principal de tester l’hypothèse formulée à la fin de l’article 1 suivant laquelle l’information chromatique dans la région de la bouche serait extraite très rapidement par le système visuel lors de la discrimination du sexe. Cent douze participants ont chacun complété 900 essais d’une tâche de discrimination du genre pendant laquelle l’information achromatique et chromatique des visages était échantillonnée spatiotemporellement avec la technique Bubbles. Les résultats d’une analyse présentée en Discussion seulement confirme l’utilisation rapide de l’information chromatique dans la région de la bouche. De plus, l’utilisation d’un échantillonnage spatiotemporel nous a permis de faire des analyses temps-fréquences desquelles a découlé une découverte intéressante quant aux mécanismes d’encodage des informations spatiales dans le temps. Il semblerait que l’information achromatique et chromatique à l’intérieur d’une même région faciale est échantillonnée à la même fréquence par le cerveau alors que les différentes parties du visage sont échantillonnées à des fréquences différentes (entre 6 et 10 Hz). Ce code fréquentiel est compatible avec certaines évidences électrophysiologiques récentes qui suggèrent que les parties de visages sont « multiplexées » par la fréquence d’oscillations transitoires synchronisées dans le cerveau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Induced pluripotent stem cells (iPSC) have the capacity to self renew and differentiate into a myriad of cell types making them potential candidates for cell therapy and regenerative medicine. The goal of this thesis was to determine the characteristics of equine iPSC (eiPSC) that can be harnessed for potential use in veterinary regenerative medicine. Trauma to a horse’s limb often leads to the development of a chronic non-healing wound that lacks a keratinocyte cover, vital to healing. Thus, the overall hypothesis of this thesis was that eiPSC might offer a solution for providing wound coverage for such problematic wounds. Prior to considering eiPSC for clinical applications, their immunogenicity must be studied to ensure that the transplanted cells will be accepted and integrate into host tissues. The first objective of this thesis was to determine the immune response to eiPSC. To investigate the immunogenicity of eiPSC, the expression of major histocompatibility complex (MHC) molecules by the selected lines was determined, then the cells were used in an intradermal transplantation model developed for this study. While transplantation of allogeneic, undifferentiated eiPSC elicited a moderate cellular response in experimental horses, it did not cause acute rejection. This strategy enabled the selection of weakly immunogenic eiPSC lines for subsequent differentiation into lineages of therapeutic importance. Equine iPSC offer a potential solution to deficient epithelial coverage by providing a keratinocyte graft with the ability to differentiate into other accessory structures of the epidermis. The second objective of this thesis was to develop a protocol for the differentiation of eiPSC into a keratinocyte lineage. The protocol was shown to be highly efficient at inducing the anticipated phenotype within 30 days. Indeed, the eiPSC derived vi keratinocytes (eiPSC-KC) showed both morphologic and functional characteristics of primary equine keratinocytes (PEK). Moreover, the proliferative capacity of eiPSC-KC was superior while the migratory capacity, measured as the ability to epithelialize in vitro wounds, was comparable to that of PEK, suggesting exciting potential for grafting onto in vivo wound models. In conclusion, equine iPSC-derived keratinocytes exhibit features that are promising to the development of a stem cell-based skin construct with the potential to fully regenerate lost or damaged skin in horses. However, since eiPSC do not fully escape immune surveillance despite low MHC expression, strategies to improve engraftment of iPSC derivatives must be pursued.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les cas d’entreprises touchées par des scandales financiers, environnementaux ou concernant des conditions de travail abusives imposées à leur main-d’œuvre, n’ont cessé de jalonner l’actualité ces vingt dernières années. La multiplication des comportements à l’origine de ces scandales s’explique par l’environnement moins contraignant, que leur ont offert les politiques de privatisation, dérégulation et libéralisation, amorcées à partir des années 1980. Le développement de la notion de responsabilité sociale des entreprises à partir des années 1980, en réaction à ces excès, incarne l'idée que si une entreprise doit certes faire des profits et les pérenniser elle se doit de les réaliser en favorisant les comportements responsables, éthiques et transparents avec toutes ses parties prenantes. Nous analysons dans cette thèse le processus par lequel, face à des dysfonctionnements et abus, touchant les conditions de travail de leur main d’œuvre ou leur gouvernance, des entreprises peuvent être amenées, ou non, à questionner et modifier leurs pratiques. Nous avons axé notre étude de cas sur deux entreprises aux trajectoires diamétralement opposées. La première entreprise, issue du secteur de la fabrication de vêtements et dont la crise concernait des atteintes aux droits des travailleurs, a surmonté la crise en réformant son modèle de production. La seconde entreprise, située dans le secteur des technologies de l'information et de la communication, a fait face à une crise liée à sa gouvernance d’entreprise, multiplié les dysfonctionnements pendant dix années de crises et finalement déclaré faillite en janvier 2009. Les évolutions théoriques du courant néo-institutionnel ces dernières années, permettent d’éclairer le processus par lequel de nouvelles normes émergent et se diffusent, en soulignant le rôle de différents acteurs, qui pour les uns, définissent de nouvelles normes et pour d’autres se mobilisent en vue de les diffuser. Afin d’augmenter leur efficacité à l’échelle mondiale, il apparaît que ces acteurs agissent le plus souvent en réseaux, parfois concurrents. L’étude du cas de cette compagnie du secteur de la confection de vêtement nous a permis d’aborder le domaine lié aux conditions de travail de travailleurs œuvrant au sein de chaînes de production délocalisées dans des pays aux lois sociales absentes ou inefficaces. Nous avons analysé le cheminement par lequel cette entreprise fut amenée à considérer, avec plus de rigueur, la dimension éthique dans sa chaîne de production. L’entreprise, en passant par différentes étapes prenant la forme d’un processus d’apprentissage organisationnel, a réussi à surmonter la crise en réformant ses pratiques. Il est apparu que ce processus ne fut pas spontané et qu’il fut réalisé suite aux rôles joués par deux types d’acteurs. Premièrement, par la mobilisation incessante des mouvements de justice globale afin que l’entreprise réforme ses pratiques. Et deuxièmement, par le cadre normatif et le lieu de dialogue entre les différentes parties prenantes, fournis par un organisme privé source de normes. C’est fondamentalement le risque de perdre son accréditation à la cet organisme qui a poussé l’entreprise à engager des réformes. L’entreprise est parvenue à surmonter la crise, certes en adoptant et en respectant les normes définies par cette organisation mais fondamentalement en modifiant sa culture d'entreprise. Le leadership du CEO et du CFO a en effet permis la création d'une culture d'entreprise favorisant la remise en question, le dialogue et une plus grande prise en considération des parties prenantes, même si la gestion locale ne va pas sans poser parfois des difficultés de mise en œuvre. Concernant le domaine de la gouvernance d’entreprise, nous mettons en évidence, à travers l’étude des facteurs ayant mené au déclin et à la faillite d’une entreprise phare du secteur des technologies de l’information et de la communication, les limites des normes en la matière comme outil de bonne gouvernance. La légalité de la gestion comptable et la conformité de l’entreprise aux normes de gouvernance n'ont pas empêché l’apparition et la multiplication de dysfonctionnements et abus stratégiques et éthiques. Incapable de se servir des multiples crises auxquelles elle a fait face pour se remettre en question et engager un apprentissage organisationnel profond, l'entreprise s'est focalisée de manière obsessionnelle sur la rentabilité à court terme et la recherche d'un titre boursier élevé. La direction et le conseil d'administration ont manqué de leadership afin de créer une culture d'entreprise alliant innovation technologique et communication honnête et transparente avec les parties prenantes. Alors que l'étude consacrée à l’entreprise du secteur de la confection de vêtement illustre le cas d'une entreprise qui a su, par le biais d'un changement stratégique, relever les défis que lui imposait son environnement, l'étude des quinze dernières années de la compagnie issue du secteur des technologies de l’information et de la communication témoigne de la situation inverse. Il apparaît sur base de ces deux cas que si une gouvernance favorisant l'éthique et la transparence envers les parties prenantes nécessite la création d'une culture d'entreprise valorisant ces éléments, elle doit impérativement soutenir et être associée à une stratégie adéquate afin que l'entreprise puisse pérenniser ses activités.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les marais filtrants artificiels sont des écosystèmes recréés par l’homme dans le but d’optimiser l’épuration des eaux usées. Lors de la sélection d’espèces végétales pour la mise en place de ces marais filtrants, l’utilisation d’une polyculture ainsi que d’espèces indigènes non invasives est de plus en plus recommandée. Néanmoins, la plupart des marais filtrants existants sont des monocultures utilisant des plantes envahissantes, probablement à cause du manque d’évidences scientifiques sur les avantages de la diversité végétale et de la performance des espèces locales. Ainsi, les questions de recherche autour desquelles s’oriente ma thèse sont: Les polycultures présentent-elles un potentiel épuratoire aussi ou plus grand que les monocultures, et une espèce indigène est-elle aussi efficace et performante qu’une espèce exotique envahissante dans des marais filtrants ? Trois expériences ont été conduites afin de répondre à ces questions. J’ai d’abord testé l’influence de la richesse végétale sur l’élimination des polluants en deux dispositifs expérimentaux: 1) comparant deux espèces de plantes émergentes en monoculture ou combinées séquentiellement, et 2) évaluant la performance de quatre espèces flottantes plantées en monoculture par rapport à des associations de deux (avec toutes les combinaisons possibles) et de quatre espèces. Une troisième expérience a été réalisée afin de comparer l’efficacité épuratoire de l’haplotype européen envahissant du roseau commun (Phragmites australis) et de la sous-espèce locale non-invasive (P. australis subsp. americanus). La composition en espèces végétales a produit un effet notable sur la performance des marais filtrants. La comparaison des performances en mono- et en polyculture n’a pas permis de démontrer clairement les avantages de la diversité végétale pour l’élimination des polluants dans les marais filtrants. Toutefois, les marais filtrants plantés avec une combinaison d’espèces étaient aussi efficaces que les monocultures des espèces les plus performantes. La comparaison entre les deux sous-espèces de P. australis indiquent que la sous-espèce indigène pourrait remplacer le roseau exotique envahissant, évitant ainsi les potentiels risques environnementaux sans toutefois compromettre l’efficacité du traitement. Les résultats prometteurs de la sous-espèce indigène de P. australis doivent encore être testés dans des expériences à grande échelle avant d’utiliser largement cette espèce dans les marais filtrants. Nos résultats suggèrent que, dans des conditions où la performance des macrophytes disponibles est inconnue ou ne peut être déterminée, l’utilisation d’une combinaison d’espèces présente les meilleures chances d’accomplir le plus haut niveau possible d’élimination de polluants. De plus, même si la diversité végétale ne présente pas un avantage mesurable en termes d’efficacité épuratoire, celle-ci améliore la résilience des marais filtrants et leur résistance aux stress et aux maladies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cancer du col utérin (CCU) est dans plus de 99% des cas provoqué par une infection avec le virus du papillome humain (VPH), dont le potentiel oncogénique réside dans l'expression des proto-oncogènes viraux E6/E7. Le potentiel carcinogénique de ces protéines virales réside essentiellement dans leurs actions sur les produits des gènes suppresseurs de tumeur p53 et RB. Les produits de ces gènes, p53 et Rb, font parti des voies de signalisation de réponse aux dommages de l'ADN cellulaire (RDA) et leur perte entraine une perte de fonctionnalité qui mène à une instabilité génomique. À long terme et en présence de d'autres facteurs ceux-ci mèneront au développement d'un cancer. Les protéines E6 et E7 sont constitutivement exprimées dans les cellules du CCU ainsi que dans les cellules de tout autre cancer induit par le VPH et seulement dans ces dernières. La prise en charge des cas avancés de ces cancers se fait principalement par radiothérapie et chimiothérapie concomitante. La chimio-radiothérapie utilisée en traitement est efficace mais résulte en un taux élevé de morbidité et un nombre important de patientes récidiveront. Nous proposons que l'exploitation de l'expression spécifique d’E6 et d’E7 dans les cellules du CCU permette d’envisager une stratégie de létalité synthétique afin d'amplifier l'effet létal de l'irradiation sur les cellules CCU. Ceci permettrait potentiellement d'augmenter l'efficacité du traitement et de diminuer les récidives, ainsi que la morbidité liée au traitement. En s'appuyant sur cette hypothèse, notre objectif est d’identifier des composés dont l'action seule ou couplée à l'irradiation provoquerait préférentiellement la mort des cellules exprimant les protéines E6 et E7 du VPH. Les cellules testées comprennent des cellules isogéniques humaines issues de kératinocytes normaux que nous avons modifiées séquentiellement pour obtenir les modifications associées aux cellules CCU (hTERT, E6 et E7), ainsi que les lignées de cellules de CCU HeLa et CaSki .Nous avons procédé à la mise au point et à la validation du protocole de criblage et des méthodes d’évaluation de la sensibilisation, qui se définit comme une perte de viabilité, un arrêt ou ralentissement de la croissance, par détection d’ATP ainsi que par coloration d’ADN génomique au DRAQ5. Suite à un criblage ciblé impliquant des inhibiteurs connus de la voie de réparation des dommages à l’ADN, nous avons identifié l’inhibiteur de mdm2, Nutlin-3, comme étant un composé sensibilisant et radio-sensibilisant préférentiellement les cellules exprimant E6 et E7 du VPH. La Nutlin-3 a été testée sur des cellules HEKn-hTERT-E6-E7, des cellules CaSki et HeLa. L’effet de sensibilisation et de radio-sensibilisation a été confirmé dans ces trois lignées. Tel que suggéré par son action sur mdmd2, la Nutlin-3 permet la stabilisation de p53 dans les cellules HEKn-hTERT-E6-E7 et CaSki et sa réactivation dans les lignées cellulaires HeLa et CaSki. Malgré cette stabilisation de p53, de façon surprenante, l’effet de la Nutlin-3 sur la sensibilisation et la radio-sensibilisation des cellules HeLa et CaSki semble indépendant de p53, tel qu’observé en utilisant des cellules HeLa-GSE et CaSki-GSE dont le p53 est déficient. In vivo la Nutlin-3a montre dans un essai préliminaire l’inhibition de la croissance tumorale des xénogreffes HeLa chez des souris RAG2γc. Ce résultat reste à confirmer avec un essai impliquant un nombre d’échantillons plus grand. À plus long terme, nous comptons étudier l’implication de mdm2 dans l’effet de sensibilisant de la Nutlin-3 dans les cellules CCUs, ainsi que les autres cibles pouvant être impliquées dans la création de cet effet sensibilisant observé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: En dépit de la preuve substantielle pour l'efficacité générale de la thérapie cognitivo-comportementale pour le trouble obsessionnel-compulsif (TOC), il existe une controverse à propos de l'amélioration de certains déficits neuropsychologiques dans ce trouble. Objectif: Le but de cette étude est d'évaluer: 1) la corrélation de la gravité du TOC et les résultats des tests neuropsychologiques et 2) l'amélioration clinique et neuropsychologique des patients souffrant de TOC qui ont terminé avec succès leur traitement. Méthode: Cette étude évalue les fonctions neurocognitives et l'état clinique de 27 participants du groupe TOC et 25 participants du groupe témoin. La fonction neurocognitive de chaque participant a été évaluée en utilisant le test de Rey-Osterreich Figure complexe (RCFT), le test de fluidité D-KEFS et l’essai Cardebat-D. Nous avons également, utilisé l'inventaire d'anxiété de Beck (IAB), l’Inventaire de dépression de Beck (IDB) et l'échelle d'obsession-compulsion de Yale-Brown (Y-BOCS) pour vérifier la présence de l'anxiété et de la dépression avec le TOC et la gravité des symptômes chez les patients souffrant de TOC. Résultats: Notre étude conclut qu’il y une différence significative de la fonction de la mémoire selon le score au sous test de copie entre les participants souffrant de TOC et le groupe témoin. De plus, nous avons constaté une différence considérable dans le score de rappel immédiat et différé du RCFT avant et après le traitement dans le groupe de TOC. Conclusion: En résumé, la présente étude a démontré que les patients atteints de TOC ont des troubles cognitifs spécifiques et que la thérapie cognitivo-comportementale serait un traitement qui pourrait améliorer, au moins, certaines dysfonctions neurocognitives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le trouble d’anxiété de séparation (TAS) est le trouble anxieux le plus prévalent chez les enfants. Il apparaît tôt et entraîne plusieurs conséquences négatives. La thérapie cognitivo-comportementale (TCC) a été reconnue efficace pour traiter les troubles anxieux. Toutefois, peu d’études ont vérifié son efficacité pour le traitement spécifique du TAS et très peu en ont examiné l’effet auprès d’enfants de moins de 7 ans. Les quelques interventions étudiées visant les moins de 7 ans ont en commun d’inclure le parent dans le traitement ou de l’offrir directement à celui-ci. L’objectif principal de cette thèse est de vérifier l’efficacité d’un programme d’entraînement parental de type TCC, adapté pour les parents d’enfants de 4 à 7 ans souffrant de TAS. Cette étude vise également deux objectifs spécifiques : observer la fluctuation des symptômes de TAS de l’enfant pendant le traitement et examiner l’impact du programme sur les variables parentales. Un devis à cas unique à niveaux de base multiples a été utilisé. Six familles ont pris part à l’étude. Des entrevues semi-structurées, des questionnaires auto-administrés et des calepins d’auto-observations quotidiennes ont été utilisés auprès des parents pour mesurer les symptômes anxieux des enfants, leurs pratiques parentales, le stress parental et leurs symptômes anxieux et dépressifs. Des questionnaires sur les difficultés de l’enfant incluant l’anxiété ont aussi été envoyés à l’éducatrice ou à l’enseignante. Tous les questionnaires ont été administrés aux trois temps de mesure (prétraitement, post-traitement et relance 3 mois). Les calepins d’auto-observations ont été remplis quotidiennement durant le niveau de base, pour toute la durée de l’intervention et pendant une à deux semaines à la relance. Les résultats de l’étude indiquent que cinq enfants sur six ne répondent plus au diagnostic de TAS suite au traitement ainsi que trois mois plus tard. Les résultats des calepins d’auto-observations montrent une amélioration claire des manifestations principales de TAS pour la moitié des enfants et plus mitigée pour l’autre moitié, de même qu’une amélioration systématique de la fréquence hebdomadaire totale de manifestations de TAS suite à l’intervention pour quatre enfants. Les résultats aux questionnaires remplis par les parents montrent une amélioration des symptômes d’anxiété et de TAS chez quatre enfants au post-test et/ou à la relance, tandis que les questionnaires de l’éducatrice (ou enseignante) suggèrent que les symptômes anxieux des enfants se manifestaient peu dans leur milieu scolaire ou de garde. L’impact du programme sur le stress parental et les pratiques parentales est également mitigé. Ces résultats suggèrent que le Programme d’entraînement parental pour les enfants souffrant d’anxiété de séparation (PEP-AS) est efficace pour réduire les symptômes de TAS chez les enfants d’âge préscolaire ou en début de parcours scolaire et appuient la pertinence d’offrir le traitement aux parents et d’inclure un volet relationnel. D’autres études seront cependant nécessaires pour répliquer ces résultats auprès d’un plus vaste échantillon. Il serait également intéressant de vérifier les effets indépendants des différentes composantes du traitement et d’évaluer les effets du programme sur davantage de pratiques parentales associées spécifiquement à l’anxiété.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La station 3-avant de Pointe-du-Buisson (Beauharnois, Haut-Saint-Laurent, Québec) représente la plus importante collection de récipients de terre cuite datant du Sylvicole moyen ancien (-400 à 500 de notre ère) dans le Nord-Est américain. De plus, on trouve sur ce site une série continue d’occupations couvrant l’ensemble de la période Sylvicole. En dépit de complications d’ordre stratigraphique (terreau homogène et pédoturbations), des concepts et des méthodes évolutionnaires tirés de la théorie de l’hérédité duelle sont appliqués à l’étude de cet assemblage. D’un point de vue anthropologique, que nous apprend l’étude de l’évolution et de la transmission des savoir-faire d’une technologie que nous assumons exclusivement féminine au cours de la période Sylvicole? L’auteur défend que l’archéologie évolutionnaire permet de détecter le contexte de la transmission, c’est-à-dire l’organisation socioéconomique des populations du passé. L’examen des traits stylistiques suggère que la sédentarisation estivale des bandes amérindiennes à partir du Sylvicole moyen tardif favorise une homogénéisation des productions céramiques dans un contexte virilocal qui est la conséquence d’une transmission de type conformiste opérant sur un axe horizontal (entre pairs). Cependant, le passage probable des tribus iroquoiennes à l’uxorilocalité et à la matrilinéarité à la fin du Sylvicole se traduit par une saisissante hétérogénéisation des pots, qui s’explique possiblement par une sélection de marqueurs identitaire d’ordre clanique (transmission verticale entre parents et descendants). L’étude des traits techno-fonctionnels indique une diversification de la vaisselle de terre cuite à mesure que les populations intensifient leurs expériences sur les cultigènes. Dans l’ensemble, cette évolution trahit une attention accrue conférée à la performance des pots en tant que récipients culinaires. Par ailleurs, le concours de la sériation et de datations AMS permet la reconnaisance d’un taxon « Sylvicole moyen moyen » caractérisé par une modification morphologique et décorative des vases. Une enquête comparative portant sur un échantillon de 27 sites archéologiques de l’horizon Pseudo-scallop-shell démontre que la variation populationnelle est structurée en fonction de la localisation des communautés dans un bassin hydrographique spécifique. Par conséquent, l’auteur soumet des pistes en vue de l’élaboration d’une taxonomie robuste et propre au Sylvicole moyen ancien et au Sylvicole moyen moyen. Enfin, des indices de natures diverses (archéologiques, paléoethnobotaniques, ethnolinguistiques, paléoanthropologiques, et d’autres issus de la génétique des populations) suggèrent une identité proto-algonquienne des bandes des deux sous-périodes susmentionnées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rétroaction corrective (RC) se définit comme étant un indice permettant à l’apprenant de savoir que son utilisation de la L2 est incorrecte (Lightbown et Spada, 2006). Les chercheurs reconnaissent de plus en plus l’importance de la RC à l’écrit (Ferris, 2010). La recherche sur la RC écrite s’est grandement concentrée sur l’évaluation des différentes techniques de RC sans pour autant commencer par comprendre comment les enseignants corrigent les textes écrits de leurs élèves et à quel point ces derniers sont en mesure d’utiliser cette RC pour réviser leurs productions écrites. Cette étude vise à décrire quelles techniques de RC sont utilisées par les enseignants de francisation ainsi que comment les étudiants incorporent cette RC dans leur révision. De plus, elle veut aussi vérifier si les pratiques des enseignants et des étudiants varient selon le type d’erreur corrigée (lexicale, syntaxique et morphologique), la technique utilisée (RC directe, indirecte, combinée) et la compétence des étudiants à l’écrit (faible ou fort). Trois classes de francisation ont participé à cette étude : 3 enseignants et 24 étudiants (12 jugés forts et 12 faibles). Les étudiants ont rédigé un texte qui a été corrigé par les enseignants selon leur méthode habituelle. Puis les étudiants ont réécrit leur texte en incorporant la RC de leur enseignant. Des entrevues ont aussi été réalisées auprès des 3 enseignants et des 24 étudiants. Les résultats indiquent l’efficacité générale de la RC à l’écrit en langue seconde. En outre, cette efficacité varie en fonction de la technique utilisée, des types d’erreurs ainsi que du niveau de l’apprenant. Cette étude démontre que ces trois variables ont un rôle à jouer et que les enseignants devraient varier leur RC lorsqu’ils corrigent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les alertes que nos logiciels antivirus nous envoient ou encore les différents reportages diffusés dans les médias nous font prendre conscience de l'existence des menaces dans le cyberespace. Que ce soit les pourriels, les attaques par déni de service ou les virus, le cyberespace regorge de menaces qui persistent malgré les efforts qui sont déployés dans leur lutte. Est-ce que cela a à voir avec l'efficacité des politiques en place actuellement pour lutter contre ce phénomène? Pour y répondre, l'objectif général du présent mémoire est de vérifier quelles sont les politiques de prévention (lois anti-pourriel, partenariats publics-privés et démantèlements de botnets) qui influencent le plus fortement le taux de menaces informatiques détectées, tout en s'attardant également à l'effet de différents facteurs socio-économiques sur cette variable. Les données collectées par le logiciel antivirus de la compagnie ESET ont été utilisées. Les résultats suggèrent que les partenariats publics-privés offrant une assistance personnalisée aux internautes s'avèrent être la politique de prévention la plus efficace. Les démantèlements de botnets peuvent également s'avérer efficaces, mais seulement lorsque plusieurs acteurs/serveurs importants du réseau sont mis hors d'état de nuire. Le démantèlement du botnet Mariposa en est un bon exemple. Les résultats de ce mémoire suggèrent que la formule partenariats-démantèlements serait le choix le plus judicieux pour lutter contre les cybermenaces. Ces politiques de prévention possèdent toutes deux des méthodes efficaces pour lutter contre les menaces informatiques et c'est pourquoi elles devraient être mises en commun pour assurer une meilleure défense contre ce phénomène.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les plantes envahissantes menacent la biodiversité ainsi que les activités humaines. Afin de les maîtriser, la pulvérisation d'herbicides est une méthode fréquemment employée en Amérique du Nord. Cette approche ne fait pas toujours consensus et est même parfois interdite ou restreinte, ce qui justifie le recours à d'autres options. Les alternatives peuvent toutefois s'avérer rares, comporter d'importantes limitations ou sont peu documentées. Cette étude vise à tester l’efficacité de méthodes permettant de maîtriser et de prévenir les invasions de roseau commun (Phragmites australis), l'une des plantes envahissantes les plus problématiques sur le continent nord-américain, tout en limitant au minimum l'utilisation d'herbicides. Le potentiel de quatre méthodes de lutte aux petites populations de roseau bien établies a d'abord été évalué : l’excavation avec enfouissement sur place, le bâchage, l’excavation avec enfouissement sur place combinée au bâchage, et la fauche répétée. Les résultats ont montré que l'excavation avec enfouissement sur place, avec ou sans bâchage, a entraîné une élimination presque totale des populations visées, ce qui est comparable ou supérieur à l'effet généralement obtenu avec la pulvérisation d'herbicide. Le bâchage avec des toiles opaques, maintenues pendant un an, a pour sa part entraîné une maîtrise partielle du roseau, suggérant qu'une application prolongée serait nécessaire pour l'éradication de la plante. La fauche répétée, exécutée à raison de cinq fauches par été pendant deux ans, a fourni une efficacité mitigée. Les résultats suggèrent néanmoins que la fauche pendant plusieurs années contribue à affaiblir la plante, ce qui pourrait aider à son confinement. Une méthode additionnelle a été expérimentée afin de traiter les tiges éparses de roseau tout en limitant les risques d'effets hors cibles, soit le badigeonnage manuel d’herbicide. Suite à ces tests, les résultats ont montré une diminution importante de la densité des tiges, ce qui suggère que la méthode est efficace afin d'éliminer les repousses après un traitement initial, et pourrait également être employée sur de jeunes populations clairsemées. L'effet d'un ensemencement préventif de plantes herbacées sur l'établissement de semis de roseau a également été étudié, suite à des traitements sur de vastes parcelles de sol nu. Les résultats suggèrent que la méthode est efficace afin de limiter la propagation du roseau par semences et qu'un suivi périodique suite à l'intervention serait suffisant afin de maintenir l'effet préventif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les effets bénéfiques des lipoprotéines de haute densité (HDL) contre l'athérosclérose ont été attribués, en grande partie, à leur composante protéique majeure, l'apolipoprotéine A-I (apoA-I). Cependant, il y a des indications que l'apoA-I peut être dégradée par des protéases localisées dans les plaques athérosclérotiques humaines, ce qui pourrait réduire l'efficacité des thérapies basées sur les HDL sous certaines conditions. Nous décrivons ici le développement et l'utilisation d'une nouvelle sonde bioactivatable fluorescente dans le proche infrarouge, apoA-I-Cy5.5, pour l'évaluation des activités protéolytiques spécifiques qui dégradent l'apoA-I in vitro, in vivo et ex vivo. La fluorescence basale de la sonde est inhibée par la saturation du fluorophore Cy5.5 sur la protéine apoA-I, et la fluorescence émise par le Cy5.5 (proche infrarouge) est révélée après clivage de la sonde. La protéolyse in vitro de l'apoA-I par des protéases a montré une augmentation de la fluorescence allant jusqu'à 11 fois (n=5, P ≤ 0.05). En utilisant notre nouvelle sonde apoA-I-Cy5.5 nous avons pu quantifier les activités protéolytiques d'une grande variété de protéases, incluant des sérines (chymase), des cystéines (cathepsine S), et des métalloprotéases (MMP-12). En outre, nous avons pu détecter l'activation de la sonde apoA-I-Cy5.5 sur des sections d'aorte de souris athérosclérotiques par zymographie in situ et avons observé qu'en présence d'inhibiteurs de protéases à large spectre, la sonde pourrait être protégée des activités protéolytiques des protéases (-54%, n=6, P ≤ 0,001). L'infusion in vivo de la sonde apoA-I-Cy5.5 dans les souris athérosclérotiques (Ldlr -/--Tg (apoB humaine)) a résulté en utilisant un système d'imagerie moléculaire combinant la fluorescence moléculaire tomographique et la résonance magnétique,en un signal de fluorescence dans l'aorte plus important que celui dans les aortes des souris de type sauvage C57Bl/6J (CTL). Les mesures in vivo ont été confirmées par l'imagerie ex vivo de l'aorte qui a indiqué une augmentation de 5 fois du signal fluorescent dans l'aorte des souris ATX (n=5) par rapport à l'aorte des souris (n=3) CTL (P ≤ 0,05). L'utilisation de cette sonde pourrait conduire à une meilleure compréhension des mécanismes moléculaires qui sous-tendent le développement et la progression de l'athérosclérose et l'amélioration des stratégies thérapeutiques à base de HDL.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le capital humain d’un pays est un facteur important de sa croissance et de son développement à long terme. Selon l’Unicef, ce capital humain est constitué en donnant à chaque enfant un bon départ dans la vie : non seule- ment la possibilité de survivre, mais aussi les conditions nécessaires pour se développer et réaliser tout son potentiel. Malheureusement, cet état de fait est loin d’être une réalité en Afrique Subsaharienne. En effet, selon toujours l’Unicef et sur la base d’enquêtes ménages dans 21 pays d’Afrique de l’Ouest et du Centre, c’est près de 32 millions d’enfants qui ont l’âge officiel d’être scolarisés, mais qui ne le sont pas. A ces chiffres, il faut ajouter 17 millions d’enfants scolarisés qui risquent fortement l’exclusion. De son Côté, l’OMS pointe du doigt la mauvaise santé des enfants dans cette région. Ainsi, les décès d’enfants sont de plus en plus concentrés en Afrique subsaharienne où les enfants ont plus de 15 fois plus de risques de mourir avant l’âge de cinq ans que les enfants des régions développées. Les difficultés économiques apparaissent comme la première explication des obstacles à l’amélioration du bien être des enfants aussi bien du côté de l’offre que de la demande. Cette thèse relie trois essais sur d’une part le lien entre conflit armés, l’éducation et la mortalité des enfants et d’autre part sur le lien entre fertilité et éducation des enfants en milieu urbain. Le premier chapitre identifie l’impact de la crise politico-militaire de la Côte d’Ivoire sur le bien être des enfants, en particulier sur l’éducation et la mor- talité infanto-juvénile en exploitant la variation temporelle et géographique de la crise. Il ressort de cette analyse que les individus qui vivaient dans les régions de conflit et qui ont atteint durant la crise, l’âge officiel d’entrer à l’école ont 10% moins de chance d’être inscrits à l’école. Les élèves qui habitaient dans des régions de conflit pendant la crise ont subit une diminu- tion du nombre d’années scolaire d’au moins une année. Les élèves les plus v vi âgés et qui sont susceptibles d’être au secondaire ont connu une décroissance du nombre d’année scolaire d’au moins deux années. Il ressort également que la crise ivoirienne a accru la mortalité infanto-juvénile d’au moins 3%. Mes résultats suggèrent également que la détérioration des conditions de vie et la limitation de l’utilisation des services de santé au cours du conflit con- tribuent à expliquer ces effets négatifs. Des tests de robustesse incluant un test de placebo suggèrent que les résultats ne sont pas dus à des différences préexistantes entre les régions affectées par le conflit et celles non affectées. Le deuxième chapitre étudie les disparités intra-urbaines en matière d’arbitrage entre le nombre d’enfant et la scolarisation des enfants en se focalisant sur le cas de Ouagadougou (Capitale du Burkina Faso). Dans cette ville, au moins 33% des deux millions d’habitants vivent dans des zones informelles (appelées localement des zones non-loties). Cette sous-population manque d’infrastructures socioéconomiques de base et a un niveau d’éducation très bas. Dans ce chapitre, prenant en compte la possible endogénéité du nombre d’enfants et en utilisant une approche "two-step control function" avec des modèles Probit, nous investiguons les différences de comportement des mé- nages en matière de scolarisation entre zones formelles et zones informelles. Nous nous focalisons en particulier sur l’arbitrage entre la "quantité" et la "qualité" des enfants. Compte tenu de l’hétérogénéité des deux types de zones, nous utilisons les probabilités prédites pour les comparer. Nos princi- pales conclusions sont les suivantes. Tout d’abord, nous trouvons un impact négatif de la taille de la famille sur le niveau de scolarisation dans les deux types de zone. Cependant, nous constatons que l’impact est plus aigu dans les zones informelles. Deuxièmement, si nous supposons que le caractère en- dogène du nombre d’enfants est essentiellement due à la causalité inverse, les résultats suggèrent que dans les zones formelles les parents tiennent compte de la scolarisation des enfants dans la décision de leur nombre d’enfants, mais ce ne est pas le cas dans les zones informelles. Enfin, nous constatons que, pour des familles avec les mêmes caractéristiques observables, la probabilité d’atteindre le niveau post-primaire est plus élevée dans les zones formelles que dans les zones informelles. En terme d’implications politique, selon ces résultats, les efforts pour améliorer la scolarisation des enfants ne doivent pas être dirigées uniquement vers les zones rurales. En plus de réduire les frais de scolarité dans certaines zones urbaines, en particulier les zones informelles, un accent particulier devrait être mis sur la sensibilisation sur les avantages de l’éducation pour le bien-être des enfants et leur famille. Enfin, du point vii de vue méthodologique, nos résultats montrent l’importance de tenir compte de l’hétérogénéité non observée entre les sous-populations dans l’explication des phénomènes socio-économiques. Compte tenu du lien négatif entre la taille de la famille et la scolarisation des enfants d’une part et les différences intra-urbaines de comportement des ménages en matière de scolarisation, le trosième chapitre étudie le rôle des types de méthodes contraceptives dans l’espacement des naissances en mi- lieu urbain. Ainsi, en distinguant les méthodes modernes et traditionnelles et en utilisant l’histoire génétique des femmes, ce chapitre fait ressortir des différences de comportement en matière de contraception entre les femmes des zones formelles et informelles à Ouagadougou (capitale du Burkina Faso). Les résultats montrent que les deux types de méthodes contraceptives aug- mentent l’écart des naissances et diminuent la probabilité qu’une naissance se produise moins de 24 mois après la précédente. Prendre en compte les caractéristiques non observées mais invariants avec le temps ne modifie pas significativement l’amplitude du coefficient de l’utilisation de la contracep- tion moderne dans les deux types de zone. Toutefois, dans la zone informelle, la prise en compte les effets fixes des femmes augmentent significativement l’effet des méthodes traditionnelles. Les normes sociales, la perception de la planification familiale et le rôle du partenaire de la femme pourraient expli- quer ces différences de comportement entre les zones formelles et informelles. Par conséquent, pour améliorer l’utilisation de la contraception et de leur efficacité, il est essentiel de hiérarchiser les actions en fonction du type de sous-population, même dans les zones urbaines.