101 resultados para ONE-STEP PLUS
Resumo:
Le centromère est la région chromosomique où le kinétochore s'assemble en mitose. Contrairement à certaines caractéristiques géniques, la séquence centromérique n'est ni conservée entre les espèces ni suffisante à la fonction centromérique. Il est donc bien accepté dans la littérature que le centromère est régulé épigénétiquement par une variante de l'histone H3, CENP-A. KNL-2, aussi connu sous le nom de M18BP1, ainsi que ces partenaires Mis18α et Mis18β sont des protéines essentielles pour l'incorporation de CENP-A nouvellement synthétisé aux centromères. Des évidences expérimentales démontrent que KNL-2, ayant un domaine de liaison à l'ADN nommé Myb, est la protéine la plus en amont pour l'incorporation de CENP-A aux centromères en phase G1. Par contre, sa fonction dans le processus d'incorporation de CENP-A aux centromères n'est pas bien comprise et ces partenaires de liaison ne sont pas tous connus. De nouveaux partenaires de liaison de KNL-2 ont été identifiés par des expériences d'immunoprécipitation suivies d'une analyse en spectrométrie de masse. Un rôle dans l'incorporation de CENP-A nouvellement synthétisé aux centromères a été attribué à MgcRacGAP, une des 60 protéines identifiées par l'essai. MgcRacGAP ainsi que les protéines ECT-2 (GEF) et la petite GTPase Cdc42 ont été démontrées comme étant requises pour la stabilité de CENP-A incorporé aux centromères. Ces différentes observations ont mené à l'identification d'une troisième étape au niveau moléculaire pour l'incorporation de CENP-A nouvellement synthétisé en phase G1, celle de la stabilité de CENP-A nouvellement incorporé aux centromères. Cette étape est importante pour le maintien de l'identité centromérique à chaque division cellulaire. Pour caractériser la fonction de KNL-2 lors de l'incorporation de CENP-A nouvellement synthétisé aux centromères, une technique de microscopie à haute résolution couplée à une quantification d'image a été utilisée. Les résultats générés démontrent que le recrutement de KNL-2 au centromère est rapide, environ 5 minutes après la sortie de la mitose. De plus, la structure du domaine Myb de KNL-2 provenant du nématode C. elegans a été résolue par RMN et celle-ci démontre un motif hélice-tour-hélice, une structure connue pour les domaines de liaison à l'ADN de la famille Myb. De plus, les domaines humain (HsMyb) et C. elegans (CeMyb) Myb lient l'ADN in vitro, mais aucune séquence n'est reconnue spécifiquement par ces domaines. Cependant, il a été possible de démontrer que ces deux domaines lient préférentiellement la chromatine CENP-A-YFP comparativement à la chromatine H2B-GFP par un essai modifié de SIMPull sous le microscope TIRF. Donc, le domaine Myb de KNL-2 est suffisant pour reconnaître de façon spécifique la chromatine centromérique. Finalement, l'élément reconnu par les domaines Myb in vitro a potentiellement été identifié. En effet, il a été démontré que les domaines HsMyb et CeMyb lient l'ADN simple brin in vitro. De plus, les domaines HsMyb et CeMyb ne colocalisent pas avec CENP-A lorsqu'exprimés dans les cellules HeLa, mais plutôt avec les corps nucléaires PML, des structures nucléaires composées d'ARN. Donc, en liant potentiellement les transcrits centromériques, les domaines Myb de KNL-2 pourraient spécifier l'incorporation de CENP-A nouvellement synthétisé uniquement aux régions centromériques.
Resumo:
L’ablation de fibrillation auriculaire (FA) persistante est associée à des temps de procédure plus longs et à un moindre succès par rapport à l’ablation de FA paroxystique. Nous avons posé l’hypothèse que la restauration et le maintien du rythme sinusal ≥ 1 mois pré-procédure faciliteraient la terminaison de la FA et amélioreraient le succès de la procédure. Méthodes: Nous avons conduit une étude rétrospective comparant deux cohortes de patients consécutifs se présentant en FA persistante pour première ablation de FA : le groupe rythme sinusal (RS) avec restauration et maintien du rythme RS ≥ 1 mois pré-procédure (Groupe RS; N=40) et un groupe contrôle de patients en FA pré ablation (Groupe contrôle; N=40), apparié selon le sexe, l’âge, la longueur maximale de durée de FA. Une ablation de type en paliers (“stepwise”) a été réalisée dans les deux groupes (avec FA induite en début de procédure dans le groupe RS). Le succès a été défini par l’absence de récidive de FA ou de tachycardie atriale sans anti arythmique après un suivi minimal de 12 mois post procédure. Résultats: Durant la procédure de index d’ablation de FA, le cycle de FA était plus long dans le groupe RS par rapport au groupe contrôle (183±32 vs 166±20 ms, P=0.06) suggérant un remodelage inverse. Dans le groupe RS, la FA a été terminée plus fréquemment par l’ablation (95.0% vs 77.5%, P<0.05) et a demandé une ablation moins extensive avec moins d’ablation des électrocardiogrammes fragmentés (40.0% vs 87.5%, p<0.001) et moins de lésions linéaires (42.5% vs 82.5%, p<0.001). Les durées moyennes de procédure (199.8±69.8 vs 283.5±72.3 minutes, P<0.001), de fluoroscopie (51.0±24.9 vs 96.3±32.1 minutes, P<0.001), et de radiofréquence (47.5±18.9 vs 97.0±30.6 minutes, P<0.001) ont été plus courtes dans le groupe RS. Les succès cliniques ont été comparables dans les deux groupes après la première (55.0% vs 45.0%, P=0.28) et la dernière procédure (80.0% vs 70.0%, P=0.28), après une durée moyenne de suivi comparable (21.1±9.7 mois).
Resumo:
Les systèmes logiciels sont devenus de plus en plus répondus et importants dans notre société. Ainsi, il y a un besoin constant de logiciels de haute qualité. Pour améliorer la qualité de logiciels, l’une des techniques les plus utilisées est le refactoring qui sert à améliorer la structure d'un programme tout en préservant son comportement externe. Le refactoring promet, s'il est appliqué convenablement, à améliorer la compréhensibilité, la maintenabilité et l'extensibilité du logiciel tout en améliorant la productivité des programmeurs. En général, le refactoring pourra s’appliquer au niveau de spécification, conception ou code. Cette thèse porte sur l'automatisation de processus de recommandation de refactoring, au niveau code, s’appliquant en deux étapes principales: 1) la détection des fragments de code qui devraient être améliorés (e.g., les défauts de conception), et 2) l'identification des solutions de refactoring à appliquer. Pour la première étape, nous traduisons des régularités qui peuvent être trouvés dans des exemples de défauts de conception. Nous utilisons un algorithme génétique pour générer automatiquement des règles de détection à partir des exemples de défauts. Pour la deuxième étape, nous introduisons une approche se basant sur une recherche heuristique. Le processus consiste à trouver la séquence optimale d'opérations de refactoring permettant d'améliorer la qualité du logiciel en minimisant le nombre de défauts tout en priorisant les instances les plus critiques. De plus, nous explorons d'autres objectifs à optimiser: le nombre de changements requis pour appliquer la solution de refactoring, la préservation de la sémantique, et la consistance avec l’historique de changements. Ainsi, réduire le nombre de changements permets de garder autant que possible avec la conception initiale. La préservation de la sémantique assure que le programme restructuré est sémantiquement cohérent. De plus, nous utilisons l'historique de changement pour suggérer de nouveaux refactorings dans des contextes similaires. En outre, nous introduisons une approche multi-objective pour améliorer les attributs de qualité du logiciel (la flexibilité, la maintenabilité, etc.), fixer les « mauvaises » pratiques de conception (défauts de conception), tout en introduisant les « bonnes » pratiques de conception (patrons de conception).
Resumo:
La nature iconoclaste de l'ère postmoderne se manifeste dans une révolution contre les normes littéraires préétablies. Cet iconoclasme est plus flagrant dans la fantaisie urbaine. Dans un environnement désordonné, fragmenté et très stéréotypé, la fantaisie urbaine est considérée comme un événement qui défie tout jugement, et toute stratification sociale. Bien qu'elle ait été bien accueillie par les lecteurs et qu'elle a obtenue de fortes ventes, c'est seulement depuis deux décennies que ces genres ont commencé à attirer l'attention académique. Ce travail peut être considéré comme une tentative pour comprendre la fantaisie urbaine à travers la série d'une de ses écrivains les plus éminents, Laurell K. Hamilton. En conséquence, j’ai choisi trois romans de sa série Anita Blake: Guilty Pleasures (1993), Circus of the Damned (1995) et Blue Moon (1998). Les paramètres stylistiques et thématiques dans ses romans créent une philosophie postmoderne de subversion, qui valide et invalide les discussions sur la structure du signe, la violence, et la réaction du lecteur. Le premier chapitre étudie la construction du sens à travers la structure de la langue de la fantaisie urbaine. Il traite la signification que le résultat de l'interaction entre les différents signes linguistiques. Il suit également l'évolution de ce que Derrida appelle «inflated signs», qui sont au coeur de la régénération du sens à travers les romans. La saturation dans ces signes implique une «absence» qui s'affiche à travers la désintégration du système de la langue et les ruptures récurrentes de sa structure globale. Le deuxième chapitre se concentre sur les tendances de la violence dans les romans de la fantaisie urbaine qui rendent les jeux de pouvoir des personnages truculents et leurs réactions apparaissent inadmissibles. Il examine la violence par rapport à ses causes et sa ii logique. Grâce aux concepts de Derrida de l’‘arché-violence’, de ‘décision’ et de ‘sacrifice,’ je démontre que la violence est inévitable dans le monde créé de Hamilton et dans le monde qu'elle simule. Le troisième chapitre examine la réaction du lecteur sur les événements exotiques et la caractérisation paranormale des romans de Hamilton. Il révèle comment la fantaisie urbaine conteste la conception de Wolfgang Iser de réaction du lecteur et le concept d'‘apparence’ de Jean Baudrillard. J’insiste sur le fait que les lecteurs de la fantaisie urbaine ne sont plus des interprètes ou des réceptifs passifs d'images paranormaux. En effet, l'interaction entre l’auteur et le lecteur, que ces romans entrainent, défie ces conceptions réductrices de la réaction du lecteur.
Resumo:
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.
Resumo:
Les nombreuses études cliniques sur les maladies affectant les noyaux gris centraux (NGC) ont montré l’importance des déficits moteurs engendrés par un dysfonctionnement de ces structures. La locomotion est particulièrement affectée chez ces patients, ce qui suggère un rôle important des NGC dans le contrôle de celle-ci. En revanche, très peu d’études fondamentales ont enregistré l’activité des neurones des NGC durant la locomotion chez des modèles intacts. Le globus pallidus, en tant qu’une des principales structures de sortie des NGC, constitue une cible idéale pour étudier le signal transmis par les NGC au thalamus et au tronc cérébral. L’objectif de notre étude est de mieux comprendre la contribution que joue le segment externe du globus pallidus (GPe) dans le contrôle de la locomotion sous guidage visuel. Cette étude constitue le premier rapport d’enregistrements de l’activité des neurones du GPe lors de modifications volontaires de la marche sous guidage visuel. Notre hypothèse générale est que le GPe contribue au contrôle de la locomotion, et particulièrement lors des modifications de la marche. Nous avons enregistré l’activité des neurones du GPe de chats au repos, puis marchant sur un tapis et enjambant des obstacles. Nos résultats ont révélé que la plupart des cellules montraient peu de changements lors de la locomotion non-obstruée par rapport au repos. En revanche, la moitié des neurones enregistrés présentaient une modulation significative de leur décharge durant l’enjambement de l’obstacle. Nous avons observé une majorité de ces cellules qui diminuaient leur fréquence et un tiers de neurones qui l’augmentaient pendant le pas modifié, suggérant que le GPe exerce sur le mouvement un contrôle dépendant du contexte, permettant sélectivement l’augmentation ou la diminution de l’activité motrice. De plus, presque toutes les cellules déchargeaient durant la totalité de la phase de balancement du membre antérieur controlatéral, ce qui semble indiquer une contribution du GPe dans le timing et la durée de cette phase. Finalement, la moitié des neurones présentaient un changement réciproque entre la condition de lead et la condition de trail. Ce résultat suggère que le GPe participerait à la sélection d’action du membre lors des modifications de la marche. Nos résultats illustrent la complexité de l’activité du GPe lors de la locomotion sous guidage visuel et ils sont compatibles avec une contribution plus générale au mouvement que celle exercée par le cortex moteur.
Resumo:
Le nombre important de véhicules sur le réseau routier peut entraîner des problèmes d'encombrement et de sécurité. Les usagers des réseaux routiers qui nous intéressent sont les camionneurs qui transportent des marchandises, pouvant rouler avec des véhicules non conformes ou emprunter des routes interdites pour gagner du temps. Le transport de matières dangereuses est réglementé et certains lieux, surtout les ponts et les tunnels, leur sont interdits d'accès. Pour aider à faire appliquer les lois en vigueur, il existe un système de contrôles routiers composé de structures fixes et de patrouilles mobiles. Le déploiement stratégique de ces ressources de contrôle mise sur la connaissance du comportement des camionneurs que nous allons étudier à travers l'analyse de leurs choix de routes. Un problème de choix de routes peut se modéliser en utilisant la théorie des choix discrets, elle-même fondée sur la théorie de l'utilité aléatoire. Traiter ce type de problème avec cette théorie est complexe. Les modèles que nous utiliserons sont tels, que nous serons amenés à faire face à des problèmes de corrélation, puisque plusieurs routes partagent probablement des arcs. De plus, puisque nous travaillons sur le réseau routier du Québec, le choix de routes peut se faire parmi un ensemble de routes dont le nombre est potentiellement infini si on considère celles ayant des boucles. Enfin, l'étude des choix faits par un humain n'est pas triviale. Avec l'aide du modèle de choix de routes retenu, nous pourrons calculer une expression de la probabilité qu'une route soit prise par le camionneur. Nous avons abordé cette étude du comportement en commençant par un travail de description des données collectées. Le questionnaire utilisé par les contrôleurs permet de collecter des données concernant les camionneurs, leurs véhicules et le lieu du contrôle. La description des données observées est une étape essentielle, car elle permet de présenter clairement à un analyste potentiel ce qui est accessible pour étudier les comportements des camionneurs. Les données observées lors d'un contrôle constitueront ce que nous appellerons une observation. Avec les attributs du réseau, il sera possible de modéliser le réseau routier du Québec. Une sélection de certains attributs permettra de spécifier la fonction d'utilité et par conséquent la fonction permettant de calculer les probabilités de choix de routes par un camionneur. Il devient alors possible d'étudier un comportement en se basant sur des observations. Celles provenant du terrain ne nous donnent pas suffisamment d'information actuellement et même en spécifiant bien un modèle, l'estimation des paramètres n'est pas possible. Cette dernière est basée sur la méthode du maximum de vraisemblance. Nous avons l'outil, mais il nous manque la matière première que sont les observations, pour continuer l'étude. L'idée est de poursuivre avec des observations de synthèse. Nous ferons des estimations avec des observations complètes puis, pour se rapprocher des conditions réelles, nous continuerons avec des observations partielles. Ceci constitue d'ailleurs un défi majeur. Nous proposons pour ces dernières, de nous servir des résultats des travaux de (Bierlaire et Frejinger, 2008) en les combinant avec ceux de (Fosgerau, Frejinger et Karlström, 2013). Bien qu'elles soient de nature synthétiques, les observations que nous utilisons nous mèneront à des résultats tels, que nous serons en mesure de fournir une proposition concrète qui pourrait aider à optimiser les décisions des responsables des contrôles routiers. En effet, nous avons réussi à estimer, sur le réseau réel du Québec, avec un seuil de signification de 0,05 les valeurs des paramètres d'un modèle de choix de routes discrets, même lorsque les observations sont partielles. Ces résultats donneront lieu à des recommandations sur les changements à faire dans le questionnaire permettant de collecter des données.
Resumo:
Les enjeux liés aux politiques éducatives ont considérablement changé au cours des dernières décennies. Ces changements sont liés, entre autres, à l’accroissement de l’imputabilité et de la reddition de compte qui est devenue une caractéristique importante des réformes curriculaires et pédagogiques. Les politiques à enjeux élevés exercent une pression énorme sur les districts et les écoles états-unienne afin qu’ils augmentent le rendement des élèves en utilisant des systèmes de conséquences (Hall & Ryan, 2011; Loeb & Strunk, 2007). Ces politiques envoient de puissants messages sur l'importance de certaines matières scolaires au détriment d'autres - circonscrivant les exigences en termes de compétences et de connaissances. La langue maternelle d’enseignement et les mathématiques sont devenues des mesures centrales sur lesquelles reposent l’évaluation et le degré de performance des districts et des écoles. Conséquemment, les administrateurs de districts et les directions d’écoles ont souvent recours à des réformes curriculaires et pédagogiques comme moyen d'augmenter le rendement des élèves dans les matières scolaires visées par ces politiques. Les politiques contraignent les acteurs scolaires de concentrer les ressources sur les programmes curriculaires et les évaluations, le développement professionnel, et la prise de décision pilotée par les données (Anagnostopoulos & Ruthledge, 2007; Honig & Hatch, 2004; Spillane, Diamond, et al., 2002; Weitz White & Rosenbaum, 2008). Cette thèse examine la manière dont les politiques à enjeux élevés opèrent quotidiennement dans les interactions et les pratiques au sein des écoles. Nous analysons plus particulièrement les différents messages provenant de la politique transmis aux acteurs scolaires sur les manières d'apporter des changements substantiels dans le curriculum et l'enseignement. Nous élargissons l’analyse en prenant en compte le rôle des administrateurs de district ainsi que des partenaires universitaires qui façonnent également la manière dont certains aspects des messages provenant des politiques sont transmis, négociés et/ou débattus et d’autres sont ignorés (Coburn & Woulfin, 2012). En utilisant l’analyse de discours, nous examinons le rôle du langage comme constituant et médiateur des interactions sociales entre les acteurs scolaires et d’autres parties prenantes. De telles analyses impliquent une investigation approfondie d’un nombre d’étude de cas limité. Les données utilisées dans cette thèse ont été colligées dans une école primaire états-unienne du mid-West. Cette étude de cas fait partie d’une étude longitudinale de quatre ans qui comprenait huit écoles dans les milieux urbains entre 1999 et 2003 (Distributed Leadership Studies, http://www.distributedleadership.org). La base de données analysée inclut des observations de réunions formelles et des entrevues auprès des administrateurs du district, des partenaires universitaires, de la direction d’école et des enseignants. En plus de l’introduction et de la problématique (chapitre 1) et de discussion et conclusion (chapitre 5), cette thèse comprend un ensemble de trois articles interdépendants. Dans le premier article (chapitre 2), nous effectuons une recension des écrits portant sur le domaine de l’implantation de politiques (policy implementation) et la complexité des relations locales, nationales et internationales dans les systèmes éducatifs. Pour démystifier cette complexité, nous portons une attention particulière à la construction de sens des acteurs scolaires comme étant une dimension clé du processus de mise en œuvre des réformes. Dans le deuxième article (chapitre 3), nous cherchons à comprendre les processus sociaux qui façonnent les réponses stratégiques des acteurs scolaires à l’égard des politiques du district et de l’état et en lien avec la mise en œuvre d’un curriculum prescrit en mathématiques. Plus particulièrement, nous explorons les différentes situations dans lesquelles les acteurs scolaires argumentent au sujet des changements curriculaires et pédagogiques proposés par les administrateurs de district et des partenaires universitaires afin d’augmenter les résultats scolaires en mathématiques dans une école à faible performance. Dans le troisième article (chapitre 4), nous cherchons à démystifier les complexités liées à l’amélioration de l’enseignement dans un environnement de politiques à enjeux élevés. Pour ce faire, nous utilisons l'interaction entre les notions d'agentivité et la structure afin d'analyser la manière dont les conceptions d’imputabilité et les idées qui découlent de l'environnement politique et les activités quotidiennes jouent dans les interactions entre les acteurs scolaires concernant sur l’enseignement de la langue maternelle. Nous explorons trois objectifs spécifiques : 1) la manière dont les politiques à enjeux élevés façonnent les éléments de l’enseignement qui sont reproduits et ceux qui sont transformés au fil du temps ; 2) la manière dont la compréhension des leaders de l’imputabilité façonne les aspects des messages politiques que les acteurs scolaires remarquent à travers les interactions et les conversations et 3) la manière les acteurs scolaires portent une attention particulière à certaines messages au détriment d’autres. Dans le dernier chapitre de cette thèse, nous discutons les forces et les limites de l’analyse secondaire de données qualitatives, les implications des résultats pour le domaine d’études de l’implantation de politiques et les pistes futures de recherches.
Resumo:
Bien que le rôle des femmes dans le recrutement de prostituées ne soit pas un phénomène nouveau, peu d’études se sont intéressées au sujet. L’intérêt de cette recherche repose d’ailleurs sur le manque de connaissances de cette problématique qui semble pourtant bien présente dans la société québécoise contemporaine. À l’aide d’entrevues auprès de 15 intervenants du milieu de la police, des organisations communautaires et des centres jeunesse, nous avons recensé de l’information sur 26 cas de femmes recruteuses. L’analyse de différents critères nous a permis de les classer en trois catégories, soit les partenaires, les entremetteuses et les tenancières. Contrairement aux entremetteuses et aux tenancières, les partenaires entretiennent une relation avec un homme complice. Les partenaires, tout comme les tenancières, ont toutes un passé dans la prostitution, alors que certaines entremetteuses n’ont jamais participé à l’industrie du sexe auparavant. La partenaire joue un rôle dans la gestion et le contrôle des victimes, ce qui n’est généralement pas le cas chez l’entremetteuse. La tenancière détient plusieurs responsabilités concernant la gestion d’au moins un établissement érotique. La majorité des partenaires utilise aussi la violence et les menaces pour contrôler leurs victimes, alors que les tenancières semblent user de techniques plus subtiles pour arriver à leurs fins. Bien que plusieurs motivations puissent pousser les recruteuses à chercher de nouvelles recrues, l’obtention de bénéfices monétaires ou matériels est la seule exprimée pour les trois profils. À quelques exceptions près, chacun des trois profils s’exécute selon un processus de recrutement préétabli. Pour la partenaire, il s’agit de cibler une fille vulnérable, de lui offrir un environnement sécuritaire où demeurer, puis de faire miroiter les éléments positifs à être en relation avec elle. L’étape cruciale est le moment où elle demande une contribution monétaire à la victime, puis l’initie à la prostitution. Le processus de recrutement des entremetteuses est semblable à celui des partenaires à l’exception de l’étape cruciale qui sera de mettre la recrue en contact avec un proxénète masculin ou des membres de gang. Le rôle de l’entremetteuse se termine généralement à ce stade. Pour sa part, la tenancière trouve généralement ses recrues au moyen d’annonces dans les journaux ou sur le Web et par ses contacts avec le crime organisé.
Resumo:
Le 28 juin 2012, le Parlement canadien adoptait des modifications à la Loi sur l’immigration et la protection des réfugiés introduisant des changements importants dans le traitement des demandes de protection faites à partir du Canada. Ces modifications incorporent deux nouveaux concepts en droit canadien, le premier étant le pays d’origine désigné, qui figure sur une liste. Ces pays considérés comme « sûrs » sont désignés par arrêté par le ministère de la Citoyenneté et de l’Immigration. Les pays d’origine désignés ne peuvent être source de réfugiés, et les demandeurs d’asile provenant de ces pays reçoivent un traitement particulier. Le deuxième concept est celui d’« étranger désigné » : le ministre de la Sécurité publique et de la Protection civile peut désigner des arrivées de migrants comme étant irrégulières, si ces derniers se présentent aux frontières canadiennes sans les documents réglementaires. Ces étrangers sont obligatoirement mis en détention, et leur demande d’asile, le cas échéant, reçoit aussi un traitement particulier. Ces dispositions soulèvent de nombreuses questions concernant leur validité en vertu de la Charte canadienne des droits et libertés et du droit international. Dans un premier temps, ce mémoire a pour objet de montrer qu’il existe une lacune dans le processus législatif canadien. Lorsqu’un gouvernement est majoritaire au Parlement, il peut faire adopter ses projets de loi sans informer adéquatement l’opposition et les électeurs sur les risques qu’ils présentent de violer les droits et libertés de la personne. À notre avis, cette lacune est problématique, car à notre avis, des lois sont adoptées en violation de la constitution et plus particulièrement de la Charte canadienne des droits et libertés sans que le gouvernement ait à se justifier. Ce mémoire explore l’idée d’utiliser les études d’impact sur les droits de la personne, un modèle d’analyse des lois, règlements et politiques publiques qui vise à évaluer et faire connaître les impacts qu’ils ont ou peuvent avoir sur les droits fondamentaux des personnes affectées. Les cas de la France, de la Grande-Bretagne et de la Commission européenne seront analysés. Ce mémoire examine les dispositions concernant les pays d’origine désigné et les étrangers désignés en vertu de la Charte canadienne et du droit international. Nous concluons que si ces dispositions avaient fait l’objet d’une étude d’impact sur les droits de la personne, le Parlement et les Canadiens auraient été informés des risques de violation des droits fondamentaux des demandeurs d’asile concernés.
Resumo:
Un objectif majeur en chimie organique est le développement de méthodes de synthèses générales, simples et peu coûteuses permettant la modification efficace des ressources naturelles en différents produits d’intérêt public. En particulier, la recherche de méthodes chimiosélectives et de méthodes dites « vertes » représente un intérêt croissant pour le secteur industriel (dont le domaine pharmaceutique). En fait, l’application en synthèse sur grande échelle de procédés catalytiques, sélectifs et utilisant des conditions douces permet de réduire le volume de déchets et la demande énergétique, minimisant ainsi les coûts de production et les effets néfastes sur l’environnement. Dans ce contexte, le groupe de recherche du Professeur André B. Charette de l’Université de Montréal s’intéresse au développement de méthodes générales et chimiosélectives permettant la transformation de fonctionnalités aisément accessibles tels que les amides et les alcools. La fonction amide, aussi appelée liaison peptidique dans les protéines, est présente dans diverses familles de molécules naturelles et est couramment employée comme intermédiaire synthétique dans la synthèse de produits d’intérêt pharmaceutique. Le groupement alcool est, quant à lui, l’une des fonctionnalités les plus abondantes dans la nature, intrinsèquement et largement utilisé en chimie de synthèse. Dans le cadre de cette thèse, des transformations simples, générales et chimiosélectives ont été réalisées sur des amides secondaires et tertiaires, ainsi que sur des alcools primaires et secondaires. La première partie de ce manuscrit se penche sur l’activation de la fonction amide par l’anhydride triflique (Tf2O), suivie de l’addition nucléophile de différents réactifs permettant ainsi la formation de plusieurs groupements fonctionnels versatiles, parfois indispensables, couramment employés en chimie organique tels que les aldimines, les aldéhydes, les amines, les cétones, les cétimines et des dérivés de la fonction amidrazone. Cette dernière fonctionnalité a également été utilisée dans des réactions successives vers la formation d’hétérocycles. De ce fait, des 1,2,4-triazoles ont été formés suite à une cyclodéshydratation initiée en conditions thermiques et faiblement acides. D’autre part, des 3-aminoindazoles ont été synthétisés par une fonctionnalisation C–H catalysée par un sel de palladium (II). La deuxième partie de la thèse est consacrée à la réaction de Mitsunobu en conditions acides, permettant ainsi la substitution nucléophile d’alcools en présence de carbamines (ou amines ne possédant pas de groupement électro-attracteurs). Ce type de nucléophile, basique lorsqu’utilisé comme base libre (avec un pKa se situant au-dessus de 13 dans le DMSO), n’est intrinsèquement pas compatible dans les conditions standards de la réaction de Mitsunobu. Contrairement aux conditions usuelles multi-étapes employant la réaction de Mitsunobu, la méthode développée au cours de cette étude permet la formation d’amines substituées en une seule étape et ne requiert pas l’emploi de groupements protecteurs.
Resumo:
Travail dirigé présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maître ès (M. Sc.) en sciences infirmières
Resumo:
Le cancer du sein est le cancer le plus fréquent chez la femme. Il demeure la cause de mortalité la plus importante chez les femmes âgées entre 35 et 55 ans. Au Canada, plus de 20 000 nouveaux cas sont diagnostiqués chaque année. Les études scientifiques démontrent que l'espérance de vie est étroitement liée à la précocité du diagnostic. Les moyens de diagnostic actuels comme la mammographie, l'échographie et la biopsie comportent certaines limitations. Par exemple, la mammographie permet de diagnostiquer la présence d’une masse suspecte dans le sein, mais ne peut en déterminer la nature (bénigne ou maligne). Les techniques d’imagerie complémentaires comme l'échographie ou l'imagerie par résonance magnétique (IRM) sont alors utilisées en complément, mais elles sont limitées quant à la sensibilité et la spécificité de leur diagnostic, principalement chez les jeunes femmes (< 50 ans) ou celles ayant un parenchyme dense. Par conséquent, nombreuses sont celles qui doivent subir une biopsie alors que leur lésions sont bénignes. Quelques voies de recherche sont privilégiées depuis peu pour réduire l`incertitude du diagnostic par imagerie ultrasonore. Dans ce contexte, l’élastographie dynamique est prometteuse. Cette technique est inspirée du geste médical de palpation et est basée sur la détermination de la rigidité des tissus, sachant que les lésions en général sont plus rigides que le tissu sain environnant. Le principe de cette technique est de générer des ondes de cisaillement et d'en étudier la propagation de ces ondes afin de remonter aux propriétés mécaniques du milieu via un problème inverse préétabli. Cette thèse vise le développement d'une nouvelle méthode d'élastographie dynamique pour le dépistage précoce des lésions mammaires. L'un des principaux problèmes des techniques d'élastographie dynamiques en utilisant la force de radiation est la forte atténuation des ondes de cisaillement. Après quelques longueurs d'onde de propagation, les amplitudes de déplacement diminuent considérablement et leur suivi devient difficile voir impossible. Ce problème affecte grandement la caractérisation des tissus biologiques. En outre, ces techniques ne donnent que l'information sur l'élasticité tandis que des études récentes montrent que certaines lésions bénignes ont les mêmes élasticités que des lésions malignes ce qui affecte la spécificité de ces techniques et motive la quantification de d'autres paramètres mécaniques (e.g.la viscosité). Le premier objectif de cette thèse consiste à optimiser la pression de radiation acoustique afin de rehausser l'amplitude des déplacements générés. Pour ce faire, un modèle analytique de prédiction de la fréquence de génération de la force de radiation a été développé. Une fois validé in vitro, ce modèle a servi pour la prédiction des fréquences optimales pour la génération de la force de radiation dans d'autres expérimentations in vitro et ex vivo sur des échantillons de tissu mammaire obtenus après mastectomie totale. Dans la continuité de ces travaux, un prototype de sonde ultrasonore conçu pour la génération d'un type spécifique d'ondes de cisaillement appelé ''onde de torsion'' a été développé. Le but est d'utiliser la force de radiation optimisée afin de générer des ondes de cisaillement adaptatives, et de monter leur utilité dans l'amélioration de l'amplitude des déplacements. Contrairement aux techniques élastographiques classiques, ce prototype permet la génération des ondes de cisaillement selon des parcours adaptatifs (e.g. circulaire, elliptique,…etc.) dépendamment de la forme de la lésion. L’optimisation des dépôts énergétiques induit une meilleure réponse mécanique du tissu et améliore le rapport signal sur bruit pour une meilleure quantification des paramètres viscoélastiques. Il est aussi question de consolider davantage les travaux de recherches antérieurs par un appui expérimental, et de prouver que ce type particulier d'onde de torsion peut mettre en résonance des structures. Ce phénomène de résonance des structures permet de rehausser davantage le contraste de déplacement entre les masses suspectes et le milieu environnant pour une meilleure détection. Enfin, dans le cadre de la quantification des paramètres viscoélastiques des tissus, la dernière étape consiste à développer un modèle inverse basé sur la propagation des ondes de cisaillement adaptatives pour l'estimation des paramètres viscoélastiques. L'estimation des paramètres viscoélastiques se fait via la résolution d'un problème inverse intégré dans un modèle numérique éléments finis. La robustesse de ce modèle a été étudiée afin de déterminer ces limites d'utilisation. Les résultats obtenus par ce modèle sont comparés à d'autres résultats (mêmes échantillons) obtenus par des méthodes de référence (e.g. Rheospectris) afin d'estimer la précision de la méthode développée. La quantification des paramètres mécaniques des lésions permet d'améliorer la sensibilité et la spécificité du diagnostic. La caractérisation tissulaire permet aussi une meilleure identification du type de lésion (malin ou bénin) ainsi que son évolution. Cette technique aide grandement les cliniciens dans le choix et la planification d'une prise en charge adaptée.
Resumo:
Le capital humain d’un pays est un facteur important de sa croissance et de son développement à long terme. Selon l’Unicef, ce capital humain est constitué en donnant à chaque enfant un bon départ dans la vie : non seule- ment la possibilité de survivre, mais aussi les conditions nécessaires pour se développer et réaliser tout son potentiel. Malheureusement, cet état de fait est loin d’être une réalité en Afrique Subsaharienne. En effet, selon toujours l’Unicef et sur la base d’enquêtes ménages dans 21 pays d’Afrique de l’Ouest et du Centre, c’est près de 32 millions d’enfants qui ont l’âge officiel d’être scolarisés, mais qui ne le sont pas. A ces chiffres, il faut ajouter 17 millions d’enfants scolarisés qui risquent fortement l’exclusion. De son Côté, l’OMS pointe du doigt la mauvaise santé des enfants dans cette région. Ainsi, les décès d’enfants sont de plus en plus concentrés en Afrique subsaharienne où les enfants ont plus de 15 fois plus de risques de mourir avant l’âge de cinq ans que les enfants des régions développées. Les difficultés économiques apparaissent comme la première explication des obstacles à l’amélioration du bien être des enfants aussi bien du côté de l’offre que de la demande. Cette thèse relie trois essais sur d’une part le lien entre conflit armés, l’éducation et la mortalité des enfants et d’autre part sur le lien entre fertilité et éducation des enfants en milieu urbain. Le premier chapitre identifie l’impact de la crise politico-militaire de la Côte d’Ivoire sur le bien être des enfants, en particulier sur l’éducation et la mor- talité infanto-juvénile en exploitant la variation temporelle et géographique de la crise. Il ressort de cette analyse que les individus qui vivaient dans les régions de conflit et qui ont atteint durant la crise, l’âge officiel d’entrer à l’école ont 10% moins de chance d’être inscrits à l’école. Les élèves qui habitaient dans des régions de conflit pendant la crise ont subit une diminu- tion du nombre d’années scolaire d’au moins une année. Les élèves les plus v vi âgés et qui sont susceptibles d’être au secondaire ont connu une décroissance du nombre d’année scolaire d’au moins deux années. Il ressort également que la crise ivoirienne a accru la mortalité infanto-juvénile d’au moins 3%. Mes résultats suggèrent également que la détérioration des conditions de vie et la limitation de l’utilisation des services de santé au cours du conflit con- tribuent à expliquer ces effets négatifs. Des tests de robustesse incluant un test de placebo suggèrent que les résultats ne sont pas dus à des différences préexistantes entre les régions affectées par le conflit et celles non affectées. Le deuxième chapitre étudie les disparités intra-urbaines en matière d’arbitrage entre le nombre d’enfant et la scolarisation des enfants en se focalisant sur le cas de Ouagadougou (Capitale du Burkina Faso). Dans cette ville, au moins 33% des deux millions d’habitants vivent dans des zones informelles (appelées localement des zones non-loties). Cette sous-population manque d’infrastructures socioéconomiques de base et a un niveau d’éducation très bas. Dans ce chapitre, prenant en compte la possible endogénéité du nombre d’enfants et en utilisant une approche "two-step control function" avec des modèles Probit, nous investiguons les différences de comportement des mé- nages en matière de scolarisation entre zones formelles et zones informelles. Nous nous focalisons en particulier sur l’arbitrage entre la "quantité" et la "qualité" des enfants. Compte tenu de l’hétérogénéité des deux types de zones, nous utilisons les probabilités prédites pour les comparer. Nos princi- pales conclusions sont les suivantes. Tout d’abord, nous trouvons un impact négatif de la taille de la famille sur le niveau de scolarisation dans les deux types de zone. Cependant, nous constatons que l’impact est plus aigu dans les zones informelles. Deuxièmement, si nous supposons que le caractère en- dogène du nombre d’enfants est essentiellement due à la causalité inverse, les résultats suggèrent que dans les zones formelles les parents tiennent compte de la scolarisation des enfants dans la décision de leur nombre d’enfants, mais ce ne est pas le cas dans les zones informelles. Enfin, nous constatons que, pour des familles avec les mêmes caractéristiques observables, la probabilité d’atteindre le niveau post-primaire est plus élevée dans les zones formelles que dans les zones informelles. En terme d’implications politique, selon ces résultats, les efforts pour améliorer la scolarisation des enfants ne doivent pas être dirigées uniquement vers les zones rurales. En plus de réduire les frais de scolarité dans certaines zones urbaines, en particulier les zones informelles, un accent particulier devrait être mis sur la sensibilisation sur les avantages de l’éducation pour le bien-être des enfants et leur famille. Enfin, du point vii de vue méthodologique, nos résultats montrent l’importance de tenir compte de l’hétérogénéité non observée entre les sous-populations dans l’explication des phénomènes socio-économiques. Compte tenu du lien négatif entre la taille de la famille et la scolarisation des enfants d’une part et les différences intra-urbaines de comportement des ménages en matière de scolarisation, le trosième chapitre étudie le rôle des types de méthodes contraceptives dans l’espacement des naissances en mi- lieu urbain. Ainsi, en distinguant les méthodes modernes et traditionnelles et en utilisant l’histoire génétique des femmes, ce chapitre fait ressortir des différences de comportement en matière de contraception entre les femmes des zones formelles et informelles à Ouagadougou (capitale du Burkina Faso). Les résultats montrent que les deux types de méthodes contraceptives aug- mentent l’écart des naissances et diminuent la probabilité qu’une naissance se produise moins de 24 mois après la précédente. Prendre en compte les caractéristiques non observées mais invariants avec le temps ne modifie pas significativement l’amplitude du coefficient de l’utilisation de la contracep- tion moderne dans les deux types de zone. Toutefois, dans la zone informelle, la prise en compte les effets fixes des femmes augmentent significativement l’effet des méthodes traditionnelles. Les normes sociales, la perception de la planification familiale et le rôle du partenaire de la femme pourraient expli- quer ces différences de comportement entre les zones formelles et informelles. Par conséquent, pour améliorer l’utilisation de la contraception et de leur efficacité, il est essentiel de hiérarchiser les actions en fonction du type de sous-population, même dans les zones urbaines.
Resumo:
Injectable drug nanocarriers have greatly benefited in their clinical development from the addition of a superficial hydrophilic corona to improve their cargo pharmacokinetics. The most studied and used polymer for this purpose is poly(ethylene glycol), PEG. However, in spite of its wide use for over two decades now, there is no general consensus on the optimum PEG chain coverage-density and size required to escape from the mononuclear phagocyte system and to extend the circulation time. Moreover, cellular uptake and active targeting may have conflicting requirements in terms of surface properties of the nanocarriers which complicates even more the optimization process. These persistent issues can be largely attributed to the lack of straightforward characterization techniques to assess the coverage-density, the conformation or the thickness of a PEG layer grafted or adsorbed on a particulate drug carrier and is certainly one of the main reasons why so few clinical applications involving PEG coated particle-based drug delivery systems are under clinical trial so far. The objective of this review is to provide the reader with a brief description of the most relevant techniques used to assess qualitatively or quantitatively PEG chain coverage-density, conformation and layer thickness on polymeric nanoparticles. Emphasis has been made on polymeric particle (solid core) either made of copolymers containing PEG chains or modified after particle formation. Advantages and limitations of each technique are presented as well as methods to calculate PEG coverage-density and to investigate PEG chains conformation on the NP surface.