966 resultados para Laminated tape
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Nous proposons de construire un atlas numérique 3D contenant les caractéristiques moyennes et les variabilités de la morphologie d’un organe. Nos travaux seront appliqués particulièrement à la construction d'un atlas numérique 3D de la totalité de la cornée humaine incluant la surface antérieure et postérieure à partir des cartes topographiques fournies par le topographe Orbscan II. Nous procédons tout d'abord par normalisation de toute une population de cornées. Dans cette étape, nous nous sommes basés sur l'algorithme de recalage ICP (iterative closest point) pour aligner simultanément les surfaces antérieures et postérieures d'une population de cornée vers les surfaces antérieure et postérieure d'une cornée de référence. En effet, nous avons élaboré une variante de l'algorithme ICP adapté aux images (cartes) de cornées qui tient compte de changement d'échelle pendant le recalage et qui se base sur la recherche par voisinage via la distance euclidienne pour établir la correspondance entre les points. Après, nous avons procédé pour la construction de l'atlas cornéen par le calcul des moyennes des élévations de surfaces antérieures et postérieures recalées et leurs écarts-types associés. Une population de 100 cornées saines a été utilisée pour construire l'atlas cornéen normal. Pour visualiser l’atlas, on a eu recours à des cartes topographiques couleurs similairement à ce qu’offrent déjà les systèmes topographiques actuels. Enfin, des observations ont été réalisées sur l'atlas cornéen reflétant sa précision et permettant de développer une meilleure connaissance de l’anatomie cornéenne.
Resumo:
La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.
Resumo:
La protection des renseignements personnels est au cœur des préoccupations de tous les acteurs du Web, commerçants ou internautes. Si pour les uns trop de règles en la matière pourraient freiner le développement du commerce électronique, pour les autres un encadrement des pratiques est essentiel à la protection de leur vie privée. Même si les motivations de chacun sont divergentes, le règlement de cette question apparaît comme une étape essentielle dans le développement du réseau. Le Platform for Privacy Preference (P3P) propose de contribuer à ce règlement par un protocole technique permettant la négociation automatique, entre l’ordinateur de l’internaute et celui du site qu’il visite, d’une entente qui encadrera les échanges de renseignements. Son application pose de nombreuses questions, dont celle de sa capacité à apporter une solution acceptable à tous et surtout, celle du respect des lois existantes. La longue et difficile élaboration du protocole, ses dilutions successives et sa mise en vigueur partielle témoignent de la difficulté de la tâche à accomplir et des résistances qu’il rencontre. La première phase du projet se limite ainsi à l’encodage des politiques de vie privée des sites et à leur traduction en termes accessibles par les systèmes des usagers. Dans une deuxième phase, P3P devrait prendre en charge la négociation et la conclusion d’ententes devant lier juridiquement les parties. Cette tâche s’avère plus ardue, tant sous l’angle juridique que sous celui de son adaptation aux us et coutumes du Web. La consolidation des fonctions mises en place dans la première version apparaît fournir une solution moins risquée et plus profitable en écartant la possible conclusion d’ententes incertaines fondées sur une technique encore imparfaite. Mieux éclairer le consentement des internautes à la transmission de leurs données personnelles par la normalisation des politiques de vie privée pourrait être en effet une solution plus simple et efficace à court terme.
Resumo:
"Dans cet article, l’auteur, qui est docteur en droit et doctorant en sociologie, tente de refaire le long cheminement historique qui conduit à la reconnaissance de la vie privée, telle que nous la connaissons aujourd’hui dans les sociétés du capitalisme libéral. Texte synthèse d’une première étape d’une recherche plus vaste sur les conséquences de l’introduction des NTIC à l’égard du respect de la vie privée dans nos sociétés contemporaines, ce texte met en lumière un certain nombre de phénomènes à l’égard du concept de vie privée. D’abord, l’auteur constate le décalage fondamental qui existe entre la protection de la vie privée des individus en fonction de la classe sociale à laquelle ils sont associés et ce, à travers l’ensemble des modes de production de la richesse sociale ayant existé historiquement. Ensuite, l’auteur montre que les sociétés où l’espace public fut le plus étroit sont également celles où la vie privée fut, dans les faits, le moins bien protégé. Les sociétés ayant poussé le plus loin le concept de privatisation sont, du point de vue des valeurs sociales associées au progrès, les plus arriérés et les moins intéressantes. En conséquence, de l’opinion de l’auteur, les tentatives des courants néolibéraux d’aller vers une plus large privatisation de la société constitueraient un nouveau recul pour la protection de la vie privée elle-même. Plus fondamentalement, l’auteur conclut que la vie privée « n’est que l’expression matérielle et symbolique des rapports de pouvoir dans la société; ce n’est que le nom que nous donnons aux privilèges des uns à l’égard des droits des autres ». Finalement, l’auteur s’interroge sur les conséquences, à l’égard de la protection de la vie privée, de l’introduction des NTIC. À son opinion, et contrairement aux points de vue généralement entendus sur cette question, les NTIC ne constituent pas, malgré les apparences, un changement qualitatif ou d’échelle justifiant la mise en place des nouvelles normes juridiques qui auraient pour conséquence de réduire l’espace public et celui de la liberté d’expression dans le cyberespace, et qui constitueraient, dans les faits, une nouvelle forme de censure."
Resumo:
Introduction: En réponse aux exigences du gouvernement fédéral en ce qui concerne les temps d'attente pour les chirurgies électives d’hanche et du genou, les Organismes Canadiens de santé ont adopté des stratégies de gestion pour les listes d'attente. Cependant, il n'existe pas actuellement aucune information disponible concernant les effets imprévus, positive ou négative, de ces stratégies. Méthodologie: Un modèle qui a été construit est tombé en panne la gestion de la chirurgie d’hanche et du genou en différentes étapes, afin d'identifier les effets imprévus possibles pour chaque étape; le modèle a été validé auprès d'un panel d'experts. Cette étude a choisi quatre études de cas en fonction de leur durabilité: un cas qui a été durable, un cas qui a été modérément durable, et deux cas peu probable d'être durable. Dans cette étude qualitative, nous avons mené 31 entretiens semi-structurés entre Novembre 2010 et Juin 2011 avec les gestionnaires, les infirmières, les thérapeutes et les chirurgiens impliqués dans la gestion des stratégies du temps d’attente pour les chirurgies électives d’hanche et du genou. Les quatre cas ont été sélectionnés à partir de trois provinces / régions. Nous avons analysé les conséquences non intentionnelles aux niveaux systémique et organisationnelle en utilisant les stratégies dans chaque contexte. Enregistrements des entrevues ont été transcrits mot à mot et soumis à l'analyse du cadre. Résultats: Les effets négatifs sont la précarité des stratégies en raison du non-récurrente financement, l'anxiété chez les patients qui ne sont pas prêts pour la chirurgie, une redistribution du temps de chirurgie vers l’orthopédie au détriment des autres interventions chirurgicales, tensions entre les chirurgiens et entre les orthopédistes et anesthésistes, et la pression sur le personnel dans le bloc opératoire et postopératoire. Conclusion: La stratégie d’implémentation aux niveaux national et local devrait prendre en compte les conséquences potentielles, positives et négatives. Il y a des conséquences inattendues à chaque niveau de l'organisation des soins de santé. Individuellement et collectivement, ces conséquences peuvent positivement et négativement affecter les résultats. Par conséquent, la planification de la santé doit analyser et prendre en compte les conséquences inattendues en termes de bonnes résultats inattendues, compromis et les conséquences négatives afin d'améliorer les résultats.
Resumo:
Listeria monocytogenes (L. monocytogenes) est un pathogène majeur en santé publique comme les épisodes de 2008 dans les fromages et les charcuteries l’ont démontré. Au Canada, il n’y a pas de surveillance règlementaire de ce microorganisme dans les étapes précédant la transformation de produits prêts-à-manger. Ainsi, la présence et la circulation de ce microorganisme dans ces environnements est peu documentée. Pour décrire ces phénomènes, nous avons effectué un échantillonnage dans une usine d’abattage et de découpe de porcs au Québec, principalement dans les parcs d’attente, et dans l’environnement de l’abattage et de découpe : les échantillonages ont été effectués après lavage et désinfection sur une période de 2 ans. Un nombre de 874 échantillons a été récoltés. Le protocole de détection utilisé était inspiré de la méthode MFHPB-30 de Santé Canada. Les sérotypes ont été obtenus par PCR et les isolats caractérisés par un génotypage RFLP-PFGE en utilisant les enzymes de restriction Apa1 et Asc1. Nous avons détecté la présence de Listeria monocytogemes dans toutes ces étapes de la production. De ces échantillons positifs, 4 sérotypes (principalement 1/2b) ont émergé. Les patrons PFGE ont démontré la présence d’une variété de génotypes dans les zones d’attente et d’abattage de l’usine et la présence d’un type majeur dans l’environnement de la zone de découpe (le type 1 représentant 96.1% des souches à cette étape). De plus, nous avons démontré des liens entre les souches retrouvés au début de la production, en attente, et les souches retrouvées dans la zone de découpe. Ces résultats suggèrent que Listeria monocytogenes entre dans l’usine avec les animaux, contamine les étapes suivantes de la production et que certaines souches peuvent être sélectionnées et leur croissance favorisé dans l’environnement, devenant majoritaires, persistantes et préoccupantes en regars de la santé publique.
Resumo:
Les immunoglobulines intraveineuses (IVIg) constituent une préparation polyclonale d’IgG isolée et regroupée à partir du plasma sanguin de multiples donneurs. Initialement utilisé comme traitement de remplacement chez les patients souffrant d’immunodéficience primaire ou secondaire, les IVIg sont maintenant largement utilisées dans le traitement de plusieurs conditions auto-immunes, allergiques ou inflammatoires à une dose élevée, dite immunomodulatrice. Différents mécanismes d’action ont été postulés au fil des années pour expliquer l’effet thérapeutique des IVIg dans les maladies auto-immunes et inflammatoires. Entre autre, un nombre grandissant de données issues de modèles expérimentaux chez l’animal et l’humain suggère que les IVIg induisent l’expansion et augmentent l’action suppressive des cellules T régulatrices (Tregs), par un mécanisme qui demeure encore inconnu. Également, les patients atteints de maladies auto-immunes ou inflammatoires présentent souvent un nombre abaissé de Tregs par rapport aux individus sains. Ainsi, une meilleure compréhension des mécanismes par lesquels les IVIg modulent les cellules T régulatrices est requise afin de permettre un usage plus rationnel de ce produit sanguin en tant qu’alternative thérapeutique dans le traitement des maladies auto-immunes et inflammatoires. Par le biais d’un modèle expérimental d’allergie respiratoire induite par un allergène, nous avons démontré que les IVIg diminuaient significativement l’inflammation au niveau des voies aériennes ce, en association avec une différenciation des Tregs à partir des cellules T non régulatrices du tissu pulmonaire. Nous avons également démontré qu’au sein de notre modèle expérimental, l’effet anti-inflammatoire des IVIg était dépendant des cellules dendritiques CD11c+ (CDs) pulmonaires, puisque cet effet pouvait être complètement reproduit par le transfert adoptif de CDs provenant de souris préalablement traitées par les IVIg. À cet effet, il est déjà établi que les IVIg peuvent moduler l’activation et les propriétés des CDs pour favoriser la tolérance immunitaire et que ces cellules seraient cruciales pour l’induction périphérique des Tregs. C’est pourquoi, nous avons cherché à mieux comprendre comment les IVIg exercent leur effet sur ces cellules. Pour la première fois, nous avons démontré que la fraction d’IgG riche en acide sialique (SA-IVIg) (constituant 2-5% de l’ensemble des IgG des donneurs) interagit avec un récepteur dendritique inhibiteur de type lectine C (DCIR) et active une cascade de signalement intracellulaire initiée par la phosphorylation du motif ITIM qui est responsable des changements observés en faveur de la tolérance immunitaire auprès des cellules dendritiques et des Tregs. L’activité anti-inflammatoire de la composante SA-IVIg a déjà été décrite dans des études antérieures, mais encore une fois le mécanisme par lequel ce traitement modifie la fonction des CDs n’a pas été établi. Nous avons finalement démontré que le récepteur DCIR facilite l’internalisation des molécules d’IgG liées au récepteur et que cette étape est cruciale pour permettre l’induction périphérique des Tregs. En tant que produit sanguin, les IVIg constitue un traitement précieux qui existe en quantité limitée. La caractérisation des mécanismes d’action des IVIg permettra une meilleure utilisation de ce traitement dans un vaste éventail de pathologies auto-immunes et inflammatoires.
Resumo:
En ce qui concerne la littérature féministe, il s’y trouve un chevauchement important et intéressant entre le manifesto en tant que forme littéraire et la fiction utopique. Les deux se servent d’une image imaginée de l'avenir ou d'un meilleur état futur pour critiquer et dénoncer tant les conditions actuelles que celles du passée qui ont donné naissance à celles-là. Cette thèse aborde à la fois le manifesto et la fiction utopique / dystopique pour élaborer les conditions de l’espace essentiel des femmes et du féminin. Ce lieu utopique se veut plus qu'un endroit où aller ; il exprime les origines du féminin, lesquelles vont au-delà de ce qui est masculin en visant un épanouissement du féminin en dehors et au-delà de la stricte dichotomie masculin-féminin de la société patriarcale. J'examine d'abord les termes en usage puis je discute du manifesto comme une forme littéraire d'un intérêt particulier pour les écrivains féministes. Je passe ensuite en revue des théories de fiction utopique, lesquelles me conduisent à des possibilités fructueuses du langage pour assurer une voix aux femmes ainsi que l’expression du féminin. Je prends comme exemple le livre The Activist de Renée Gladman pour appuyer mes arguments concernant le pouvoir performatif du manifesto comme une forme qui s’empiète sur la fiction utopique dans le but d'imaginer l'espace du féminin. Dans la deuxième partie de la thèse, j’entre dans une utopie fictive dans le cadre d'une exploration personnelle de ce qu’est le féminin et son expression. Le récit emmène le lecteur au pays de Cwenaland. A chaque étape de la narration d’autres voix percent et découpent le texte. Certaines sont sous la forme d'une image ou d'un portrait, d'autres sont des cris ou des gémissements qui dérangent la voix narrative. Ces voix en tangente et en diagonale enracinent mon utopie fictive dans la diversité d'expérience et d'expression féminine.
Resumo:
Depuis la fin de la Guerre froide, la pratique de l’aide humanitaire est principalement devenue l’apanage des Occidentaux et de ses alliés, contribuant à l’émergence d’une norme d’intervention (néo)libérale. Cette recherche vise à déterminer s’il existe une pratique alternative; dans cette optique, le cas de l’humanitarisme cubain sera analysé. À partir d’une revue de la littérature et d’un travail de terrain conduit à Cuba auprès de coopérants ayant servi dans le cadre de « missions internationalistes », cette recherche se déroule selon trois étapes principales. Dans un premier temps, il s’agira, à partir des études réalisées par les auteurs post-foucaldiens tels que Duffield, Pupavac, McFalls et Pandolfi, de déterminer la nouvelle tendance de l’aide humanitaire apparue au sortir de la Guerre froide. Cette dernière a été représentée sous une forme idéal-typique par Laurence McFalls qui a identifié l’exercice de la gouvernementalité (thérapeutique) (néo)libérale sur les terrains d’intervention. Dans un deuxième temps, le coeur du travail consistera à élaborer l’idéal-type du modèle d’intervention cubain à partir des entrevues réalisées à Cuba. Dans cette seconde étape, il conviendra de caractériser la logique de l’action de l’humanitarisme cubain n’ayant pas encore été établie par les chercheurs. La troisième étape reposera sur la comparaison critique entre les deux idéauxtypes ayant été présentés, dans le but, ultimement, de déterminer si l’humanitarisme cubain s’inscrit dans la norme (néo)libérale ou si, au contraire, il présente une alternative à celle-ci. Ceci permettra d’élaborer une réflexion sur l’hégémonie, la domination légitime et la place de l’humanitaire dans les relations internationales.
Resumo:
Les papillomavirus sont de petits virus à ADN double brin qui infectent les cellules de l’épithélium de la peau et des muqueuses d’une variété de vertébrés causant des lésions bénignes telles des verrues. Certains de ces virus sont également associés au développement de lésions malignes, notamment le cancer du col utérin. La protéine régulatrice E2 des papillomavirus est impliquée dans diverses fonctions contribuant à l’établissement de l’infection par ces virus. Entre autre, E2 régule la transcription des gènes viraux, participe à l’initiation de la réplication de l’ADN viral en s’associant à l’hélicase virale E1 et est responsable du maintien et de la ségrégation de l’épisome viral au cours de la division cellulaire. Toutes ces activités sont attribuables à la capacité de E2 à s’associer au génome viral et à interagir avec des protéines virales et cellulaires. De plus, ces fonctions sont elles-mêmes régulées par des modifications post-traductionnelles de la protéine E2. Plusieurs études ont été réalisées afin de découvrir les mécanismes de régulation des fonctions de E2 mais le rôle exact des différents domaines de E2 dans ces contrôles reste à être défini. En premier lieu, nous nous sommes intéressés à l’interaction entre E2 et Brd4(L) qui avait été définie comme étant essentielle à la ségrégation de l’épisome. Plusieurs caractéristiques associées à la protéine Brd4(L) telles que sa capacité à lier les lysines acétylées des histones, son interaction avec le complexe Mediator et sa participation à l’activation de la transcription en formant un complexe avec pTEFb, nous ont permis d’émettre l’hypothèse que l’interaction E2-Brd4(L) est nécessaire à l’activité transcriptionnelle de E2. Nous avons démontré que la protéine Brd4(L) interagit avec le domaine de transactivation de E2 de divers types de papillomavirus. De plus, cette interaction implique les résidus de E2 essentiels à son activité transcriptionnelle. Ainsi, ces résultats proposent que l’association E2-Brd4(L) serve à la régulation de la transcription des gènes viraux. Dans un second temps, nos recherches se sont concentrées sur l’existence d’une interface de dimérisation au sein du domaine de transactivation de E2 et de son implication dans les activités transcriptionnelles et réplicatives de la protéine. Nos études ont aussi mis en évidence que l’intégrité de la structure de ce domaine contribue au bon fonctionnement de la réplication du génome viral. Cette découverte suggère que la dimérisation de E2 peut réguler l’initiation de la réplication et propose l’existence d’un niveau de régulation additionnel impliquant l’état de la structure quaternaire de la protéine E2 et une modulation de l’interaction entre E1 et E2 à cette étape du cycle viral. Finalement, l’étude de l’instabilité de la protéine E2 nous a permis de définir une région importante dans le domaine flexible de la protéine, nécessaire à sa dégradation par le protéasome. De plus, la présence de résidus conservés localisés dans ce domaine, sont associés à la dégradation et portent la signature d’un signal de localisation nucléaire de type PY-NLS, suggérant que la stabilité de la protéine E2 est régulée par sa localisation au sein de la cellule. Ces études démontrent l’existence de nouvelles stratégies de régulation des activités transcriptionnelle et réplicative de la protéine E2 des papillomavirus. La compréhension de ces mécanismes nous permet de mieux cerner les étapes favorisant l’établissement et la progression du cycle viral et d’identifier de nouvelles cibles thérapeutiques contre les infections aux papillomavirus.
Resumo:
La violence conjugale est un phénomène criminel fréquent au Québec. En 2008, les infractions commises en contexte conjugal représentaient plus de 20 % des crimes contre la personne signalés à la police (Ministère de la Sécurité publique, 2010). L’intervention policière et judiciaire en contexte conjugal est complexe, notamment en raison du lien unissant l’agresseur et la victime. Bien que le pouvoir discrétionnaire des intervenants judiciaires en contexte conjugal ait été grandement limité au cours des dernières décennies, ceux-ci bénéficient toujours d’une certaine latitude dans leur décision de poursuivre, ou non, différentes étapes du processus judiciaire. Au fil du temps, plusieurs études se sont intéressées aux éléments influençant la prise de décision en contexte conjugal. Cependant, celles-ci ne portent généralement que sur une seule étape du processus et certains facteurs décisionnels n’ont jamais été testés empiriquement. C’est notamment le cas des éléments liés aux stéréotypes de la violence conjugale. Certains auteurs mentionnent que les incidents qui ne correspondent pas au stéréotype de l’agresseur masculin violentant une victime qualifiée d’irréprochable et d’innocente font l’objet d’un traitement judiciaire plus sommaire, mais ces affirmations ne reposent, à notre connaissance, sur aucune donnée empirique. Cette étude tente de vérifier cette hypothèse en examinant l’impact de ces éléments sur cinq décisions policières et judiciaires. À partir d’une analyse de contenu quantitative de divers documents liés au cheminement judiciaire de 371 incidents commis en contexte conjugal sur le territoire du Centre opérationnel Nord du Service de police de la Ville de Montréal en 2008, la thèse examine l’utilisation du pouvoir discrétionnaire dans le traitement judiciaire de ces incidents. Elle comporte trois objectifs spécifiques. Le premier objectif permet la description du cheminement judiciaire des incidents commis en contexte conjugal. Nos résultats indiquent que ceux-ci font l’objet d’un traitement plus punitif puisqu’ils font plus fréquemment l’objet de procédures à la cour que les autres types de crimes. Cette judiciarisation plus systématique pourrait expliquer le faible taux de condamnation de ceux-ci (17,2 %). Le second objectif permet la description des principales caractéristiques de ces incidents. La majorité implique des gestes de violence physique et les policiers interviennent généralement auprès de conjoints actuels. La plupart des victimes rapportent la présence de violences antérieures au sein du couple et le tiers veulent porter plainte contre le suspect. Finalement, 78 % des incidents impliquent un agresseur masculin et une victime féminine et 14,29 % des victimes sont soupçonnées d’avoir posé le premier geste hostile ou violent lors de l’incident. Le dernier objectif permet l’identification des principaux éléments associés aux décisions prises en contexte conjugal. Les résultats confirment l’hypothèse selon laquelle les incidents n’impliquant pas un agresseur masculin et une victime féminine ou ceux dont les policiers soupçonnent la victime d’avoir posé le premier geste hostile ou violent font l’objet d’un traitement judiciaire plus sommaire. En outre, la majorité des facteurs décisionnels étudiés perdent de leur influence au cours du processus judiciaire et les décisions prises précédemment influencent fortement les décisions subséquentes. Finalement, le désir de porter plainte de la victime n’influence pas directement les décisions des intervenants judiciaires.
Resumo:
Dans cette thèse, nous démontrons des travaux sur la synthèse à faible coût des matériaux de cathode et l'anode pour les piles lithium-ion. Pour les cathodes, nous avons utilisé des précurseurs à faible coût pour préparer LiFePO4 et LiFe0.3Mn0.7PO4 en utilisant une méthode hydrothermale. Tout d'abord, des matériaux composites (LiFePO4/C) ont été synthétisés à partir d'un précurseur de Fe2O3 par une procédé hydrothermique pour faire LiFePO4(OH) dans une première étape suivie d'une calcination rapide pour le revêtement de carbone. Deuxièmement, LiFePO4 avec une bonne cristallinité et une grande pureté a été synthétisé en une seule étape, avec Fe2O3 par voie hydrothermale. Troisièmement, LiFe0.3Mn0.7PO4 a été préparé en utilisant Fe2O3 et MnO comme des précurseurs de bas coûts au sein d'une méthode hydrothermale synthétique. Pour les matériaux d'anode, nous avons nos efforts concentré sur un matériau d'anode à faible coût α-Fe2O3 avec deux types de synthèse hydrothermales, une a base de micro-ondes (MAH) l’autre plus conventionnelles (CH). La nouveauté de cette thèse est que pour la première fois le LiFePO4 a été préparé par une méthode hydrothermale en utilisant un précurseur Fe3+ (Fe2O3). Le Fe2O3 est un précurseur à faible coût et en combinant ses coûts avec les conditions de synthèse à basse température nous avons réalisé une réduction considérable des coûts de production pour le LiFePO4, menant ainsi à une meilleure commercialisation du LiFePO4 comme matériaux de cathode dans les piles lithium-ion. Par cette méthode de préparation, le LiFePO4/C procure une capacité de décharge et une stabilité de cycle accrue par rapport une synthétisation par la méthode à l'état solide pour les mêmes précurseurs Les résultats sont résumés dans deux articles qui ont été récemment soumis dans des revues scientifiques.
Resumo:
Les fichiers qui accompagnent mon document ont été réalisés avec le logiciel Latex et les simulations ont été réalisés par Splus(R).
Resumo:
Ce travail de thèse porte sur l’application de la pharmacocinétique de population dans le but d’optimiser l’utilisation de certains médicaments chez les enfants immunosupprimés et subissant une greffe. Parmi les différents médicaments utilisés chez les enfants immunosupprimés, l’utilisation du busulfan, du tacrolimus et du voriconazole reste problématique, notamment à cause d’une très grande variabilité interindividuelle de leur pharmacocinétique rendant nécessaire l’individualisation des doses par le suivi thérapeutique pharmacologique. De plus, ces médicaments n’ont pas fait l’objet d’études chez les enfants et les doses sont adaptées à partir des adultes. Cette dernière pratique ne prend pas en compte les particularités pharmacologiques qui caractérisent l’enfant tout au long de son développement et rend illusoire l’extrapolation aux enfants des données acquises chez les adultes. Les travaux effectués dans le cadre de cette thèse ont étudié successivement la pharmacocinétique du busulfan, du voriconazole et du tacrolimus par une approche de population en une étape (modèles non-linéaires à effets mixtes). Ces modèles ont permis d’identifier les principales sources de variabilités interindividuelles sur les paramètres pharmacocinétiques. Les covariables identifiées sont la surface corporelle et le poids. Ces résultats confirment l’importance de tenir en compte l’effet de la croissance en pédiatrie. Ces paramètres ont été inclus de façon allométrique dans les modèles. Cette approche permet de séparer l’effet de la mesure anthropométrique d’autres covariables et permet la comparaison des paramètres pharmacocinétiques en pédiatrie avec ceux des adultes. La prise en compte de ces covariables explicatives devrait permettre d’améliorer la prise en charge a priori des patients. Ces modèles développés ont été évalués pour confirmer leur stabilité, leur performance de simulation et leur capacité à répondre aux objectifs initiaux de la modélisation. Dans le cas du busulfan, le modèle validé a été utilisé pour proposer par simulation une posologie qui améliorerait l’atteinte de l’exposition cible, diminuerait l’échec thérapeutique et les risques de toxicité. Le modèle développé pour le voriconazole, a permis de confirmer la grande variabilité interindividuelle dans sa pharmacocinétique chez les enfants immunosupprimés. Le nombre limité de patients n’a pas permis d’identifier des covariables expliquant cette variabilité. Sur la base du modèle de pharmacocinétique de population du tacrolimus, un estimateur Bayesien a été mis au point, qui est le premier dans cette population de transplantés hépatiques pédiatriques. Cet estimateur permet de prédire les paramètres pharmacocinétiques et l’exposition individuelle au tacrolimus sur la base d’un nombre limité de prélèvements. En conclusion, les travaux de cette thèse ont permis d’appliquer la pharmacocinétique de population en pédiatrie pour explorer les caractéristiques propres à cette population, de décrire la variabilité pharmacocinétique des médicaments utilisés chez les enfants immunosupprimés, en vue de l’individualisation du traitement. Les outils pharmacocinétiques développés s’inscrivent dans une démarche visant à diminuer le taux d'échec thérapeutique et l’incidence des effets indésirables ou toxiques chez les enfants immunosupprimés suite à une transplantation.