996 resultados para Complexe Desjardins
Resumo:
Cette thèse porte sur la reconstruction active de modèles 3D à l’aide d’une caméra et d’un projecteur. Les méthodes de reconstruction standards utilisent des motifs de lumière codée qui ont leurs forces et leurs faiblesses. Nous introduisons de nouveaux motifs basés sur la lumière non structurée afin de pallier aux manques des méthodes existantes. Les travaux présentés s’articulent autour de trois axes : la robustesse, la précision et finalement la comparaison des patrons de lumière non structurée aux autres méthodes. Les patrons de lumière non structurée se différencient en premier lieu par leur robustesse aux interréflexions et aux discontinuités de profondeur. Ils sont conçus de sorte à homogénéiser la quantité d’illumination indirecte causée par la projection sur des surfaces difficiles. En contrepartie, la mise en correspondance des images projetées et capturées est plus complexe qu’avec les méthodes dites structurées. Une méthode d’appariement probabiliste et efficace est proposée afin de résoudre ce problème. Un autre aspect important des reconstructions basées sur la lumière non structurée est la capacité de retrouver des correspondances sous-pixels, c’est-à-dire à un niveau de précision plus fin que le pixel. Nous présentons une méthode de génération de code de très grande longueur à partir des motifs de lumière non structurée. Ces codes ont l’avantage double de permettre l’extraction de correspondances plus précises tout en requérant l’utilisation de moins d’images. Cette contribution place notre méthode parmi les meilleures au niveau de la précision tout en garantissant une très bonne robustesse. Finalement, la dernière partie de cette thèse s’intéresse à la comparaison des méthodes existantes, en particulier sur la relation entre la quantité d’images projetées et la qualité de la reconstruction. Bien que certaines méthodes nécessitent un nombre constant d’images, d’autres, comme la nôtre, peuvent se contenter d’en utiliser moins aux dépens d’une qualité moindre. Nous proposons une méthode simple pour établir une correspondance optimale pouvant servir de référence à des fins de comparaison. Enfin, nous présentons des méthodes hybrides qui donnent de très bons résultats avec peu d’images.
Resumo:
Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.
Resumo:
La plasticité synaptique activité-dépendante forme la base physiologique de l’apprentissage et de la mémoire dépendants de l’hippocampe. Le rôle joué par les différents sous-types d’interneurones dans l’apprentissage et la mémoire hippocampiques reste inconnu, mais repose probablement sur des mécanismes de la plasticité spécifique aux synapses de certains sous-types d’interneurones. Les synapses excitatrices établies sur les interneurones de l’oriens-alveus dans l’aire CA1 exhibent une forme persistante de potentialisation à long terme induite par la stimulation chimique des récepteurs métabotropiques du glutamate de type 1 (mGluR1) [mGluR1-mediated chemical late long-term potentiation (cL-LTPmGluR1)]. Le présent projet de recherche avait pour objectifs d’identifier les sous-types d’interneurones de l’oriens-alveus exprimant la cL-LTPmGluR1 et d’examiner les mécanismes d’induction et d’expression de celle-ci. Nous avons déterminé que la stimulation répétée des mGluR1 induit de la cL-LTPmGluR1 aux synapses excitatrices établies sur le sous-type d’interneurones exprimant le peptide somatostatine (SOM-INs). Des enregistrements électrophysiologiques couplés à des inhibiteurs pharmacologiques et à un knock-out fonctionnel de mammalian target of rapamycin complexe 1 (mTORC1) ont montré que l’induction de la cL-LTPmGluR1 (qui consiste en trois applications de l’agoniste des mGluR1/5, le (S)-3,5-dihydroxyphénylglycine (DHPG) en présence de l’antagoniste des récepteurs métabotropiques du glutamate de type 5 (mGluR5), le 2-méthyl-6-(phényléthynyl)-pyridine (MPEP)) des SOM-INs requiert les voies de signalisation des mGluR1, de extracellular signal-regulated protein kinase (ERK) et de mTORC1. L’ensemble de nos résultats montre qu’une forme persistante de plasticité synaptique sous-tendue par mTORC1 est induite par la stimulation répétée des mGluR1 dans les interneurones hippocampiques exprimant le peptide somatostatine. La connaissance des mécanismes sous-tendant la cL-LTPmGluR1, couplée à l’utilisation de modèles animal in vivo, rendront maintenant possible le blocage de la cL-LTPmGluR1 dans les SOM-INs et l’examen de son rôle dans l’apprentissage et la mémoire dépendants de l’hippocampe.
Resumo:
L'enseignement des sciences est souvent perçu, par les enseignants, comme une discipline complexe à enseigner. La formation continue permet de modifier cette perception en offrant de l'accompagnement pédagogique pour développer les pratiques d'enseignement des sciences et rehausser le sentiment d'efficacité des enseignants. Cette recherche s'intéresse aux effets d'une formation continue sur le sentiment d'efficacité des enseignants et leur enseignement des sciences au primaire. L'approche choisie est celle d'une recherche qualitative et la méthode est celle de l'étude de cas, de type exploratoire. Dans le cadre de cette recherche, six enseignants ayant suivi divers programmes de formation continue afin de développer leur pratique d'enseignement des sciences ont été rencontrés. Des entrevues et des observations (grilles basées sur l'échelle du sentiment d'efficacité des enseignants (STEBI)) sont utilisées pour la collecte de données. Les résultats de l'analyse de données indiquent, dans un premier temps, que les enseignants rencontrés perçoivent que la formation continue a des effets positifs sur leur sentiment d'efficacité, notamment en ce qui a trait à la première dimension relative à la compétence à enseigner les sciences (CE). Dans un deuxième temps, la comparaison des données des pratiques déclarées et des pratiques effectives révèlent l'apport considérable de l'engagement du milieu et de la collaboration des pairs sur le développement de la deuxième dimension relative à l'efficacité de l'enseignement (EE).
Resumo:
On retrouve dans le complexe Chrosomus eos-neogaeus une forme cybride ayant le génome nucléaire de C. eos et le génome mitochondrial de C. neogaeus. Ce modèle particulier fournit une occasion unique d’étudier l’influence d’une mitochondrie exogène sur le métabolisme et la physiologie d'organismes vivant en milieu naturel, et s'étant donc adaptés à cette situation cellulaire atypique. La mitochondrie jouant un rôle fondamental vital, nous nous attendons à ce que la présence d’une mitochondrie exogène chez la forme cybride ait un impact sur l’expression de son génome et du protéome qui en découle. L’objectif de ce projet est d’étudier les différences au niveau protéomique entre des individus C. eos purs (forme sauvage) et des cybrides provenant d'habitats similaires afin de faire ressortir au maximum les différences dues à la présence de mitochondries C. neogaeus chez la forme cybride. Pour ce faire, nous avons comparé les protéomes des formes cybride et sauvage en utilisant l'électrophorèse en deux dimensions. Un sous-groupe de protéines produisant un signal spécifique révélé par l’analyse comparative a été identifié et analysé par spectrométrie de masse (LC/MS). Les résultats indiquent que la présence de mitochondries C. neogaeus chez le cybride influence fortement la régulation génique chez ce dernier. De plus, les protéines identifiées apportent des pistes intéressantes supportant l'hypothèse que la présence de mitochondries C. neogaeus chez le cybride rendrait ce biotype plus résistant au froid que la forme sauvage.
Resumo:
L’annonce d’un diagnostic de cancer devrait être considérée par les professionnels de la santé, comme un processus constitué de plusieurs étapes que doit traverser la personne atteinte, plutôt que comme un évènement en soi (Tobin & Begley, 2008). Lors de la période entourant l’annonce du diagnostic, la personne peut être confrontée à des difficultés reliées à la navigation dans un système de santé complexe, en plus des sentiments négatifs engendrés par la crainte de la maladie. Pour soutenir les personnes atteintes de cancer, le programme québécois de lutte contre le cancer (PQLCC), a instauré le rôle de l’infirmière pivot en oncologie (IPO) en 2000. À l’heure actuelle, peu d’études, à notre connaissance, se sont attardées au soutien de l’IPO dans cette période. La présente étude avait pour but, d’explorer les perceptions de personnes atteintes de cancer quant au soutien offert par l’IPO, dans la période entourant l’annonce du diagnostic. L’étudiante-chercheuse s’est inspirée du Cadre de soins de soutien de Fitch (1994) pour entreprendre cette étude qualitative descriptive. Des entrevues individuelles auprès de sept personnes atteintes de différents cancers ont été réalisées. L’analyse de données a été effectuée à l’aide de la méthode de Miles et Huberman (2003), par la transcription intégrale des entrevues. Elle a permis d’identifier trois thèmes soit : le soutien formel requis pour faire face au chaos, le soutien informationnel et émotionnel à parfaire et le soutien disponible apportant sécurité et assurance. Les résultats ont mis en évidence les perceptions de personnes atteintes de cancer quant au soutien offert par l’IPO soit la nécessité de rendre accessible les soins et services de l’IPO plus tôt dans la période entourant l’annonce du diagnostic. Les personnes atteintes de cancer ont besoin d’être aidées à faire face aux difficultés rencontrées lors de cette période, notamment à l’incertitude reliée aux résultats d’examens diagnostics, à l’incompréhension des informations reçues et aux sentiments négatifs engendrés par la menace de la maladie. Les résultats évoquent le souhait des participants, à l’effet que, l’offre de soutien de l’IPO, soit axée sur leurs besoins essentiellement dans les domaines informationnel et émotionnel. Ils auraient souhaité pouvoir, partager leur expérience avec l’IPO, mieux comprendre le diagnostic de cancer et savoir davantage à quoi s’attendre lors du début des traitements. Par ailleurs, savoir que le soutien de l’IPO est disponible apporte aux personnes atteintes de cancer une assurance et une confiance en leur capacité à faire face aux traitements et leur apporte un sentiment de sécurité.
Resumo:
Dans le cadre d’une stratégie nationale visant les objectifs du Millénaire pour le développement 4 et 5 au Maroc - réduire la mortalité maternelle et infantile -, un plan d’action a été développé au sein des trois systèmes (socioculturel, éducationnel, disciplinaire) dans lesquels évolue un rôle professionnel de la santé et ce, pour renforcer le rôle professionnel de la sage-femme. La présente thèse vise à évaluer le niveau d’implantation du plan d’action et à comprendre les facteurs contextuels ayant affecté son implantation et susceptibles d’empêcher l’atteinte de ses effets. Le cadre conceptuel adopté dérive du modèle de Hatem-Asmar (1997) concernant l’interaction entre les systèmes éducationnel, disciplinaire et socioculturel pour changer un rôle professionnel de la santé; et le cadre de Damschroder et al. (2009) pour l’analyse de l’implantation d’une intervention en santé. Le devis est une étude de cas unique à trois niveaux d’analyse. Les données sont recueillies à partir de multiples sources de données : 11 entrevues individuelles semi-structurées, 20 groupes de discussion, observations d’activités de formation, analyse de documents. Les résultats ont montré des déficits notables au niveau de l’implantation. Seize barrières et sept facilitateurs ont été catégorisés sous les construits du cadre de Damschroder et al. (2009) et sous les dimensions des trois systèmes. Un alignement inadéquat entre les dimensions (valeurs, méthodes, acteurs et finalités) du système socioculturel et celles (valeurs, méthodes, acteurs) des systèmes éducationnel et disciplinaire d’une part, avec le plan d’action d’autre part empêche son implantation globale. La structure bureaucratique et le manque de préparation du système socioculturel ont constitué les barrières les plus influentes sur: la diffusion de l’information; l’implication des acteurs du terrain dans le processus; et l’état de préparation du système éducationnel. Les principaux facilitateurs étaient : les valeurs promues à l’égard des droits humains et le mouvement politique pour renforcer le rôle professionnel de la sage-femme et réduire la mortalité maternelle. Quant au plan, il a été perçu comme étant bénéfique mais complexe et émanant d’une source externe. Les résultats mettent l’accent sur la nécessité de contourner les barrières identifiées dans les trois systèmes afin d’obtenir des contextes propices à la production des effets. Par ailleurs, les résultats ont soulevé aussi sept barrières qui risquent de compromettre l’atteinte des effets désirés. Elles concernent: le cadre légal, les représentations sociales et le support médiatique au niveau du système socioculturel; le réseautage et les mécanismes de communication, les caractéristiques liées au rôle, à l’environnement de pratique, et le niveau de préparation du système disciplinaire. Notre recherche confirme qu’un changement visant le système éducationnel isolément représente une vision réductrice pour le renforcement du rôle des sages-femmes. Une combinaison des conditions contextuelles favorables au niveau des dimensions des trois systèmes est requise pour atteindre le but de la stratégie gouvernementale, soit fournir des sages-femmes qualifiées selon les normes globales de la Confédération Internationale des sages-femmes, capables d’offrir des soins de qualité en santé de la reproduction qui permettront de contribuer à réduire la mortalité maternelle et néonatale.
Resumo:
Introduction: La surcharge de pression ventriculaire augmente à l’exercice chez les patients avec une sténose de valve aortique (SVA). Lorsqu’il n’y a aucun symptôme apparent, il est cependant difficile d’indiquer l’intervention chirurgicale en utilisant seulement les indices de surcharge de pression ventriculaire. D’autres paramètres, tels que la dispersion de la repolarisation ventriculaire (d-QT), qui augmentent avec le gradient de pression transvalvulaire (GPT), n’ont pas été étudiés dans la SVA. L’objectif de l’étude était de déterminer le modèle de réponse du segment QT et de la d-QT à l’épreuve d’effort chez des enfants avec une SVA congénitale modérée afin d’évaluer l’impact de la surcharge de pression ventriculaire selon une perspective électrophysiologique. Matériel et méthodes: 15 patients SVA modérés ont été comparés à 15 sujets contrôles appariés pour l’âge (14.8±2.5 ans vs. 14.2±1.5 ans) et pour le sexe (66,7% de sujets mâles). Tous les sujets ont fait une épreuve d’effort avec enregistrement électrocardiographique à 12 dérivations. Le segment QT a été mesuré à partir du début du complexe QRS jusqu’à l’apex de l’onde T (QTa) au repos, à l’effort maximal ainsi qu’après 1 et 3 minutes de récupération. La longueur du segment QT a été corrigée selon l’équation de Fridericia et la d-QT a été calculée. Résultats: La longueur du segment QT corrigée (QTc) était similaire au repos entre les groupes d’étude, mais était significativement élevée chez les SVA en comparaison avec le groupe contrôle à l’effort maximal (p=0.004) ainsi qu’après 1 (p<0.001) et 3 (p<0.001) minutes de récupération. Une interaction significative a été identifiée entre les groupes pour la d-QT (p=0.034) et les tests post hoc ont révélé une différence significative seulement au repos (p=0.001). Conclusions: Les anomalies de repolarisation ventriculaire peuvent être révélées par l’évaluation de la repolarisation électrique lors de l’épreuve d’effort chez les SVA modérées asymptomatiques. L’utilisation de la réponse du QT à l’effort pourrait être bénéfique pour l’optimisation de la stratification du risque chez ces patients.
Resumo:
La scoliose idiopathique de l’adolescence (SIA) est une déformation tridimensionnelle complexe du rachis affectant majoritairement les filles. L’atteinte progressive est surtout esthétique avec, notamment, une déformation de la cage thoracique résultante. L’asymétrie mammaire est une préoccupation fréquente chez ces jeunes filles. Se définissant comme une différence de forme, de position ou de volume des seins ou des complexes aréolo-mamelonnaires, l’asymétrie mammaire est courante chez les femmes, mais habituellement mineure et non visible. Il demeure incertain dans la littérature si l’asymétrie mammaire est plus fréquente chez les scoliotiques. De plus, très peu d’études ont évalué la relation entre la scoliose et l’asymétrie mammaire. De façon instinctive, on serait porté à croire que ce ne sont pas les seins qui sont asymétriques, mais plutôt la déformation du thorax en rotation qui donne cette impression. Les seins représentent un des organes les plus difficiles à mesurer étant donné leur grande variabilité. Plusieurs méthodes de mesure ont été décrites. L’imagerie par résonance magnétique (IRM) est considérée l’outil le plus précis pour définir la glande mammaire et plus particulièrement, sa délimitation sur la cage thoracique. Ce projet consiste à quantifier l’asymétrie mammaire, représentée par une différence de volume entre les deux seins, chez une cohorte de jeunes filles présentant une SIA significative, en utilisant l’IRM comme outil de mesure. Ensuite, une méthode de mesure automatisée, à partir de la topographie surfacique 3D, est proposée. Les résultats obtenus avec cette méthode sont confrontés à ceux de l’IRM. L’influence de la posture sur le volume mammaire est également étudiée à partir de ces deux modalités différentes. Pour réaliser ces objectifs, une cohorte de 30 patientes scoliotiques a été recrutée sur la base de leur courbure thoracique et de leur maturité osseuse et mammaire. Deux imageries de tronc ont été effectuées : la topographie surfacique 3D et la résonance magnétique. Dans un premier temps, la sommation des images segmentées acquises par IRM nous a permis de mesurer de façon très précise le volume mammaire. Notre cohorte présente une asymétrie mammaire moyenne statistiquement significative de 8.32%. 66.6% des patientes présentent une asymétrie ≥ 5%. Par ailleurs, le sein gauche est plus volumineux chez 65.5% des patientes. Une faible corrélation non-significative existe entre les volumes mammaires et l’angle de Cobb ainsi que la gibbosité thoracique. Par la suite, une méthode de mesure automatisée, développée à partir de l’environnement mathématique Matlab, est appliquée directement sur les reconstructions 3D. En bref, elle consiste à identifier les contours des seins pour les exciser afin d’exposer la cage thoracique puis, à soustraire le thorax complet du thorax sans seins pour déterminer les volumes mammaires. Les volumes mammaires acquis par la méthode automatisée sont, de manière attendue, de plus petites tailles que ceux obtenus à l’IRM. Une forte corrélation est établie entre les volumes mammaires obtenus par les deux différentes techniques de mesure. Bien que statistiquement significatives, les asymétries mammaires (r= 0.614, p< .001) ne sont pas aussi fortement corrélées entre elles que les volumes. Le sein droit (r=0.805) présente une corrélation plus élevée que le sein gauche (r=0.747). Finalement, l’influence de la posture est étudiée à partir des maillages 3D de l’IRM (décubitus ventral) et de la topographie surfacique 3D (position debout). D’excellentes corrélations sont confirmées entre les volumes mammaires ; r= 0.896 et r= 0.939, respectivement pour les volumes mammaires gauches et droits. Ce projet a permis de démontrer, pour la première fois, qu’il est possible de calculer le volume mammaire de façon objective et précise avec l’IRM, chez une cohorte scoliotique. Grâce à la précision des repères anatomiques, l’IRM nous a permis de revisiter une croyance populaire dans la communauté de la scoliose. Celle soutenant que l’asymétrie mammaire ressentie par les patientes n’est qu’une perception. Ces nouvelles données nous permettrons de conseiller les jeunes filles avec la SIA, concernant leurs préoccupations sur l’asymétrie de leurs seins. Nous avons confirmé que la méthode de mesure automatisée est réalisable cliniquement et pourrait être utilisée pour prédire les volumes obtenus à l’IRM. Par ailleurs, c’est le premier outil de mesure de volumétrie mammaire complètement automatisé à notre connaissance. Les volumes mammaires obtenus debout et en décubitus ventral sont comparables.
Resumo:
La perception visuelle ne se résume pas à la simple perception des variations de la quantité de lumière qui atteint la rétine. L’image naturelle est en effet composée de variation de contraste et de texture que l’on qualifie d’information de deuxième ordre (en opposition à l’information de premier ordre : luminance). Il a été démontré chez plusieurs espèces qu’un mouvement de deuxième ordre (variation spatiotemporelle du contraste ou de la texture) est aisément détecté. Les modèles de détection du mouvement tel le modèle d’énergie d’Adelson et Bergen ne permettent pas d’expliquer ces résultats, car le mouvement de deuxième ordre n’implique aucune variation de la luminance. Il existe trois modèles expliquant la détection du mouvement de deuxième ordre : la présence d’une circuiterie de type filter-rectify-filter, un mécanisme de feature-tracking ou simplement l’existence de non-linéarités précoces dans le traitement visuel. Par ailleurs, il a été proposé que l’information visuelle de deuxième ordre soit traitée par une circuiterie neuronale distincte de celle qui traite du premier ordre. Bon nombre d’études réfutent cependant cette théorie et s’entendent sur le fait qu’il n’y aurait qu’une séparation partielle à bas niveau. Les études électrophysiologiques sur la perception du mouvement de deuxième ordre ont principalement été effectuées chez le singe et le chat. Chez le chat, toutefois, seules les aires visuelles primaires (17 et 18) ont été extensivement étudiées. L’implication dans le traitement du deuxième ordre de l’aire dédiée à la perception du mouvement, le Sulcus syprasylvien postéro-médian latéral (PMLS), n’est pas encore connue. Pour ce faire, nous avons étudié les profils de réponse des neurones du PMLS évoqués par des stimuli dont la composante dynamique était de deuxième ordre. Les profils de réponses au mouvement de deuxième ordre sont très similaires au premier ordre, bien que moins sensibles. Nos données suggèrent que la perception du mouvement par le PMLS serait de type form-cue invariant. En somme, les résultats démontrent que le PMLS permet un traitement plus complexe du mouvement du deuxième ordre et sont en accord avec son rôle privilégié dans la perception du mouvement.
Resumo:
Malgré le progrès technologique et nos connaissances pharmaceutiques et médicales croissantes, le développement du médicament demeure un processus difficile, dispendieux, long et très risqué. Ce processus mérite d'être amélioré pour faciliter le développement de nouveaux traitements. À cette fin, cette thèse vise à démontrer l’utilité de principes avancés et d’outils élaborés en pharmacocinétique (PK), actuels et nouveaux. Ces outils serviront à répondre efficacement à des questions importantes lors du développement d’un médicament, sauvant ainsi du temps et des coûts. Le premier volet de la thèse porte sur l’utilisation de la modélisation et des simulations et la création d’un nouveau modèle afin d’établir la bioéquivalence entre deux formulations de complexe de gluconate ferrique de sodium en solution de sucrose pour injection. Comparé aux méthodes courantes, cette nouvelle approche proposée se libère de plusieurs présuppositions, et requiert moins de données. Cette technique bénéficie d’une robustesse scientifique tout en étant associée à des économies de temps et de coûts. Donc, même si développé pour produits génériques, elle pourra également s’avérer utile dans le développement de molécules innovatrices et « biosimilaires ». Le deuxième volet décrit l’emploi de la modélisation pour mieux comprendre et quantifier les facteurs influençant la PK et la pharmacodynamie (PD) d’une nouvelle protéine thérapeutique, la pegloticase. L’analyse a démontré qu’aucun ajustement posologique n’était nécessaire et ces résultats sont inclus dans la monographie officielle du produit. Grâce à la modélisation, on pouvait répondre à des questions importantes concernant le dosage d’un médicament sans passer par des nouvelles études ni d'évaluations supplémentaires sur les patients. Donc, l’utilisation de cet outil a permis de réduire les dépenses sans prolonger le processus de développement. Le modèle développé dans le cadre de cette analyse pourrait servir à mieux comprendre d’autres protéines thérapeutiques, incluant leurs propriétés immunogènes. Le dernier volet démontre l’utilité de la modélisation et des simulations dans le choix des régimes posologiques d’un antibiotique (TP-434) pour une étude de Phase 2. Des données provenant d’études de Phase 1 ont été modélisées au fur et à mesure qu’elles devenaient disponibles, afin de construire un modèle décrivant le profil pharmacocinétique du TP-434. Ce processus de modélisation exemplifiait les cycles exploratoires et confirmatoires décrits par Sheiner. Ainsi, en se basant sur des relations PK/PD d’un antibiotique de classe identique, des simulations ont été effectuées avec le modèle PK final, afin de proposer de nouveaux régimes posologiques susceptibles d’être efficace chez les patients avant même d'effectuer des études. Cette démarche rationnelle a mené à l’utilisation de régimes posologiques avec une possibilité accrue d’efficacité, sans le dosage inutile des patients. Ainsi, on s’est dispensé d’études ou de cohortes supplémentaires coûteuses qui auraient prolongé le processus de développement. Enfin, cette analyse est la première à démontrer l’application de ces techniques dans le choix des doses d’antibiotique pour une étude de Phase 2. En conclusion, cette recherche démontre que des outils de PK avancés comme la modélisation et les simulations ainsi que le développement de nouveaux modèles peuvent répondre efficacement et souvent de manière plus robuste à des questions essentielles lors du processus de développement du médicament, tout en réduisant les coûts et en épargnant du temps.
Resumo:
La biométrie, appliquée dans un contexte de traitement automatisé des données et de reconnaissance des identités, fait partie de ces technologies nouvelles dont la complexité d’utilisation fait émerger de nouveaux enjeux et où ses effets à long terme sont incalculables. L’envergure des risques suscite des questionnements dont il est essentiel de trouver les réponses. On justifie le recours à cette technologie dans le but d’apporter plus de sécurité, mais, vient-elle vraiment apporter plus de protection dans le contexte actuel? En outre, le régime législatif québécois est-il suffisant pour encadrer tous les risques qu’elle génère? Les technologies biométriques sont flexibles en ce sens qu’elles permettent de saisir une multitude de caractéristiques biométriques et offrent aux utilisateurs plusieurs modalités de fonctionnement. Par exemple, on peut l’utiliser pour l’identification tout comme pour l’authentification. Bien que la différence entre les deux concepts puisse être difficile à saisir, nous verrons qu’ils auront des répercussions différentes sur nos droits et ne comporteront pas les mêmes risques. Par ailleurs, le droit fondamental qui sera le plus touché par l’utilisation de la biométrie sera évidemment le droit à la vie privée. Encore non bien compris, le droit à la vie privée est complexe et son application est difficile dans le contexte des nouvelles technologies. La circulation des données biométriques, la surveillance accrue, le détournement d’usage et l’usurpation d’identité figurent au tableau des risques connus de la biométrie. De plus, nous verrons que son utilisation pourra avoir des conséquences sur d’autres droits fondamentaux, selon la manière dont le système est employé. Les tests de nécessité du projet et de proportionnalité de l’atteinte à nos droits seront les éléments clés pour évaluer la conformité d’un système biométrique. Ensuite, le succès de la technologie dépendra des mesures de sécurité mises en place pour assurer la protection des données biométriques, leur intégrité et leur accès, une fois la légitimité du système établie.
Resumo:
Il existe plusieurs défis au développement d’une thérapie visant à stimuler l’immunité cellulaire. Dans la prévention contre certains virus et en immunothérapie du cancer, l’induction de lymphocytes T spécifiques est cependant primordiale. Dans la première partie de l’étude, nous avons porté notre attention sur la compréhension de la présentation croisée par le complexe majeur d’histocompatibilité de classe I (CMH I) médiée par des particules pseudo-virales (VLP) composées de la protéine de surface de potexvirus à laquelle nous avons ajouté un épitope de la protéine M1 du virus de l’influenza ou un épitope de la protéine gp100 du mélanome. Cette VLP se caractérise par sa capacité à stimuler, sans l’aide d’adjuvant, le système immunitaire et de présenter de façon croisée l’épitope inséré dans sa protéine de surface et ce, indépendamment de l’activité du protéasome. Nous avons, tout d’abord, comparé les propriétés de présentation antigénique croisée des VLP formées du virus de la mosaïque de la malva (MaMV) à celles des VLP du virus de la mosaïque de la papaye (PapMV). Les résultats confirment que ces propriétés sont partagées par plusieurs membres de la famille des potexvirus malgré des divergences de séquences (Hanafi et al. Vaccine 2010). De plus, nous avons procédé à des expériences pour préciser le mécanisme menant à la présentation de l’épitope inséré dans les VLP de PapMV. Les résultats nous confirment une voie vacuolaire dépendante de l’activité de la cathepsine S et de l’acidification des lysosomes pour l’apprêtement antigénique. L’induction de l’autophagie par les VLP semble également nécessaire à la présentation croisée par les VLP de PapMV. Nous avons donc établi un nouveau mécanisme de présentation croisée vacuolaire dépendant de l’autophagie (Hanafi et al. soumis Autophagy). En second lieu, en immunothérapie du cancer, il est aussi important de contrôler les mécanismes d’évasion immunitaire mis en branle par la tumeur. Nous avons spécifiquement étudié l’enzyme immunosuppressive indoleamine 2,3-dioxygénase (IDO) (revue de la littérature dans les tumeurs humaines; Hanafi et al. Clin. Can. Res 2011) et son inhibition dans les cellules tumorales. Pour ce faire, nous avons tenté d’inhiber son expression par la fludarabine, agent chimiothérapeutique précédemment étudié pour son activité inhibitrice de l’activation de STAT1 (signal transducers and activators of transcription 1). Étonnamment, nos résultats ont montré l’inhibition d’IDO dans les cellules tumorales par la fludarabine, indépendamment de l’inhibition de la phosphorylation de STAT1. Nous avons démontré que le mécanisme d’action dépendait plutôt de l’induction de la dégradation d’IDO par le protéasome (Hanafi et al. PlosOne 2014). Les travaux présentés dans cette thèse ont donc portés autant sur la compréhension d’une nouvelle plateforme de vaccination pouvant médier l’activation de lymphocytes T CD8+ cytotoxiques et sur le contrôle d’une immunosuppression établie par les cellules tumorales pour évader au système immunitaire. Ces deux grandes stratégies sont à considérer en immunothérapie du cancer et la combinaison avec d’autres thérapies déjà existantes pourra permettre une meilleure réponse clinique.
Resumo:
À l’intérieur de la cellule sillonnent d’innombrables molécules, certaines par diffusion et d’autres sur des routes moléculaires éphémères, empruntées selon les directives spécifiques de protéines responsables du trafic intracellulaire. Parmi celles-ci, on compte les sorting nexins, qui déterminent le sort de plusieurs types de protéine, comme les récepteurs, en les guidant soit vers des voies de dégradation ou de recyclage. À ce jour, il existe 33 membres des sorting nexins (Snx1-33), tous munies du domaine PX (PHOX-homology). Le domaine PX confère aux sorting nexins la capacité de détecter la présence de phosphatidylinositol phosphates (PIP), sur la surface des membranes lipidiques (ex : membrane cytoplasmique ou vésiculaire). Ces PIPs, produits de façon spécifique et transitoire, recrutent des protéines nécessaires à la progression de processus cellulaires. Par exemple, lorsqu’un récepteur est internalisé par endocytose, la région avoisinante de la membrane cytoplasmique devient occupée par PI(4,5)P2. Ceci engendre le recrutement de SNX9, qui permet la progression de l’endocytose en faisant un lien entre le cytoskelette et le complexe d’endocytose. Les recherches exposées dans cette thèse sont une description fonctionnelle de deux sorting nexins peux connues, Snx11 et Snx30. Le rôle de chacun de ces gènes a été étudié durant l’embryogenèse de la grenouille (Xenopus laevis). Suite aux résultats in vivo, une approche biomoléculaire et de culture cellulaire a été employée pour approfondir nos connaissances. Cet ouvrage démontre que Snx11 est impliqué dans le développement des somites et dans la polymérisation de l’actine. De plus, Snx11 semble influencer le recyclage de récepteurs membranaires indépendamment de l’actine. Ainsi, Snx11 pourrait jouer deux rôles intracellulaires : une régulation actine-dépendante du milieu extracellulaire et le triage de récepteurs actine-indépendant. De son côté, Snx30 est impliqué dans la différentiation cardiaque précoce par l’inhibition de la voie Wnt/β-catenin, une étape nécessaire à l’engagement d’une population de cellules du mésoderme à la ligné cardiaque. L’expression de Snx30 chez le Xénope coïncide avec cette période critique de spécification du mésoderme et le knockdown suscite des malformations cardiaques ainsi qu’à d’autres tissus dérivés du mésoderme et de l’endoderme. Cet ouvrage fournit une base pour des études futures sur Snx11 et Snx30. Ces protéines ont un impact subtil sur des voies de signalisation spécifiques. Ces caractéristiques pourraient être exploitées à des fins thérapeutiques puisque l’effet d’une interférence avec leurs fonctions pourrait être suffisant pour rétablir un déséquilibre cellulaire pathologique tout en minimisant les effets secondaires.
Resumo:
Simuler efficacement l'éclairage global est l'un des problèmes ouverts les plus importants en infographie. Calculer avec précision les effets de l'éclairage indirect, causés par des rebonds secondaires de la lumière sur des surfaces d'une scène 3D, est généralement un processus coûteux et souvent résolu en utilisant des algorithmes tels que le path tracing ou photon mapping. Ces techniquesrésolvent numériquement l'équation du rendu en utilisant un lancer de rayons Monte Carlo. Ward et al. ont proposé une technique nommée irradiance caching afin d'accélérer les techniques précédentes lors du calcul de la composante indirecte de l'éclairage global sur les surfaces diffuses. Krivanek a étendu l'approche de Ward et Heckbert pour traiter le cas plus complexe des surfaces spéculaires, en introduisant une approche nommée radiance caching. Jarosz et al. et Schwarzhaupt et al. ont proposé un modèle utilisant le hessien et l'information de visibilité pour raffiner le positionnement des points de la cache dans la scène, raffiner de manière significative la qualité et la performance des approches précédentes. Dans ce mémoire, nous avons étendu les approches introduites dans les travaux précédents au problème du radiance caching pour améliorer le positionnement des éléments de la cache. Nous avons aussi découvert un problème important négligé dans les travaux précédents en raison du choix des scènes de test. Nous avons fait une étude préliminaire sur ce problème et nous avons trouvé deux solutions potentielles qui méritent une recherche plus approfondie.