876 resultados para Paramètres pharmacocinétiques
Resumo:
Le diabète insipide néphrogénique (DIN) autosomal peut être causé par les mutations du gène codant pour le canal à eau aquaporine-2 (AQP2). Un modèle couramment utilisé pour l’étude des protéines membranaires telle l’AQP2 est l’expression hétérologue dans les ovocytes de Xenopus laevis. Malheureusement, les techniques déjà existantes de purification de membranes plasmiques sont soit trop longues, trop difficiles ou demandent trop de matériel, ne permettent pas l’analyse adéquate du ciblage des formes sauvage comme mutantes, un élément crucial de ce type d’étude. Nous avons donc dans un premier temps mis au point une technique rapide et efficace de purification de membranes plasmiques qui combine la digestion partielle de la membrane vitelline, sa polymérisation à la membrane plasmique suivi de centrifugations à basse vitesse pour récolter les membranes purifiées. Nous avons utilisé cette technique dans l’étude de deux nouveaux cas familiaux de patients hétérozygotes possédant les mutations V24A et R187C dans un cas et K228E et R187C dans le second cas. Pour chaque mutation, nous avons analysé autant les éléments de fonctionnalité que les paramètres d’expression des protéines mutantes. Les expériences de perméabilité membranaire démontrent que les ovocytes exprimant AQP2-V24A (Pf = 16.3 ± 3.5 x 10-4 cm/s, 10 ng) et AQP2- K228E (Pf = 19.9 ± 7.0 x 10-4 cm/s, 10 ng) ont des activités similaires à celle exprimant la forme native (Pf = 14.4 ± 5.5 x 10-4 cm/s, 1 ng), tandis que AQP2- R187C (Pf = 2.6 ± 0.6 x 10-4 cm/s, 10 ng) ne semble avoir aucune activité comme ce qui est observé chez les ovocytes non-injectés (Pf = 2.8 ± 1.0 x 10-4 cm/s). Les études de co-expression ont démontré un effet d’additivité lorsque AQP2-V24A et -K228E sont injectées avec la forme native et un effet s’apparentant à la dominance négative lorsque AQP2-R187C est injecté avec la forme native, avec AQP2-V24A ou avec –K228E. Les résultats obtenus par immunobuvardage représente bien ce qui a été démontré précédemment, on remarque la présence des mutations K228E, V24A et la forme sauvage à la membrane plasmique, contrairement à la mutation R187C. Cependant, lorsque les mutations sont exprimées dans des cellules mIMCD-3, il n’y a qu’une faible expression à la membrane de la forme –K228E et une absence totale des formes –V24A et –R187C à la membrane plasmique, contrairement à la forme native. Les résultats de nos études démontrent que tout dépendant du système d’expression les formes –K228E et –V24A peuvent être utiles dans l’étude des problèmes d’adressage à la membrane à l’aide de chaperonne chimique. De plus, la forme –R187C démontre des difficultés d’adressage qui devront être étudiées afin de mieux comprendre la synthèse des formes natives.
Resumo:
Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.
Resumo:
Cette étude a pour but de tester si l’ajout de variables biomécaniques, telles que celles associées à la morphologie, la posture et l’équilibre, permet d’améliorer l’efficacité à dissocier 29 sujets ayant une scoliose progressive de 45 sujets ayant une scoliose non progressive. Dans une étude rétrospective, un groupe d’apprentissage (Cobb: 27,1±10,6°) a été utilisé avec cinq modèles faisant intervenir des variables cliniques, morphologiques, posturales et d’équilibre et la progression de la scoliose. Un groupe test (Cobb: 14,2±8,3°) a ensuite servit à évaluer les modèles dans une étude prospective. Afin d’établir l’efficacité de l’ajout de variables biomécaniques, le modèle de Lonstein et Carlson (1984) a été utilisé à titre d’étalon de mesures. Le groupe d’apprentissage a été utilisé pour développer quatre modèles de classification. Le modèle sans réduction fut composé de 35 variables tirées de la littérature. Dans le modèle avec réduction, une ANCOVA a servit de méthode de réduction pour passer de 35 à 8 variables et l’analyse par composantes principales a été utilisée pour passer de 35 à 7 variables. Le modèle expert fut composé de huit variables sélectionnées d’après l’expérience clinque. L’analyse discriminante, la régression logistique et l’analyse par composantes principales ont été appliquées afin de classer les sujets comme progressifs ou non progressifs. La régression logistique utilisée avec le modèle sans réduction a présenté l’efficience la plus élevée (0,94), tandis que l’analyse discriminante utilisée avec le modèle expert a montré l’efficience la plus faible (0,87). Ces résultats montrent un lien direct entre un ensemble de paramètres cliniques et biomécaniques et la progression de la scoliose idiopathique. Le groupe test a été utilisé pour appliquer les modèles développés à partir du groupe d’apprentissage. L’efficience la plus élevée (0,89) fut obtenue en utilisant l’analyse discriminante et la régression logistique avec le modèle sans réduction, alors que la plus faible (0,78) fut obtenue en utilisant le modèle de Lonstein et Carlson (1984). Ces valeurs permettent d’avancer que l’ajout de variables biomécaniques aux données cliniques améliore l’efficacité de la dissociation entre des sujets scoliotiques progressifs et non progressifs. Afin de vérifier la précision des modèles, les aires sous les courbes ROC ont été calculées. L’aire sous la courbe ROC la plus importante (0,93) fut obtenue avec l’analyse discriminante utilisée avec le modèle sans réduction, tandis que la plus faible (0,63) fut obtenue avec le modèle de Lonstein et Carlson (1984). Le modèle de Lonstein et Carlson (1984) n’a pu séparer les cas positifs des cas négatifs avec autant de précision que les modèles biomécaniques. L’ajout de variables biomécaniques aux données cliniques a permit d’améliorer l’efficacité de la dissociation entre des sujets scoliotiques progressifs et non progressifs. Ces résultats permettent d’avancer qu’il existe d’autres facteurs que les paramètres cliniques pour identifier les patients à risque de progresser. Une approche basée sur plusieurs types de paramètres tient compte de la nature multifactorielle de la scoliose idiopathique et s’avère probablement mieux adaptée pour en prédire la progression.
Resumo:
Cette thèse constitue à la fois un apport de nature clinique et technologique dans l’approche diagnostique du glaucome. Plus précisément, nous nous proposons d’étudier une nouvelle façon de détecter le glaucome par la mesure de l’asymétrie du rapport de la surface de l’anneau neurorétinien et de la surface de la papille ou du disque optique ou rim to disc area asymmetry ratio (RADAAR). Pour atteindre cet objectif, nous avons recours à une base de données composée d’une population subdivisée en 4 différents groupes de diagnostic (normal, glaucome possible, glaucome probable et glaucome définitif). Les mesures du RADAAR sont calculées de différentes façons à partir des paramètres stéréométriques de la tête du nerf optique des sujets, produits par la microscopie confocale à balayage laser (Heidelberg Retina Tomograph (HRT) (Heidelberg Engineering, Germany)). Nous procédons à une analyse de données grâce au logiciel SPSS où nous mettons en exergue la distribution du RADAAR dans les différentes populations, sa validité et son utilité dans le dépistage du glaucome. Nous enrôlons donc 523 sujets dans cette étude avec 82 sujets atteints de glaucome définitif. La moyenne d’âge est de 62 ans. Il y a plus de femmes que d’hommes et plus de Caucasiens que d’Africains Caribéens. Nous trouvons que la distribution de la mesure du RADAAR est différente des sujets d’un groupe de diagnostic à l’autre. En termes de performance, la sensibilité de la mesure du RADAAR est très basse c'est-à-dire que sa capacité de détecter la maladie est basse. En revanche la mesure du RADAAR est plus spécifique c'est-à-dire que sa capacité d’identifier les sujets exempts de la maladie est plus grande. Elle tendrait à être aussi plus performante chez les Africains Caribéens que chez les Caucasiens. De même, elle serait plus sensible chez les hommes que chez les femmes. La mesure du RADAAR est utile si on l’associe à une autre méthode de diagnostic comme l’analyse de Régression de Moorfields (MRA) incluse dans le logiciel du HRT3 spécialement lors de la détection du glaucome dans la population à haut risque. En définitive, nous déterminons que la mesure du RADAAR se veut un outil d’aide au diagnostic. Elle est particulièrement intéressante dans le contexte de dépistage de glaucome.
Resumo:
L'étude suivante décrit la synthèse des ligands nacnacxylH, nacnacBnH, nacnacR,RH et nacnacCyH en utilisant une méthode générale qui implique des rendements élevés et des coûts raisonnables, la complexation de ces ligands au Zr, la caractérisation de ces complexes et l’investigation de leurs réactivités. Les complexes de zirconium ont été obtenus en utilisant deux méthodes synthétiques principales : la première consiste en traitement du sel de lithium du ligand avec le ZrCl4. La seconde est la réaction du ligand neutre avec les complexes d’alkyl-zirconium(IV) par protonation de l'alkyle coordonné. Le ligand adopte deux modes de coordination avec le Zr. Une coordination 2 est observée dans les complexes octaèdriques contenant un ou deux ligands nacnac. En présence d'un autre ligand ayant une coordonnation 5, par exemple Cp ou Ind, le ligand nacnac se trouve en coordination x avec le centre métallique de zirconium. En solution, les complexes obtenus de (nacnac)2ZrX2 montrent un comportement dynamique via un « Bailar-twist » et les paramètres d'activation de cette isomérisation ont été obtenus. Le complexe octaèdrique (nacnacBn)2ZrCl2, 2c, n'a pas montré de réactivité dans la carbozirconation et son alkylation n'était pas possible par l’échange des chlorures avec les alkyles. L’analogue dimethylé (nacnacBn)2ZrMe2, 2d, peut être préparé par alkylation du ZrCl4 avant la complexation du ligand. Ce dernier a été prouvé aussi de ne pas être réactif dans la carbozirconation.
Resumo:
La ventilation unipulmonaire (SLV; Single Lung Ventilation) pendant les chirurgies thoraciques entraîne des altérations cardio-pulmonaires et hémodynamiques importantes. L’objectif de ce projet de recherche consiste à étudier l’impact de la SLV sur l’oxymétrie cérébrale et sa relation avec les complications post opératoires. La première étude inclut vingt patients ayant subi une chirurgie thoracique nécessitant une SLV. L’oxymétrie a été mesurée à l’aide de l’oxymètre cérébral absolu FORESIGHTTM (CASMED, USA) afin d’étudier les changements de la saturation cérébrale absolue (SctO2) tout le long de la chirurgie. La SctO2 ainsi que les paramètres de monitorage standard (BIS, SpO2, pression sanguine, fréquence cardiaque) ont été notés à toutes les cinq minutes à partir de l’induction jusqu’au réveil. Une analyse sanguine (paO2, paCO2, Hb) a été effectuée à toutes les quinze minutes. La deuxième étude effectuée consistait d’étudier la relation entre la désaturation cérébrale en oxygène et les complications post opératoires. Pour cette fin, les scores Clavien et SOFA mesurant l’amplitude des complications, ont été établis pour chaque patient. Les données sont présentées sous forme de moyenne et de la médiane [1er quartile, 3ème quartile; min – max]. Les vingt patients de la première étude ont montré une valeur moyenne absolue de saturation cérébrale absolue (SctO2) de 80% avant l’induction. Durant la SLV, cette valeur a chuté jusqu’à 63% et est remontée à 71% directement après extubation. Tous ces patients ont subi une désaturation durant SLV de plus que 15% comparativement à la valeur de base et 70% ont eu une désaturation de plus de 20%. La désaturation n’a pas été corrélée avec aucun des paramètres de monitorage clinique standard comme la pression artérielle, les analyses des gaz artériels, la saturation périphérique ou la PaO2. La deuxième étude incluant trente autres patients aux vingt premiers, est venue confirmer les résultats de la première étude. De plus, une analyse de corrélation entre les valeurs minimales de SctO2 obtenues durant SLV et les complications post opératoires a été effectuée. Les patients avaient une SctO2 de base de 80%, qui a chuté jusqu’à 64% pendant la SLV pour récupérer à 71% avant la fin de la chirurgie. 82% des patients ont subi des désaturations de plus de 15% des valeurs initiales et 10% ont atteint des valeurs de SctO2 entre 45 et 55%. Les valeurs minimales de SctO2 observées durant la SLV corrélaient avec le score SOFA non respiratoire (R2=0,090, p=0,0287) ainsi qu’avec le score Clavien (R2=0,098, p=0,0201), mais ne corrélait avec aucun des paramètres cliniques standards (ex : SpO¬2, PaO2, PaCO2, Hb). En définissant une valeur seuil de SctO2=65%, le «Odds ratio» d’avoir une défaillance d’organe non respiratoire est de 2.37 (IC 95%=1,18 – 4,39, p=0,043) et d’avoir une complication classifiée supérieure à un score Clavien de 0 est de 3,19 (IC 95%=1,6 – 6,34, p=0,0272). Les chirurgies thoraciques avec une SLV sont associées à des chutes significatives de SctO2, et les valeurs minimales de SctO2 semblent avoir une corrélation positive avec les complications post opératoires.
Resumo:
Le programme -Une école adaptée à tous ses élèves-, qui s'inscrit dans la réforme actuelle de l'éducation au Québec, nous a amenée à nous intéresser aux représentations dans les grandeurs en mesure en mathématiques des élèves en difficulté d'apprentissage. Nous nous sommes proposés de reconduire plusieurs paramètres de la recherche de Brousseau (1987, 1992) auprès de cette clientèle. La théorie des champs conceptuels (TCC) de Vergnaud (1991), appliquée aux structures additives, a été particulièrement utile pour l'analyse et l'interprétation de leurs représentations. Comme méthode de recherche, nous avons utilisé la théorie des situations didactiques en mathématiques (TSDM), réseau de concepts et de méthode de recherche appuyé sur l'ingénierie didactique qui permet une meilleure compréhension de l'articulation des contenus à enseigner. Grâce à la TSDM, nous avons observé les approches didactiques des enseignants avec leurs élèves. Notre recherche est de type exploratoire et qualitatif et les données recueillies auprès de 26 élèves de deux classes spéciales du deuxième cycle du primaire ont été traitées selon une méthode d'analyse de contenu. Deux conduites ont été adoptées par les élèves. La première, de type procédural a été utilisée par presque tous les élèves. Elle consiste à utiliser des systèmes de comptage plus ou moins sophistiqués, de la planification aux suites d'actions. La deuxième consiste à récupérer directement en mémoire à long terme le résultat associé à un couple donné et au contrôle de son exécution. L'observation des conduites révèle que les erreurs sont dues à une rupture du sens. Ainsi, les difficultés d'ordre conceptuel et de symbolisation nous sont apparues plus importantes lorsque l'activité d'échange demandait la compétence "utilisation" et renvoyait à la compréhension de la tâche, soit les tâches dans lesquelles ils doivent eux-mêmes découvrir les rapports entre les variables à travailler et à simuler les actions décrites dans les énoncés. En conséquence, les problèmes d'échanges se sont révélés difficiles à modéliser en actes et significativement plus ardus que les autres. L'étude des interactions enseignants et élèves a démontré que la parole a été presque uniquement le fait des enseignants qui ont utilisé l'approche du contrôle des actes ou du sens ou les deux stratégies pour aider des élèves en difficulté. Selon le type de situation à résoudre dans ces activités de mesurage de longueur et de masse, des mobilisations plurielles ont été mises en oeuvre par les élèves, telles que la manipulation d'un ou des étalon(s) par superposition, par reports successifs, par pliage ou par coupure lorsque l'étalon dépassait; par retrait ou ajout d'un peu de sable afin de stabiliser les plateaux. Nous avons également observé que bien que certains élèves aient utilisé leurs doigts pour se donner une perception globale extériorisée des quantités, plusieurs ont employé des procédures très diverses au cours de ces mêmes séances. Les résultats présentés étayent l'hypothèse selon laquelle les concepts de grandeur et de mesure prennent du sens à travers des situations problèmes liées à des situations vécues par les élèves, comme les comparaisons directes. Eles renforcent et relient les grandeurs, leurs propriétés et les connaissances numériques.
Resumo:
Des études adultes sur l’œdème pulmonaire lésionnel et le Syndrome de Détresse Respiratoire Aiguë ont mené à l’établissement de recommandations sur les stratégies de ventilation mécanique à employer chez ces patients. Cependant, il n’est pas clair si les recommandations adultes sont également bénéfiques pour l’enfant. Objectif Décrire les stratégies de ventilation mécanique employées chez les enfants atteints d’un œdème pulmonaire lésionnel. Méthodes Étude épidémiologique transversale tenue dans 59 unités de Soins Intensifs Pédiatriques de 12 pays en Amérique du Nord et en Europe. Six jours d’étude ont eu lieu entre juin et novembre 2007. Les enfants atteints d’un œdème pulmonaire lésionnel étaient inclus et des données sur la sévérité de leur maladie, les paramètres de ventilation mécanique et les thérapies adjuvantes employées ont été recueillies. Résultats Des 3823 enfants dépistés, 414 (10.8%) avaient un œdème pulmonaire lésionnel et 165 (40%) ont été inclus dans l’étude (124 étaient sous ventilation mécanique conventionnelle, 27 sous ventilation à haute fréquence par oscillation et 14 sous ventilation non invasive). Dans le groupe sous ventilation conventionnelle, 43.5% étaient ventilés avec un mode contrôlé à pression, le volume courant moyen était de 8.3±3.3 ml/kg et l’utilisation de la PEP et FiO2 était hétérogène. Conclusions Cette étude démontre une hétérogénéité dans les stratégies de ventilation mécanique employées chez les enfants souffrant d’un œdème pulmonaire lésionnel. Celle-ci pourrait être en partie reliée à la robustesse des critères diagnostiques actuellement utilisés pour définir l’ALI/SDRA. Une évaluation rigoureuse de ces stratégies est nécessaire pour guider la standardisation des soins et optimiser l’issue de ces patients.
Resumo:
L’endothéline-1 (ET-1) est un puissant agent vasoconstricteur dont la production est dérégulée dans plusieurs maladies inflammatoires où l’expression des cyclooxygénases-1/2 (COX-1/2) est augmentée. Puisqu’il est connu que la voie p38 MAPK est impliquée dans la régulation de l’ET-1 au niveau de l’ARNm, nous avons étudié le rôle de l’un de ses substrats, la kinase MK2 dans la régulation post-transcriptionnelle de l’ET-1 et des COX. Pour ce faire, nous avons utilisé des souris MK2-déficientes (MK2-/-) ainsi que des contrôles (MK2+/+) issus de la même portée. Des paramètres de la fonction cardiaque ont été mesurés sous anesthésie à l’aide d’un cathéter Millar et la réactivité vasculaire de l’artère fémorale a été mesurée par myographe. L’expression de ET-1, COX-1 et COX-2 a été quantifiée dans la cellule endothéliale aortique (CE) par qPCR. En réponse à l’ET-1 (100 nM), l’expression de la préproET-1 dans les CE augmente en fonction du temps (p<0.05) : cette variation est accentuée chez les souris MK2-/-. Bien que la pression artérielle soit similaire entre les souris MK2+/+ et MK2-/-, l’inhibition de COX (indométacine, 1 μM) augmente (p<0.05) la contraction à l’ET-1 des vaisseaux isolés provenant de souris MK2+/+ mais pas des MK2-/-. Ces données suggèrent un rôle de MK2 dans la réponse vasculaire à l’ET-1 et possiblement dans la signalisation post-récepteur de l’ET-1 en général.
Resumo:
L’agrégation érythrocytaire est le principal facteur responsable des propriétés non newtoniennes sanguines pour des conditions d’écoulement à faible cisaillement. Lorsque les globules rouges s’agrègent, ils forment des rouleaux et des structures tridimensionnelles enchevêtrées qui font passer la viscosité sanguine de quelques mPa.s à une centaine de mPa.s. Cette organisation microstructurale érythrocytaire est maintenue par des liens inter-globulaires de faible énergie, lesquels sont brisés par une augmentation du cisaillement. Ces propriétés macroscopiques sont bien connues. Toutefois, les liens étiologiques entre ces propriétés rhéologiques générales et leurs effets pathophysiologiques demeurent difficiles à évaluer in vivo puisque les propriétés sanguines sont dynamiques et fortement tributaires des conditions d’écoulement. Ainsi, à partir de propriétés rhéologiques mesurées in vitro dans des conditions contrôlées, il devient difficile d’extrapoler leurs valeurs dans un environnement physiologique. Or, les thrombophlébites se développent systématiquement en des loci particuliers du système cardiovasculaire. D’autre part, plusieurs études cliniques ont établi que des conditions hémorhéologiques perturbées constituent des facteurs de risque de thrombose veineuse mais leurs contributions étiologiques demeurent hypothétiques ou corrélatives. En conséquence, un outil de caractérisation hémorhéologique applicable in vivo et in situ devrait permettre de mieux cerner et comprendre ces implications. Les ultrasons, qui se propagent dans les tissus biologiques, sont sensibles à l’agrégation érythrocytaire. De nature non invasive, l’imagerie ultrasonore permet de caractériser in vivo et in situ la microstructure sanguine dans des conditions d’écoulements physiologiques. Les signaux ultrasonores rétrodiffusés portent une information sur la microstructure sanguine reflétant directement les perturbations hémorhéologiques locales. Une cartographie in vivo de l’agrégation érythrocytaire, unique aux ultrasons, devrait permettre d’investiguer les implications étiologiques de l’hémorhéologie dans la maladie thrombotique vasculaire. Cette thèse complète une série de travaux effectués au Laboratoire de Biorhéologie et d’Ultrasonographie Médicale (LBUM) du centre de recherche du Centre hospitalier de l’Université de Montréal portant sur la rétrodiffusion ultrasonore érythrocytaire et menant à une application in vivo de la méthode. Elle se situe à la suite de travaux de modélisation qui ont mis en évidence la pertinence d’un modèle particulaire tenant compte de la densité des globules rouges, de la section de rétrodiffusion unitaire d’un globule et du facteur de structure. Ce modèle permet d’établir le lien entre la microstructure sanguine et le spectre fréquentiel du coefficient de rétrodiffusion ultrasonore. Une approximation au second ordre en fréquence du facteur de structure est proposée dans ces travaux pour décrire la microstructure sanguine. Cette approche est tout d’abord présentée et validée dans un champ d’écoulement cisaillé homogène. Une extension de la méthode en 2D permet ensuite la cartographie des propriétés structurelles sanguines en écoulement tubulaire par des images paramétriques qui mettent en évidence le caractère temporel de l’agrégation et la sensibilité ultrasonore à ces phénomènes. Une extrapolation menant à une relation entre la taille des agrégats érythrocytaires et la viscosité sanguine permet l’établissement de cartes de viscosité locales. Enfin, il est démontré, à l’aide d’un modèle animal, qu’une augmentation subite de l’agrégation érythrocytaire provoque la formation d’un thrombus veineux. Le niveau d’agrégation, la présence du thrombus et les variations du débit ont été caractérisés, dans cette étude, par imagerie ultrasonore. Nos résultats suggèrent que des paramètres hémorhéologiques, préférablement mesurés in vivo et in situ, devraient faire partie du profil de risque thrombotique.
Resumo:
Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche. Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images. Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation. Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs.
Resumo:
Ce mémoire aborde la question de la responsabilité précontractuelle en regardant son incidence en droit québécois ainsi qu'en droit international. Plus précisément, il s'agit de savoir comment est traitée la rupture des négociations lorsqu'aucun avant-contrat n'a été rédigé à cet effet. Afin de pouvoir déterminer ses grands paramètres, le texte aborde dans un premier temps la nature de cette responsabilité. N'étant pas codifiée en droit québécois et ne faisant l'objet d'aucune spécification dans les grands instruments internationaux, cette nature doit être associée à l'un des deux grands régimes de responsabilité soit: contractuel ou extracontractuel. L'importance de cette détermination n'est pas simplement théorique puisqu'elle a une influence directe sur plusieurs éléments comme la prescription ou le droit international privé. Au Québec, la doctrine et la jurisprudence ont choisi d'associer la responsabilité précontractuelle au domaine extracontractuel. Ainsi, elle devra suivre le modèle classique de faute, dommage et lien causal. Cependant, en droit international, la question de la nature reste encore nébuleuse compte tenu de la diversité des membres qui composent les comités d'élaboration des normes. Tous s'entendent pourtant sur un concept fondamental entourant la responsabilité précontractuelle : la bonne foi. Elle est au centre de la faute et dicte une éthique des pourparlers. Ainsi, dans un deuxième temps, la mise en œuvre de la responsabilité est abordée. De cette notion de bonne foi découlent de nombreux devoirs que les parties négociantes se doivent de respecter. Ils sont de création jurisprudentielle et demandent une étude au cas par cas. La liberté contractuelle étant le principe de base dans la formation des contrats, les tribunaux québécois sanctionnent rarement les cas de rupture des négociations. C'est ce principe de liberté qui empêche les pays de common law d'accepter le concept de bonne foi et de responsabilité précontractuelle, même s'ils sanctionnent, par l'intermédiaire de mécanismes, les comportements fautifs dans les pourparlers. Finalement, les dommages et les intérêts pouvant être réclamés varient. Au Québec et en France, autant les pertes subies que les gains manqués sont indemnisés tandis que les instruments internationaux sont plus réticents pour accorder un montant pour le gain manqué. Bref, la responsabilité précontractuelle est en pleine construction et son utilisation devant les tribunaux est encore peu fréquente.
Resumo:
L'un des modèles d'apprentissage non-supervisé générant le plus de recherche active est la machine de Boltzmann --- en particulier la machine de Boltzmann restreinte, ou RBM. Un aspect important de l'entraînement ainsi que l'exploitation d'un tel modèle est la prise d'échantillons. Deux développements récents, la divergence contrastive persistante rapide (FPCD) et le herding, visent à améliorer cet aspect, se concentrant principalement sur le processus d'apprentissage en tant que tel. Notamment, le herding renonce à obtenir un estimé précis des paramètres de la RBM, définissant plutôt une distribution par un système dynamique guidé par les exemples d'entraînement. Nous généralisons ces idées afin d'obtenir des algorithmes permettant d'exploiter la distribution de probabilités définie par une RBM pré-entraînée, par tirage d'échantillons qui en sont représentatifs, et ce sans que l'ensemble d'entraînement ne soit nécessaire. Nous présentons trois méthodes: la pénalisation d'échantillon (basée sur une intuition théorique) ainsi que la FPCD et le herding utilisant des statistiques constantes pour la phase positive. Ces méthodes définissent des systèmes dynamiques produisant des échantillons ayant les statistiques voulues et nous les évaluons à l'aide d'une méthode d'estimation de densité non-paramétrique. Nous montrons que ces méthodes mixent substantiellement mieux que la méthode conventionnelle, l'échantillonnage de Gibbs.
Resumo:
Qu’il s’agisse d’une signature monochrome ("tag"), de lettres rondes à deux couleurs ("throw-up") ou d’un enchevêtrement calligraphique multicolore ("piece"), les formes caractéristiques du graffiti hip-hop font aujourd’hui partie du paysage urbain des grandes villes du monde. Né aux États-Unis dans les années 1960 et diffusé à l’extérieur des frontières américaines dans les années 1980, le graffiti hip-hop peut être perçu comme un exemple à la fois de l’américanisation et de l’homogénéisation des pratiques culturelles des jeunes à travers le monde. À partir d'une comparaison entre des graffiteurs francophones de Montréal et des graffiteurs lusophones de São Paulo, cette thèse décrit le processus d'appropriation d'un mouvement culturel d’origine américaine et montre les similitudes et les différences retrouvées au niveau local de cette forme d'expression mondialisée. L’étude de l’appropriation culturelle proposée dans cette thèse se compose de deux niveaux d’analyse. Le premier – qualifié de micro – touche le domaine personnel et se penche sur le processus de production de graffitis de style hip-hop (type de graffitis d’origine new-yorkaise basé sur l’écriture de pseudonymes). Ce niveau d’analyse me permet de démontrer comment les mécanismes de l’imitation et de la transformation se mélangent et renvoient aux processus de l’apprentissage et de l’inventivité individuels. Pour l’analyse du second niveau – qualifié de macro –, je tiens compte de l’ensemble des forces qui, au plan de la collectivité, forge l’appropriation. Ceci me permet de tracer des liens causaux entre les particularités locales du graffiti hip-hop et certains paramètres relevant du politique, de l’économique, de l’histoire et du culturel.
Resumo:
Cette thèse propose une analyse croisée du cinéma et du jeu vidéo sous un angle interdisciplinaire afin de montrer la réappropriation et le remédiatisation des structures narratives et formelles du jeu vidéo dans le cinéma d’effets visuels du tournant du XXIe siècle. Plus spécifiquement, la thèse porte sur l’analyse de trois figures majeures du jeu vidéo et de l’animation dans la trilogie Matrix (Larry et Andy Wachowski, 1999-2003), dans Avalon (Mamoru Oshii, 2001) et dans Kung-Fu Hustle (Stephen Chow, 2004). La première section de la thèse consiste en une mise en place théorique par la présentation de certains paramètres esthétiques du cinéma d’effets visuels et du jeu vidéo. Quelques réflexions préliminaires sur l’esthétique du cinéma d’effets visuels sont d’abord esquissées avant de présenter les principales relations transmédiales entre le cinéma et le jeu vidéo. Ensuite, c’est le cinéma transludique qui est défini alors que le terme découle de la synergie singulière entre le cinéma et le jeu vidéo. Puisque le cinéma transludique concerne spécifiquement la récupération de l’esthétique du jeu vidéo dans le cinéma contemporain, les prémisses d’une esthétique du jeu vidéo sont alors établies. Dans la deuxième section, ce sont les figures et sous-figures au cœur de cette réflexion qui sont développées, pour ensuite les appliquer aux films du corpus. La première figure à l’étude est celle de l’exploration, alors que l’analyse de la signification de cette figure dans la conception de jeu vidéo et dans les récits cinématographiques de science-fiction montre l’importance de la navigation comme expérience spatio-temporelle dans les univers virtuels. Ensuite, c’est l’utilisation récurrente de la figure vidéoludique du niveau (level) dans le cinéma hybride contemporain qui est soulignée, figure qui structure autant le récit que la forme représentationnelle des films transludiques. Enfin, la figure de la métamorphose, indissociable du cinéma d’animation, est étudiée afin de souligner l’importance de cette figure dans la création numérique et d’expliquer la transformation de l’image qui affecte le cinéma transludique, image qualifiée d’image-frontière.