985 resultados para MATRICES (MATEMATICAS)
Resumo:
Introduction : Une augmentation de la plasticité cérébrale est susceptible d’être impliquée dans la réallocation des régions corticales et dans les nombreuses altérations microstructurelles observées en autisme. Considérant les nombreux résultats démontrant un surfonctionnement perceptif et un fonctionnement moteur atypique en autisme, l’augmentation de la plasticité cérébrale suggère une plus grande variabilité individuelle de l’allocation fonctionnelle chez cette population, plus spécifiquement dans les régions perceptives et motrices. Méthode : Afin de tester cette hypothèse, 23 participants autistes de haut-niveau et 22 non-autistes appariés pour l’âge, le quotient intellectuel, les résultats au test des Matrices de Raven et la latéralité, ont réalisé une tâche d’imitation visuo-motrice dans un appareil d’imagerie par résonnance magnétique fonctionnelle (IRMf). Pour chaque participant, les coordonnées du pic d’activation le plus élevé ont été extraites des aires motrices primaires (Aire de Brodmann 4 (BA4)) et supplémentaires (BA6), du cortex visuo-moteur pariétal supérieur (BA7) ainsi que des aires visuelles primaires (BA17) et associatives (BA18+19) des deux hémisphères. L’étendue des activations, mesurée en fonction du nombre de voxels activés, et la différence d’intensité des activations, calculée en fonction du changement moyen d’intensité du signal ont également été considérées. Pour chaque région d’intérêt et hémisphère, la distance entre la localisation de l’activation maximale de chaque participant par rapport à celle de la moyenne de son groupe a servi de variable d’intérêt. Les moyennes de ces distances individuelles obtenues pour chaque groupe et chacune des régions d’intérêt ont ensuite été soumises à une ANOVA à mesures répétées afin de déterminer s’il existait des différences de variabilité dans la localisation des activations entre les groupes. Enfin, l’activation fonctionnelle générale à l’intérieur de chaque groupe et entre les groupes a également été étudiée. Résultats : Les résultats démontrent qu’une augmentation de la variabilité individuelle en terme de localisation des activations s’est produite à l’intérieur des deux groupes dans les aires associatives motrices et visuelles comparativement aux aires primaires associées. Néanmoins, malgré le fait que cette augmentation de variabilité dans les aires associatives soit partagée, une comparaison directe de celle-ci entre les groupes a démontré que les autistes présentaient une plus grande variabilité de la localisation des activations fonctionnelles dans le cortex visuo-moteur pariétal supérieur (BA7) et les aires associatives visuelles (BA18+19) de l’hémisphère gauche. Conclusion : Des stratégies différentes et possiblement uniques pour chaque individu semblent être observées en autisme. L’augmentation de la variabilité individuelle de la localisation des activations fonctionnelles retrouvée chez les autistes dans les aires associatives, où l’on observe également davantage de variabilité chez les non-autistes, suggère qu’une augmentation et/ou une altération des mécanismes de plasticité est impliquée dans l’autisme.
Resumo:
Les individus autistes présentent un profil cognitif particulier. Par exemple, contrairement aux non-autistes, ils tendent à obtenir des scores plus élevés au test des Matrices progressives de Raven (RSPM) qu’aux tests de QI de Wechsler. Ils peuvent aussi résoudre les items du RSPM plus rapidement. Les mécanismes cérébraux sous-tendant cette différence sont toutefois encore peu connus. Cette étude vise à caractériser comment l’activité du réseau fronto-pariétal de raisonnement est modulée par la complexité de la tâche chez les individus autistes (AUT) en comparaison à un groupe contrôle (Non-AUT) lors d’une tâche de raisonnement fluide. Pour ce faire, nous avons ré-analysé les données d’une étude précédente, dans laquelle 15 AUT et 18 Non-AUT ont résolu les 60 problèmes du RSPM alors qu’ils se trouvaient dans un scanner IRM. Lorsque la complexité du raisonnement augmentait, nous avons observé une augmentation de l’activité dans des aires occipitales chez le groupe AUT, et dans les régions frontales et pariétales chez le groupe Non-AUT. De plus, alors que la complexité du raisonnement augmentait, la modulation de la connectivité entre les régions impliquées dans le raisonnement était moins grande chez les AUT et ces derniers montraient une implication plus ciblée des aires occipitales lors de cette modulation que les Non-AUT. La moins grande modulation du réseau impliqué dans le raisonnement pour une performance semblable suggère que les individus autistes sont moins affectés par la complexité des tâches de raisonnement non verbal. Aussi, ils dépendent plus de processus visuospatiaux pour résoudre les matrices plus complexes que les participants non-autistes. Ces résultats nous apportent une meilleure compréhension des processus cognitifs impliqués dans l’intelligence autistique et de l’influence positive du sur-fonctionnement perceptif autistique sur celle-ci.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
L’infarctus du myocarde est une des conséquences possibles de l’ischémie cardiaque; il se traduit par la mort des cardiomyocytes se situant en aval du blocus coronaire, puis par la formation d’une cicatrice formée essentiellement de dépôts de matrices extracellulaires sécrétées par les myofibroblastes. Nestine est une protéine filamenteuse intermédiaire de classe VI couramment associée à la prolifération et à la migration cellulaire. Chez l’homme et les rongeurs, à la suite d’un infarctus du myocarde, une sous-population de cardiomyocytes localisée à la zone infarcie/péri-infarcie exprimait la forme striée de nestine. Le but principal de cette étude était de déterminer la source cellulaire des cardiomyocytes nestine (+) observée dans le cœur infarci ainsi que le mécanisme de signalisation cellulaire sous-jacent impliqué dans l’expression de nestine. L’utilisation de souris transgénique a révélé que l’augmentation des cardiomyocytes nestine (+) dans le cœur infarci des souris n’était pas attribuable à la différenciation de cellules souches/progénitrices nestine (+) en cardiomyocytes nestine (+). Le traitement des cardiomyocytes ventriculaires de rats néonataux avec l’activateur des protéines kinases C PDBu et l’inhibition concomitante des voies p38 MAPK a mené à l’augmentation du nombre de ces cellules exprimant nestine. De plus, une population importante de cardiomyocytes ventriculaires de rats néonataux a incorporé la bromodéxoxyuridine, signe d’une capacité à réentrer dans le cycle cellulaire et à synthétiser de l’ADN. Sur la base de ces observations, l’apparition de cardiomyocytes nestine (+) dans le cœur infarci des rongeurs et des hommes pourrait possiblement refléter une sous-population de cardiomyocytes en prolifération tentant de régénérer le cœur infarci.
Resumo:
Les pyréthrinoïdes sont des insecticides largement utilisés. La population générale y est exposée par l’alimentation tandis que les travailleurs agricoles y sont exposés lors de tâches diverses en champs. Leurs effets neurotoxiques, immunitaires et endocriniens potentiels en font des composés à surveiller pour assurer la santé de la population. La mesure de biomarqueurs d’exposition, qui consiste à quantifier la concentration dans l’organisme d’une substance ou de ses métabolites, permet d’estimer les doses absorbées. Les biomarqueurs peuvent également être des molécules répondant à un stress physiologique, identifiées comme des biomarqueurs d’effets. Pour raffiner les stratégies de biosurveillance de l’exposition, on se doit de bien connaître la toxicocinétique d’un xénobiotique; actuellement, les études de biosurveillance considèrent rarement la variabilité temporelle, intra-invidivuelle et inter-individuelle, qui pourrait influencer l’estimation de l’exposition. L’objectif de la thèse est donc d’appliquer une approche cinétique pour l’évaluation de l’exposition aux pyréthrinoïdes en conditions contrôlées et en milieu de travail. Dans un volet exploratoire, l’effet de cette exposition sur des changements métaboliques précoces a également évalué. Trois métabolites finaux (cis-DCCA, trans-DCCA et 3-PBA) de deux pyréthrinoïdes les plus utilisés, soient la perméthrine et la cyperméthrine, ont été mesurés dans le plasma et l’urine de six volontaires oralement exposés à une dose équivalente à la dose de référence. Une demi-vie moyenne (t½) d’élimination apparente du trans-DCCA, cis-DCCA et 3-PBA dans le plasma de 5,1, 6,9 et 9,2 h, respectivement, a été obtenue après exposition orale à la cyperméthrine, comparativement à 7,1, 6,2 et 6,5 h après exposition à la perméthrine. Dans l’urine, la demi-vie d'élimination apparente (t½) était de 6,3, 6,4 et 6,4 h pour le trans-DCCA, cis-DCCA et 3-PBA, respectivement, après administration de la cyperméthrine comparé à 5,4, 4,5 et 5,7 h après administration de la perméthrine. Les profils temporels étaient semblables suite à l’exposition à la cyperméthrine et perméthrine. Ensuite, une étude en milieu agricole a été réalisée avec la participation de travailleurs pour évaluer leur exposition et raffiner les stratégies de biosurveillance. La variabilité intra-individuelle dans les niveaux de biomarqueurs d’exposition chez plusieurs travailleurs était plus importante que la variabilité inter-individuelle. Les échantillons urinaires ont également été utilisés pour identifier des modifications du métabolome pouvant fournir de nouveaux biomarqueurs d’effets précoces. Chez les travailleurs, une augmentation de l'hippurate urinaire (p <0,0001) a été observée après exposition aux pyréthrinoïdes, un biomarqueur de la conjugaison de l’acide benzoïque. En conclusion, cette étude a permis de mieux documenter la cinétique de biomarqueurs d’exposition aux pyréthrinoïdes dans des conditions contrôlées et réelles afin de raffiner les stratégies de biosurveillance. Elle a aussi contribué à renseigner sur les niveaux d’exposition agricole québécois et sur les paramètres professionnels associés à une plus forte exposition. Ce projet s’insère dans une démarche d’analyse de risque en santé au travail.
Resumo:
Cette thèse est divisée en cinq parties portant sur les thèmes suivants: l’interprétation physique et algébrique de familles de fonctions orthogonales multivariées et leurs applications, les systèmes quantiques superintégrables en deux et trois dimensions faisant intervenir des opérateurs de réflexion, la caractérisation de familles de polynômes orthogonaux appartenant au tableau de Bannai-Ito et l’examen des structures algébriques qui leurs sont associées, l’étude de la relation entre le recouplage de représentations irréductibles d’algèbres et de superalgèbres et les systèmes superintégrables, ainsi que l’interprétation algébrique de familles de polynômes multi-orthogonaux matriciels. Dans la première partie, on développe l’interprétation physico-algébrique des familles de polynômes orthogonaux multivariés de Krawtchouk, de Meixner et de Charlier en tant qu’éléments de matrice des représentations unitaires des groupes SO(d+1), SO(d,1) et E(d) sur les états d’oscillateurs. On détermine les amplitudes de transition entre les états de l’oscillateur singulier associés aux bases cartésienne et polysphérique en termes des polynômes multivariés de Hahn. On examine les coefficients 9j de su(1,1) par le biais du système superintégrable générique sur la 3-sphère. On caractérise les polynômes de q-Krawtchouk comme éléments de matrices des «q-rotations» de U_q(sl_2). On conçoit un réseau de spin bidimensionnel qui permet le transfert parfait d’états quantiques à l’aide des polynômes de Krawtchouk à deux variables et on construit un modèle discret de l’oscillateur quantique dans le plan à l’aide des polynômes de Meixner bivariés. Dans la seconde partie, on étudie les systèmes superintégrables de type Dunkl, qui font intervenir des opérateurs de réflexion. On examine l’oscillateur de Dunkl en deux et trois dimensions, l’oscillateur singulier de Dunkl dans le plan et le système générique sur la 2-sphère avec réflexions. On démontre la superintégrabilité de chacun de ces systèmes. On obtient leurs constantes du mouvement, on détermine leurs algèbres de symétrie et leurs représentations, on donne leurs solutions exactes et on détaille leurs liens avec les polynômes orthogonaux du tableau de Bannai-Ito. Dans la troisième partie, on caractérise deux familles de polynômes du tableau de Bannai-Ito: les polynômes de Bannai-Ito complémentaires et les polynômes de Chihara. On montre également que les polynômes de Bannai-Ito sont les coefficients de Racah de la superalgèbre osp(1,2). On détermine l’algèbre de symétrie des polynômes duaux -1 de Hahn dans le cadre du problème de Clebsch-Gordan de osp(1,2). On propose une q - généralisation des polynômes de Bannai-Ito en examinant le problème de Racah pour la superalgèbre quantique osp_q(1,2). Finalement, on montre que la q -algèbre de Bannai-Ito sert d’algèbre de covariance à osp_q(1,2). Dans la quatrième partie, on détermine le lien entre le recouplage de représentations des algèbres su(1,1) et osp(1,2) et les systèmes superintégrables du deuxième ordre avec ou sans réflexions. On étudie également les représentations des algèbres de Racah-Wilson et de Bannai-Ito. On montre aussi que l’algèbre de Racah-Wilson sert d’algèbre de covariance quadratique à l’algèbre de Lie sl(2). Dans la cinquième partie, on construit deux familles explicites de polynômes d-orthogonaux basées sur su(2). On étudie les états cohérents et comprimés de l’oscillateur fini et on caractérise une famille de polynômes multi-orthogonaux matriciels.
Resumo:
Ketamine is widely used in medicine in combination with several benzodiazepines including midazolam. The objectives of this study were to develop a novel HPLC-MS/SRM method capable of quantifying ketamine and norketamine using an isotopic dilution strategy in biological matrices and study the formation of norketamine, the principal metabolite of ketamine with and without the presence of midazolam, a well-known CYP3A substrate. The chromatographic separation was achieved using a Thermo Betasil Phenyl 100 x 2 mm column combined with an isocratic mobile phase composed of acetonitrile, methanol, water and formic acid (60:20:20:0.4) at a flow rate of 300 μL/min. The mass spectrometer was operating in selected reaction monitoring mode and the analytical range was set at 0.05–50 μM. The precision (%CV) and accuracy (%NOM) observed were ranging from 3.9–7.8 and 95.9.2–111.1% respectively. The initial rate of formation of norketamine was determined using various ketamine concentration and Km values of 18.4 μM, 13.8 μM and 30.8 μM for rat, dog and human liver S9 fractions were observed respectively. The metabolic stability of ketamine on liver S9 fractions was significantly higher in human (T1/2 = 159.4 min) compared with rat (T1/2 = 12.6 min) and dog (T1/2 = 7.3 min) liver S9 fractions. Moreover significantly lower IC50 and Ki values observed in human compared with rat and dog liver S9 fractions. Experiments with cDNA expressed CYP3A enzymes showed the formation of norketamine is mediated by CYP3A but results suggest an important contribution from others isoenzymes, most likely CYP2C particularly in rat.
Resumo:
Targeted peptide methods generally use HPLC-MS/MRM approaches. Although dependent on the instrumental resolution, interferences may occur while performing analysis of complex biological matrices. HPLC-MS/MRM3 is a technique, which provides a significantly better selectivity, compared with HPLC-MS/MRM assay. HPLC-MS/MRM3 allows the detection and quantitation by enriching standard MRM with secondary product ions that are generated within the linear ion trap. Substance P (SP) and neurokinin A (NKA) are tachykinin peptides playing a central role in pain transmission. The objective of this study was to verify whether HPLC-HPLCMS/ MRM3 could provide significant advantages over a more traditional HPLC-MS/MRM assay for the quantification of SP and NKA in rat spinal cord. The results suggest that reconstructed MRM3 chromatograms display significant improvements with the nearly complete elimination of interfering peaks but the sensitivity (i.e. signal-to-noise ratio) was severely reduced. The precision (%CV) observed was between 3.5% - 24.1% using HPLC-MS/MRM and in the range of 4.3% - 13.1% with HPLC-MS/MRM3, for SP and NKA. The observed accuracy was within 10% of the theoretical concentrations tested. HPLC-MS/MRM3 may improve the assay sensitivity to detect difference between samples by reducing significantly the potential of interferences and therefore reduce instrumental errors.
Resumo:
Objective: Our research program has focused on the development of promising, soft alkylating N-phenyl-N’-(2-chloroethyl)urea (CEU) compounds which acylate the glutamic acid-198 of β-tubulin, near the binding site of colchicum alkaloids. CEUs inhibit the motility of cancerous cells in vitro and, interestingly, exhibit antiangiogenic and anticancer activity in vivo. Mitotic arrest induced by microtubule-interfering agents such as CEUs remains the major mechanism of their anticancer activity, leading to apoptosis. However, we recently demonstrated that microtubule disruption by CEUs and other common antimicrotubule agents greatly alters the integrity and organization of microtubule-associated structures, the focal adhesion contact, thereby initiating anoikis, an apoptosis-like cell death mechanism caused by the loss of cell contact with the extracellular matrix. Methods: To ascertain the activated signaling pathway profile of CEUs, flow cytometry, Western blot, immunohistochemistry and transfection experiments were performed. Wound-healing and chick embryo assays were carried out to evaluate the antiangiogenic potency of CEUs. Results: CEU-induced apoptosis involved early cell cycle arrest in G2/M and increased level of CDK1/cycline B proteins. These signaling events were followed by the specific activation of the intrinsic apoptosis pathway, involving loss of mitochondrial membrane potential (Δψm) and ROS production, cytochrome c release from mitochondria, caspase activation, AIF nuclear translocation, PARP cleavage and nuclear fragmentation. CEUs maintained their efficacy on cells plated on pro-survival extracellular matrices or exhibiting overexpression of P-glycoprotein or the anti-apoptotic protein Bcl-2. Conclusion: Our results suggest that CEUs represent a promising new class of antimicrotubule, antiangiogenic and pro-anoikis agents.
Resumo:
Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.
Resumo:
En 2015, la récidive tumorale et les métastases du cancer du sein demeurent une cause importante de décès à travers le monde. Toutefois, ces cancers sont souvent hétérogènes car en dépit d’un phénotype similaire, l’évolution clinique et la réponse au traitement peuvent varier considérablement. Il y a donc un intérêt évident à identifier et à caractériser de nouveaux biomarqueurs pour permettre classer les tumeurs mammaires dans des sous-groupes plus homogènes. Notre hypothèse est que chaque cancer mammaire possède des caractéristiques distinctes au plan des altérations du génome et des profils d’expression géniques et que ces changements se traduisent cliniquement par une prédisposition à former des métastases ou à répondre ou non à la chimiothérapie et aux thérapies ciblées. Dans le cadre de nos travaux, nous nous sommes intéressés aux sous-types agressifs de tumeurs mammaires et notamment les cancers de type triple négatif. Nous avons aussi tenté d’identifier des marqueurs capables de distinguer l’une de l’autre les tumeurs de type luminal A et luminal B. Pour ce faire, nous avons d’abord utilisé une stratégie in silico à partir de données publiques (micro-puces d’ADN et séquençage de l’ARN). Nous avons ensuite construit sept micro-matrices tissulaires (TMA) provenant de tissus mammaires normaux et tumoraux fixés à la formaline et enrobés en paraffine. Ces outils nous ont permis d’évaluer par immunohistochimie les niveaux d’expression différentielle des marqueurs suivants : ANXA1, MMP-9, DP103 et MCM2. Ceux-ci ont été comparés aux marqueurs usuels du cancer du sein (ER, PR, HER2, CK5/6 et FOXA1) et corrélés aux données cliniques (survie globale et métastase). Nos résultats indiquent que ces nouveaux marqueurs jouent un rôle important dans l’évolution clinique défavorable des tumeurs de haut grade. Dans un premier article nous avons montré que l’expression d’ANXA1 est dérégulée dans les cancers de type triple-négatif et aussi, dans une certaine mesure, dans les tumeurs HER2+. Nous croyons qu’ANXA1 permet de mieux comprendre le processus d’hétérogénéité tumorale et facilite l’identification des tumeurs de haut grade. Nous proposons également qu’ d’ANXA1 stimule la transition épithélio-mésenchymateuse (EMT) et la formation des métastases. Dans un second temps, nous avons montré que les niveaux d’expression de MMP-9 reflètent la différenciation cellulaire et corrèlent avec les sous-types de cancers mammaires ayant un mauvais pronostic. Nous estimons que MMP-9 permet de mieux comprendre et d’identifier les tumeurs mammaires à haut risque. De fait, la surexpression de MMP-9 est associée à une augmentation des métastases, une récidive précoce et une diminution de la survie globale. Dans le cadre d’un troisième article, nous avons montré que la surexpression du marqueur de prolifération MCM2 s’observe dans les cancers triple-négatifs, HER2+ et Luminal B par comparaison aux cancers luminal A (p< 0.0001). Nos résultats suggèrent qu’en utilisant un seuil de 40% de noyaux marqués, nous pourrions distinguer l’une de l’autre les tumeurs de type luminal A et luminal B. Cela dit, avant de pouvoir envisager l’utilisation de ce marqueur en clinique, une étude de validation sur une nouvelle cohorte de patientes s’impose. En somme, les résultats de nos travaux suggèrent qu’ANXA1, MMP-9 et MCM2 sont des marqueurs intéressants pour mieux comprendre les mécanismes physiopathologiques impliqués dans la progression tumorale et le développement des métastases. À terme, ces nouveaux marqueurs pourraient être utilisés seuls ou en combinaison avec d’autres gènes candidats pour permettre le développement de trousses « multigènes » ou d’essais protéomiques multiplex pour prédire l’évolution clinique des cancers mammaires.
Resumo:
L’élevage des porcs représente une source importante de déversement d’antibiotiques dans l’environnement par l’intermédiaire de l’épandage du lisier qui contient une grande quantité de ces molécules sur les champs agricoles. Il a été prouvé que ces molécules biologiquement actives peuvent avoir un impact toxique sur l’écosystème. Par ailleurs, elles sont aussi suspectées d’engendrer des problèmes sanitaires et de contribuer à la résistance bactérienne pouvant mener à des infections difficilement traitables chez les humains. Le contrôle de ces substances dans l’environnement est donc nécessaire. De nombreuses méthodes analytiques sont proposées dans la littérature scientifique pour recenser ces composés dans plusieurs types de matrice. Cependant, peu de ces méthodes permettent l’analyse de ces contaminants dans des matrices issues de l’élevage agricole intensif. Par ailleurs, les méthodes analytiques disponibles sont souvent sujettes à des faux positifs compte tenu de la complexité des matrices étudiées et du matériel utilisé et ne prennent souvent pas en compte les métabolites et produits de dégradation. Enfin, les niveaux d’analyse atteints avec ces méthodes ne sont parfois plus à jour étant donné l’évolution de la chimie analytique et de la spectrométrie de masse. Dans cette optique, de nouvelles méthodes d’analyses ont été développées pour rechercher et quantifier les antibiotiques dans des matrices dérivées de l’élevage intensif des porcs en essayant de proposer des approches alternatives sensibles, sélectives et robustes pour quantifier ces molécules. Une première méthode d’analyse basée sur une technique d’introduction d’échantillon alternative à l’aide d’une interface fonctionnant à l’aide d’une désorption thermique par diode laser munie d’une source à ionisation à pression atmosphérique, couplée à la spectrométrie de masse en tandem a été développée. L’objectif est de proposer une analyse plus rapide tout en atteignant des niveaux de concentration adaptés à la matrice étudiée. Cette technique d’analyse couplée à un traitement d’échantillon efficace a permis l’analyse de plusieurs antibiotiques vétérinaires de différentes classes dans des échantillons de lisier avec des temps d’analyse courts. Les limites de détection atteintes sont comprises entre 2,5 et 8,3 µg kg-1 et sont comparables avec celles pouvant être obtenues avec la chromatographie liquide dans une matrice similaire. En vue d’analyser simultanément une série de tétracyclines, une deuxième méthode d’analyse utilisant la chromatographie liquide couplée à la spectrométrie de masse à haute résolution (HRMS) a été proposée. L’utilisation de la HRMS a été motivée par le fait que cette technique d’analyse est moins sensible aux faux positifs que le triple quadripôle traditionnel. Des limites de détection comprises entre 1,5 et 3,6 µg kg-1 ont été atteintes dans des échantillons de lisier en utilisant un mode d’analyse par fragmentation. L’utilisation de méthodes de quantifications ciblées est une démarche intéressante lorsque la présence de contaminants est suspectée dans un échantillon. Toutefois, les contaminants non intégrés à cette méthode d’analyse ciblée ne peuvent être détectés même à de fortes concentrations. Dans ce contexte, une méthode d’analyse non ciblée a été développée pour la recherche de pharmaceutiques vétérinaires dans des effluents agricoles en utilisant la spectrométrie de masse à haute résolution et une cartouche SPE polymérique polyvalente. Cette méthode a permis l’identification d’antibiotiques et de pharmaceutiques couramment utilisés dans l’élevage porcin. La plupart des méthodes d’analyse disponibles dans la littérature se concentrent sur l’analyse des composés parents, mais pas sur les sous-produits de dégradation. L’approche utilisée dans la deuxième méthode d’analyse a donc été étendue et appliquée à d’autres classes d’antibiotiques pour mesurer les concentrations de plusieurs résidus d’antibiotiques dans les sols et les eaux de drainage d’un champ agricole expérimental. Les sols du champ renfermaient un mélange d’antibiotiques ainsi que leurs produits de dégradation relatifs à des concentrations mesurées jusqu’à 1020 µg kg-1. Une partie de ces composés ont voyagé par l’intermédiaire des eaux de drainage du champ ou des concentrations pouvant atteindre 3200 ng L-1 ont pu être relevées.
Inference for nonparametric high-frequency estimators with an application to time variation in betas
Resumo:
We consider the problem of conducting inference on nonparametric high-frequency estimators without knowing their asymptotic variances. We prove that a multivariate subsampling method achieves this goal under general conditions that were not previously available in the literature. We suggest a procedure for a data-driven choice of the bandwidth parameters. Our simulation study indicates that the subsampling method is much more robust than the plug-in method based on the asymptotic expression for the variance. Importantly, the subsampling method reliably estimates the variability of the Two Scale estimator even when its parameters are chosen to minimize the finite sample Mean Squared Error; in contrast, the plugin estimator substantially underestimates the sampling uncertainty. By construction, the subsampling method delivers estimates of the variance-covariance matrices that are always positive semi-definite. We use the subsampling method to study the dynamics of financial betas of six stocks on the NYSE. We document significant variation in betas within year 2006, and find that tick data captures more variation in betas than the data sampled at moderate frequencies such as every five or twenty minutes. To capture this variation we estimate a simple dynamic model for betas. The variance estimation is also important for the correction of the errors-in-variables bias in such models. We find that the bias corrections are substantial, and that betas are more persistent than the naive estimators would lead one to believe.
Resumo:
Cette thèse porte sur le développement de biocapteurs basés sur la technique de résonance des plasmons de surface (SPR) pour effectuer des analyses directement dans un fluide sanguin n’ayant subi aucune purification ou dilution. L’ensemble des biocapteurs discutés exploiteront un instrument SPR portable développé dans le groupe du professeur Masson. Le premier volet de la thèse portera sur le processus d’interférence lié à l’adsorption non spécifique du sérum à la surface du capteur. L’analyse des biomolécules adsorbées sera effectuée en combinant la SPR à la spectrométrie de masse. Les informations obtenues seront exploitées pour la construction de biocapteurs adaptés à l’analyse en milieu sanguin. Un premier biocapteur développé ciblera la protéine antigène prostatique spécifique (APS) contenue dans le sérum servant de biomarqueur pour dépister le cancer de la prostate. Pour détecter les faibles concentrations de cette protéine directement dans le sérum, un matériel plasmonique microstructuré sera utilisé pour amplifier les signaux obtenus et sera recouvert d’une monocouche peptidique minimisant l’adsorption non spécifique du sérum. L’instrument SPR aura été adapté pour permettre également la détection simultanée de fluorescence. Un test ELISA sera ainsi effectué en parallèle du test SPR. Chacune des techniques fournira un contrôle pour la deuxième, tout en permettant de détecter le biomarqueur au niveau requis pour dépister la maladie. La combinaison des deux méthodes permettra aussi d’élargir la gamme dynamique du test de dépistage. Pour terminer, l’instrument SPR portable sera utilisé dans le cadre de détection de petites biomolécules ayant un potentiel thérapeutique directement dans un échantillon de sang. Des peptides ayant une activité anti-athérosclérotique pourront ainsi être détectés à même un échantillon de sang ni purifié ni dilué, et ce à des concentrations de l’ordre du micromolaire. Une modification de la microfluidique via l’introduction d’une membrane poreuse au cœur de celle-ci sera la clé permettant d’effectuer de telles analyses. La présente thèse met de l’avant de nouvelles stratégies et des modifications instrumentales permettant d’analyser des protéines et des petites molécules directement dans un échantillon non purifié de sérum ou de sang. Les modifications apportées au système fluidique, à l’instrument SPR et au niveau du biocapteur employé permettront d’effectuer des biodétections dans des matrices aussi complexes que les fluides sanguins. Les présents travaux mettent en lumière la capacité d’un instrument SPR/fluorescence portable à faire en 12 minutes la biodétection d’un marqueur du cancer de la prostate directement dans un échantillon de sérum. Finalement, on rapporte ici un des premiers articles où un biocapteur SPR est utilisé à même un échantillon de sang non-purifié pour faire des biodétections.
Resumo:
Holographic technology is at the dawn of quick evolution in various new areas including holographic data storage, holographic optical elements, artificial intelligence, optical interconnects, optical correlators, commerce, medical practice, holographic weapon sight, night vision goggles and games etc. One of the major obstacles for the success of holographic technology to a large extent is the lack of suitable recording medium. Compared with other holographic materials such as dichromated gelatin and silver halide emulsions, photopolymers have the great advantage of recording and reading holograms in real time and the spectral sensitivity could be easily shifted to the type of recording laser used by simply changing the sensitizing dye. Also these materials possess characteristics such as good light sensitivity, real time image development, large dynamic range, good optical properties, format flexibility, and low cost. This thesis describes the attempts made to fabricate highly economic photopolymer films for various holographic applications. In the present work, Poly (vinyl alcohol) (PVA) and poly (vinyl chloride) (PVC) are selected as the host polymer matrices and methylene blue (MB) is used as the photosensitizing dye. The films were fabricated using gravity settling method. No chemical treatment or pre/post exposures were applied to the films. As the outcome of the work, photopolymer films with more than 70% efficiency, a permanent recording material which required no fixing process, a reusable recording material etc. were fabricated.