985 resultados para Matrices multirrasgo-multimétodo
Resumo:
Cette thèse part du postulat que la crise du syndicalisme résulte d’une remise en cause des identités collectives ayant légitimé jusque dans les années 70 leur représentation des travailleurs. En témoignent les mobilisations, qui se déroulent souvent en dehors des syndicats et de façon conflictuelle avec eux, de travailleuses et travailleurs longtemps minorés par les arrangements institutionnels prévalant avec la société salariale. Différents travaux dans le renouveau syndical relèvent de leur côté que les syndicats peinent à prendre en compte les besoins et aspirations de ces travailleurs car leur identité collective les entraîne à rester dans les sentiers des orientations et représentations institutionnalisées. Cependant, les auteurs se focalisent sur la façon dont le syndicalisme, et en particulier les leaders, peuvent reconstruire une représentation des travailleurs, et non sur la façon dont les identités collectives se transforment. Les études sur le syndicalisme héritent d’un débat sur les mouvements sociaux qui a abouti à scinder les approches théoriques entre celles conceptualisant les identités collectives, mais dans le cadre de théorisations contestables de l’évolution des sociétés, et celles qui sous-théorisent les identités collectives et considèrent que les mouvements sociaux émergent des processus politique et de la mobilisation des ressources. Les travaux sur le renouveau syndical reprennent généralement cette seconde approche et assimilent les mouvements de travailleurs à des organisations en considérant, implicitement, les buts de l’action collective comme donné. Or, un mouvement social est un concept ; il n’est pas réductible à une organisation, au risque sinon de perdre sa valeur heuristique, qui est de chercher à saisir les identités collectives en conflit et les stratégies associées. À partir de l’étude du cas du mouvement de travailleurs dans l’économie solidaire brésilienne, cette thèse questionne donc le « pourquoi de nouvelles identités collectives de travailleurs émergent » et le « comment ou le pourquoi des identités syndicales se transforment ou se reproduisent », lorsqu’elles sont confrontées à l’émergence de nouvelles façons de définir les dominations à combattre et les orientations. Les identités collectives sont opérationnalisées comme des matrices cognitives et normatives, ce qui permet de rendre compte de leur caractère évolutif en fonction des modalités d’interaction. L’étude de cas met en évidence que les mobilisations autonomes des travailleurs minorés sont porteuses de nouvelles définitions des problèmes et de pratiques sociales transformatrices, qui entrent en conflit avec les significations et les pratiques syndicales institutionnalisées. Elle montre que c’est à la suite d’interactions délibératives entre ces travailleurs et les syndicalistes que les identités syndicales se transforment. Cependant, la reconstitution des trajectoires de deux syndicats (de la principale centrale brésilienne) indique que le fait d’entrer dans de telles interactions ne dépend pas d’une décision rationnelle, mais de la perception (de la part des syndicats) des capacités des travailleurs à transformer le rapport au travail et au monde lorsqu’ils agissent collectivement. Un dernier résultat, corollaire, tient dans la falsification de l’hypothèse – défendue par une partie de la littérature sur le renouveau syndical – selon laquelle les syndicats, et en particulier les leaders, peuvent conduire une transformation de la représentation collective en procédant eux-mêmes à une agrégation des multiples identités collectives. Cette hypothèse, qui revient à considérer le but de l’action collective comme donné, est contredite par les données : elles montrent que, dans un tel cas, s’il y a bien des innovations institutionnelles conduites par le syndicat, ces innovations favorisent l’adaptation du syndicalisme aux mutations du capitalisme et non la transformation des rapports sociaux de domination, parce que prédominent alors les liens sociaux avec les groupes dominants, c’est-à-dire les interprétations cognitives dominantes des problèmes.
Resumo:
La perception est de plus en plus reconnue comme fondamentale à la compréhension du phénotype autistique. La première description de l’autisme, par Kanner en 1947, fait état d’un profil cognitif hétérogène caractérisé par des habiletés exceptionnelles à l’intérieur de domaines spécifiques de la perception (ex., la musique). L’accumulation des observations cliniques sur la présence de particularités perceptives a mené à l’élaboration d’études empiriques permettant d’objectiver des surfonctionnements dans le traitement élémentaire de l’information perceptive dans l’autisme. Parallèlement, des études cognitives suggèrent la présence d’une « intelligence différente » chez les personnes autistes. Celle-ci serait caractérisée par une dissociation entre des performances à différents tests d’intelligence fortement corrélés ensemble chez les personnes typiques. Le potentiel intellectuel des personnes autistes serait sous-estimé lorsque mesuré par l’échelle de Wechsler, plutôt que des mesures d’intelligence fluide comme les Matrices Progressives de Raven. Avec l’appui d’études en imagerie cérébrale, ces résultats suggèrent une relation unique entre la perception et l’intelligence chez cette population clinique. Étant donné l’accumulation de preuves sur 1) la présence d’atypies perceptuelles, 2) le rôle différent de la perception dans l’intelligence et 3) l’importance des comportements répétitifs et intérêts restreints dans le phénotype autistique (DSM-5), le premier volet de cette thèse s’est intéressé à la relation entre les performances perceptives des personnes autistes et celle des personnes ayant un développement typique, au-delà de ce qui est expliqué par l’intelligence. À l’aide de modèles de régression linéaire, les résultats démontrent un profil de covariation spécifique à l’autisme pour les habiletés plurimodales. Contrairement aux personnes ayant un développement typique, ces associations persistent au-delà de ce qui est expliqué par l’intelligence générale ou par l’efficacité générale des systèmes perceptifs. Ce profil de covariation résiduelle propre aux personnes autistes suggère la présence d’un facteur plurimodal spécifique à ce groupe clinique : le facteur « p ». Le deuxième volet de cette thèse s’est intéressé à la prévalence des habiletés exceptionnelles au niveau individuel, la relation les forces perceptives et les talents, ainsi qu’aux facteurs de prédisposition en lien avec le développement d’habiletés exceptionnelles. Les forces perceptives des personnes autistes furent évaluées à l’aide de tâches expérimentales sensibles à la détection de surfonctionnements perceptifs, soit une tâche de discrimination de hauteurs sonores et une version modifiée du sous-test « Blocs » de l’échelle d’intelligence de Wechsler. Les talents furent évalués de manière clinique à l’aide de l’ADI-R (« Autism Diagnostic Interview-Revised »). Les données indiquent que 88.4 % des personnes autistes avec une intelligence dans la normale présentent au moins une habileté exceptionnelle (force perceptive ou talent). Les talents sont rapportés chez 62.5 % des cas et les forces perceptives se retrouvent chez 58 % des cas. La cooccurrence des forces perceptives entre les modalités perceptives est relativement peu fréquente (24 % à 27 %) et la présence d’un talent dans une modalité n’augmente pas les chances de présenter une force perceptive dans une même modalité. Une plus grande intelligence augmente les chances de présenter au moins un talent. En revanche, une intelligence plus faible, mais se situant tout de même dans les limites de la normale, est associée à un profil cognitif plus hétérogène avec des forces perceptives plus fréquentes. En somme, l’intelligence autistique serait caractérisée par un rôle plus important de la perception, indépendamment des surfonctionnements perceptifs. Cette particularité cognitive se manifesterait par la présence d’un facteur plurimodal, « p », spécifique à l’autisme. Théoriquement, le facteur « p » reflèterait des modifications innées (ou « hardwired ») dans l’organisation corticale des microcircuits responsables de l'encodage des dimensions perceptives élémentaires. En revanche, une faible association intermodale entre les forces perceptives suggère que des modifications corticales sont essentielles, mais non suffisantes pour le développement d’habiletés exceptionnelles. Par des processus de plasticité, des modifications corticales auraient des répercussions sur le phénotype autistique en offrant une base plus « fertile » pour le développement d’habiletés exceptionnelles, voire savantes, lorsque la personne autiste serait exposée à des expériences de vie avantageuses. Par ailleurs, les résultats de cette thèse, combinés à la littérature existante sur l’intelligence et l’apprentissage des personnes autistes, nous amènent à réfléchir sur les approches d’évaluation et d’intervention les mieux adaptées au fonctionnement spécifique de cette population clinique.
Resumo:
L’utilisation accrue des nanomatériaux manufacturés (NM) fait en sorte que les différents acteurs de réglementation se questionnent de plus en plus par rapport à leur destin et leurs impacts sur les écosystèmes et la santé humaine suite à leur rejet dans l’environnement. Le développement de techniques analytiques permettant de détecter et de caractériser les NM en matrice environnementale est impératif étant donné la nécessité d’évaluer le risque relié à ces polluants émergents. Une des approches de plus en plus favorisée est d’utiliser une technique chromatographique et un ou plusieurs détecteurs sensibles dans les buts de réduire les effets de matrice, d’identifier des nanoparticules (NP) selon leurs temps de rétention et de les quantifier à des concentrations représentatives de la réalité environnementale. Une technique analytique utilisant la chromatographie hydrodynamique (HDC) et des détecteurs en ligne ou hors ligne (détecteurs de diffusion statique ou dynamique de la lumière, spectromètre de masse par torche à plasma en mode particule unique (SP-ICPMS), l’ultracentrifugation analytique) a donc été développée. Le couplage de la colonne HDC avec ces détecteurs a permis de caractériser des NP standards et l’optimisation des conditions de séparation de ces nanoparticules de polystyrène, d’or et d’argent a permis de confirmer que les NP y sont bel et bien séparées seulement selon leur taille, tel que la théorie le prédit. De plus, l’utilisation de la colonne HDC couplée au SP-ICPMS a permis de séparer un mélange de nanoparticules d’argent (nAg) et de les détecter à des concentrations représentatives de celles rencontrées dans l’environnement, soit de l’ordre du μg L-1 au ng L-1. Par exemple, dans un échantillon d’eau usée (effluent), un mélange de nAg de 80 et de 40 nm a été séparé et les nAg ont été détectées à l’aide du SP-ICPMS connecté à la colonne HDC (temps de rétention de 25.2 et 25.6 minutes et diamètres déterminés de 71.4 nm et 52.0 nm). Finalement, pour plusieurs échantillons environnementaux auxquels aucun ajout de nanoparticules n’a été fait, les analyses HDC-SP-ICPMS effectuées ont permis de déterminer qu’ils ne contenaient initialement pas de nAg.
Resumo:
Introduction : Une augmentation de la plasticité cérébrale est susceptible d’être impliquée dans la réallocation des régions corticales et dans les nombreuses altérations microstructurelles observées en autisme. Considérant les nombreux résultats démontrant un surfonctionnement perceptif et un fonctionnement moteur atypique en autisme, l’augmentation de la plasticité cérébrale suggère une plus grande variabilité individuelle de l’allocation fonctionnelle chez cette population, plus spécifiquement dans les régions perceptives et motrices. Méthode : Afin de tester cette hypothèse, 23 participants autistes de haut-niveau et 22 non-autistes appariés pour l’âge, le quotient intellectuel, les résultats au test des Matrices de Raven et la latéralité, ont réalisé une tâche d’imitation visuo-motrice dans un appareil d’imagerie par résonnance magnétique fonctionnelle (IRMf). Pour chaque participant, les coordonnées du pic d’activation le plus élevé ont été extraites des aires motrices primaires (Aire de Brodmann 4 (BA4)) et supplémentaires (BA6), du cortex visuo-moteur pariétal supérieur (BA7) ainsi que des aires visuelles primaires (BA17) et associatives (BA18+19) des deux hémisphères. L’étendue des activations, mesurée en fonction du nombre de voxels activés, et la différence d’intensité des activations, calculée en fonction du changement moyen d’intensité du signal ont également été considérées. Pour chaque région d’intérêt et hémisphère, la distance entre la localisation de l’activation maximale de chaque participant par rapport à celle de la moyenne de son groupe a servi de variable d’intérêt. Les moyennes de ces distances individuelles obtenues pour chaque groupe et chacune des régions d’intérêt ont ensuite été soumises à une ANOVA à mesures répétées afin de déterminer s’il existait des différences de variabilité dans la localisation des activations entre les groupes. Enfin, l’activation fonctionnelle générale à l’intérieur de chaque groupe et entre les groupes a également été étudiée. Résultats : Les résultats démontrent qu’une augmentation de la variabilité individuelle en terme de localisation des activations s’est produite à l’intérieur des deux groupes dans les aires associatives motrices et visuelles comparativement aux aires primaires associées. Néanmoins, malgré le fait que cette augmentation de variabilité dans les aires associatives soit partagée, une comparaison directe de celle-ci entre les groupes a démontré que les autistes présentaient une plus grande variabilité de la localisation des activations fonctionnelles dans le cortex visuo-moteur pariétal supérieur (BA7) et les aires associatives visuelles (BA18+19) de l’hémisphère gauche. Conclusion : Des stratégies différentes et possiblement uniques pour chaque individu semblent être observées en autisme. L’augmentation de la variabilité individuelle de la localisation des activations fonctionnelles retrouvée chez les autistes dans les aires associatives, où l’on observe également davantage de variabilité chez les non-autistes, suggère qu’une augmentation et/ou une altération des mécanismes de plasticité est impliquée dans l’autisme.
Resumo:
Les individus autistes présentent un profil cognitif particulier. Par exemple, contrairement aux non-autistes, ils tendent à obtenir des scores plus élevés au test des Matrices progressives de Raven (RSPM) qu’aux tests de QI de Wechsler. Ils peuvent aussi résoudre les items du RSPM plus rapidement. Les mécanismes cérébraux sous-tendant cette différence sont toutefois encore peu connus. Cette étude vise à caractériser comment l’activité du réseau fronto-pariétal de raisonnement est modulée par la complexité de la tâche chez les individus autistes (AUT) en comparaison à un groupe contrôle (Non-AUT) lors d’une tâche de raisonnement fluide. Pour ce faire, nous avons ré-analysé les données d’une étude précédente, dans laquelle 15 AUT et 18 Non-AUT ont résolu les 60 problèmes du RSPM alors qu’ils se trouvaient dans un scanner IRM. Lorsque la complexité du raisonnement augmentait, nous avons observé une augmentation de l’activité dans des aires occipitales chez le groupe AUT, et dans les régions frontales et pariétales chez le groupe Non-AUT. De plus, alors que la complexité du raisonnement augmentait, la modulation de la connectivité entre les régions impliquées dans le raisonnement était moins grande chez les AUT et ces derniers montraient une implication plus ciblée des aires occipitales lors de cette modulation que les Non-AUT. La moins grande modulation du réseau impliqué dans le raisonnement pour une performance semblable suggère que les individus autistes sont moins affectés par la complexité des tâches de raisonnement non verbal. Aussi, ils dépendent plus de processus visuospatiaux pour résoudre les matrices plus complexes que les participants non-autistes. Ces résultats nous apportent une meilleure compréhension des processus cognitifs impliqués dans l’intelligence autistique et de l’influence positive du sur-fonctionnement perceptif autistique sur celle-ci.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
L’infarctus du myocarde est une des conséquences possibles de l’ischémie cardiaque; il se traduit par la mort des cardiomyocytes se situant en aval du blocus coronaire, puis par la formation d’une cicatrice formée essentiellement de dépôts de matrices extracellulaires sécrétées par les myofibroblastes. Nestine est une protéine filamenteuse intermédiaire de classe VI couramment associée à la prolifération et à la migration cellulaire. Chez l’homme et les rongeurs, à la suite d’un infarctus du myocarde, une sous-population de cardiomyocytes localisée à la zone infarcie/péri-infarcie exprimait la forme striée de nestine. Le but principal de cette étude était de déterminer la source cellulaire des cardiomyocytes nestine (+) observée dans le cœur infarci ainsi que le mécanisme de signalisation cellulaire sous-jacent impliqué dans l’expression de nestine. L’utilisation de souris transgénique a révélé que l’augmentation des cardiomyocytes nestine (+) dans le cœur infarci des souris n’était pas attribuable à la différenciation de cellules souches/progénitrices nestine (+) en cardiomyocytes nestine (+). Le traitement des cardiomyocytes ventriculaires de rats néonataux avec l’activateur des protéines kinases C PDBu et l’inhibition concomitante des voies p38 MAPK a mené à l’augmentation du nombre de ces cellules exprimant nestine. De plus, une population importante de cardiomyocytes ventriculaires de rats néonataux a incorporé la bromodéxoxyuridine, signe d’une capacité à réentrer dans le cycle cellulaire et à synthétiser de l’ADN. Sur la base de ces observations, l’apparition de cardiomyocytes nestine (+) dans le cœur infarci des rongeurs et des hommes pourrait possiblement refléter une sous-population de cardiomyocytes en prolifération tentant de régénérer le cœur infarci.
Resumo:
Les pyréthrinoïdes sont des insecticides largement utilisés. La population générale y est exposée par l’alimentation tandis que les travailleurs agricoles y sont exposés lors de tâches diverses en champs. Leurs effets neurotoxiques, immunitaires et endocriniens potentiels en font des composés à surveiller pour assurer la santé de la population. La mesure de biomarqueurs d’exposition, qui consiste à quantifier la concentration dans l’organisme d’une substance ou de ses métabolites, permet d’estimer les doses absorbées. Les biomarqueurs peuvent également être des molécules répondant à un stress physiologique, identifiées comme des biomarqueurs d’effets. Pour raffiner les stratégies de biosurveillance de l’exposition, on se doit de bien connaître la toxicocinétique d’un xénobiotique; actuellement, les études de biosurveillance considèrent rarement la variabilité temporelle, intra-invidivuelle et inter-individuelle, qui pourrait influencer l’estimation de l’exposition. L’objectif de la thèse est donc d’appliquer une approche cinétique pour l’évaluation de l’exposition aux pyréthrinoïdes en conditions contrôlées et en milieu de travail. Dans un volet exploratoire, l’effet de cette exposition sur des changements métaboliques précoces a également évalué. Trois métabolites finaux (cis-DCCA, trans-DCCA et 3-PBA) de deux pyréthrinoïdes les plus utilisés, soient la perméthrine et la cyperméthrine, ont été mesurés dans le plasma et l’urine de six volontaires oralement exposés à une dose équivalente à la dose de référence. Une demi-vie moyenne (t½) d’élimination apparente du trans-DCCA, cis-DCCA et 3-PBA dans le plasma de 5,1, 6,9 et 9,2 h, respectivement, a été obtenue après exposition orale à la cyperméthrine, comparativement à 7,1, 6,2 et 6,5 h après exposition à la perméthrine. Dans l’urine, la demi-vie d'élimination apparente (t½) était de 6,3, 6,4 et 6,4 h pour le trans-DCCA, cis-DCCA et 3-PBA, respectivement, après administration de la cyperméthrine comparé à 5,4, 4,5 et 5,7 h après administration de la perméthrine. Les profils temporels étaient semblables suite à l’exposition à la cyperméthrine et perméthrine. Ensuite, une étude en milieu agricole a été réalisée avec la participation de travailleurs pour évaluer leur exposition et raffiner les stratégies de biosurveillance. La variabilité intra-individuelle dans les niveaux de biomarqueurs d’exposition chez plusieurs travailleurs était plus importante que la variabilité inter-individuelle. Les échantillons urinaires ont également été utilisés pour identifier des modifications du métabolome pouvant fournir de nouveaux biomarqueurs d’effets précoces. Chez les travailleurs, une augmentation de l'hippurate urinaire (p <0,0001) a été observée après exposition aux pyréthrinoïdes, un biomarqueur de la conjugaison de l’acide benzoïque. En conclusion, cette étude a permis de mieux documenter la cinétique de biomarqueurs d’exposition aux pyréthrinoïdes dans des conditions contrôlées et réelles afin de raffiner les stratégies de biosurveillance. Elle a aussi contribué à renseigner sur les niveaux d’exposition agricole québécois et sur les paramètres professionnels associés à une plus forte exposition. Ce projet s’insère dans une démarche d’analyse de risque en santé au travail.
Resumo:
Cette thèse est divisée en cinq parties portant sur les thèmes suivants: l’interprétation physique et algébrique de familles de fonctions orthogonales multivariées et leurs applications, les systèmes quantiques superintégrables en deux et trois dimensions faisant intervenir des opérateurs de réflexion, la caractérisation de familles de polynômes orthogonaux appartenant au tableau de Bannai-Ito et l’examen des structures algébriques qui leurs sont associées, l’étude de la relation entre le recouplage de représentations irréductibles d’algèbres et de superalgèbres et les systèmes superintégrables, ainsi que l’interprétation algébrique de familles de polynômes multi-orthogonaux matriciels. Dans la première partie, on développe l’interprétation physico-algébrique des familles de polynômes orthogonaux multivariés de Krawtchouk, de Meixner et de Charlier en tant qu’éléments de matrice des représentations unitaires des groupes SO(d+1), SO(d,1) et E(d) sur les états d’oscillateurs. On détermine les amplitudes de transition entre les états de l’oscillateur singulier associés aux bases cartésienne et polysphérique en termes des polynômes multivariés de Hahn. On examine les coefficients 9j de su(1,1) par le biais du système superintégrable générique sur la 3-sphère. On caractérise les polynômes de q-Krawtchouk comme éléments de matrices des «q-rotations» de U_q(sl_2). On conçoit un réseau de spin bidimensionnel qui permet le transfert parfait d’états quantiques à l’aide des polynômes de Krawtchouk à deux variables et on construit un modèle discret de l’oscillateur quantique dans le plan à l’aide des polynômes de Meixner bivariés. Dans la seconde partie, on étudie les systèmes superintégrables de type Dunkl, qui font intervenir des opérateurs de réflexion. On examine l’oscillateur de Dunkl en deux et trois dimensions, l’oscillateur singulier de Dunkl dans le plan et le système générique sur la 2-sphère avec réflexions. On démontre la superintégrabilité de chacun de ces systèmes. On obtient leurs constantes du mouvement, on détermine leurs algèbres de symétrie et leurs représentations, on donne leurs solutions exactes et on détaille leurs liens avec les polynômes orthogonaux du tableau de Bannai-Ito. Dans la troisième partie, on caractérise deux familles de polynômes du tableau de Bannai-Ito: les polynômes de Bannai-Ito complémentaires et les polynômes de Chihara. On montre également que les polynômes de Bannai-Ito sont les coefficients de Racah de la superalgèbre osp(1,2). On détermine l’algèbre de symétrie des polynômes duaux -1 de Hahn dans le cadre du problème de Clebsch-Gordan de osp(1,2). On propose une q - généralisation des polynômes de Bannai-Ito en examinant le problème de Racah pour la superalgèbre quantique osp_q(1,2). Finalement, on montre que la q -algèbre de Bannai-Ito sert d’algèbre de covariance à osp_q(1,2). Dans la quatrième partie, on détermine le lien entre le recouplage de représentations des algèbres su(1,1) et osp(1,2) et les systèmes superintégrables du deuxième ordre avec ou sans réflexions. On étudie également les représentations des algèbres de Racah-Wilson et de Bannai-Ito. On montre aussi que l’algèbre de Racah-Wilson sert d’algèbre de covariance quadratique à l’algèbre de Lie sl(2). Dans la cinquième partie, on construit deux familles explicites de polynômes d-orthogonaux basées sur su(2). On étudie les états cohérents et comprimés de l’oscillateur fini et on caractérise une famille de polynômes multi-orthogonaux matriciels.
Resumo:
Ketamine is widely used in medicine in combination with several benzodiazepines including midazolam. The objectives of this study were to develop a novel HPLC-MS/SRM method capable of quantifying ketamine and norketamine using an isotopic dilution strategy in biological matrices and study the formation of norketamine, the principal metabolite of ketamine with and without the presence of midazolam, a well-known CYP3A substrate. The chromatographic separation was achieved using a Thermo Betasil Phenyl 100 x 2 mm column combined with an isocratic mobile phase composed of acetonitrile, methanol, water and formic acid (60:20:20:0.4) at a flow rate of 300 μL/min. The mass spectrometer was operating in selected reaction monitoring mode and the analytical range was set at 0.05–50 μM. The precision (%CV) and accuracy (%NOM) observed were ranging from 3.9–7.8 and 95.9.2–111.1% respectively. The initial rate of formation of norketamine was determined using various ketamine concentration and Km values of 18.4 μM, 13.8 μM and 30.8 μM for rat, dog and human liver S9 fractions were observed respectively. The metabolic stability of ketamine on liver S9 fractions was significantly higher in human (T1/2 = 159.4 min) compared with rat (T1/2 = 12.6 min) and dog (T1/2 = 7.3 min) liver S9 fractions. Moreover significantly lower IC50 and Ki values observed in human compared with rat and dog liver S9 fractions. Experiments with cDNA expressed CYP3A enzymes showed the formation of norketamine is mediated by CYP3A but results suggest an important contribution from others isoenzymes, most likely CYP2C particularly in rat.
Resumo:
Targeted peptide methods generally use HPLC-MS/MRM approaches. Although dependent on the instrumental resolution, interferences may occur while performing analysis of complex biological matrices. HPLC-MS/MRM3 is a technique, which provides a significantly better selectivity, compared with HPLC-MS/MRM assay. HPLC-MS/MRM3 allows the detection and quantitation by enriching standard MRM with secondary product ions that are generated within the linear ion trap. Substance P (SP) and neurokinin A (NKA) are tachykinin peptides playing a central role in pain transmission. The objective of this study was to verify whether HPLC-HPLCMS/ MRM3 could provide significant advantages over a more traditional HPLC-MS/MRM assay for the quantification of SP and NKA in rat spinal cord. The results suggest that reconstructed MRM3 chromatograms display significant improvements with the nearly complete elimination of interfering peaks but the sensitivity (i.e. signal-to-noise ratio) was severely reduced. The precision (%CV) observed was between 3.5% - 24.1% using HPLC-MS/MRM and in the range of 4.3% - 13.1% with HPLC-MS/MRM3, for SP and NKA. The observed accuracy was within 10% of the theoretical concentrations tested. HPLC-MS/MRM3 may improve the assay sensitivity to detect difference between samples by reducing significantly the potential of interferences and therefore reduce instrumental errors.
Resumo:
Objective: Our research program has focused on the development of promising, soft alkylating N-phenyl-N’-(2-chloroethyl)urea (CEU) compounds which acylate the glutamic acid-198 of β-tubulin, near the binding site of colchicum alkaloids. CEUs inhibit the motility of cancerous cells in vitro and, interestingly, exhibit antiangiogenic and anticancer activity in vivo. Mitotic arrest induced by microtubule-interfering agents such as CEUs remains the major mechanism of their anticancer activity, leading to apoptosis. However, we recently demonstrated that microtubule disruption by CEUs and other common antimicrotubule agents greatly alters the integrity and organization of microtubule-associated structures, the focal adhesion contact, thereby initiating anoikis, an apoptosis-like cell death mechanism caused by the loss of cell contact with the extracellular matrix. Methods: To ascertain the activated signaling pathway profile of CEUs, flow cytometry, Western blot, immunohistochemistry and transfection experiments were performed. Wound-healing and chick embryo assays were carried out to evaluate the antiangiogenic potency of CEUs. Results: CEU-induced apoptosis involved early cell cycle arrest in G2/M and increased level of CDK1/cycline B proteins. These signaling events were followed by the specific activation of the intrinsic apoptosis pathway, involving loss of mitochondrial membrane potential (Δψm) and ROS production, cytochrome c release from mitochondria, caspase activation, AIF nuclear translocation, PARP cleavage and nuclear fragmentation. CEUs maintained their efficacy on cells plated on pro-survival extracellular matrices or exhibiting overexpression of P-glycoprotein or the anti-apoptotic protein Bcl-2. Conclusion: Our results suggest that CEUs represent a promising new class of antimicrotubule, antiangiogenic and pro-anoikis agents.
Resumo:
Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.
Resumo:
En 2015, la récidive tumorale et les métastases du cancer du sein demeurent une cause importante de décès à travers le monde. Toutefois, ces cancers sont souvent hétérogènes car en dépit d’un phénotype similaire, l’évolution clinique et la réponse au traitement peuvent varier considérablement. Il y a donc un intérêt évident à identifier et à caractériser de nouveaux biomarqueurs pour permettre classer les tumeurs mammaires dans des sous-groupes plus homogènes. Notre hypothèse est que chaque cancer mammaire possède des caractéristiques distinctes au plan des altérations du génome et des profils d’expression géniques et que ces changements se traduisent cliniquement par une prédisposition à former des métastases ou à répondre ou non à la chimiothérapie et aux thérapies ciblées. Dans le cadre de nos travaux, nous nous sommes intéressés aux sous-types agressifs de tumeurs mammaires et notamment les cancers de type triple négatif. Nous avons aussi tenté d’identifier des marqueurs capables de distinguer l’une de l’autre les tumeurs de type luminal A et luminal B. Pour ce faire, nous avons d’abord utilisé une stratégie in silico à partir de données publiques (micro-puces d’ADN et séquençage de l’ARN). Nous avons ensuite construit sept micro-matrices tissulaires (TMA) provenant de tissus mammaires normaux et tumoraux fixés à la formaline et enrobés en paraffine. Ces outils nous ont permis d’évaluer par immunohistochimie les niveaux d’expression différentielle des marqueurs suivants : ANXA1, MMP-9, DP103 et MCM2. Ceux-ci ont été comparés aux marqueurs usuels du cancer du sein (ER, PR, HER2, CK5/6 et FOXA1) et corrélés aux données cliniques (survie globale et métastase). Nos résultats indiquent que ces nouveaux marqueurs jouent un rôle important dans l’évolution clinique défavorable des tumeurs de haut grade. Dans un premier article nous avons montré que l’expression d’ANXA1 est dérégulée dans les cancers de type triple-négatif et aussi, dans une certaine mesure, dans les tumeurs HER2+. Nous croyons qu’ANXA1 permet de mieux comprendre le processus d’hétérogénéité tumorale et facilite l’identification des tumeurs de haut grade. Nous proposons également qu’ d’ANXA1 stimule la transition épithélio-mésenchymateuse (EMT) et la formation des métastases. Dans un second temps, nous avons montré que les niveaux d’expression de MMP-9 reflètent la différenciation cellulaire et corrèlent avec les sous-types de cancers mammaires ayant un mauvais pronostic. Nous estimons que MMP-9 permet de mieux comprendre et d’identifier les tumeurs mammaires à haut risque. De fait, la surexpression de MMP-9 est associée à une augmentation des métastases, une récidive précoce et une diminution de la survie globale. Dans le cadre d’un troisième article, nous avons montré que la surexpression du marqueur de prolifération MCM2 s’observe dans les cancers triple-négatifs, HER2+ et Luminal B par comparaison aux cancers luminal A (p< 0.0001). Nos résultats suggèrent qu’en utilisant un seuil de 40% de noyaux marqués, nous pourrions distinguer l’une de l’autre les tumeurs de type luminal A et luminal B. Cela dit, avant de pouvoir envisager l’utilisation de ce marqueur en clinique, une étude de validation sur une nouvelle cohorte de patientes s’impose. En somme, les résultats de nos travaux suggèrent qu’ANXA1, MMP-9 et MCM2 sont des marqueurs intéressants pour mieux comprendre les mécanismes physiopathologiques impliqués dans la progression tumorale et le développement des métastases. À terme, ces nouveaux marqueurs pourraient être utilisés seuls ou en combinaison avec d’autres gènes candidats pour permettre le développement de trousses « multigènes » ou d’essais protéomiques multiplex pour prédire l’évolution clinique des cancers mammaires.
Resumo:
L’élevage des porcs représente une source importante de déversement d’antibiotiques dans l’environnement par l’intermédiaire de l’épandage du lisier qui contient une grande quantité de ces molécules sur les champs agricoles. Il a été prouvé que ces molécules biologiquement actives peuvent avoir un impact toxique sur l’écosystème. Par ailleurs, elles sont aussi suspectées d’engendrer des problèmes sanitaires et de contribuer à la résistance bactérienne pouvant mener à des infections difficilement traitables chez les humains. Le contrôle de ces substances dans l’environnement est donc nécessaire. De nombreuses méthodes analytiques sont proposées dans la littérature scientifique pour recenser ces composés dans plusieurs types de matrice. Cependant, peu de ces méthodes permettent l’analyse de ces contaminants dans des matrices issues de l’élevage agricole intensif. Par ailleurs, les méthodes analytiques disponibles sont souvent sujettes à des faux positifs compte tenu de la complexité des matrices étudiées et du matériel utilisé et ne prennent souvent pas en compte les métabolites et produits de dégradation. Enfin, les niveaux d’analyse atteints avec ces méthodes ne sont parfois plus à jour étant donné l’évolution de la chimie analytique et de la spectrométrie de masse. Dans cette optique, de nouvelles méthodes d’analyses ont été développées pour rechercher et quantifier les antibiotiques dans des matrices dérivées de l’élevage intensif des porcs en essayant de proposer des approches alternatives sensibles, sélectives et robustes pour quantifier ces molécules. Une première méthode d’analyse basée sur une technique d’introduction d’échantillon alternative à l’aide d’une interface fonctionnant à l’aide d’une désorption thermique par diode laser munie d’une source à ionisation à pression atmosphérique, couplée à la spectrométrie de masse en tandem a été développée. L’objectif est de proposer une analyse plus rapide tout en atteignant des niveaux de concentration adaptés à la matrice étudiée. Cette technique d’analyse couplée à un traitement d’échantillon efficace a permis l’analyse de plusieurs antibiotiques vétérinaires de différentes classes dans des échantillons de lisier avec des temps d’analyse courts. Les limites de détection atteintes sont comprises entre 2,5 et 8,3 µg kg-1 et sont comparables avec celles pouvant être obtenues avec la chromatographie liquide dans une matrice similaire. En vue d’analyser simultanément une série de tétracyclines, une deuxième méthode d’analyse utilisant la chromatographie liquide couplée à la spectrométrie de masse à haute résolution (HRMS) a été proposée. L’utilisation de la HRMS a été motivée par le fait que cette technique d’analyse est moins sensible aux faux positifs que le triple quadripôle traditionnel. Des limites de détection comprises entre 1,5 et 3,6 µg kg-1 ont été atteintes dans des échantillons de lisier en utilisant un mode d’analyse par fragmentation. L’utilisation de méthodes de quantifications ciblées est une démarche intéressante lorsque la présence de contaminants est suspectée dans un échantillon. Toutefois, les contaminants non intégrés à cette méthode d’analyse ciblée ne peuvent être détectés même à de fortes concentrations. Dans ce contexte, une méthode d’analyse non ciblée a été développée pour la recherche de pharmaceutiques vétérinaires dans des effluents agricoles en utilisant la spectrométrie de masse à haute résolution et une cartouche SPE polymérique polyvalente. Cette méthode a permis l’identification d’antibiotiques et de pharmaceutiques couramment utilisés dans l’élevage porcin. La plupart des méthodes d’analyse disponibles dans la littérature se concentrent sur l’analyse des composés parents, mais pas sur les sous-produits de dégradation. L’approche utilisée dans la deuxième méthode d’analyse a donc été étendue et appliquée à d’autres classes d’antibiotiques pour mesurer les concentrations de plusieurs résidus d’antibiotiques dans les sols et les eaux de drainage d’un champ agricole expérimental. Les sols du champ renfermaient un mélange d’antibiotiques ainsi que leurs produits de dégradation relatifs à des concentrations mesurées jusqu’à 1020 µg kg-1. Une partie de ces composés ont voyagé par l’intermédiaire des eaux de drainage du champ ou des concentrations pouvant atteindre 3200 ng L-1 ont pu être relevées.