445 resultados para Commande optimale linéaire-quadratique
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
La thérapie cellulaire est une avenue pleine de promesses pour la régénération myocardique, par le remplacement du tissu nécrosé, ou en prévenant l'apoptose du myocarde survivant, ou encore par l'amélioration de la néovascularisation. Les cellules souches de la moelle osseuse (CSMO) expriment des marqueurs cardiaques in vitro quand elles sont exposées à des inducteurs. Pour cette raison, elles ont été utilisées dans la thérapie cellulaire de l'infarctus au myocarde dans des études pre-cliniques et cliniques. Récemment, il a été soulevé de possibles effets bénéfiques de l'ocytocine (OT) lors d’infarctus. Ainsi, l’OT est un inducteur de différenciation cardiaque des cellules souches embryonnaires, et cette différenciation est véhiculée par la voie de signalisation du monoxyde d’azote (NO)-guanylyl cyclase soluble. Toutefois, des données pharmacocinétiques de l’OT lui attribue un profil non linéaire et celui-ci pourrait expliquer les effets pharmacodynamiques controversés, rapportés dans la lttérature. Les objectifs de ce programme doctoral étaient les suivants : 1) Caractériser le profil pharmacocinétique de différents schémas posologiques d'OT chez le porc, en développant une modélisation pharmacocinétique / pharmacodynamique plus adaptée à intégrer les effets biologiques (rénaux, cardiovasculaires) observés. 2) Isoler, différencier et trouver le temps optimal d’induction de la différenciation pour les CSMO porcines (CSMOp), sur la base de l'expression des facteurs de transcription et des protéines structurales cardiaques retrouvées aux différents passages. 3) Induire et quantifier la différenciation cardiaque par l’OT sur les CSMOp. 4) Vérifier le rôle du NO dans cette différenciation cardiaque sur les CSMOp. Nous avons constaté que le profil pharmacocinétique de l’OT est mieux expliqué par le modèle connu comme target-mediated drug disposition (TMDD), parce que la durée du séjour de l’OT dans l’organisme dépend de sa capacité de liaison à son récepteur, ainsi que de son élimination (métabolisme). D'ailleurs, nous avons constaté que la différenciation cardiomyogénique des CSMOp médiée par l’OT devrait être induite pendant les premiers passages, parce que le nombre de passages modifie le profile phénotypique des CSMOp, ainsi que leur potentiel de différenciation. Nous avons observé que l’OT est un inducteur de la différenciation cardiomyogénique des CSMOp, parce que les cellules induites par l’OT expriment des marqueurs cardiaques, et l'expression de protéines cardiaques spécifiques a été plus abondante dans les cellules traitées à l’OT en comparaison aux cellules traitées avec la 5-azacytidine, qui a été largement utilisée comme inducteur de différenciation cardiaque des cellules souches adultes. Aussi, l’OT a causé la prolifération des CMSOp. Finalement, nous avons observé que l'inhibition de la voie de signalisation du NO affecte de manière significative l'expression des protéines cardiaques spécifiques. En conclusion, ces études précisent un potentiel certain de l’OT dans le cadre de la thérapie cellulaire cardiomyogénique à base de cellules souches adultes, mais soulignent que son utilisation requerra de la prudence et un approfondissement des connaissances.
Resumo:
Le but de cette étude est d’examiner les liens prédictifs entre les comportements d’agressivité proactive à l’enfance et la délinquance à l’adolescence, ainsi que le rôle potentiellement modérateur des normes prosociales du groupe-classe et du rejet par le groupe de pairs. Spécifiquement, les liens suivants seront examinés : 1) le lien principal positif entre l’agressivité proactive à l’enfance et la délinquance à l’adolescence, 2) l’effet modérateur (i.e., protecteur) des normes prosociales au sein du groupe-classe sur le lien entre l’agressivité proactive et la délinquance et 3) l’effet modérateur de second niveau du rejet par les pairs eu égard à l’effet modérateur de premier niveau des normes prosociales du groupe-classe. Deux modèles théoriques seront utilisés afin d’appuyer le choix des hypothèses et offrir un cadre conceptuel en vue de l’interprétation des résultats: Le modèle du groupe de référence et le modèle de la similarité personne-groupe. Les données proviennent d’un échantillon composé de 327 enfants ayant été évalués à 6 reprises, de l’âge de 10 ans (4e année primaire) à 15 ans (3e secondaire). La délinquance fut mesurée à l’aide de données auto-rapportées par les participants. Les normes prosociales du groupe-classe furent basées sur les évaluations moyennes faites par les enseignants des comportements prosociaux des élèves de leur classe. Le rejet par les pairs fut mesuré à l’aide d’évaluations sociométriques au sein des groupes-classes. Des modèles de régression linéaire hiérarchique ont été utilisés. Les résultats montrent un lien positif entre l’agressivité proactive à l’enfance et la délinquance à l’adolescence. Malgré l’obtention d’un coefficient d’interaction marginal, les résultats indiquent que les normes prosociales modèrent, mais à la hausse, le lien entre l’agressivité et la délinquance. L’effet modérateur du rejet par les pairs n’apparaît pas comme étant significatif. Ces résultats seront discutés afin de mieux comprendre le lien entre l’agressivité et les éléments du contexte social dans lequel l’enfant évolue, ainsi que leur implication au niveau de la prévention des problèmes d’agressivité et de la délinquance en milieu scolaire.
Resumo:
Les chutes chez les personnes âgées représentent un problème majeur. Il n’est donc pas étonnant que l’identification des facteurs qui en accroissent le risque ait mobilisé autant d’attention. Les aînés plus fragiles ayant besoin de soutien pour vivre dans la communauté sont néanmoins demeurés le parent pauvre de la recherche, bien que, plus récemment, les autorités québécoises en aient fait une cible d’intervention prioritaire. Les études d’observation prospectives sont particulièrement indiquées pour étudier les facteurs de risque de chutes chez les personnes âgées. Leur identification optimale est cependant compliquée par le fait que l’exposition aux facteurs de risque peut varier au cours du suivi et qu’un même individu peut subir plus d’un événement. Il y a 20 ans, des chercheurs ont tenté de sensibiliser leurs homologues à cet égard, mais leurs efforts sont demeurés vains. On continue aujourd’hui à faire peu de cas de ces considérations, se concentrant sur la proportion des personnes ayant fait une chute ou sur le temps écoulé jusqu’à la première chute. On écarte du coup une quantité importante d’information pertinente. Dans cette thèse, nous examinons les méthodes en usage et nous proposons une extension du modèle de risques de Cox. Nous illustrons cette méthode par une étude des facteurs de risque susceptibles d’être associés à des chutes parmi un groupe de 959 personnes âgées ayant eu recours aux services publics de soutien à domicile. Nous comparons les résultats obtenus avec la méthode de Wei, Lin et Weissfeld à ceux obtenus avec d’autres méthodes, dont la régression logistique conventionnelle, la régression logistique groupée, la régression binomiale négative et la régression d’Andersen et Gill. L’investigation est caractérisée par des prises de mesures répétées des facteurs de risque au domicile des participants et par des relances téléphoniques mensuelles visant à documenter la survenue des chutes. Les facteurs d’exposition étudiés, qu’ils soient fixes ou variables dans le temps, comprennent les caractéristiques sociodémographiques, l’indice de masse corporelle, le risque nutritionnel, la consommation d’alcool, les dangers de l’environnement domiciliaire, la démarche et l’équilibre, et la consommation de médicaments. La quasi-totalité (99,6 %) des usagers présentaient au moins un facteur à haut risque. L’exposition à des risques multiples était répandue, avec une moyenne de 2,7 facteurs à haut risque distincts par participant. Les facteurs statistiquement associés au risque de chutes incluent le sexe masculin, les tranches d’âge inférieures, l’histoire de chutes antérieures, un bas score à l’échelle d’équilibre de Berg, un faible indice de masse corporelle, la consommation de médicaments de type benzodiazépine, le nombre de dangers présents au domicile et le fait de vivre dans une résidence privée pour personnes âgées. Nos résultats révèlent cependant que les méthodes courantes d’analyse des facteurs de risque de chutes – et, dans certains cas, de chutes nécessitant un recours médical – créent des biais appréciables. Les biais pour les mesures d’association considérées proviennent de la manière dont l’exposition et le résultat sont mesurés et définis de même que de la manière dont les méthodes statistiques d’analyse en tiennent compte. Une dernière partie, tout aussi innovante que distincte de par la nature des outils statistiques utilisés, complète l’ouvrage. Nous y identifions des profils d’aînés à risque de devenir des chuteurs récurrents, soit ceux chez qui au moins deux chutes sont survenues dans les six mois suivant leur évaluation initiale. Une analyse par arbre de régression et de classification couplée à une analyse de survie a révélé l’existence de cinq profils distinctifs, dont le risque relatif varie de 0,7 à 5,1. Vivre dans une résidence pour aînés, avoir des antécédents de chutes multiples ou des troubles de l’équilibre et consommer de l’alcool sont les principaux facteurs associés à une probabilité accrue de chuter précocement et de devenir un chuteur récurrent. Qu’il s’agisse d’activité de dépistage des facteurs de risque de chutes ou de la population ciblée, cette thèse s’inscrit dans une perspective de gain de connaissances sur un thème hautement d’actualité en santé publique. Nous encourageons les chercheurs intéressés par l’identification des facteurs de risque de chutes chez les personnes âgées à recourir à la méthode statistique de Wei, Lin et Weissfeld car elle tient compte des expositions variables dans le temps et des événements récurrents. Davantage de recherches seront par ailleurs nécessaires pour déterminer le choix du meilleur test de dépistage pour un facteur de risque donné chez cette clientèle.
Resumo:
Objectif: Ce mémoire avait pour objectif d’examiner le contenu cognitif du discours d’agresseurs sexuels d’enfants dans un échantillon d’hommes francophones afin de déterminer s’il est possible de reproduire les catégories de théories implicites telles que proposées par Ward et Keenan (1999). Le but était également d’investiguer la possibilité de retrouver de nouvelles théories implicites. Méthode: 20 entrevues semi-structurées ont été réalisées auprès d’un échantillon d’agresseurs sexuels d’enfants judiciarisés (Centre hospitalier Robert-Giffard, Établissement Montée St-François). À partir de ces entrevues, 2 juges indépendants ont sélectionné le contenu cognitif du discours des agresseurs sexuels. Ce contenu a ensuite été classé thématiquement. Chacun des thèmes émergents a fait l’objet d’une analyse indépendante afin de déterminer si les catégories permettaient une classification optimale des distorsions cognitives. Les juges ont donc repris 3 entrevues et ont recodifié les données afin de comparer la codification. Les données ont été analysées à l’aide de NVivo, un logiciel d’analyse de données qualitatives. Les résultats ont été discutés et comparés aux résultats de Ward et Keenan (1999). Résultats: Les analyses ont permis de trouver 6 théories implicites. Les théories Le droit d’agir à sa guise, Le monde est incontrôlable et L’agression ne cause pas de tort aux enfants étaient identiques à leur version originale. La théorie Le monde est dangereux variait de sa version originale car aucun lien causal n’a été trouvé entre la perception des adultes et des enfants. Deux visions uniques et indépendantes l’une de l’autre ont plutôt été observées. Aussi, les résultats ont montré que les agresseurs partageaient une image dichotomique de la femme. D’ailleurs, ce résultat est consistant avec la théorie implicite Les femmes sont dangereuses de Polaschek et Ward (2004). La théorie Les enfants sont des êtres sexuels variait de sa version originale quant à sa conceptualisation. Les enfants sont des partenaires de vie est une nouvelle théorie implicite n’ayant pas été discutée par Ward et Keenan. Ce résultat est consistant avec les recherches de Wilson (1999) sur la congruence émotionnelle envers les enfants des agresseurs sexuels.
Resumo:
La leucémie lymphoblastique aiguë des cellules Pré-B (B-ALL) reste le type de cancer le plus souvent diagnostiqué chez les enfants. Des études ont montré que des déterminants génétiques jouent un rôle important dans la susceptibilité/résistance au développement de ce cancer. À cet égard, les gènes Killer-cell Immunoglobulin-like Receptor (KIR) sont d'une importance particulière. Ces gènes sont fortement polymorphiques et codent pour des récepteurs qui contrôlent l’activité fonctionnelle des cellules Natural Killer (NK). Notre hypothèse est que les gènes activateurs des KIR s’associent avec la résistance innée pour développer la B-ALL. Afin d'évaluer cette hypothèse, nous avons entrepris une étude de cas-contrôles chez des enfants canadiens-français dans laquelle nous avons utilisé l'ADN génomique de 100 patients atteints de B-ALL ainsi que l’ADN de 245 individus sains. La présence ou l'absence de chaque gène KIR a été détectée par PCR en utilisant des amorces de séquences spécifiques. Nous avons trouvé que la présence des gènes KIR activateurs est significativement diminuée chez les enfants leucémiques par rapport aux témoins. En outre, le nombre de ces gènes a aussi montré une association significative linéaire avec la résistance au développement d’une B-ALL. Cela suggère des effets additifs de ces gènes permettant de conférer une protection contre ce cancer. Ces résultats pourraient être utiles afin de déceler de façon précoce les enfants ayant un risque de développer cette leucémie. Enfin, des stratégies thérapeutiques basées sur les récepteurs KIR pourraient être envisagées et s'avérer utiles concernant le traitement de ce cancer chez les enfants.
Resumo:
La cartographie peptidique est une méthode qui permet entre autre d’identifier les modifications post-traductionnelles des protéines. Elle comprend trois étapes : 1) la protéolyse enzymatique, 2) la séparation par électrophorèse capillaire (CE) ou chromatographie en phase liquide à haute performance (HPLC) des fragments peptidiques et 3) l’identification de ces derniers. Cette dernière étape peut se faire par des méthodes photométriques ou par spectrométrie de masse (MS). Au cours de la dernière décennie, les enzymes protéolytiques immobilisées ont acquis une grande popularité parce qu’elles peuvent être réutilisées et permettent une digestion rapide des protéines due à un rapport élevé d’enzyme/substrat. Pour étudier les nouvelles techniques d’immobilisation qui ont été développées dans le laboratoire du Professeur Waldron, la cartographie peptidique par CE est souvent utilisée pour déterminer le nombre total de peptides détectés et leurs abondances. La CE nous permet d’avoir des séparations très efficaces et lorsque couplée à la fluorescence induite par laser (LIF), elle donne des limites de détection qui sont 1000 fois plus basses que celles obtenues avec l’absorbance UV-Vis. Dans la méthode typique, les peptides venant de l’étape 1) sont marqués avec un fluorophore avant l’analyse par CE-LIF. Bien que la sensibilité de détection LIF puisse approcher 10-12 M pour un fluorophore, la réaction de marquage nécessite un analyte dont la concentration est d’au moins 10-7 M, ce qui représente son principal désavantage. Donc, il n’est pas facile d’étudier les enzymes des peptides dérivés après la protéolyse en utilisant la technique CE-LIF si la concentration du substrat protéique initial est inférieure à 10-7 M. Ceci est attribué à la dilution supplémentaire lors de la protéolyse. Alors, afin d’utiliser le CE-LIF pour évaluer l’efficacité de la digestion par enzyme immobilisée à faible concentration de substrat,nous proposons d’utiliser des substrats protéiques marqués de fluorophores pouvant être purifiés et dilués. Trois méthodes de marquage fluorescent de protéine sont décrites dans ce mémoire pour étudier les enzymes solubles et immobilisées. Les fluorophores étudiés pour le marquage de protéine standard incluent le naphtalène-2,3-dicarboxaldéhyde (NDA), la fluorescéine-5-isothiocyanate (FITC) et l’ester de 6-carboxyfluorescéine N-succinimidyl (FAMSE). Le FAMSE est un excellent réactif puisqu’il se conjugue rapidement avec les amines primaires des peptides. Aussi, le substrat marqué est stable dans le temps. Les protéines étudiées étaient l’-lactalbumine (LACT), l’anhydrase carbonique (CA) et l’insuline chaîne B (INB). Les protéines sont digérées à l’aide de la trypsine (T), la chymotrypsine (CT) ou la pepsine (PEP) dans leurs formes solubles ou insolubles. La forme soluble est plus active que celle immobilisée. Cela nous a permis de vérifier que les protéines marquées sont encore reconnues par chaque enzyme. Nous avons comparé les digestions des protéines par différentes enzymes telles la chymotrypsine libre (i.e., soluble), la chymotrypsine immobilisée (i.e., insoluble) par réticulation avec le glutaraldéhyde (GACT) et la chymotrypsine immobilisée sur billes d’agarose en gel (GELCT). Cette dernière était disponible sur le marché. Selon la chymotrypsine utilisée, nos études ont démontré que les cartes peptidiques avaient des différences significatives selon le nombre de pics et leurs intensités correspondantes. De plus, ces études nous ont permis de constater que les digestions effectuées avec l’enzyme immobilisée avaient une bonne reproductibilité. Plusieurs paramètres quantitatifs ont été étudiés afin d’évaluer l’efficacité des méthodes développées. La limite de détection par CE-LIF obtenue était de 3,010-10 M (S/N = 2,7) pour la CA-FAM digérée par GACT et de 2,010-10 M (S/N = 4,3) pour la CA-FAM digérée par la chymotrypsine libre. Nos études ont aussi démontrées que la courbe d’étalonnage était linéaire dans la région de travail (1,0×10-9-1,0×10-6 M) avec un coefficient de corrélation (R2) de 0,9991.
Resumo:
L’atmosphère terrestre est très riche en azote (N2). Mais cet azote diatomique est sous une forme très stable, inutilisable par la majorité des êtres vivants malgré qu’il soit indispensable pour la synthèse de matériels organiques. Seuls les procaryotes diazotrophiques sont capables de vivre avec le N2 comme source d’azote. La fixation d’azote est un processus qui permet de produire des substances aminées à partir de l’azote gazeux présent dans l’atmosphère (78%). Cependant, ce processus est très complexe et nécessite la biosynthèse d’une vingtaine de protéines et la consommation de beaucoup d’énergie (16 molécules d’ATP par mole de N2 fixé). C’est la raison pour laquelle ce phénomène est rigoureusement régulé. Les bactéries photosynthétiques pourpres non-sulfureuses sont connues pour leur capacité de faire la fixation de l’azote. Les études faites à la lumière, dans le mode de croissance préféré de ces bactéries (photosynthèse anaérobie), ont montré que la nitrogénase (enzyme responsable de la fixation du diazote) est sujet d’une régulation à trois niveaux: une régulation transcriptionnelle de NifA (protéine activatrice de la transcription des gènes nif), une régulation post-traductionnelle de l’activité de NifA envers l’activation de la transcription des autres gènes nif, et la régulation post-traductionnelle de l’activité de la nitrogénase quand les cellules sont soumises à un choc d’ammoniaque. Le système de régulation déjà décrit fait intervenir essentiellement une protéine membranaire, AmtB, et les deux protéines PII, GlnB et GlnK. Il est connu depuis long temps que la nitrogénase est aussi régulée quand une culture photosynthétique est exposée à la noirceur, mais jusqu’aujourd’hui, on ignore encore la nature des systèmes intervenants dans cette régulation. Ainsi, parmi les questions qui peuvent se poser: quelles sont les protéines qui interviennent dans l’inactivation de la nitrogénase lorsqu’une culture anaérobie est placée à la noirceur? Une analyse de plusieurs souches mutantes, amtB- , glnK- , glnB- et amtY- poussées dans différentes conditions de limitation en azote, serait une façon pour répondre à ces interrogations. Alors, avec le suivi de l’activité de la nitrogénase et le Western Blot, on a montré que le choc de noirceur provoquerait un "Switch-off" de l’activité de la nitrogénase dû à une ADP-ribosylation de la protéine Fe. On a réussit aussi à montrer que ii tout le système déjà impliqué dans la réponse à un choc d’ammoniaque, est également nécessaire pour une réponse à un manque de lumière ou d’énergie (les protéines AmtB, GlnK, GlnB, DraG, DraT et AmtY). Or, Rhodobacter capsulatus est capable de fixer l’azote et de croitre aussi bien dans la micro-aérobie à la noirceur que dans des conditions de photosynthèse anaérobies, mais jusqu'à maintenant sa régulation dans l’obscurité est peu étudiée. L’étude de la fixation d’azote à la noirceur nous a permis de montrer que le complexe membranaire Rnf n’est pas nécessaire à la croissance de R. capsulatus dans de telles conditions. Dans le but de développer une façon d’étudier la régulation de la croissance dans ce mode, on a tout d’abord essayé d’identifier les conditions opératoires (O2, [NH4 + ]) permettant à R. capsulatus de fixer l’azote en microaérobie. L’optimisation de cette croissance a montré que la concentration optimale d’oxygène nécessaire est de 10% mélangé avec de l’azote.
Resumo:
L’Europe engendre des transformations majeures de l’État national, influence sa structure politique, sa conception de la démocratie et du droit, et produit des effets sur les rapports majorité minorités. Elle a pour effet d’éloigner l’État national du modèle traditionnel de l’État-Nation ethniquement ou culturellement homogène en l’amenant à reconnaître la pluralité de ses composantes nationales. Ces mutations sont le résultat du processus même d’intégration communautaire et des politiques de régionalisation et de décentralisation que favorisent les institutions européennes. Soumis au double processus d’intégration supranationale et de désagrégation infranationale, l’État national se transforme. Son rapport avec les minorités, également. L’Europe commande des aménagements de la diversité. Pour y arriver, elle impose un droit à la différence, lequel s’inscrit toujours dans la protection générale des droits de l’homme mais vise spécifiquement à reconnaître des droits identitaires ou poly ethniques aux personnes appartenant à des minorités, en tant que groupe, dans le but évident de les protéger contre la discrimination et l’intolérance. En faisant la promotion de ce droit à la différence, l’Europe propose un modèle alternatif à l’État-Nation traditionnel. La nation (majorité) peut désormais s’accommoder de la diversité. La nation n’est plus seulement politique, elle devient socioculturelle. En faisant la promotion du principe de subsidiarité, l’Europe incite à la décentralisation et à la régionalisation. En proposant un droit de la différence, l’Union européenne favorise la mise au point de mécanismes institutionnels permanents où la négociation continue de la normativité juridique entre groupes différents est possible et où l’opportunité est donnée aux minorités de contribuer à la définition de cette normativité. Le pluralisme juridique engendré par la communautarisation reste par ailleurs fortement institutionnel. L’État communautarisé détient encore le monopole de la production du droit mais permet des aménagements institutionnels de l’espace public au sein d’un ensemble démocratique plus vaste, donc l’instauration d’un dialogue entre les différentes communautés qui le composent, ce qui aurait été impensable selon la théorie classique de l’État-nation, du droit moniste et monologique. Ainsi, assistons-nous à la transformation progressive dans les faits de l’État-nation en État multinational. La question des minorités soulève un problème de fond : celui de l'organisation politique minoritaire. La volonté de respecter toutes les identités collectives, de donner un statut politique à toutes les minorités et de satisfaire toutes les revendications particularistes n’a pas de fin. L’État-Nation n’est certes pas le meilleur –ni le seul- modèle d’organisation politique. Mais l’État multinational constitue-t-il une alternative viable en tant que modèle d’organisation politique ?
Resumo:
Cette thèse porte sur le rapport université/entreprise au Mexique après 1990. Il s’agit d’une étude de cas sur l’Université Nationale Autonome du Mexique (UNAM), la plus grande université mexicaine et la plus importante institution productrice de connaissances scientifiques au pays. À partir de 1988, l’introduction au Mexique d’une économie du marché a été le point de départ des nombreux changements politiques et économiques qui ont modifié les conditions d’exploitation des organisations et des institutions au pays. Ainsi, depuis 1990, le nouveau contexte politique et économique du Mexique a modifié les politiques gouvernementales vers les institutions publiques y compris celles de la santé et de l’éducation. Pour ce qui est des universités publiques mexicaines, ces politiques ont réduit leur financement et leur ont demandé une participation plus active à l’économie nationale, par la production de connaissances pouvant se traduire en innovation dans le secteur de la production. Ces nouvelles conditions économiques et politiques constituent des contingences auxquelles les universitaires font face de diverses façons, y compris l’établissement des relations avec les entreprises, comme le prescrivent les politiques du gouvernement fédéral élaborées sur la base des recommandations de l’OCDE. En vue de contribuer à la connaissance des relations université/entreprise développées au Mexique, nous avons réalisé notre étude de cas fondée sur une approche méthodologique qualitative à caractère exploratoire qui a recueilli des données provenant de sources documentaires et perceptuelles. Nous avons encadré notre recherche du point de vue de l’organisation par la théorie de la contingence, et pour l’analyse de la production de la connaissance sur la base des modèles de la Triple hélice et du Mode 2. Différents documents de sources diverses, y compris l’Internet, ont été consultés pour l’encadrement des rapports université/entreprise au Mexique et à l’UNAM. Les sources perceptuelles ont été 51 entrevues semi-structurées auprès de professeurs et de chercheurs à temps plein ayant établi des rapports avec des entreprises (dans les domaines de la biomédecine, la biotechnologie, la chimie et l’ingénierie) et de personnes ayant un rôle de gestion dans les rapports des entreprises avec l’institution. Les données recueillies ont montré que la politique de l’UNAM sur les rapports université/entreprise a été aussi flottante que la structure organisationnelle soutenant sa création et formalisation. Toutes sortes d’entreprises, publiques ou privées collaborent avec les chercheurs de l’UNAM, mais ce sont les entreprises parastatales et gouvernementales qui prédominent. À cause du manque d’infrastructure scientifique et technologique de la plupart des entreprises au Mexique, les principales demandes adressées à l’UNAM sont pour des services techniques ou professionnels qui aident les entreprises à résoudre des problèmes ponctuels. Le type de production de connaissance à l’UNAM continue d’être celui du Mode 1 ou traditionnel. Néanmoins, particulièrement dans le domaine de la biotechnologie, nous avons identifié certains cas de collaboration plus étroite qui pointaient vers l’innovation non linéaire proposée par le Mode 2 et la Triple hélice. Parmi les principaux avantages découlant des rapports avec les entreprises les interviewés ont cité l’obtention de ressources additionnelles pour la recherche, y compris de l’équipement et des fonds pour les bourses d’étudiants, mais souvent ils ont observé que l’un des plus gros avantages était la connaissance qu’ils obtenaient des contacts avec les firmes et le sens du réel qu’ils pouvaient intégrer dans la formation des étudiants. Les programmes gouvernementaux du CONACYT pour la science, la technologie et l’innovation ne semblent pas réussir à renforcer les rapports entre les institutions génératrices de la connaissance et le secteur de la production du Mexique.
Resumo:
Le présent mémoire se penche sur la diminution des espaces ouverts en Israël, un problème environnemental considéré comme l’un des plus importants par les organisations environnementales de ce pays. La situation est particulièrement préoccupante depuis le début des années 1990 alors que la superficie occupée par ces espaces s’est réduite significativement. Les craintes liées à cette évolution se sont traduites par l’implantation de plans nationaux d’aménagement visant expressément à concentrer le développement futur du pays au sein des quatre principales régions métropolitaines (Tel-Aviv, Jérusalem, Haïfa, Beer-Sheva) de manière à préserver de façon optimale les espaces ouverts restants. Plusieurs facteurs sont responsables de cette perte d’espaces ouverts. Ainsi, l’un des objectifs cet ouvrage consiste à identifier ces facteurs de même qu’à analyser dans quelle mesure ils ont influé. Par ailleurs, ce mémoire fait le point sur l’évolution de la superficie des espaces ouverts au fil des années. Finalement, le dernier chapitre aborde les enjeux actuels quant à la conservation des espaces ouverts israéliens et souligne quelques solutions proposées afin d’accroître leur protection pour le futur. Afin de dresser un portrait complet de la situation, la période étudiée s’étend de 1948, année de fondation de l’État d’Israël, à 2010.
Resumo:
L’imputation simple est très souvent utilisée dans les enquêtes pour compenser pour la non-réponse partielle. Dans certaines situations, la variable nécessitant l’imputation prend des valeurs nulles un très grand nombre de fois. Ceci est très fréquent dans les enquêtes entreprises qui collectent les variables économiques. Dans ce mémoire, nous étudions les propriétés de deux méthodes d’imputation souvent utilisées en pratique et nous montrons qu’elles produisent des estimateurs imputés biaisés en général. Motivé par un modèle de mélange, nous proposons trois méthodes d’imputation et étudions leurs propriétés en termes de biais. Pour ces méthodes d’imputation, nous considérons un estimateur jackknife de la variance convergent vers la vraie variance, sous l’hypothèse que la fraction de sondage est négligeable. Finalement, nous effectuons une étude par simulation pour étudier la performance des estimateurs ponctuels et de variance en termes de biais et d’erreur quadratique moyenne.
Resumo:
Cette thèse vise à répondre à trois questions fondamentales: 1) La diminution de l’excitabilité corticospinale et le manque d’inhibition intracorticale observés suite à la stimulation magnétique transcrânienne (SMT) du cortex moteur de la main atteinte de sujets hémiparétiques sont-ils aussi présents suite à la SMT du cortex moteur de la jambe atteinte? 2) Est-ce que les altérations dans l’excitabilité corticomotrice sont corrélées aux déficits et incapacités motrices des personnes ayant subi un accident vasculaire cérébral depuis plus de 6 mois? 3) La vibration musculaire, étant la source d’une forte afférence sensorielle, peut-elle moduler l’excitabilité corticomotrice et améliorer la performance motrice de ces personnes? Premièrement, afin d’appuyer notre choix d’intervention et d’évaluer le potentiel de la vibration mécanique locale pour favoriser la réadaptation des personnes ayant une atteinte neurologique, nous avons réalisé une révision en profondeur de ses applications et intérêts cliniques à partir d’informations trouvées dans la littérature scientifique (article 1). La quantité importante d’information sur les effets physiologiques de la vibration contraste avec la pauvreté des études qui ont évalué son effet thérapeutique. Nous avons trouvé que, malgré le manque d’études, les résultats sur son utilisation sont encourageants et positifs et aucun effet adverse n’a été rapporté. Dans les trois autres articles qui composent cette thèse, l’excitabilité des circuits corticospinaux et intracorticaux a été étudiée chez 27 sujets hémiparétiques et 20 sujets sains sans atteintes neurologiques. Les fonctions sensorimotrices ont aussi été évaluées par des tests cliniques valides et fidèles. Tel qu’observé à la main chez les sujets hémiparétiques, nous avons trouvé, par rapport aux sujets sains, une diminution de l’excitabilité corticospinale ainsi qu’un manque d’inhibition intracorticale suite à la SMT du cortex moteur de la jambe atteinte (article 2). Les sujets hémiparétiques ont également montré un manque de focus de la commande motrice lors de l’activation volontaire des fléchisseurs plantaires. Ceci était caractérisé par une augmentation de l’excitabilité nerveuse des muscles agonistes, mais aussi généralisée aux synergistes et même aux antagonistes. De plus, ces altérations ont été corrélées aux déficits moteurs au membre parétique. Le but principal de cette thèse était de tester les effets potentiels de la vibration des muscles de la main (article 3) et de la cuisse (article 4) sur les mécanismes neuronaux qui contrôlent ces muscles. Nous avons trouvé que la vibration augmente l’amplitude de la réponse motrice des muscles vibrés, même chez des personnes n’ayant pas de réponse motrice au repos ou lors d’une contraction volontaire. La vibration a également diminué l’inhibition intracorticale enregistrée au quadriceps parétique (muscle vibré). La diminution n’a cependant pas été significative au niveau de la main. Finalement, lors d’un devis d’investigation croisé, la vibration de la main ou de la jambe parétique a résulté en une amélioration spécifique de la dextérité manuelle ou de la coordination de la jambe, respectivement. Au membre inférieur, la vibration du quadriceps a également diminuée la spasticité des patients. Les résultats obtenus dans cette thèse sont très prometteurs pour la rééducation de la personne hémiparétique car avec une seule séance de vibration, nous avons obtenu des améliorations neurophysiologiques et cliniques.
Resumo:
La fumée du tabac est un aérosol extrêmement complexe constitué de milliers de composés répartis entre la phase particulaire et la phase vapeur. Il a été démontré que les effets toxicologiques de cette fumée sont associés aux composés appartenant aux deux phases. Plusieurs composés biologiquement actifs ont été identifiés dans la fumée du tabac; cependant, il n’y a pas d’études démontrant la relation entre les réponses biologiques obtenues via les tests in vitro ou in vivo et les composés présents dans la fumée entière du tabac. Le but de la présente recherche est de développer des méthodes fiables et robustes de fractionnement de la fumée à l’aide de techniques de séparation analytique et de techniques de détection combinés à des essais in vitro toxicologiques. Une étude antérieure réalisée par nos collaborateurs a démontré que, suite à l’étude des produits de combustion de douze principaux composés du tabac, l’acide chlorogénique s’est avéré être le composé le plus cytotoxique selon les test in vitro du micronoyau. Ainsi, dans cette étude, une méthode par chromatographie préparative en phase liquide a été développée dans le but de fractionner les produits de combustion de l’acide chlorogénique. Les fractions des produits de combustion de l’acide chlorogénique ont ensuite été testées et les composés responsables de la toxicité de l’acide chlorogénique ont été identifiés. Le composé de la sous-fraction responsable en majeure partie de la cytoxicité a été identifié comme étant le catéchol, lequel fut confirmé par chromatographie en phase liquide/ spectrométrie de masse à temps de vol. Des études récentes ont démontré les effets toxicologiques de la fumée entière du tabac et l’implication spécifique de la phase vapeur. C’est pourquoi notre travail a ensuite été focalisé principalement à l’analyse de la fumée entière. La machine à fumer Borgwaldt RM20S® utilisée avec les chambres d’exposition cellulaire de British American Tobacco permettent l’étude in vitro de l’exposition de cellules à différentes concentrations de fumée entière du tabac. Les essais biologiques in vitro ont un degré élevé de variabilité, ainsi, il faut prendre en compte toutes les autres sources de variabilité pour évaluer avec précision la finalité toxicologique de ces essais; toutefois, la fiabilité de la génération de la fumée de la machine n’a jamais été évaluée jusqu’à maintenant. Nous avons donc déterminé la fiabilité de la génération et de la dilution (RSD entre 0,7 et 12 %) de la fumée en quantifiant la présence de deux gaz de référence (le CH4 par détection à ionisation de flamme et le CO par absorption infrarouge) et d’un composé de la phase particulaire, le solanesol (par chromatographie en phase liquide à haute performance). Ensuite, la relation entre la dose et la dilution des composés de la phase vapeur retrouvée dans la chambre d’exposition cellulaire a été caractérisée en utilisant une nouvelle technique d’extraction dite par HSSE (Headspace Stir Bar Sorptive Extraction) couplée à la chromatographie en phase liquide/ spectrométrie de masse. La répétabilité de la méthode a donné une valeur de RSD se situant entre 10 et 13 % pour cinq des composés de référence identifiés dans la phase vapeur de la fumée de cigarette. La réponse offrant la surface maximale d’aire sous la courbe a été obtenue en utilisant les conditions expérimentales suivantes : intervalle de temps d’exposition/ désorption de 10 0.5 min, température de désorption de 200°C pour 2 min et température de concentration cryogénique (cryofocussing) de -75°C. La précision de la dilution de la fumée est linéaire et est fonction de l’abondance des analytes ainsi que de la concentration (RSD de 6,2 à 17,2 %) avec des quantités de 6 à 450 ng pour les composés de référence. Ces résultats démontrent que la machine à fumer Borgwaldt RM20S® est un outil fiable pour générer et acheminer de façon répétitive et linéaire la fumée de cigarette aux cultures cellulaires in vitro. Notre approche consiste en l’élaboration d’une méthodologie permettant de travailler avec un composé unique du tabac, pouvant être appliqué à des échantillons plus complexes par la suite ; ex : la phase vapeur de la fumée de cigarette. La méthodologie ainsi développée peut potentiellement servir de méthode de standardisation pour l’évaluation d’instruments ou de l’identification de produits dans l’industrie de tabac.
Resumo:
Il y a des indications que les nanocristaux de silicium (nc-Si) présentent un gain optique qui est potentiellement assez grand pour permettre l'amplification optique dans la gamme de longueurs d'ondes où une photoluminescence (PL) intense est mesurée (600- 1000 nm). Afin de fabriquer des cavités optiques, nous avons implantés des morceaux de silice fondue avec des ions de Si pour former une couche de nc-Si d'une épaisseur d'environ 1 μm. Le Si a été implanté à quatre énergies comprises entre 1 MeV et 1,9 MeV de manière à obtenir une concentration atomique de Si en excès variant entre 25% et 30%. Les pièces ont été flanquées de miroirs diélectriques composés de filtres interférentiels multicouches. Sur une plage de longueurs d'ondes d'environ 200 nm de large, un filtre réfléchit près de 100%, alors que l'autre a une réflexion moyenne d'environ 90%. Nous avons mesuré et comparé les spectres de PL de trois échantillons: le premier sans miroir, le second avec des filtres réfléchissant autour de 765 nm (entre 700 nm et 830 nm), et la troisième avec des filtres agissant autour de 875 nm (entre 810 nm et 940 nm). Lorsque les échantillons sont excités avec un laser pulsé à 390 nm, des mesures de photoluminescence résolue dans le temps (PLT) révèlent des taux de décroissance plus rapides en présence de miroirs dans le domaine de longueurs d'onde où ceux-ci agissent comparé aux échantillons sans miroirs. Aussi, l'intensité PL en fonction de la fluence d'excitation montre une augmentation plus rapide de la présence de miroirs, même si celle-ci reste sous-linéaire. Nous concluons que de l'émission stimulée pourrait être présente dans la cavité optique, mais sans dominer les autres mécanismes d'émission et de pertes.