948 resultados para Successive Overrelaxation method with 1 parameter


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Symmetry group methods are applied to obtain all explicit group-invariant radial solutions to a class of semilinear Schr¨odinger equations in dimensions n = 1. Both focusing and defocusing cases of a power nonlinearity are considered, including the special case of the pseudo-conformal power p = 4/n relevant for critical dynamics. The methods involve, first, reduction of the Schr¨odinger equations to group-invariant semilinear complex 2nd order ordinary differential equations (ODEs) with respect to an optimal set of one-dimensional point symmetry groups, and second, use of inherited symmetries, hidden symmetries, and conditional symmetries to solve each ODE by quadratures. Through Noether’s theorem, all conservation laws arising from these point symmetry groups are listed. Some group-invariant solutions are found to exist for values of n other than just positive integers, and in such cases an alternative two-dimensional form of the Schr¨odinger equations involving an extra modulation term with a parameter m = 2−n = 0 is discussed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The magnitude of the cervical cancer problem, coupled with the potential for prevention with recent technological advances, made it imperative to step back and reassess strategic options for dealing with cervical cancer screening in Kenya. The purpose of this qualitative study was: 1) to explore the extent to which the Participatory Action Research (PAR) methodology and the Scenario Based Planning (SBP) method, with the application of analytics, could enable strategic, consequential, informed decision making, and 2) to determine how influential Kenyan decision makers could apply SBP with analytic tools and techniques to make strategic, consequential decisions regarding the implementation of a Cervical Self Sampling Program (CSSP) in both urban and rural settings. The theoretical paradigm for this study was action research; it was experiential, practical, and action oriented, and resulted in co-created knowledge that influenced study participants’ decision making. Action Africa Help International (AAHI) and Brock University collaborated with Local Decision Influencing Participants (LDIP’s) to develop innovative strategies on how to implement the CSSP. SBP tools, along with traditional approaches to data collection and analysis, were applied to collect, visualize and analyze predominately qualitative data. Outputs from the study included: a) a generic implementation scenario for a CSSP (along with scenarios unique to urban and rural settings), and b) 10 strategic directions and 22 supporting implementation strategies that address the variables of: 1) technical viability, 2) political support, 3) affordability, 4) logistical feasibility, 5) social acceptability, and 6) transformation/sustainability. In addition, study participants’ capacity to effectively engage in predictive/prescriptive strategic decision making was strengthened.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Affiliation: Unité de recherche en Arthrose, Centre de recherche du Centre Hospitalier de l'Université de Montréal, Hôpital Notre-Dame

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Many unit root and cointegration tests require an estimate of the spectral density function at frequency zero at some process. Kernel estimators based on weighted sums of autocovariances constructed using estimated residuals from an AR(1) regression are commonly used. However, it is known that with substantially correlated errors, the OLS estimate of the AR(1) parameter is severely biased. in this paper, we first show that this least squares bias induces a significant increase in the bias and mean-squared error of kernel-based estimators.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 1311275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Avec la hausse mondiale de la fréquence des floraisons de cyanobactéries (CB), dont certaines produisent des cyanotoxines (CT), le développement d’une méthode de détection/quantification rapide d’un maximum de CT s’impose. Cette méthode permettrait de faire un suivi quotidien de la toxicité de plans d’eau contaminés par des CB et ainsi d’émettre rapidement des avis d’alerte appropriés afin de protéger la santé publique. Une nouvelle technologie utilisant la désorption thermique induite par diode laser (LDTD) couplée à l’ionisation chimique sous pression atmosphérique (APCI) et reliée à la spectrométrie de masse en tandem (MS/MS) a déjà fait ses preuves avec des temps d'analyse de l’ordre de quelques secondes. Les analytes sont désorbés par la LDTD, ionisés en phase gazeuse par APCI et détectés par la MS/MS. Il n’y a donc pas de séparation chromatographique, et la préparation de l’échantillon avant l’analyse est minimale selon la complexité de la matrice contenant les analytes. Parmi les quatre CT testées (microcystine-LR, cylindrospermopsine, saxitoxine et anatoxine-a (ANA-a)), seule l’ANA-a a généré une désorption significative nécessaire au développement d’une méthode analytique avec l’interface LDTD-APCI. La forte polarité ou le poids moléculaire élevé des autres CT empêche probablement leur désorption. L’optimisation des paramètres instrumentaux, tout en tenant compte de l’interférence isobarique de l’acide aminé phénylalanine (PHE) lors de la détection de l’ANA-a par MS/MS, a généré une limite de détection d’ANA-a de l’ordre de 1 ug/L. Celle-ci a été évaluée à partir d’une matrice apparentée à une matrice réelle, démontrant qu’il serait possible d’utiliser la LDTD pour effectuer le suivi de l’ANA-a dans les eaux naturelles selon les normes environnementales applicables (1 à 12 ug/L). Il a été possible d’éviter l’interférence isobarique de la PHE en raison de sa très faible désorption avec l’interface LDTD-APCI. En effet, il a été démontré qu’une concentration aussi élevée que 500 ug/L de PHE ne causait aucune interférence sur le signal de l’ANA-a.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les chutes chez les personnes âgées représentent un problème majeur. Il n’est donc pas étonnant que l’identification des facteurs qui en accroissent le risque ait mobilisé autant d’attention. Les aînés plus fragiles ayant besoin de soutien pour vivre dans la communauté sont néanmoins demeurés le parent pauvre de la recherche, bien que, plus récemment, les autorités québécoises en aient fait une cible d’intervention prioritaire. Les études d’observation prospectives sont particulièrement indiquées pour étudier les facteurs de risque de chutes chez les personnes âgées. Leur identification optimale est cependant compliquée par le fait que l’exposition aux facteurs de risque peut varier au cours du suivi et qu’un même individu peut subir plus d’un événement. Il y a 20 ans, des chercheurs ont tenté de sensibiliser leurs homologues à cet égard, mais leurs efforts sont demeurés vains. On continue aujourd’hui à faire peu de cas de ces considérations, se concentrant sur la proportion des personnes ayant fait une chute ou sur le temps écoulé jusqu’à la première chute. On écarte du coup une quantité importante d’information pertinente. Dans cette thèse, nous examinons les méthodes en usage et nous proposons une extension du modèle de risques de Cox. Nous illustrons cette méthode par une étude des facteurs de risque susceptibles d’être associés à des chutes parmi un groupe de 959 personnes âgées ayant eu recours aux services publics de soutien à domicile. Nous comparons les résultats obtenus avec la méthode de Wei, Lin et Weissfeld à ceux obtenus avec d’autres méthodes, dont la régression logistique conventionnelle, la régression logistique groupée, la régression binomiale négative et la régression d’Andersen et Gill. L’investigation est caractérisée par des prises de mesures répétées des facteurs de risque au domicile des participants et par des relances téléphoniques mensuelles visant à documenter la survenue des chutes. Les facteurs d’exposition étudiés, qu’ils soient fixes ou variables dans le temps, comprennent les caractéristiques sociodémographiques, l’indice de masse corporelle, le risque nutritionnel, la consommation d’alcool, les dangers de l’environnement domiciliaire, la démarche et l’équilibre, et la consommation de médicaments. La quasi-totalité (99,6 %) des usagers présentaient au moins un facteur à haut risque. L’exposition à des risques multiples était répandue, avec une moyenne de 2,7 facteurs à haut risque distincts par participant. Les facteurs statistiquement associés au risque de chutes incluent le sexe masculin, les tranches d’âge inférieures, l’histoire de chutes antérieures, un bas score à l’échelle d’équilibre de Berg, un faible indice de masse corporelle, la consommation de médicaments de type benzodiazépine, le nombre de dangers présents au domicile et le fait de vivre dans une résidence privée pour personnes âgées. Nos résultats révèlent cependant que les méthodes courantes d’analyse des facteurs de risque de chutes – et, dans certains cas, de chutes nécessitant un recours médical – créent des biais appréciables. Les biais pour les mesures d’association considérées proviennent de la manière dont l’exposition et le résultat sont mesurés et définis de même que de la manière dont les méthodes statistiques d’analyse en tiennent compte. Une dernière partie, tout aussi innovante que distincte de par la nature des outils statistiques utilisés, complète l’ouvrage. Nous y identifions des profils d’aînés à risque de devenir des chuteurs récurrents, soit ceux chez qui au moins deux chutes sont survenues dans les six mois suivant leur évaluation initiale. Une analyse par arbre de régression et de classification couplée à une analyse de survie a révélé l’existence de cinq profils distinctifs, dont le risque relatif varie de 0,7 à 5,1. Vivre dans une résidence pour aînés, avoir des antécédents de chutes multiples ou des troubles de l’équilibre et consommer de l’alcool sont les principaux facteurs associés à une probabilité accrue de chuter précocement et de devenir un chuteur récurrent. Qu’il s’agisse d’activité de dépistage des facteurs de risque de chutes ou de la population ciblée, cette thèse s’inscrit dans une perspective de gain de connaissances sur un thème hautement d’actualité en santé publique. Nous encourageons les chercheurs intéressés par l’identification des facteurs de risque de chutes chez les personnes âgées à recourir à la méthode statistique de Wei, Lin et Weissfeld car elle tient compte des expositions variables dans le temps et des événements récurrents. Davantage de recherches seront par ailleurs nécessaires pour déterminer le choix du meilleur test de dépistage pour un facteur de risque donné chez cette clientèle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche porte sur des questions relatives à la conception des interfaces humain-ordinateur. Elle s’inscrit dans le courant des recherches sur l’utilisabilité et elle s’intéresse particulièrement aux approches centrées sur l’utilisateur. Nous avons été très souvent témoin des difficultés éprouvées par les utilisateurs dans l’usage de certaines interfaces interactives et nous considérons que ces difficultés découlent d’un problème de design. Le design d’interface doit être basé sur les besoins de l’utilisateur dans le cadre de ses activités, dont les caractéristiques devaient être bien comprises et bien prises en considération pour mener à la conception d’interfaces qui respectent les critères d’utilisabilité. De plus, la communauté des chercheurs ainsi que l’industrie admettent maintenant que pour améliorer le design, il est crucial de développer les interfaces humain-ordinateur au sein d’une équipe multidisciplinaire. Malgré les avancées significatives dans le domaine du design centrées sur l’utilisateur, les visées annoncées sont rarement réalisées. La problématique étudiée nous a conduit à poser la question suivante : En tant que designer d’une équipe multidisciplinaire de conception, comment modifier la dynamique de collaboration et créer les conditions d’une conception véritablement centrée sur l’interaction humain-ordinateur ? Notre démarche de recherche a été guidée par l’hypothèse voulant que l’activité de design puisse être le moyen de faciliter la création d’un langage commun, des échanges constructifs entre les disciplines, et une réflexion commune centrée sur l’utilisateur. La formulation de cette hypothèse nous a mené à réfléchir sur le rôle du designer. Pour mener cette recherche, nous avons adopté une méthodologie mixte. Dans un premier temps, nous avons utilisé une approche de recherche par projet (recherche-projet) et notre fonction était celle de designer-chercheur. La recherche-projet est particulièrement appropriée pour les recherches en design. Elle privilégie les méthodes qualitatives et interprétatives ; elle étudie la situation dans sa complexité et de façon engagée. Nous avons effectué trois études de cas successives. L’objectif de la première étude était d’observer notre propre rôle et nos interactions avec les autres membres de l’équipe de projet pendant le processus de design. Dans la seconde étude, notre attention a été portée sur les interactions et la collaboration de l’équipe. Nous avons utilisé le processus de design comme méthode pour la construction d’un langage commun entre les intervenants, pour enrichir les réflexions et pour favoriser leur collaboration menant à redéfinir les objectifs du projet. Les limites de ces deux cas nous ont conduit à une intervention différente que nous avons mise en œuvre dans la troisième étude de cas. Cette intervention est constituée par la mise en place d’un atelier intensif de conception où les intervenants au projet se sont engagés à développer une attitude interdisciplinaire permettant la copratique réflexive pour atteindre les objectifs d’un projet de construction d’un site web complexe centré sur l’utilisateur. L’analyse et l’interprétation des données collectées de ces trois études de cas nous ont conduit à créer un modèle théorique de conception d’interface humain-ordinateur. Ce modèle qui informe et structure le processus de design impliquant une équipe multidisciplinaire a pour objectif d’améliorer l’approche centrée sur l’utilisateur. Dans le cadre de ce modèle, le designer endosse le rôle de médiateur en assurant l’efficacité de la collaboration de l’équipe. Dans un deuxième temps, afin de valider le modèle et éventuellement le perfectionner, nous avons utilisé une approche ethnographique comportant des entrevues avec trois experts dans le domaine. Les données des entrevues confirment la validité du modèle ainsi que son potentiel de transférabilité à d’autres contextes. L’application de ce modèle de conception permet d’obtenir des résultats plus performants, plus durables, et dans un délai plus court.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Bien que ce soit un procédé industriel répandu, les films de copolymères à blocs préparés par trempage (« dip-coating ») sont moins étudiés que ceux obtenus par tournette (« spin-coating »). Pourtant, il est possible grâce à cette technique de contrôler précisément les caractéristiques de ces films. Au-delà de la méthode de fabrication, la capacité de modifier la morphologie des films trempés à l’aide d’autres facteurs externes est un enjeu primordial pour leur utilisation dans les nanotechnologies. Nous avons choisi, ici, d’étudier l’influence d’une petite molécule sur la morphologie de films supramoléculaires réalisés par « dip-coating » à partir de solutions de poly(styrène-b-4-vinyl pyridine) (PS-P4VP) dans le tétrahydrofurane (THF). En présence de 1-naphtol (NOH) et d’1-acide napthoïque (NCOOH), qui se complexent par pont hydrogène au bloc P4VP, ces films donnent, respectivement, une morphologie en nodules (sphères) et en stries (cylindres horizontaux). Des études par spectroscopie infrarouge ont permis de mesurer la quantité de petite molécule dans ces films minces, qui varie avec la vitesse de retrait mais qui s’avère être identique pour les deux petites molécules, à une vitesse de retrait donnée. Cependant, des études thermiques ont montré qu’une faible fraction de petite molécule est dispersée dans le PS (davantage de NOH que de NCOOH à cause de la plus faible liaison hydrogène du premier). La vitesse de retrait est un paramètre clé permettant de contrôler à la fois l’épaisseur et la composition du film supramoléculaire. L’évolution de l’épaisseur peut être modélisée par deux régimes récemment découverts. Aux faibles vitesses, l’épaisseur décroît (régime de capillarité), atteint un minimum, puis augmente aux vitesses plus élevées (régime de drainage). La quantité de petite molécule augmente aux faibles vitesses pour atteindre un plateau correspondant à la composition de la solution aux vitesses les plus élevées. Des changements de morphologie, à la fois liés à l’épaisseur et à la quantité de petite molécule, sont alors observés lorsque la vitesse de retrait est modifiée. Le choix du solvant est aussi primordial dans le procédé de « dip-coating » et a été étudié en utilisant le chloroforme, qui est un bon solvant pour les deux blocs. Il s’avère qu’à la fois la composition ainsi que la morphologie des films de PS-P4VP complexés sont différentes par rapport aux expériences réalisées dans le THF. Premièrement, la quantité de petite molécule reste constante avec la vitesse de retrait mais les films sont plus riches en NCOOH qu’en NOH. Deuxièmement, la morphologie des films contenant du NOH présente des stries ainsi que des lamelles à plat, tandis que seules ces dernières sont observables pour le NCOOH. Ce comportement est essentiellement dû à la quantité différente de petite molécule modulée par leur force de complexation différente avec le P4VP dans le chloroforme. Enfin, ces films ont été utilisés pour l’adsorption contrôlée de nanoparticules d’or afin de guider leur organisation sur des surfaces recouvertes de PS-P4VP. Avant de servir comme gabarits, un recuit en vapeurs de solvant permet soit d’améliorer l’ordre à longue distance des nodules de P4VP, soit de modifier la morphologie des films selon le solvant utilisé (THF ou chloroforme). Ils peuvent être ensuite exposés à une solution de nanoparticules d’or de 15 nm de diamètre qui permet leur adsorption sélective sur les nodules (ou stries) de P4VP.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les travaux effectués dans le cadre de cette thèse de doctorat avaient pour but de mettre au point des nouvelles formulations d’antifongiques sous forme de nanoparticules polymériques (NP) en vue d’améliorer l’efficacité et la spécificité des traitements antifongiques sur des souches sensibles ou résistantes de Candida spp, d’Aspergillus spp et des souches de Candida albicans formant du biofilm. Dans la première partie de ce travail, nous avons synthétisé et caractérisé un polymère à base de polyester-co-polyéther branché avec du poly(éthylène glycol) (PEG-g-PLA). En plus d’être original et innovant, ce co-polymère a l’avantage d’être non-toxique et de posséder des caractéristiques de libération prolongée. Trois antifongiques couramment utilisés en clinique et présentant une biodisponibilité non optimale ont été choisis, soient deux azolés, le voriconazole (VRZ) et l’itraconazole (ITZ) et un polyène, l’amphotéricine B (AMB). Ces principes actifs (PA), en plus des problèmes d’administration, présentent aussi d’importants problèmes de toxicité. Des NP polymériques encapsulant ces PA ont été préparées par une technique d’émulsion huile-dans-l’eau (H/E) suivie d’évaporation de solvant. Une fois fabriquées, les NP ont été caractérisées et des particules de d’environ 200 nm de diamètre ont été obtenues. Les NP ont été conçues pour avoir une structure coeur/couronne avec un coeur constitué de polymère hydrophobe (PLA) et une couronne hydrophile de PEG. Une faible efficacité de chargement (1,3% m/m) a été obtenue pour la formulation VRZ encapsulé dans des NP (NP/VRZ). Toutefois, la formulation AMB encapsulée dans des NP (NP/AMB) a montré des taux de chargement satisfaisants (25,3% m/m). En effet, le caractère hydrophobe du PLA a assuré une bonne affinité avec les PA hydrophobes, particulièrement l’AMB qui est le plus hydrophobe des agents sélectionnés. Les études de libération contrôlée ont montré un relargage des PA sur plusieurs jours. La formulation NP/AMB a été testée sur un impacteur en cascade, un modèle in vitro de poumon et a permis de démontrer le potentiel de cette formulation à être administrée efficacement par voie pulmonaire. En effet, les résultats sur l’impacteur en cascade ont montré que la majorité de la formulation s’est retrouvée à l’étage de collecte correspondant au niveau bronchique, endroit où se situent majoritairement les infections fongiques pulmonaires. Dans la deuxième partie de ces travaux, nous avons testé les nouvelles formulations d’antifongiques sur des souches planctoniques de Candida spp., d’Aspergillus spp. et des souches de Candida albicans formant du biofilm selon les procédures standardisées du National Committee for Clinical Laboratory Standards (NCCLS). Les souches choisies ont démontré des résistances aux azolés et aux polyènes. Les études d’efficacité in vitro ont permis de prouver hors de tout doute que les nouvelles formulations offrent une efficacité nettement améliorée comparée à l’agent antifongique libre. Pour mettre en lumière si l’amélioration de l’efficacité antifongique était due à une internalisation des NP, nous avons évalué le comportement des NP avec les cellules de champignons. Nous avons procédé à des études qualitatives de microscopie de fluorescence sur des NP marquées avec de la rhodamine (Rh). Tel qu’attendu, les NP ont montré une localisation intracellulaire. Pour exclure la possibilité d’une simple adhésion des NP à la surface des levures, nous avons aussi confirmé leur internalisation en microscopie confocale de fluorescence. Il est important de noter que peu d’études à ce jour ont mis l’accent sur l’élaboration de nouvelles formulations d’antifongiques à base de polymères non toxiques destinées aux traitements des mycoses, donnant ainsi une grande valeur et originalité aux travaux effectués dans cette thèse. Les résultats probants obtenus ouvrent la voie vers une nouvelle approche pour contourner les problèmes de résistances fongiques, un problème de plus en plus important dans le domaine de l’infectiologie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La scoliose est la déformation de la colonne vertébrale la plus répandue. Elle atteint 3 à 4% de la population pédiatrique et dans 85% des cas, aucune cause n’a été identifiée. Ces cas sont appelés idiopathiques et les symptômes apparaissent durant la puberté; d’où le terme de ‘scoliose idiopathique de l’adolescent (SIA). Cette pathologie atteint le plus souvent les jeunes filles, en nombre et en sévérité. Ces dernières années, plusieurs hypothèses ont été proposées afin d’élucider l’étiologie de cette pathologie. Celles-ci ont mis de l’avant différents facteurs génétiques, biochimiques, mécaniques, neurologiques, musculaires ou hormonaux. Plusieurs études ont rapporté des formes familiales de scoliose, soutenant la thèse d’une prédisposition génétique. Nous avons démontré que les patients souffrant de SIA présentent un défaut de signalisation cellulaire médiée par les protéines Gi et un taux élevé d’ostéopontine (OPN) circulante. En utilisant une approche de type ‘gène candidat’, nous avons montré que la protéine tyrosine phosphatase μ (PTPμ) régule l’activité du complexe d’intégrines α5/β1 (récepteur de l’OPN) via la protéine kinase PIPKIγ. Dans ce but, nous avons utilisé des cultures primaires d’ostéoblastes issues de biopsies de patients et de cas traumatiques comme sujets contrôles. Les biopsies osseuses de patients ont été obtenues lors de l’intervention chirurgicale à partir des vertèbres T3 à L4, selon les différentes procédures. Les biopsies issues de cas traumatiques proviennent d’autres types d’os (tibia, crête iliaque, fémur). Les profils d’expression du gène PTPRM (codant pour la protéine PTPμ) ont été étudiés par PCR quantitative (qPCR). Les taux de protéines PTPμ ont été analysés par immunoprécipitation suivi d’un western blot. Pour évaluer le rôle de cette protéine, nous avons bénéficié d’un modèle murin. Machida et al. ont démontré qu’il existe un taux plus élevé de scoliose parmi les souris C57Bl/6 bipèdes obtenues suite à l’amputation des membres supérieurs, sous anesthésie, cinq semaines après la naissance. Nous avons utilisé des cultures primaires d’ostéoblastes issues de la colonne ii vertébrale de souris C57Bl/6 bipèdes, délétées du gène PTPRM (souris dites ‘KO’), afin d’évaluer le niveau de signalisation cellulaire spécifique des protéines Gi par un test fonctionnel: la technique de spectroscopie cellulaire di-électrique (SCD). Selon nos données, 85% des souris bipédales ‘KO’ pour le géne PTPRM développent une scoliose (modérée à sévère) contre 55% des souris contrôles C57Bl6 bipèdes. De plus, les niveaux de PTPμ exprimée par les ostéoblastes de 34 patients SIA se trouvent diminués par comparaison à 17 sujets contrôles. Nos études de souris bipèdes ont montré que l’inactivation du gène PTPRM augmente l’incidence et la sévérité de la scoliose, sans pour autant affecter les taux circulant d’OPN ou l’expression de ses récepteurs. Par ailleurs, dans ce même contexte, nous avons remarqué une augmentation de l’interaction entre l’OPN et l’intégrine β1 en l’absence du gène PTPRM. Les cellules issues de ces souris bipèdes KO montrent une réduction dans leurs niveaux de signalisation cellulaire médiée par les protéines Gi après stimulation par l’OPN. Cette diminution est en grande partie récupérée après traitement des cellules par un siRNA spécifique de la protéine PIPK1γ, substrat de PTPμ qui favorise la fixation de ligands aux intégrines. Ces études apportent les premières indications que la perte d’expression de PTPμ est impliquée dans le développement de la SIA, en amplifiant probablement l’effet inhibiteur de l’OPN sur la signalisation cellulaire médiée par les protéines Gi. Ces études permettent une meilleure compréhension de l’étiologie de la SIA. Elles pourraient avoir une contribution importante dans le développement futur de méthodes diagnostique et thérapeuthique dans le but d'arrete l’apparition et l’évolution de la maladie chez les enfants atteints.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Actuellement le polyéthylènimine (PEI) est l’agent de transfection transitoire le plus utilisé par l’industrie pharmaceutique pour la production de protéines recombinantes à grande échelle par les cellules de mammifères. Il permet la condensation de l’ADN plasmidique (ADNp) en formant spontanément des nanoparticules positives appelées polyplexes, lui procurant la possibilité de s’attacher sur la membrane cellulaire afin d’être internalisé, ainsi qu’une protection face aux nucléases intracellulaires. Cependant, alors que les polyplexes s’attachent sur la quasi-totalité des cellules seulement 5 à 10 % de l’ADNp internalisé atteint leur noyau, ce qui indique que la majorité des polyplexes ne participent pas à l’expression du transgène. Ceci contraste avec l’efficacité des vecteurs viraux où une seule particule virale par cellule peut être suffisante. Les virus ont évolués afin d’exploiter les voies d’internalisation et de routage cellulaire pour exprimer efficacement leur matériel génétique. Nous avons donc supposé que l’exploitation des voies d’internalisation et de routage cellulaire d’un récepteur pourrait, de façon similaire à plusieurs virus, permettre d’optimiser le processus de transfection en réduisant les quantités d’ADNp et d’agent de transfection nécessaires. Une alternative au PEI pour transfecter les cellules de mammifèreest l’utilisation de protéines possédant un domaine de liaison à l’ADNp. Toutefois, leur utilisation reste marginale à cause de la grande quantité requise pour atteindre l’expression du transgène. Dans cette étude, nous avons utilisé le système E/Kcoil afin de cibler un récepteur membranaire dans le but de délivrer l’ADNp dans des cellules de mammifères. Le Ecoil et le Kcoil sont des heptapeptides répétés qui peuvent interagir ensemble avec une grande affinité et spécificité afin de former des structures coiled-coil. Nous avons fusionné le Ecoil avec des protéines capables d’interagir avec l’ADNp et le Kcoil avec un récepteur membranaire que nous avons surexprimé dans les cellules HEK293 de manière stable. Nous avons découvert que la réduction de la sulfatation de la surface cellulaire permettait l’attachement ciblé sur les cellules par l’intermédiaire du système E/Kcoil. Nous démontrons dans cette étude comment utiliser le système E/Kcoil et une protéine interagissant avec l’ADNp pour délivrer un transgène de manière ciblée. Cette nouvelle méthode de transfection permet de réduire les quantités de protéines nécessaires pour l’expression du transgène.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pyrroles are found in various natural products and in the chemical composition of certain drugs because of their interesting biological properties. Lipitor, Tolmetin and Amtolmetin are examples of drugs with 1,2,5-substituted pyrroles in their composition, in which biological activities have been certified. Moreover, pyrroles are used as precursors of semiconductor polymers, oligomers and dendrimers useful for the synthesis of electroluminescent materials used in devices, such as organic light-emitting diodes, field-effect transistors, solar and organic photovoltaic cells. We are interested in conjugated polymers based on pyrrole due to their optical properties, electrochemical and the conductivity produced by electron delocalization along their carbon chains. The overall objective of the work presented in this thesis is the synthesis of new molecules based on pyrrole for studying their electronic and electrochemical properties as well for the synthesis of conjugated polymers. Initially, we performed the synthesis of 1,3,5-tri-(1-alkyl-5-methylpyrrol-2-yl)benzenes, which may serve as precursors for the synthesis of conjugated dendrimers. Their synthesis was made in three steps starting from trimethyl 1,3,5-benzene-tricarboxylate which was converted to 1,3,5-tri-(pent-4-enoyl)benzene using vinylmagnesium bromide in a Grignard reaction catalyzed by copper cyanide. The olefins of 1,3,5-tri-(pent-4-enoyl)benzene were oxidized to produce 1,3,5-tri-(4-oxopentanoyl)benzene using a modified protocol of the Tsuji-Wacker reaction. Subsequent, Paal-Knorr condensation reactions on 1,3,5-tri-(4-oxopentanoyl)benzene with different amines were used to synthesize 1,3,5-tri-(1-alkyl-5-methylpyrrol-2-yl)benzenes with different N-substituents in yields between 44 and 60%. Incomplete reaction of vinylmagnesium bromide with trimethyl 1,3,5-benzenetricarboxylate gave the methyl-3,5-di(pent-4-enoyl)benzoate, which was converted to methyl-3,5-dipyrrolylbenzoate following the reaction of Tsuji- Wacker and Paal-Knorr with yields between 30 and 60%. The photochemical and electrochemical properties of the 1,3,5-tri-(1-alkyl-5-methylpyrrol-2-yl)benzenes and methyl-3,5-dipyrrolylbenzoates were studied in collaboration with the research group of professor William Skene. The results have shown that both types of pyrrole have potential for the synthesis of conjugated polymers and dendrimers used in the manufacture of electroluminescent materials. Following these encouraging results, we performed the synthesis of 6,12-dimethyl-1,5-dipyrrolediazocane. Methyl N-(Boc)-β-alaninate was converted to its corresponding homoallylic ketone, which was oxidized to N-(Boc)aminoheptan-3,6-dione. The Paal-Knorr condensation between N-(Boc)aminoheptan-3,6-dione and aminoheptan-3,6-dione hydrochloride gave 6,12-dimethyl-1,5-dipyrrolediazocane in 17% yield. In sum, we have synthesized and characterized seven new molecules, six of them having photochemical and electrochemical properties interesting for the synthesis of conjugated polymers and dendrimers. The latter offering potential as precursor for the conception of compounds of therapeutic interest.