998 resultados para Spectromètres par transformée de Fourier -- Méthodes de simulation
Resumo:
We study the problem of testing the error distribution in a multivariate linear regression (MLR) model. The tests are functions of appropriately standardized multivariate least squares residuals whose distribution is invariant to the unknown cross-equation error covariance matrix. Empirical multivariate skewness and kurtosis criteria are then compared to simulation-based estimate of their expected value under the hypothesized distribution. Special cases considered include testing multivariate normal, Student t; normal mixtures and stable error models. In the Gaussian case, finite-sample versions of the standard multivariate skewness and kurtosis tests are derived. To do this, we exploit simple, double and multi-stage Monte Carlo test methods. For non-Gaussian distribution families involving nuisance parameters, confidence sets are derived for the the nuisance parameters and the error distribution. The procedures considered are evaluated in a small simulation experi-ment. Finally, the tests are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995.
Resumo:
We discuss statistical inference problems associated with identification and testability in econometrics, and we emphasize the common nature of the two issues. After reviewing the relevant statistical notions, we consider in turn inference in nonparametric models and recent developments on weakly identified models (or weak instruments). We point out that many hypotheses, for which test procedures are commonly proposed, are not testable at all, while some frequently used econometric methods are fundamentally inappropriate for the models considered. Such situations lead to ill-defined statistical problems and are often associated with a misguided use of asymptotic distributional results. Concerning nonparametric hypotheses, we discuss three basic problems for which such difficulties occur: (1) testing a mean (or a moment) under (too) weak distributional assumptions; (2) inference under heteroskedasticity of unknown form; (3) inference in dynamic models with an unlimited number of parameters. Concerning weakly identified models, we stress that valid inference should be based on proper pivotal functions —a condition not satisfied by standard Wald-type methods based on standard errors — and we discuss recent developments in this field, mainly from the viewpoint of building valid tests and confidence sets. The techniques discussed include alternative proposed statistics, bounds, projection, split-sampling, conditioning, Monte Carlo tests. The possibility of deriving a finite-sample distributional theory, robustness to the presence of weak instruments, and robustness to the specification of a model for endogenous explanatory variables are stressed as important criteria assessing alternative procedures.
Resumo:
This paper employs the one-sector Real Business Cycle model as a testing ground for four different procedures to estimate Dynamic Stochastic General Equilibrium (DSGE) models. The procedures are: 1 ) Maximum Likelihood, with and without measurement errors and incorporating Bayesian priors, 2) Generalized Method of Moments, 3) Simulated Method of Moments, and 4) Indirect Inference. Monte Carlo analysis indicates that all procedures deliver reasonably good estimates under the null hypothesis. However, there are substantial differences in statistical and computational efficiency in the small samples currently available to estimate DSGE models. GMM and SMM appear to be more robust to misspecification than the alternative procedures. The implications of the stochastic singularity of DSGE models for each estimation method are fully discussed.
Resumo:
Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.
Resumo:
Statistical tests in vector autoregressive (VAR) models are typically based on large-sample approximations, involving the use of asymptotic distributions or bootstrap techniques. After documenting that such methods can be very misleading even with fairly large samples, especially when the number of lags or the number of equations is not small, we propose a general simulation-based technique that allows one to control completely the level of tests in parametric VAR models. In particular, we show that maximized Monte Carlo tests [Dufour (2002)] can provide provably exact tests for such models, whether they are stationary or integrated. Applications to order selection and causality testing are considered as special cases. The technique developed is applied to quarterly and monthly VAR models of the U.S. economy, comprising income, money, interest rates and prices, over the period 1965-1996.
Resumo:
L’analyse spectrale de la fréquence cardiaque, de la pression artérielle systolique, de la pression artérielle diastolique ainsi que de la respiration par la transformée de Fourier rapide, est considérée comme une technique non invasive pour la détermination de l’activité du système nerveux autonome (SNA). Dans une population de sujets normaux volontaires, nous avons obtenu à l’état basal, des oscillations de basses fréquences (0,05-0,15Hz) reliées au système nerveux sympathique autonome et des oscillations de hautes fréquences (0,2Hz) représentant sur les intervalles entre chaque ondes R de l’électrocardiogramme (RR), l’arythmie sinusale respiratoire correspondant à une activité vagale. Nous avons comparé les tests de stimulation du système nerveux sympathique autonome déclenché par le passage de la position de repos (en décubitus dorsal), à la position orthostatique volontaire et le passage de la position de repos à la position orthostatique avec la table basculante à 60o. Nous avons également comparé un groupe normotendu à un groupe hypertendu qui a été soumis au passage du repos à l’orthostation volontaire et pour lesquels nous avons évalué la sensibilité du baroréflexe et la réponse sympathique par la mesure des catécholamines circulantes. Dans un groupe de sujets ayant une hypertension artérielle essentielle, nous avons évalué l’effet de la thérapie hypotensive, par le Trandolapril qui est un Inhibiteur de l’enzyme de conversion (IEC) de l`angiotensine. Dans ce groupe hypertendu, nous avons procédé, en plus de la stimulation sympathique par l’orthostation volontaire, à un exercice isométrique de trois minutes à 30 % de la force maximale. Nous avons également complété notre évaluation par la mesure de la densité de récepteurs ß2 adrénergiques sur lymphocytes et par la mesure des indices de contractilité à l’aide de l’échocardiographie en M mode. Les résultats ont montré, dans les groupes normaux volontaires, dans les deux types de stimulation du système nerveux sympathique par la position orthostatique, une augmentation significative des catécholamines plasmatiques avec une augmentation de la fréquence cardiaque et des basses fréquences de RR, confirmant ainsi que l’on est en état de stimulation sympathique. On observe en même temps une diminution significative des hautes fréquences de RR, suggérant un retrait vagal lors de cette stimulation. On a observé au test de la table basculante six cas d’hypotension orthostatique. On a comparé la position orthostatique volontaire entre le groupe de sujets normaux et le groupe de sujets hypertendus. L’analyse spectrale croisée de RR et de la pression artérielle systolique a permis d’évaluer dans l’hypertension artérielle (HTA), essentielle une sensibilité du baroréflexe atténuée, accompagnée d’une réactivité vagale réduite en présence d’une activité et d’une réactivité sympathique augmentées suggérant une altération sympathovagale dans l’HTA. Dans le groupe de sujets hypertendus traités (Trandolapril 2mg/jour), nous avons identifié un groupe de répondeurs au traitement par le Trandolapril et un groupe de non répondeurs à ce type de thérapie anti-hypertensive. Le groupe répondeur avait un profil hyper-adrénergique avec une hyper-réactivité sympathique, une fréquence cardiaque et des pressions artérielles diastolique et systolique plus élevées au repos. Dans le groupe total traité au Trandolapril, la densité des récepteurs ß2 adrénergiques a doublé, après thérapie, alors que la réactivité des basses fréquences obtenues à l’analyse spectrale a augmenté. Nous avons montré dans notre étude qu’un IECA a pu inhiber le mécanisme facilitateur de l’angII sur les terminaisons nerveuses sympathiques et a permis ainsi de réduire l’hyperactivité sympathique et le mécanisme de « down regulation » des récepteurs ß2 adrénergiques rendant ainsi l’expression de l’influence du SNA post synaptique plus efficace. Dans l’ensemble de nos protocoles cliniques, par l’utilisation de l’analyse spectrale des signaux RR, de la pression artérielle systolique,de la pression artérielle diastolique et de la respiration, nous avons montré que cette technique non invasive permet de décrire et de mieux comprendre les mécanismes physiologiques, physiopathologiques et pharmacologiques reliés au système nerveux autonome et à l’hypertension artérielle essentielle.
Resumo:
Les hydrogels de polysaccharide sont des biomatériaux utilisés comme matrices à libération contrôlée de médicaments et comme structures modèles pour l’étude de nombreux systèmes biologiques dont les biofilms bactériens et les mucus. Dans tous les cas, le transport de médicaments ou de nutriments à l’intérieur d’une matrice d’hydrogel joue un rôle de premier plan. Ainsi, l’étude des propriétés de transport dans les hydrogels s’avère un enjeu très important au niveau de plusieurs applications. Dans cet ouvrage, le curdlan, un polysaccharide neutre d’origine bactérienne et formé d’unités répétitives β-D-(1→3) glucose, est utilisé comme hydrogel modèle. Le curdlan a la propriété de former des thermogels de différentes conformations selon la température à laquelle une suspension aqueuse est incubée. La caractérisation in situ de la formation des hydrogels de curdlan thermoréversibles et thermo-irréversibles a tout d’abord été réalisée par spectroscopie infrarouge à transformée de Fourier (FT-IR) en mode réflexion totale atténuée à température variable. Les résultats ont permis d’optimiser les conditions de gélation, menant ainsi à la formation reproductible des hydrogels. Les caractérisations structurales des hydrogels hydratés, réalisées par imagerie FT-IR, par microscopie électronique à balayage en mode environnemental (eSEM) et par microscopie à force atomique (AFM), ont permis de visualiser les différentes morphologies susceptibles d’influencer la diffusion d’analytes dans les gels. Nos résultats montrent que les deux types d’hydrogels de curdlan ont des architectures distinctes à l’échelle microscopique. La combinaison de la spectroscopie de résonance magnétique nucléaire (RMN) à gradients pulsés et de l’imagerie RMN a permis d’étudier l’autodiffusion et la diffusion mutuelle sur un même système dans des conditions expérimentales similaires. Nous avons observé que la diffusion des molécules dans les gels est ralentie par rapport à celle mesurée en solution aqueuse. Les mesures d’autodiffusion, effectuées sur une série d’analytes de diverses tailles dans les deux types d’hydrogels de curdlan, montrent que le coefficient d’autodiffusion relatif décroit en fonction de la taille de l’analyte. De plus, nos résultats suggèrent que l’équivalence entre les coefficients d’autodiffusion et de diffusion mutuelle dans les hydrogels de curdlan thermo-irréversibles est principalement due au fait que l’environnement sondé par les analytes durant une expérience d’autodiffusion est représentatif de celui exploré durant une expérience de diffusion mutuelle. Dans de telles conditions, nos résultats montrent que la RMN à gradients pulsés peut s’avérer une approche très avantageuse afin de caractériser des systèmes à libération contrôlée de médicaments. D’autres expériences de diffusion mutuelle, menées sur une macromolécule de dextran, montrent un coefficient de diffusion mutuelle inférieur au coefficient d’autodiffusion sur un même gel de curdlan. L’écart mesuré entre les deux modes de transport est attribué au volume différent de l’environnement sondé durant les deux mesures. Les coefficients d’autodiffusion et de diffusion mutuelle similaires, mesurés dans les deux types de gels de curdlan pour les différents analytes étudiés, suggèrent une influence limitée de l’architecture microscopique de ces gels sur leurs propriétés de transport. Il est conclu que les interactions affectant la diffusion des analytes étudiés dans les hydrogels de curdlan se situent à l’échelle moléculaire.
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.
Resumo:
L’élevage des porcs représente une source importante de déversement d’antibiotiques dans l’environnement par l’intermédiaire de l’épandage du lisier qui contient une grande quantité de ces molécules sur les champs agricoles. Il a été prouvé que ces molécules biologiquement actives peuvent avoir un impact toxique sur l’écosystème. Par ailleurs, elles sont aussi suspectées d’engendrer des problèmes sanitaires et de contribuer à la résistance bactérienne pouvant mener à des infections difficilement traitables chez les humains. Le contrôle de ces substances dans l’environnement est donc nécessaire. De nombreuses méthodes analytiques sont proposées dans la littérature scientifique pour recenser ces composés dans plusieurs types de matrice. Cependant, peu de ces méthodes permettent l’analyse de ces contaminants dans des matrices issues de l’élevage agricole intensif. Par ailleurs, les méthodes analytiques disponibles sont souvent sujettes à des faux positifs compte tenu de la complexité des matrices étudiées et du matériel utilisé et ne prennent souvent pas en compte les métabolites et produits de dégradation. Enfin, les niveaux d’analyse atteints avec ces méthodes ne sont parfois plus à jour étant donné l’évolution de la chimie analytique et de la spectrométrie de masse. Dans cette optique, de nouvelles méthodes d’analyses ont été développées pour rechercher et quantifier les antibiotiques dans des matrices dérivées de l’élevage intensif des porcs en essayant de proposer des approches alternatives sensibles, sélectives et robustes pour quantifier ces molécules. Une première méthode d’analyse basée sur une technique d’introduction d’échantillon alternative à l’aide d’une interface fonctionnant à l’aide d’une désorption thermique par diode laser munie d’une source à ionisation à pression atmosphérique, couplée à la spectrométrie de masse en tandem a été développée. L’objectif est de proposer une analyse plus rapide tout en atteignant des niveaux de concentration adaptés à la matrice étudiée. Cette technique d’analyse couplée à un traitement d’échantillon efficace a permis l’analyse de plusieurs antibiotiques vétérinaires de différentes classes dans des échantillons de lisier avec des temps d’analyse courts. Les limites de détection atteintes sont comprises entre 2,5 et 8,3 µg kg-1 et sont comparables avec celles pouvant être obtenues avec la chromatographie liquide dans une matrice similaire. En vue d’analyser simultanément une série de tétracyclines, une deuxième méthode d’analyse utilisant la chromatographie liquide couplée à la spectrométrie de masse à haute résolution (HRMS) a été proposée. L’utilisation de la HRMS a été motivée par le fait que cette technique d’analyse est moins sensible aux faux positifs que le triple quadripôle traditionnel. Des limites de détection comprises entre 1,5 et 3,6 µg kg-1 ont été atteintes dans des échantillons de lisier en utilisant un mode d’analyse par fragmentation. L’utilisation de méthodes de quantifications ciblées est une démarche intéressante lorsque la présence de contaminants est suspectée dans un échantillon. Toutefois, les contaminants non intégrés à cette méthode d’analyse ciblée ne peuvent être détectés même à de fortes concentrations. Dans ce contexte, une méthode d’analyse non ciblée a été développée pour la recherche de pharmaceutiques vétérinaires dans des effluents agricoles en utilisant la spectrométrie de masse à haute résolution et une cartouche SPE polymérique polyvalente. Cette méthode a permis l’identification d’antibiotiques et de pharmaceutiques couramment utilisés dans l’élevage porcin. La plupart des méthodes d’analyse disponibles dans la littérature se concentrent sur l’analyse des composés parents, mais pas sur les sous-produits de dégradation. L’approche utilisée dans la deuxième méthode d’analyse a donc été étendue et appliquée à d’autres classes d’antibiotiques pour mesurer les concentrations de plusieurs résidus d’antibiotiques dans les sols et les eaux de drainage d’un champ agricole expérimental. Les sols du champ renfermaient un mélange d’antibiotiques ainsi que leurs produits de dégradation relatifs à des concentrations mesurées jusqu’à 1020 µg kg-1. Une partie de ces composés ont voyagé par l’intermédiaire des eaux de drainage du champ ou des concentrations pouvant atteindre 3200 ng L-1 ont pu être relevées.
Resumo:
L’estradiol (E2) est une hormone femelle qui joue un rôle essentiel, à la fois dans la régulation et dans la détermination de certaines conditions physiologiques in vivo, telle que la différenciation et la prolifération cellulaire. Lorsque l’E2 est donné en supplément, par exemple dans le cas de thérapie hormonale, deux effets sont observés, un effet génomique et un effet non-génomique, de par son interaction avec les récepteurs à œstrogène du noyau ou de la membrane cellulaire, respectivement. L’effet non-génomique est plus difficile à étudier biologiquement parce que l’effet se produit sur une échelle de temps extrêmement courte et à cause de la nature hydrophobe de l’E2 qui réduit sa biodisponibilité et donc son accessibilité aux cellules cibles. C’est pourquoi il est nécessaire de développer des systèmes d’administration de l’E2 qui permettent de n’étudier que l’effet non-génomique de l’œstrogène. Une des stratégies employée consiste à greffer l’E2 à des macromolécules hydrophiles, comme de l’albumine de sérum bovin (BSA) ou des dendrimères de type poly(amido)amine, permettant de maintenir l’interaction de l’E2 avec les récepteurs d’œstrogène de la membrane cellulaire et d’éviter la pénétration de l’E2 dans le noyau des cellules. Toutefois, ces systèmes macromolécules-E2 sont critiquables car ils sont peu stables et l’E2 peut se retrouver sous forme libre, ce qui affecte sa localisation cellulaire. L’objectif de cette thèse est donc de développer de nouvelles plateformes fonctionnalisées avec de l’E2 en utilisant les approches de synthèses ascendantes et descendantes. Le but de ces plateformes est de permettre d’étudier le mécanisme de l’effet non-génomique de l’E2, ainsi que d’explorer des applications potentielles dans le domaine biomédical. L’approche ascendante est basée sur un ligand d’E2 activé, l’acide 17,α-éthinylestradiol-benzoïque, attaché de façon covalente à un polymère de chitosan avec des substitutions de phosphorylcholine (CH-PC-E2). L’estradiol est sous forme de pro-drogue attachée au polymère qui s’auto-assembler pour former un film. L’effet biologique de la composition chimique du film de chitosan-phosphorylcholine a été étudié sur des cellules endothéliales. Les films de compositions chimiques différentes ont préalablement été caractérisés de façon physicochimique. La topographie de la surface, la charge de surface, ainsi que la rhéologie des différents films contenant 15, 25, ou 40% molaires de phosphorylcholine, ont été étudiés par microscopie à force atomique (AFM), potentiel zêta, résonance plasmonique de surface et par microbalance à cristal de quartz avec dissipation (QCM-D). Les résultats de QCM-D ont montré que plus la part molaire en phosphorylcholine est grande moins il y a de fibrinogène qui s’adsorbe sur le film de CH-PC. Des cellules humaines de veine ombilicale (HUVECs) cultivées sur des films de CH-PC25 et de CH-PC40 forment des amas cellulaire appelés sphéroïdes au bout de 4 jours, alors que ce n’est pas le cas lorsque ces cellules sont cultivées sur des films de CH-PC15. L’attachement de l’estradiol au polymère a été caractérisé par plusieurs techniques, telles que la résonance magnétique nucléaire de proton (1H NMR), la spectroscopie infrarouge avec transformée de Fourier à réfraction totale atténuée (FTIR-ATR) et la spectroscopie UV-visible. La nature hydrogel des films (sa capacité à retenir l’eau) ainsi que l’interaction des films avec des récepteurs à E2, ont été étudiés par la QCM-D. Des études d’imagerie cellulaires utilisant du diacétate de diaminofluoresceine-FM ont révélé que les films hydrogels de CH-PC-E2 stimulent la production d’oxyde nitrique par les cellules endothéliales, qui joue un rôle protecteur pour le système cardiovasculaire. L’ensemble de ces études met en valeur les rôles différents et les applications potentielles qu’ont les films de type CH-PC-E2 et CH-PC dans le cadre de la médecine cardiovasculaire régénérative. L’approche descendante est basée sur l’attachement de façon covalente d’E2 sur des ilots d’or de 2 μm disposés en rangées et espacés par 12 μm sur un substrat en verre. Les ilots ont été préparés par photolithographie. La surface du verre a quant à elle été modifiée à l’aide d’un tripeptide cyclique, le cRGD, favorisant l’adhésion cellulaire. L’attachement d’E2 sur les surfaces d’or a été suivi et confirmé par les techniques de SPR et de QCM-D. Des études d’ELISA ont montré une augmentation significative du niveau de phosphorylation de la kinase ERK (marqueur important de l’effet non-génomique) après 1 heure d’exposition des cellules endothéliales aux motifs alternant l’E2 et le cRGD. Par contre lorsque des cellules cancéreuses sont déposées sur les surfaces présentant des motifs d’E2, ces cellules ne croissent pas, ce qui suggère que l’E2 n’exerce pas d’effet génomique. Les résultats de l’approche descendante montrent le potentiel des surfaces présentant des motifs d’E2 pour l’étude des effets non-génomiques de l’E2 dans un modèle in vitro.
Resumo:
L’estradiol (E2) est une hormone femelle qui joue un rôle essentiel, à la fois dans la régulation et dans la détermination de certaines conditions physiologiques in vivo, telle que la différenciation et la prolifération cellulaire. Lorsque l’E2 est donné en supplément, par exemple dans le cas de thérapie hormonale, deux effets sont observés, un effet génomique et un effet non-génomique, de par son interaction avec les récepteurs à œstrogène du noyau ou de la membrane cellulaire, respectivement. L’effet non-génomique est plus difficile à étudier biologiquement parce que l’effet se produit sur une échelle de temps extrêmement courte et à cause de la nature hydrophobe de l’E2 qui réduit sa biodisponibilité et donc son accessibilité aux cellules cibles. C’est pourquoi il est nécessaire de développer des systèmes d’administration de l’E2 qui permettent de n’étudier que l’effet non-génomique de l’œstrogène. Une des stratégies employée consiste à greffer l’E2 à des macromolécules hydrophiles, comme de l’albumine de sérum bovin (BSA) ou des dendrimères de type poly(amido)amine, permettant de maintenir l’interaction de l’E2 avec les récepteurs d’œstrogène de la membrane cellulaire et d’éviter la pénétration de l’E2 dans le noyau des cellules. Toutefois, ces systèmes macromolécules-E2 sont critiquables car ils sont peu stables et l’E2 peut se retrouver sous forme libre, ce qui affecte sa localisation cellulaire. L’objectif de cette thèse est donc de développer de nouvelles plateformes fonctionnalisées avec de l’E2 en utilisant les approches de synthèses ascendantes et descendantes. Le but de ces plateformes est de permettre d’étudier le mécanisme de l’effet non-génomique de l’E2, ainsi que d’explorer des applications potentielles dans le domaine biomédical. L’approche ascendante est basée sur un ligand d’E2 activé, l’acide 17,α-éthinylestradiol-benzoïque, attaché de façon covalente à un polymère de chitosan avec des substitutions de phosphorylcholine (CH-PC-E2). L’estradiol est sous forme de pro-drogue attachée au polymère qui s’auto-assembler pour former un film. L’effet biologique de la composition chimique du film de chitosan-phosphorylcholine a été étudié sur des cellules endothéliales. Les films de compositions chimiques différentes ont préalablement été caractérisés de façon physicochimique. La topographie de la surface, la charge de surface, ainsi que la rhéologie des différents films contenant 15, 25, ou 40% molaires de phosphorylcholine, ont été étudiés par microscopie à force atomique (AFM), potentiel zêta, résonance plasmonique de surface et par microbalance à cristal de quartz avec dissipation (QCM-D). Les résultats de QCM-D ont montré que plus la part molaire en phosphorylcholine est grande moins il y a de fibrinogène qui s’adsorbe sur le film de CH-PC. Des cellules humaines de veine ombilicale (HUVECs) cultivées sur des films de CH-PC25 et de CH-PC40 forment des amas cellulaire appelés sphéroïdes au bout de 4 jours, alors que ce n’est pas le cas lorsque ces cellules sont cultivées sur des films de CH-PC15. L’attachement de l’estradiol au polymère a été caractérisé par plusieurs techniques, telles que la résonance magnétique nucléaire de proton (1H NMR), la spectroscopie infrarouge avec transformée de Fourier à réfraction totale atténuée (FTIR-ATR) et la spectroscopie UV-visible. La nature hydrogel des films (sa capacité à retenir l’eau) ainsi que l’interaction des films avec des récepteurs à E2, ont été étudiés par la QCM-D. Des études d’imagerie cellulaires utilisant du diacétate de diaminofluoresceine-FM ont révélé que les films hydrogels de CH-PC-E2 stimulent la production d’oxyde nitrique par les cellules endothéliales, qui joue un rôle protecteur pour le système cardiovasculaire. L’ensemble de ces études met en valeur les rôles différents et les applications potentielles qu’ont les films de type CH-PC-E2 et CH-PC dans le cadre de la médecine cardiovasculaire régénérative. L’approche descendante est basée sur l’attachement de façon covalente d’E2 sur des ilots d’or de 2 μm disposés en rangées et espacés par 12 μm sur un substrat en verre. Les ilots ont été préparés par photolithographie. La surface du verre a quant à elle été modifiée à l’aide d’un tripeptide cyclique, le cRGD, favorisant l’adhésion cellulaire. L’attachement d’E2 sur les surfaces d’or a été suivi et confirmé par les techniques de SPR et de QCM-D. Des études d’ELISA ont montré une augmentation significative du niveau de phosphorylation de la kinase ERK (marqueur important de l’effet non-génomique) après 1 heure d’exposition des cellules endothéliales aux motifs alternant l’E2 et le cRGD. Par contre lorsque des cellules cancéreuses sont déposées sur les surfaces présentant des motifs d’E2, ces cellules ne croissent pas, ce qui suggère que l’E2 n’exerce pas d’effet génomique. Les résultats de l’approche descendante montrent le potentiel des surfaces présentant des motifs d’E2 pour l’étude des effets non-génomiques de l’E2 dans un modèle in vitro.
Resumo:
Résumé : L'imagerie par résonance magnétique pondérée en diffusion est une modalité unique sensible aux mouvements microscopiques des molécules d'eau dans les tissus biologiques. Il est possible d'utiliser les caractéristiques de ce mouvement pour inférer la structure macroscopique des faisceaux de la matière blanche du cerveau. La technique, appelée tractographie, est devenue l'outil de choix pour étudier cette structure de façon non invasive. Par exemple, la tractographie est utilisée en planification neurochirurgicale et pour le suivi du développement de maladies neurodégénératives. Dans cette thèse, nous exposons certains des biais introduits lors de reconstructions par tractographie, et des méthodes sont proposées pour les réduire. D'abord, nous utilisons des connaissances anatomiques a priori pour orienter la reconstruction. Ainsi, nous montrons que l'information anatomique sur la nature des tissus permet d'estimer des faisceaux anatomiquement plausibles et de réduire les biais dans l'estimation de structures complexes de la matière blanche. Ensuite, nous utilisons des connaissances microstructurelles a priori dans la reconstruction, afin de permettre à la tractographie de suivre le mouvement des molécules d'eau non seulement le long des faisceaux, mais aussi dans des milieux microstructurels spécifiques. La tractographie peut ainsi distinguer différents faisceaux, réduire les erreurs de reconstruction et permettre l'étude de la microstructure le long de la matière blanche. Somme toute, nous montrons que l'utilisation de connaissances anatomiques et microstructurelles a priori, en tractographie, augmente l'exactitude des reconstructions de la matière blanche du cerveau.
Resumo:
L’utilisation des pesticides n’a cessé d’augmenter en particulier le glyphosate, herbicide utilisé principalement dans l’agriculture. Ses effets ont été démontrés néfastes sur l’environnement et sur la santé humaine. Bien que la plupart du glyphosate résiduel soit adsorbé par les constituants du sol, une partie peut être désorbée ou atteindre les eaux de surface par érosion. Le renforcement des normes de qualité de l’eau en milieu agricole et urbain entraîne le développement de nouveaux procédés. Les photocatalyseurs à base de TiO2 peuvent procurer une solution attrayante pour l’élimination de cet herbicide. Actif uniquement dans le domaine de l’UV qui représente 4% du rayonnement solaire, étendre cette réactivité photocatalytique dans le domaine du visible est un enjeu majeur. Le dopage du TiO2 à l’azote et au graphène a permis une élimination totale du glyphosate au bout de 30 minutes. Après sa synthèse, le photocatalyseur GR-N/TiO2 a été caractérisé par différentes techniques à savoir la diffraction des rayons X (DRX), l’infrarouge à transformée de Fourier (FTIR), la spectroscopie de photoélectrons X (XPS) et la microscopie électronique par transmission (TEM). L’activité photocatalytique est testée sur la dégradation du glyphosate sous irradiation de la lumière visible. Les résultats montrent que le composite GR-N/TiO2 peut effectivement photodégrader le glyphosate grâce à une amélioration impressionnante de l’activité photocatalytique due à une grande adsorption du glyphosate sur le nanomatériau synthétisé et à l’extension de l’absorption au domaine du visible.
Resumo:
Ce travail de thèse présente deux grands axes. Le premier axe, touche les traitements du bois dans le but principal de réduire les variations dimensionnelles et d’améliorer la résistance à l’attaque des champignons lignivores. Le second axe quant à lui, touche l’aspect environnemental du traitement acide citrique-glycérol. Ce dernier a pour but principal de démontrer que le prolongement de la durée de vie en service du produit lambris traité, compense les impacts environnementaux causés par ce traitement. Dans le premier axe, deux traitements ont été réalisés sur deux essences de pin (Pinus strobus L. et Pinus contorta D.). Un traitement à l’anhydride maléique et un autre traitement avec une solution d’acide citrique – glycérol brute (AC-G). Dans le premier cas, les effets de deux paramètres (la durée de séchage et la température d’estérification) sur les résultats des essais de stabilité dimensionnelle, de résistance à la dégradation fongique et de vieillissement accéléré ont été évalués. Trois niveaux de durée de séchage après imprégnation (12 h, 18 h et 24 h) et trois niveaux de température d’estérification (140 °C, 160 °C et 180 °C) ont été considérés. Dans le second cas, après identification du meilleur catalyseur (HCl) et du meilleur ratio acide citrique – glycérol (3/1) pendant les essais préliminaires, les performances de ce traitement sur la stabilité dimensionnelle, la résistance à la pourriture fongique, la dureté de surface et l’adhérence des couches de revêtement de peinture sur la surface du substrat bois ont été analysées. Les résultats obtenus ont été appuyés par une suite d’analyses qualitatives et quantitatives pour mieux comprendre et expliquer. Les analyses qualitatives sont : (i) la spectroscopie infrarouge à transformée de Fourier (IRTF) et (ii) la microscopie électronique à balayage (MEB) tandis que la quantitative, l’analyse par perte de masse a été faite par pesée. Dans le second axe, une analyse des impacts environnementaux du traitement AC-G a été effectuée par le biais du logiciel SimaPro v8. La base de données Ecoinvent v3 et la méthode d’analyse d’impact Impact 2002+ ont été utilisées dans cette partie du travail de thèse. Sur la base des résultats du second traitement (AC-G) et des travaux disponibles dans la littérature, nous avons estimé, une durée de vie en service des lambris traités. Les différents scénarios de la durée de vie du lambris traité mis sur pied par rapport à celle offerte aujourd’hui par l’industrie, nous permettent de modéliser les impacts environnementaux du traitement. A cette fin, l’analyse de cycle de vie (ACV) a été utilisée comme outil de conception. En conclusion, les paramètres, durée de séchage et température d’estérification influencent les résultats obtenus dans le cas du traitement du bois à l’anhydride maléique. La combinaison 24 h de séchage et 180 °C, température d’estérification, représente les paramètres qui offrent les meilleurs résultats de stabilité dimensionnelle, de résistance à la dégradation fongique et de vieillissement accéléré. Le traitement AC-G améliore la stabilité dimensionnelle, la résistance à la dégradation fongique et la dureté de surface des échantillons. Cependant, le traitement réduit l’adhérence des couches de peinture. Les impacts environnementaux produits par le traitement AC-G sont majoritairement liés à la consommation de la ressource énergie (électricité). Le traitement prolonge la durée de vie en service du lambris traité et il a été mis en évidence que le scénario de durée de vie qui permettrait que le lambris traité puisse se présenter comme un produit à faible impact environnemental par rapport au lambris non traité est celui d’une durée de vie de 55 ans.
Resumo:
En parallèle à l'avènement des modèles policiers guidés par le renseignement, les méthodes d'analyse criminelle et de renseignement forensique ont connu des développements importants ces dernières années. Des applications ont été proposées dans divers domaines des sciences forensiques afin d'exploiter et de gérer différents types de traces matérielles de façon systématique et plus performante. A cet égard, le domaine des faux documents d'identité n'a été l'objet que de peu d'attention bien qu'il s'agisse d'une criminalité grave dans laquelle le crime organisé est impliqué.La présente étude cherche à combler cette lacune en proposant une méthode de profilage des fausses pièces d'identité simple et généralisable qui vise à découvrir des liens existants sur la base des caractéristiques matérielles analysables visuellement. Ces caractéristiques sont considérées comme constituant la marque de fabrique particulière du faussaire et elle peuvent ainsi être exploitées pour inférer des liens entre fausses pièces d'identité provenant d'une même source.Un collectif de plus de 200 fausses pièces d'identité composé de trois types de faux documents a été récolté auprès des polices de neuf cantons suisses et a été intégré dans une banque de données ad hoc. Les liens détectés de façon systématique et automatique par cette banque de données ont été exploités et analysés afin de produire des renseignements d'ordre stratégique et opérationnel utiles à la lutte contre la fraude documentaire.Les démarches de profilage et de renseignement mises en place pour les trois types de fausses pièces d'identité étudiées se sont révélées efficaces, un fort pourcentage des documents s'avérant liés (de 30 % à 50 %). La fraude documentaire apparaît comme une criminalité structurée et interrégionale, pour laquelle les liens établis entre fausses pièces d'identité peuvent servir d'aide à l'enquête et de soutien aux décisions stratégiques. Les résultats suggèrent le développement d'approches préventives et répressives pour lutter contre la fraude documentaire.