995 resultados para Microdefect densities
Resumo:
Dans le domaine des neurosciences computationnelles, l'hypothèse a été émise que le système visuel, depuis la rétine et jusqu'au cortex visuel primaire au moins, ajuste continuellement un modèle probabiliste avec des variables latentes, à son flux de perceptions. Ni le modèle exact, ni la méthode exacte utilisée pour l'ajustement ne sont connus, mais les algorithmes existants qui permettent l'ajustement de tels modèles ont besoin de faire une estimation conditionnelle des variables latentes. Cela nous peut nous aider à comprendre pourquoi le système visuel pourrait ajuster un tel modèle; si le modèle est approprié, ces estimé conditionnels peuvent aussi former une excellente représentation, qui permettent d'analyser le contenu sémantique des images perçues. Le travail présenté ici utilise la performance en classification d'images (discrimination entre des types d'objets communs) comme base pour comparer des modèles du système visuel, et des algorithmes pour ajuster ces modèles (vus comme des densités de probabilité) à des images. Cette thèse (a) montre que des modèles basés sur les cellules complexes de l'aire visuelle V1 généralisent mieux à partir d'exemples d'entraînement étiquetés que les réseaux de neurones conventionnels, dont les unités cachées sont plus semblables aux cellules simples de V1; (b) présente une nouvelle interprétation des modèles du système visuels basés sur des cellules complexes, comme distributions de probabilités, ainsi que de nouveaux algorithmes pour les ajuster à des données; et (c) montre que ces modèles forment des représentations qui sont meilleures pour la classification d'images, après avoir été entraînés comme des modèles de probabilités. Deux innovations techniques additionnelles, qui ont rendu ce travail possible, sont également décrites : un algorithme de recherche aléatoire pour sélectionner des hyper-paramètres, et un compilateur pour des expressions mathématiques matricielles, qui peut optimiser ces expressions pour processeur central (CPU) et graphique (GPU).
Resumo:
Le sujet principal de cette thèse est la distribution des nombres premiers dans les progressions arithmétiques, c'est-à-dire des nombres premiers de la forme $qn+a$, avec $a$ et $q$ des entiers fixés et $n=1,2,3,\dots$ La thèse porte aussi sur la comparaison de différentes suites arithmétiques par rapport à leur comportement dans les progressions arithmétiques. Elle est divisée en quatre chapitres et contient trois articles.
Le premier chapitre est une invitation à la théorie analytique des nombres, suivie d'une revue des outils qui seront utilisés plus tard. Cette introduction comporte aussi certains résultats de recherche, que nous avons cru bon d'inclure au fil du texte.
Le deuxième chapitre contient l'article \emph{Inequities in the Shanks-Rényi prime number
race: an asymptotic formula for the densities}, qui est le fruit de recherche conjointe avec le professeur Greg Martin. Le but de cet article est d'étudier un phénomène appelé le <
Resumo:
Plusieurs études à grande échelle ont identifié la modification ou la perte d’habitats comme menace principale à la conservation des communautés de poissons d’eau douce. Au Canada, « aucune perte nette dans la capacité productive des habitats » (NNL) est le principe directeur de la politique de gestion des habitats du ministère des Pêches et Océans. Le respect du NNL implique l’avancement des connaissances au niveau des relations entre les poissons et leurs habitats, de même que des outils pour quantifier l’impact de la modification des habitats sur les poissons. Les modèles d’utilisation de l’habitat des poissons (FHUM) sont des outils qui permettent d’améliorer nos connaissances des relations poissons – habitat, de prédire la distribution des espèces, mais aussi leurs densités, biomasses ou abondances, sur la base des caractéristiques de l’environnement. L’objectif général de mon mémoire est d’améliorer la performance des FHUM pour les rivières des basses Laurentides, en suggérant des perfectionnements au niveau de 2 aspects cruciaux de l’élaboration de tels modèles : la description précise de la communauté de poissons et l’utilisation de modèles statistiques efficaces. Dans un premier chapitre, j’évalue la performance relative de la pêcheuse électrique et de l’échantillonnage en visuel (plongée de surface) pour estimer les abondances des combinaisons d’espèces et de classes de taille des poissons en rivière. J’évalue aussi l’effet des conditions environnementales sur les différences potentielles entre les communautés observées par ces 2 méthodes d’échantillonnage. Pour ce faire, 10 sections de rivière de 20 m de longueur ont été échantillonnées à l’aide de ces 2 méthodes alors qu’elles étaient fermées par des filets de blocage. 3 plongeurs performèrent l’échantillonnage en visuel en se déplaçant de l’aval vers l’amont des sections, tout en dénombrant les espèces et classes de taille. Par la suite, nous avons fait 3 passages de pêcheuse électrique et les abondances furent estimées grâce à un modèle restreint de maximum de vraisemblance, basé sur la diminution des abondances observées. De plus grandes abondances de poissons furent observées en visuel qu’avec la pêcheuse électrique à tous les sites. La richesse spécifique observée en visuel était plus élevée (6/10) ou égale (4/10) à celle observée avec la pêcheuse électrique. Les différences entre les communautés de poissons observées à l’aide de ces 2 méthodes ne purent être reliées aux conditions environnementales. Les résultats de cette expérience sont contraires à ceux de toutes les études comparant ces 2 méthodes d’échantillonnage, lesquels suggèrent une supériorité de la pêcheuse électrique. Les conditions environnementales de notre expérience étaient distinctes de celles observées dans les autres études (absence d’arbres tombés dans l’eau, très peu de substrats grossiers), mais la différence la plus marquante était en terme de communauté de poissons observée (dominance des cyprinidés et des centrarchidés plutôt que des salmonidés). Je termine ce chapitre en suggérant que les caractéristiques comportementales favorisant l’évitement de la capture (formation de bancs) et facilitant l’observation en visuel (curiosité) sont responsables de la supériorité de la plongée de surface pour échantillonner les communautés dans les rivières des basses Laurentides. Dans un deuxième chapitre, je développe des FHUM pour des communautés de poissons de rivière ayant plusieurs espèces. Dans le but de simplifier la modélisation de telles communautés et d’améliorer notre compréhension des relations poissons – habitat, j’utilise les concepts de guilde écologique et de filtre environnemental pour explorer les relations entre les guildes formées sur la bases de différents types de traits (reproducteurs, taxonomiques, éco-morphologiques et alimentaires) et les conditions environnementales locales à l’échelle du méso-habitat. Les modèles d’habitats basés sur les guildes reproductrices ont clairement surpassé les autres modèles, parce que l’habitat de fraie reflète l’habitat de préférence en dehors de la période de reproduction. J’ai également utilisé l’approche inverse, c’est à dire définir des guildes d’utilisation de l’habitat et les mettre en relation avec les traits des espèces. Les traits reliés à l’alimentation des poissons ont semblés être les meilleurs pour expliquer l’appartenance aux groupes d’utilisation de l’habitat, mais le modèle utilisé ne représentait pas bien la relation entre les groupes. La validation de notre modèle basé sur les guildes reproductrices avec un jeu de données indépendant pourrait confirmer notre découverte, laquelle représente une manière prometteuse de modéliser les relations poissons – environnement dans des communautés de poissons complexes. En conclusion, mon mémoire suggère d’importantes améliorations aux FHUM pour les communautés de poissons des basses Laurentides, en suggérant de prendre en compte les caractéristiques biologiques des cours d’eau dans le choix d’une méthode d’échantillonnage, et également en utilisant une méthode prometteuse pour simplifier les FHUM de communautés de poissons complexes : les guildes reproductrices.
Resumo:
Les plantes envahissantes sont considérées comme l'une des plus grandes menaces sur les espèces, mais leurs impacts sur les amphibiens demeurent peu connus. L’objectif de ce projet est de déterminer l’effet de l’établissement du roseau commun (Phragmites australis) sur la répartition des amphibiens et sur leur développement larvaire. Il est présumé que cette plante s'accapare l'espace et les ressources disponibles en produisant une importante biomasse, qu’elle peut modifier l’hydrologie des marais et la structure des communautés d’amphibiens. J’ai évalué les facteurs influençant la répartition des amphibiens selon les caractéristiques des étangs et du paysage dans 50 sites envahis ou non à divers degrés. Des expériences ont également été menées afin d’étudier les répercussions de trois densités de roseau sur des têtards de la Grenouille des bois (Lithobates sylvaticus) et sur la qualité de son habitat. Mes résultats suggèrent que le roseau à forte densité ralentit le développement larvaire de la grenouille des bois et influence les assemblages phytoplanctoniques. Cependant, il n’y a aucune relation entre la densité de la plante et la survie, la morphologie des têtards et les caractéristiques biotiques et abiotiques de l’eau. Dans notre aire d’étude, le paysage autour des étangs a une plus grande influence sur la répartition des amphibiens que l'établissement du roseau. Toutefois, la probabilité d’assèchement est plus élevée lorsque la plante est établie en grande quantité, ce qui, si l’envahissement s’intensifie, aura un effet néfaste sur la survie des têtards et mettra en péril la persistance des populations.
Resumo:
Les nanoparticules polymériques biodégradable (NPs) sont apparues ces dernières années comme des systèmes prometteurs pour le ciblage et la libération contrôlée de médicaments. La première partie de cette étude visait à développer des NPs biodégradables préparées à partir de copolymères fonctionnalisés de l’acide lactique (poly (D,L)lactide ou PLA). Les polymères ont été étudiés comme systèmes de libération de médicaments dans le but d'améliorer les performances des NPs de PLA conventionnelles. L'effet de la fonctionnalisation du PLA par insertion de groupements chimiques dans la chaîne du polymère sur les propriétés physico-chimiques des NPs a été étudié. En outre, l'effet de l'architecture du polymère (mode d'organisation des chaînes de polymère dans le copolymère obtenu) sur divers aspects de l’administration de médicament a également été étudié. Pour atteindre ces objectifs, divers copolymères à base de PLA ont été synthétisés. Plus précisément il s’agit de 1) copolymères du poly (éthylène glycol) (PEG) greffées sur la chaîne de PLA à 2.5% et 7% mol. / mol. de monomères d'acide lactique (PEG2.5%-g-PLA et PEG7%-g-PLA, respectivement), 2) des groupements d’acide palmitique greffés sur le squelette de PLA à une densité de greffage de 2,5% (palmitique acid2.5%-g-PLA), 3) de copolymère « multibloc » de PLA et de PEG, (PLA-PEG-PLA)n. Dans la deuxième partie, l'effet des différentes densités de greffage sur les propriétés des NPs de PEG-g-PLA (propriétés physico-chimiques et biologiques) a été étudié pour déterminer la densité optimale de greffage PEG nécessaire pour développer la furtivité (« long circulating NPs »). Enfin, les copolymères de PLA fonctionnalisé avec du PEG ayant montré les résultats les plus satisfaisants en regard des divers aspects d’administration de médicaments, (tels que taille et de distribution de taille, charge de surface, chargement de drogue, libération contrôlée de médicaments) ont été sélectionnés pour l'encapsulation de l'itraconazole (ITZ). Le but est dans ce cas d’améliorer sa solubilité dans l'eau, sa biodisponibilité et donc son activité antifongique. Les NPs ont d'abord été préparées à partir de copolymères fonctionnalisés de PLA, puis ensuite analysés pour leurs paramètres physico-chimiques majeurs tels que l'efficacité d'encapsulation, la taille et distribution de taille, la charge de surface, les propriétés thermiques, la chimie de surface, le pourcentage de poly (alcool vinylique) (PVA) adsorbé à la surface, et le profil de libération de médicament. L'analyse de la chimie de surface par la spectroscopie de photoélectrons rayon X (XPS) et la microscopie à force atomique (AFM) ont été utilisés pour étudier l'organisation des chaînes de copolymère dans la formulation des NPs. De manière générale, les copolymères de PLA fonctionnalisés avec le PEG ont montré une amélioration du comportement de libération de médicaments en termes de taille et distribution de taille étroite, d’amélioration de l'efficacité de chargement, de diminution de l'adsorption des protéines plasmatiques sur leurs surfaces, de diminution de l’internalisation par les cellules de type macrophages, et enfin une meilleure activité antifongique des NPs chargées avec ITZ. En ce qui concerne l'analyse de la chimie de surface, l'imagerie de phase en AFM et les résultats de l’XPS ont montré la possibilité de la présence de davantage de chaînes de PEG à la surface des NPs faites de PEG-g-PLA que de NPS faites à partie de (PLA-PEG-PLA)n. Nos résultats démontrent que les propriétés des NPs peuvent être modifiées à la fois par le choix approprié de la composition en polymère mais aussi par l'architecture de ceux-ci. Les résultats suggèrent également que les copolymères de PEG-g-PLA pourraient être utilisés efficacement pour préparer des transporteurs nanométriques améliorant les propriétés de certains médicaments,notamment la solubilité, la stabilité et la biodisponibilité.
Resumo:
L’athérosclérose est la principale cause d’infarctus du myocarde, de mort subite d’origine cardiaque, d’accidents vasculaires cérébraux et d’ischémie des membres inférieurs. Celle-ci cause près de la moitié des décès dans les pays industrialisés. Lorsque les obstructions artérielles athérosclérotiques sont tellement importantes que les techniques de revascularisation directe ne peuvent être effectuées avec succès, la sévérité de l’ischémie tissulaire résiduelle dépendra de l’habilité de l’organisme à développer spontanément de nouveaux vaisseaux sanguins (néovascularisation). La néovascularisation postnatale est le résultat de deux phénomènes : la formation de nouveaux vaisseaux à partir de la vasculature existante (angiogenèse) et la formation de vaisseaux à partir de cellules souches progénitrices (vasculogenèse). Notre laboratoire a démontré que plusieurs facteurs de risque associés aux maladies cardiovasculaires (tabagisme, vieillissement, hypercholestérolémie) diminuaient également la réponse angiogénique suite à une ischémie. Cependant, les mécanismes précis impliqués dans cette physiopathologie sont encore inconnus. Un point commun à tous ces facteurs de risque cardiovasculaire est l’augmentation du stress oxydant. Ainsi, le présent ouvrage visait à élucider l’influence de différents facteurs de risque cardiovasculaire et du stress oxydant sur la néovascularisation. Nos résultats démontrent que l’exposition à la fumée de cigarette et le vieillissement sont associés à une diminution de la néovascularisation en réponse à l’ischémie, et que ceci est au moins en partie causé par une augmentation du stress oxydant. De plus, nous démontrons que les acides gras dérivés de la diète peuvent affecter la réponse à l’ischémie tissulaire. La première étude du projet de recherche visait à évaluer l’impact de l’exposition à la fumée de cigarette sur la néovascularisation post-ischémique, et l’effet d’une thérapie antioxydante. L’exposition à la fumée de cigarette a été associée à une réduction significative de la récupération du flot sanguin et de la densité des vaisseaux dans les muscles ischémiques. Cependant, une récupération complète de la néovascularisation a été démontrée chez les souris exposées à la fumée de cigarette et traitées au probucol ou aux vitamines antioxydantes. Nous avons démontré qu’une thérapie antioxydante administrée aux souris exposées à la fumée de cigarette était associée à une réduction significative des niveaux de stress oxydant dans le plasma et dans les muscles ischémiques. De plus, les cellules endothéliales progénitrices (EPCs) exposées à de l’extrait de fumée de cigarette in vitro présentent une diminution significative de leur activité angiogénique (migration, adhésion et incorporation dans les tissus ischémiques) qui a été complètement récupérée par le probucol et les vitamines antioxydantes. La deuxième étude avait pour but d’investiguer le rôle potentiel de la NADPH oxydase (Nox2) pour la modulation de la néovascularisation post-ischémique dans le contexte du vieillissement. Nous avons trouvé que l’expression de la Nox2 est augmentée par le vieillissement dans les muscles ischémiques des souris contrôles. Ceci est associé à une réduction significative de la récupération du flot sanguin après l’ischémie chez les vieilles souris contrôles comparées aux jeunes. Nous avons aussi démontré que la densité des capillaires et des artérioles est significativement réduite dans les muscles ischémiques des animaux vieillissants alors que les niveaux de stress oxydant sont augmentés. La déficience en Nox2 réduit les niveaux de stress oxydant dans les tissus ischémiques et améliore la récupération du flot sanguin et la densité vasculaire chez les animaux vieillissants. Nous avons aussi démontré que l’activité fonctionnelle des EPCs (migration et adhésion à des cellules endothéliales matures) est significativement diminuée chez les souris vieillissantes comparée aux jeunes. Cependant, la déficience en Nox2 est associée à une récupération de l’activité fonctionnelle des EPCs chez les animaux vieillissants. Nous avons également démontré une augmentation pathologique du stress oxydant dans les EPCs isolées d’animaux vieillissants. Cette augmentation de stress oxydant dans les EPCs n’est pas présente chez les animaux déficients en Nox2. La troisième étude du projet de recherche a investigué l’effet des acides gras dérivés de la diète sur la néovascularisation postnatale. Pour ce faire, les souris ont reçu une diète comprenant 20% d’huile de maïs (riche en oméga-6) ou 20% d’huile de poisson (riche en oméga-3). Nos résultats démontrent qu’une diète riche en oméga-3 améliore la néovascularisation post-ischémique au niveau macro-vasculaire, micro-vasculaire et clinique comparée à une diète riche en oméga-6. Cette augmentation de la néovascularisation postnatale est associée à une réduction du ratio cholestérol total/cholestérol HDL dans le sérum et à une amélioration de la voie VEGF/NO dans les tissus ischémiques. De plus, une diète riche en acides gras oméga-3 est associée à une augmentation du nombre d’EPCs au niveau central (moelle osseuse) et périphérique (rate). Nous démontrons aussi que l’activité fonctionnelle des EPCs (migration et incorporation dans des tubules de cellules endothéliales matures) est améliorée et que le niveau de stress oxydant dans les EPCs est réduit par la diète riche en oméga-3. En conclusion, nos études ont permis de déterminer l’impact de différents facteurs de risque cardiovasculaire (tabagisme et vieillissement) et des acides gras dérivés de la diète (oméga-3) sur la néovascularisation post-ischémique. Nous avons aussi identifié plusieurs mécanismes qui sont impliqués dans cette physiopathologie. Globalement, nos études devraient contribuer à mieux comprendre l’effet du tabagisme, du vieillissement, des oméga-3, et du stress oxydant sur l’évolution des maladies vasculaires ischémiques.
Resumo:
Doctorat réalisé en cotutelle entre l'Université de Montréal et l'Université Paul Sabatier-Toulouse III
Resumo:
Le besoin pour des biocapteurs à haute sensibilité mais simples à préparer et à utiliser est en constante augmentation, notamment dans le domaine biomédical. Les cristaux colloïdaux formés par des microsphères de polymère ont déjà prouvé leur fort potentiel en tant que biocapteurs grâce à l’association des propriétés des polymères et à la diffraction de la lumière visible de la structure périodique. Toutefois, une meilleure compréhension du comportement de ces structures est primordiale avant de pouvoir développer des capteurs efficaces et polyvalents. Ce travail propose d’étudier la formation et les propriétés des cristaux colloïdaux résultant de l’auto-assemblage de microsphères de polymère en milieu aqueux. Dans ce but, des particules avec différentes caractéristiques ont été synthétisées et caractérisées afin de corréler les propriétés des particules et le comportement de la structure cristalline. Dans un premier temps, des microsphères réticulées de polystyrène anioniques et cationiques ont été préparées par polymérisation en émulsion sans tensioactif. En variant la quantité de comonomère chargé, le chlorure de vinylbenzyltriméthylammonium ou le sulfonate styrène de sodium, des particules de différentes tailles, formes, polydispersités et charges surfaciques ont été obtenues. En effet, une augmentation de la quantité du comonomère ionique permet de stabiliser de façon électrostatique une plus grande surface et de diminuer ainsi la taille des particules. Cependant, au-dessus d’une certaine concentration, la polymérisation du comonomère en solution devient non négligeable, provoquant un élargissement de la distribution de taille. Quand la polydispersité est faible, ces microsphères chargées, même celles non parfaitement sphériques, peuvent s’auto-assembler et former des cristaux colloïdaux diffractant la lumière visible. Il semble que les répulsions électrostatiques créées par les charges surfaciques favorisent la formation de la structure périodique sur un grand domaine de concentrations et améliorent leur stabilité en présence de sel. Dans un deuxième temps, le besoin d’un constituant stimulable nous a orientés vers les structures cœur-écorce. Ces microsphères, synthétisées en deux étapes par polymérisation en émulsion sans tensioactif, sont formées d’un cœur de polystyrène et d’une écorce d’hydrogel. Différents hydrogels ont été utilisés afin d’obtenir des propriétés différentes : le poly(acide acrylique) pour sa sensibilité au pH, le poly(N-isopropylacrylamide) pour sa thermosensibilité, et, enfin, le copolymère poly(N-isopropylacrylamide-co-acide acrylique) donnant une double sensibilité. Ces microsphères forment des cristaux colloïdaux diffractant la lumière visible à partir d’une certaine concentration critique et pour un large domaine de concentrations. D’après les changements observés dans les spectres de diffraction, les stimuli ont un impact sur la structure cristalline mais l’amplitude de cet effet varie avec la concentration. Ce comportement semble être le résultat des changements induits par la transition de phase volumique sur les interactions entre particules plutôt qu’une conséquence du changement de taille. Les interactions attractives de van der Waals et les répulsions stériques sont clairement affectées par la transition de phase volumique de l’écorce de poly(N-isopropylacrylamide). Dans le cas des microsphères sensibles au pH, les interactions électrostatiques sont aussi à considérer. L’effet de la concentration peut alors être mis en relation avec la portée de ces interactions. Finalement, dans l’objectif futur de développer des biocapteurs de glucose, les microsphères cœur-écorce ont été fonctionnalisées avec l’acide 3-aminophénylboronique afin de les rendre sensibles au glucose. Les effets de la fonctionnalisation et de la complexation avec le glucose sur les particules et leur empilement périodique ont été examinés. La structure cristalline est visiblement affectée par la présence de glucose, même si le mécanisme impliqué reste à élucider.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Nous y introduisons une nouvelle classe de distributions bivariées de type Marshall-Olkin, la distribution Erlang bivariée. La transformée de Laplace, les moments et les densités conditionnelles y sont obtenus. Les applications potentielles en assurance-vie et en finance sont prises en considération. Les estimateurs du maximum de vraisemblance des paramètres sont calculés par l'algorithme Espérance-Maximisation. Ensuite, notre projet de recherche est consacré à l'étude des processus de risque multivariés, qui peuvent être utiles dans l'étude des problèmes de la ruine des compagnies d'assurance avec des classes dépendantes. Nous appliquons les résultats de la théorie des processus de Markov déterministes par morceaux afin d'obtenir les martingales exponentielles, nécessaires pour établir des bornes supérieures calculables pour la probabilité de ruine, dont les expressions sont intraitables.
Resumo:
Dans cette étude de trois lacs sujets aux efflorescences de cyanobactéries, nous avons examiné la diversité des bactéries diazotrophes et des cyanobactéries toxiques. Nous avons tenté de définir les facteurs environnementaux influençant la composition des communautés phytoplanctoniques, la concentration ainsi que la composition des microcystines (MCs). Nous avons émis l’hypothèse que l’azote jouerait un rôle majeur dans le façonnement des communautés cyanobactériennes et influencerait la concentration et composition des MCs. Des concentrations de cette toxine ainsi que le gène mcyE codant pour l’enzyme microcystine synthétase ont été détectés à chaque échantillonnage dans tous les lacs. L’azote, particulièrement sous sa forme organique dissoute (AOD) ainsi que la température de l’eau étaient les facteurs environnementaux expliquant le mieux les concentrations des MCs, tandis que la biomasse de Microcystis spp. était globalement le meilleur prédicteur. Le gène nifH codant pour l’enzyme nitrogénase (fixation d’azote) a aussi été détecté dans chaque échantillon. Malgré les concentrations faibles en azote inorganique dissous (AID) et les densités importantes d’hétérocystes, aucun transcrits du gène n’a été détecté par réverse-transcription (RT-PCR), indiquant que la fixation d’azote n’avait pas lieu à des niveaux détectables au moment de l’échantillonnage. De plus, le pyroséquençage révèle que les séquences des gènes nifH et mcyE correspondaient à différents taxons, donc que les cyanobactéries n’avaient pas la capacité d’effectuer les deux fonctions simultanément.
Resumo:
BACKGROUND/AIMS: Mild hypothermia has proven useful in the clinical management of patients with acute liver failure. Acute liver failure in experimental animals results in alterations in the expression of genes coding for astrocytic proteins including the "peripheral-type" (astrocytic) benzodiazepine receptor (PTBR), a mitochondrial complex associated with neurosteroid synthesis. To gain further insight into the mechanisms whereby hypothermia attenuates the neurological complications of acute liver failure, we investigated PTBR expression in the brains of hepatic devascularized rats under normothermic (37 degrees C) and hypothermic (35 degrees C) conditions. METHODS: PTBR mRNA was measured using semi-quantitative RT-PCR in cerebral cortical extracts and densities of PTBR sites were measured by quantitative receptor autoradiagraphy. Brain pregnenolone content was measured by radioimmunoassay. RESULTS: At coma stages of encephalopathy, animals with acute liver failure manifested a significant increase of PTBR mRNA levels. Brain pregnenolone content and [(3)H]PK 11195 binding site densities were concomitantly increased. Mild hypothermia prevented brain edema and significantly attenuated the increased receptor expression and pregnenolone content. CONCLUSIONS: These findings suggest that an attenuation of PTBR up-regulation resulting in the prevention of increased brain neurosteroid content represents one of the mechanisms by which mild hypothermia exerts its protective effects in ALF.
Resumo:
Le tamoxifène, un modulateur sélectif des récepteurs oestrogéniques, est un médicament largement utilisé depuis plus de vingt ans pour le traitement et la prévention du cancer du sein. Plusieurs études ont rapporté que l’administration aiguë du tamoxifène pouvait réduire certains courants K+ cardiaques. Cette observation suggère que les femmes traitées de façon chronique avec le tamoxifène risquent d’avoir une prolongation de leur intervalle QT, favorisant ainsi le développement de torsades de pointes. Puisque in vivo, le tamoxifène est largement métabolisé et son effet est attribué à celui du 4hydroxy-tamoxifène (4OH-tamoxifène), nous avons d'abord vérifié si les effets du tamoxifène sur la repolarisation pouvaient être dus au 4OH-tamoxifène. À l'aide de la méthode de patch-clamp, nous avons étudié l’effet aigu du 4OH-tamoxifène sur les courants K+ présents au niveau ventriculaire chez la souris femelle. En premier lieu, nous avons démontré que les souris traitées avec le 4OH-tamoxifène présentaient une diminution des courants K+ comparativement aux souris intactes. Fait intéressant, le prétraitement des myocytes avec l’antagoniste des récepteurs oestrogéniques, le ICI 182,780, ou l’inhibiteur de la synthèse protéique, l'actinomycine D, n’a pas modifié les effets du 4OH-tamoxifène. Ces résultats suggéraient que les effets du 4OH-tamoxifène sur les courants potassiques ne soient pas liés à la transcription génomique et n’implique pas les récepteurs aux œstrogènes. Bien que l’administration aiguë du 4OH-tamoxifène diminue les courants K+ cardiaques, l’absence de troubles au niveau du rythme cardiaque chez les femmes traitées à long terme exclu la possibilité de conclure que le traitement chronique avec le tamoxifène augmente la durée de l’intervalle QT. L'accès à des souris femelles et des cobayes nous a permis de démontrer que contrairement au traitement en aigu, les courants et les canaux K+ cardiaques sont augmentés en chronique. Les oestrogènes associés à une diminution des courants K+ d’une part et nos résultats obtenus avec le tamoxifène d’autre part suggèrent qu’en bloquant les récepteurs oestrogéniques, le tamoxifène puisse prévenir les effets inhibiteurs des oestrogènes sur les courants K+. Cette association œstrogènes- tamoxifène- récepteurs oestrogéniques et courants K+ nous a encouragées à approfondir encore nos études et vérifier l’influence des hormones sexuelles féminines sur la repolarisation ventriculaire. Une troisième étude a été ainsi réalisée chez des souris femelles ovariectomisées et des souris déficientes en récepteurs oestrogéniques α ou β afin de vérifier le rôle des oestrogènes et des récepteurs oestrogéniques sur la repolarisation ventriculaire. Nos résultats ont révélé clairement que l’absence des oestrogènes entraîne une augmentation de la densité du courant K+ transitoire indépendant du Ca2+ (Ito) et de l’expression du canal Kv4.3 et ces effets sont médiés par les REα. Ces données soutiennent davantage notre conclusion que l’inhibition des récepteurs oestrogéniques est responsable de l’augmentation des courants/canaux K+ et suggèrent fortement qu’ils jouent un rôle dans la régulation de la repolarisation ventriculaire. Elles soulignent aussi l'importance de vérifier le statut hormonal des animaux utilisés pour des études touchant l'électrophysiologie cardiaque. Dans la dernière partie de cette thèse nous avons vérifié les effets de la grossesse et du système nerveux autonome sur les différents paramètres électrocardiographiques et plus particulièrement sur le rythme cardiaque chez la souris. Nos données ont montré que, comme chez la femme enceinte, la grossesse est associée à une augmentation du rythme cardiaque. De plus, l'augmentation des niveaux des hormones féminines pourrait affecter l’automatisme et l’activité électrique cardiaque. Ces différentes études ont augmenté les connaissances sur la régulation hormonale de l'électrophysiologie cardiaque et aideront aux avancements des recherches chez les femmes.
Resumo:
Nous savons que la grande majorité des étoiles WC9 produit de la poussière à base de carbone. Cette dernière doit se former dans des zones de très haute densité afin de survivre à l’environnement hostile qu’est celui du vent d’une étoile WR. Les étoiles WC appartenant à un système binaire WR + O produisent de la poussière quand les vents des deux étoiles entrent en collision et forment une zone de choc pouvant augmenter la densité du gaz d’un facteur 1000. Par contre, plusieurs étoiles WC9 n’ont, à ce jour, montré aucun signe de la présence d’un compagnon. Le but du projet est de tenter d’identifier un mécanisme alternatif responsable de la formation de poussière dans les étoiles WC9 n’appartenant pas à un système binaire. Nous présentons les résultats d’une campagne d’observation visant à caractériser la variabilité spectroscopique d’un échantillon de huit étoiles WC9 et une étoile WC8d. Nos résultats indiquent que la majorité des étoiles montrent des variations à grande échelle dans la raie d’émission C III 5696, soit à un niveau d’au moins 5% du flux de la raie et que les structures dans le vent ont une dispersion de vitesses de l’ordre de 150-300 km/s. De manière générale, les variations de vitesse radiales sont anti-corrélées avec le coefficient d’asymétrie de la raie, ce qui semble infirmer la présence d’un compagnon. Des observations en photométrie de l’étoile WR103 montrent une période de 9.1 ± 0.6 jours qui s’accorde avec les variations spectroscopiques et qui ne semble pas, de manière évidente, d’origine binaire.
Resumo:
Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.