968 resultados para Poisson-Boltzmann


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La sclérose latérale amyotrophique (SLA) est une maladie neurodégénérative due à une dégénérescence des motoneurones. Plus de 40 mutations du gène TARDBP ont été identifiées chez des patients SLA. Les défauts biochimiques de ces mutations étant encore inconnus, les modèles animaux sont présentement la seule mesure possible d’un phénotype. Pour étudier les conséquences physiopathologiques d’une de ces mutations, nous avons développé deux lignées transgéniques de poisson zébré, exprimant le gène humain TARDBP soit de type sauvage, soit avec la mutation G348C liée à la SLA, sous le contrôle d’un promoteur de choc thermique. Ces lignées ont été étudiées sur trois générations, après avoir établi un protocole de choc thermique induisant une expression ubiquitaire du transgène. Les embryons transgéniques de la génération F2 de la lignée exprimant la mutation développent un phénotype moteur suite à un choc thermique de 38.5°C pendant 30 minutes lorsque les embryons sont à 18 heures post-fertilisation. 60% des embryons ont une réponse anormale au toucher. De plus, une réduction de 28% de la longueur de pré-branchement des axones des motoneurones est observée. Ces résultats indiquent que notre lignée exprimant la protéine mutante TDP-43 est un modèle génétique de la SLA prometteur, qui ouvre des perspectives pour la compréhension de la physiopathologie de la maladie et la découverte de molécules thérapeutiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’athérosclérose est la principale cause d’infarctus du myocarde, de mort subite d’origine cardiaque, d’accidents vasculaires cérébraux et d’ischémie des membres inférieurs. Celle-ci cause près de la moitié des décès dans les pays industrialisés. Lorsque les obstructions artérielles athérosclérotiques sont tellement importantes que les techniques de revascularisation directe ne peuvent être effectuées avec succès, la sévérité de l’ischémie tissulaire résiduelle dépendra de l’habilité de l’organisme à développer spontanément de nouveaux vaisseaux sanguins (néovascularisation). La néovascularisation postnatale est le résultat de deux phénomènes : la formation de nouveaux vaisseaux à partir de la vasculature existante (angiogenèse) et la formation de vaisseaux à partir de cellules souches progénitrices (vasculogenèse). Notre laboratoire a démontré que plusieurs facteurs de risque associés aux maladies cardiovasculaires (tabagisme, vieillissement, hypercholestérolémie) diminuaient également la réponse angiogénique suite à une ischémie. Cependant, les mécanismes précis impliqués dans cette physiopathologie sont encore inconnus. Un point commun à tous ces facteurs de risque cardiovasculaire est l’augmentation du stress oxydant. Ainsi, le présent ouvrage visait à élucider l’influence de différents facteurs de risque cardiovasculaire et du stress oxydant sur la néovascularisation. Nos résultats démontrent que l’exposition à la fumée de cigarette et le vieillissement sont associés à une diminution de la néovascularisation en réponse à l’ischémie, et que ceci est au moins en partie causé par une augmentation du stress oxydant. De plus, nous démontrons que les acides gras dérivés de la diète peuvent affecter la réponse à l’ischémie tissulaire. La première étude du projet de recherche visait à évaluer l’impact de l’exposition à la fumée de cigarette sur la néovascularisation post-ischémique, et l’effet d’une thérapie antioxydante. L’exposition à la fumée de cigarette a été associée à une réduction significative de la récupération du flot sanguin et de la densité des vaisseaux dans les muscles ischémiques. Cependant, une récupération complète de la néovascularisation a été démontrée chez les souris exposées à la fumée de cigarette et traitées au probucol ou aux vitamines antioxydantes. Nous avons démontré qu’une thérapie antioxydante administrée aux souris exposées à la fumée de cigarette était associée à une réduction significative des niveaux de stress oxydant dans le plasma et dans les muscles ischémiques. De plus, les cellules endothéliales progénitrices (EPCs) exposées à de l’extrait de fumée de cigarette in vitro présentent une diminution significative de leur activité angiogénique (migration, adhésion et incorporation dans les tissus ischémiques) qui a été complètement récupérée par le probucol et les vitamines antioxydantes. La deuxième étude avait pour but d’investiguer le rôle potentiel de la NADPH oxydase (Nox2) pour la modulation de la néovascularisation post-ischémique dans le contexte du vieillissement. Nous avons trouvé que l’expression de la Nox2 est augmentée par le vieillissement dans les muscles ischémiques des souris contrôles. Ceci est associé à une réduction significative de la récupération du flot sanguin après l’ischémie chez les vieilles souris contrôles comparées aux jeunes. Nous avons aussi démontré que la densité des capillaires et des artérioles est significativement réduite dans les muscles ischémiques des animaux vieillissants alors que les niveaux de stress oxydant sont augmentés. La déficience en Nox2 réduit les niveaux de stress oxydant dans les tissus ischémiques et améliore la récupération du flot sanguin et la densité vasculaire chez les animaux vieillissants. Nous avons aussi démontré que l’activité fonctionnelle des EPCs (migration et adhésion à des cellules endothéliales matures) est significativement diminuée chez les souris vieillissantes comparée aux jeunes. Cependant, la déficience en Nox2 est associée à une récupération de l’activité fonctionnelle des EPCs chez les animaux vieillissants. Nous avons également démontré une augmentation pathologique du stress oxydant dans les EPCs isolées d’animaux vieillissants. Cette augmentation de stress oxydant dans les EPCs n’est pas présente chez les animaux déficients en Nox2. La troisième étude du projet de recherche a investigué l’effet des acides gras dérivés de la diète sur la néovascularisation postnatale. Pour ce faire, les souris ont reçu une diète comprenant 20% d’huile de maïs (riche en oméga-6) ou 20% d’huile de poisson (riche en oméga-3). Nos résultats démontrent qu’une diète riche en oméga-3 améliore la néovascularisation post-ischémique au niveau macro-vasculaire, micro-vasculaire et clinique comparée à une diète riche en oméga-6. Cette augmentation de la néovascularisation postnatale est associée à une réduction du ratio cholestérol total/cholestérol HDL dans le sérum et à une amélioration de la voie VEGF/NO dans les tissus ischémiques. De plus, une diète riche en acides gras oméga-3 est associée à une augmentation du nombre d’EPCs au niveau central (moelle osseuse) et périphérique (rate). Nous démontrons aussi que l’activité fonctionnelle des EPCs (migration et incorporation dans des tubules de cellules endothéliales matures) est améliorée et que le niveau de stress oxydant dans les EPCs est réduit par la diète riche en oméga-3. En conclusion, nos études ont permis de déterminer l’impact de différents facteurs de risque cardiovasculaire (tabagisme et vieillissement) et des acides gras dérivés de la diète (oméga-3) sur la néovascularisation post-ischémique. Nous avons aussi identifié plusieurs mécanismes qui sont impliqués dans cette physiopathologie. Globalement, nos études devraient contribuer à mieux comprendre l’effet du tabagisme, du vieillissement, des oméga-3, et du stress oxydant sur l’évolution des maladies vasculaires ischémiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La digestion anaérobie est un processus biologique dans lequel un consortium microbien complexe fonctionnant en absence d’oxygène transforme la matière organique en biogaz, principalement en méthane et en dioxyde de carbone. Parmi les substrats organiques, les lipides sont les plus productifs de méthane par rapport aux glucides et aux protéines; mais leur dégradation est très difficile, en raison de leur hydrolyse qui peut être l’étape limitante. Les algues peuvent être une source importante pour la production de méthane à cause de leur contenu en lipides potentiellement élevé. L’objectif de cette étude était, par conséquent, d’évaluer la production en méthane des microalgues en utilisant la technique du BMP (Biochemical méthane Potential) et d’identifier les limites de biodégradion des lipides dans la digestion anaérobie. Le plan expérimental a été divisé en plusieurs étapes: 1) Comparer le potentiel énergétique en méthane des macroalgues par rapport aux microalgues. 2) Faire le criblage de différentes espèces de microalgues d’eau douce et marines afin de comparer leur potentiel en méthane. 3) Déterminer l'impact des prétraitements sur la production de méthane de quelques microalgues ciblées. 4) Identifier les limites de biodégradation des lipides algaux dans la digestion anaérobie, en étudiant les étapes limitantes de la cinétique des lipides et de chacun des acides gras à longues chaines. Les résultats ont montré que les microalgues produisent plus de méthane que les macroalgues. Les BMP des microalgues d'eau douce et marines n'ont montré aucune différence en termes de rendement en méthane. Les résultats des prétraitements ont montré que le prétraitement thermique (microonde) semblait être plus efficace que le prétraitement chimique (alcalin). Les tests de contrôle du BMP faits sur l'huile de palme, l’huile de macadamia et l'huile de poisson ont montré que l'hydrolyse des huiles en glycérol et en acides gras à longues chaines n'était pas l'étape limitante dans la production de méthane. L'ajout de gras dans les échantillons de Phaeodactylum dégraissée a augmenté le rendement de méthane et cette augmentation a été corrélée à la quantité de matières grasses ajoutées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les deux fonctions principales de la main sont la manipulation d’objet et l’exploration tactile. La détection du glissement, rapportée par les mécanorécepteurs de la peau glabre, est essentielle pour l’exécution de ces deux fonctions. Durant la manipulation d’objet, la détection rapide du micro-glissement (incipient slip) amène la main à augmenter la force de pince pour éviter que l’objet ne tombe. À l’opposé, le glissement est un aspect essentiel à l’exploration tactile puisqu’il favorise une plus grande acuité tactile. Pour ces deux actions, les forces normale et tangentielle exercées sur la peau permettent de décrire le glissement mais également ce qui arrive juste avant qu’il y ait glissement. Toutefois, on ignore comment ces forces contrôlées par le sujet pourraient être encodées au niveau cortical. C’est pourquoi nous avons enregistré l’activité unitaire des neurones du cortex somatosensoriel primaire (S1) durant l’exécution de deux tâches haptiques chez les primates. Dans la première tâche, deux singes devaient saisir une pastille de métal fixe et y exercer des forces de cisaillement sans glissement dans une de quatre directions orthogonales. Des 144 neurones enregistrés, 111 (77%) étaient modulés à la direction de la force de cisaillement. L’ensemble de ces vecteurs préférés s’étendait dans toutes les directions avec un arc variant de 50° à 170°. Plus de 21 de ces neurones (19%) étaient également modulés à l’intensité de la force de cisaillement. Bien que 66 neurones (59%) montraient clairement une réponse à adaptation lente et 45 autres (41%) une réponse à adaptation rapide, cette classification ne semblait pas expliquer la modulation à l’intensité et à la direction de la force de cisaillement. Ces résultats montrent que les neurones de S1 encodent simultanément la direction et l’intensité des forces même en l’absence de glissement. Dans la seconde tâche, deux singes ont parcouru différentes surfaces avec le bout des doigts à la recherche d’une cible tactile, sans feedback visuel. Durant l’exploration, les singes, comme les humains, contrôlaient les forces et la vitesse de leurs doigts dans une plage de valeurs réduite. Les surfaces à haut coefficient de friction offraient une plus grande résistance tangentielle à la peau et amenaient les singes à alléger la force de contact, normale à la peau. Par conséquent, la somme scalaire des composantes normale et tangentielle demeurait constante entre les surfaces. Ces observations démontrent que les singes contrôlent les forces normale et tangentielle qu’ils appliquent durant l’exploration tactile. Celles-ci sont également ajustées selon les propriétés de surfaces telles que la texture et la friction. Des 230 neurones enregistrés durant la tâche d’exploration tactile, 96 (42%) ont montré une fréquence de décharge instantanée reliée aux forces exercées par les doigts sur la surface. De ces neurones, 52 (54%) étaient modulés avec la force normale ou la force tangentielle bien que l’autre composante orthogonale avait peu ou pas d’influence sur la fréquence de décharge. Une autre sous-population de 44 (46%) neurones répondait au ratio entre la force normale et la force tangentielle indépendamment de l’intensité. Plus précisément, 29 (30%) neurones augmentaient et 15 (16%) autres diminuaient leur fréquence de décharge en relation avec ce ratio. Par ailleurs, environ la moitié de tous les neurones (112) étaient significativement modulés à la direction de la force tangentielle. De ces neurones, 59 (53%) répondaient à la fois à la direction et à l’intensité des forces. L’exploration de trois ou quatre différentes surfaces a permis d’évaluer l’impact du coefficient de friction sur la modulation de 102 neurones de S1. En fait, 17 (17%) neurones ont montré une augmentation de leur fréquence de décharge avec l’augmentation du coefficient de friction alors que 8 (8%) autres ont montré le comportement inverse. Par contre, 37 (36%) neurones présentaient une décharge maximale sur une surface en particulier, sans relation linéaire avec le coefficient de friction des surfaces. La classification d’adaptation rapide ou lente des neurones de S1 n’a pu être mise en relation avec la modulation aux forces et à la friction. Ces résultats montrent que la fréquence de décharge des neurones de S1 encode l’intensité des forces normale et tangentielle, le ratio entre les deux composantes et la direction du mouvement. Ces résultats montrent que le comportement d’une importante sous-population des neurones de S1 est déterminé par les forces normale et tangentielle sur la peau. La modulation aux forces présentée ici fait le pont entre les travaux évaluant les propriétés de surfaces telles que la rugosité et les études touchant à la manipulation d’objets. Ce système de référence s’applique en présence ou en absence de glissement entre la peau et la surface. Nos résultats quant à la modulation des neurones à adaptation rapide ou lente nous amènent à suggérer que cette classification découle de la manière que la peau est stimulée. Nous discuterons aussi de la possibilité que l’activité des neurones de S1 puisse inclure une composante motrice durant ces tâches sensorimotrices. Finalement, un nouveau cadre de référence tridimensionnel sera proposé pour décrire et rassembler, dans un même continuum, les différentes modulations aux forces normale et tangentielle observées dans S1 durant l’exploration tactile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les poissons vivant au sein d’une rivière sont soumis à des variations circadiennes de température pouvant influencer la croissance, la digestion et le métabolisme standard. Les modèles bioénergétiques utilisant les fonctions métaboliques pour déterminer la croissance d’un poisson ont souvent été élaborés avec des poissons acclimatés à des températures constantes. Ces modèles pourraient sous-estimer l’énergie dépensée par un poisson soumis à des températures fluctuantes. En utilisant la respirométrie par débit intermittent, les objectifs de ce travail étaient : (1) de quantifier les différences entre les taux métaboliques standards de poissons acclimatés à une température constante (20.2 oC ± 0.5 oC) et à des fluctuations circadiennes de température (19.8 oC ± 2.0 oC; 19.5 oC ± 3.0 oC) et (2) comparer deux méthodologies pour calculer les taux métaboliques standards de poissons sujets aux fluctuations circadiennes de températures : respirométrie (a) en température constante ou (b) en température fluctuante. Les poissons acclimatés à des fluctuations circadiennes de température ont des taux métaboliques standards plus élevés que des poissons acclimatés à une température constante. À 20.2 oC ± 0.5 oC, les taux métabolique standards ont été de 25% à 32% plus bas pour des poissons maintenus à une température constante que pour des poissons gardés sous des fluctuations circadiennes de température. Les méthodologies utilisées pour estimer les taux métaboliques standards de poissons sujets aux fluctuations de température offrent des résultats similaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous y introduisons une nouvelle classe de distributions bivariées de type Marshall-Olkin, la distribution Erlang bivariée. La transformée de Laplace, les moments et les densités conditionnelles y sont obtenus. Les applications potentielles en assurance-vie et en finance sont prises en considération. Les estimateurs du maximum de vraisemblance des paramètres sont calculés par l'algorithme Espérance-Maximisation. Ensuite, notre projet de recherche est consacré à l'étude des processus de risque multivariés, qui peuvent être utiles dans l'étude des problèmes de la ruine des compagnies d'assurance avec des classes dépendantes. Nous appliquons les résultats de la théorie des processus de Markov déterministes par morceaux afin d'obtenir les martingales exponentielles, nécessaires pour établir des bornes supérieures calculables pour la probabilité de ruine, dont les expressions sont intraitables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La variabilité spatiale et temporelle de l’écoulement en rivière contribue à créer une mosaïque d’habitat dynamique qui soutient la diversité écologique. Une des questions fondamentales en écohydraulique est de déterminer quelles sont les échelles spatiales et temporelles de variation de l’habitat les plus importantes pour les organismes à divers stades de vie. L’objectif général de la thèse consiste à examiner les liens entre la variabilité de l’habitat et le comportement du saumon Atlantique juvénile. Plus spécifiquement, trois thèmes sont abordés : la turbulence en tant que variable d’habitat du poisson, les échelles spatiales et temporelles de sélection de l’habitat et la variabilité individuelle du comportement du poisson. À l’aide de données empiriques détaillées et d’analyses statistiques variées, nos objectifs étaient de 1) quantifier les liens causaux entre les variables d’habitat du poisson « usuelles » et les propriétés turbulentes à échelles multiples; 2) tester l’utilisation d’un chenal portatif pour analyser l’effet des propriétés turbulentes sur les probabilités de capture de proie et du comportement alimentaire des saumons juvéniles; 3) analyser les échelles spatiales et temporelles de sélection de l’habitat dans un tronçon l’été et l’automne; 4) examiner la variation individuelle saisonnière et journalière des patrons d’activité, d’utilisation de l’habitat et de leur interaction; 5) investiguer la variation individuelle du comportement spatial en relation aux fluctuations environnementales. La thèse procure une caractérisation détaillée de la turbulence dans les mouilles et les seuils et montre que la capacité des variables d’habitat du poisson usuelles à expliquer les propriétés turbulentes est relativement basse, surtout dans les petites échelles, mais varie de façon importante entre les unités morphologiques. D’un point de vue pratique, ce niveau de complexité suggère que la turbulence devrait être considérée comme une variable écologique distincte. Dans une deuxième expérience, en utilisant un chenal portatif in situ, nous n’avons pas confirmé de façon concluante, ni écarté l’effet de la turbulence sur la probabilité de capture des proies, mais avons observé une sélection préférentielle de localisations où la turbulence était relativement faible. La sélection d’habitats de faible turbulence a aussi été observée en conditions naturelles dans une étude basée sur des observations pour laquelle 66 poissons ont été marqués à l’aide de transpondeurs passifs et suivis pendant trois mois dans un tronçon de rivière à l’aide d’un réseau d’antennes enfouies dans le lit. La sélection de l’habitat était dépendante de l’échelle d’observation. Les poissons étaient associés aux profondeurs modérées à micro-échelle, mais aussi à des profondeurs plus élevées à l’échelle des patchs. De plus, l’étendue d’habitats utilisés a augmenté de façon asymptotique avec l’échelle temporelle. L’échelle d’une heure a été considérée comme optimale pour décrire l’habitat utilisé dans une journée et l’échelle de trois jours pour décrire l’habitat utilisé dans un mois. Le suivi individuel a révélé une forte variabilité inter-individuelle des patrons d’activité, certains individus étant principalement nocturnes alors que d’autres ont fréquemment changé de patrons d’activité. Les changements de patrons d’activité étaient liés aux variables environnementales, mais aussi à l’utilisation de l’habitat des individus, ce qui pourrait signifier que l’utilisation d’habitats suboptimaux engendre la nécessité d’augmenter l’activité diurne, quand l’apport alimentaire et le risque de prédation sont plus élevés. La variabilité inter-individuelle élevée a aussi été observée dans le comportement spatial. La plupart des poissons ont présenté une faible mobilité la plupart des jours, mais ont occasionnellement effectué des mouvements de forte amplitude. En fait, la variabilité inter-individuelle a compté pour seulement 12-17% de la variabilité totale de la mobilité des poissons. Ces résultats questionnent la prémisse que la population soit composée de fractions d’individus sédentaires et mobiles. La variation individuelle journalière suggère que la mobilité est une réponse à des changements des conditions plutôt qu’à un trait de comportement individuel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’extraction aurifère est l’une des activités humaines qui a fortement accru l’émission de contaminants métalliques dans l’environnement. Le mercure (Hg), l’arsenic (As) et le sélénium (Se) sont 3 polluants métalliques de grande toxicité environnementale. En milieu aquatique, ils peuvent subir des transformations menant à des composés capables de bioaccumulation et de bioamplification. Il peut en résulter des concentrations 106 fois celle mesurée dans l’eau chez les poissons et les organismes situés en haut des chaînes alimentaires posant de ce fait de graves menaces pour la santé de ces organismes ainsi que leurs consommateurs y compris les humains. Cette étude a évalué les teneurs en Hg, As et Se dans les milieux aquatiques au Burkina Faso, une région d’Afrique sub-saharienne soumise à une exploitation minière intensive. Le risque potentiel pour les organismes aquatiques et les humains a été évalué en considérant les effets des interactions antagonistes Se/Hg et As/Se. La bioaccumulation et le transfert du Hg et du Se dans les réseaux trophiques sont également décrits. L’exposition au Hg de poissons par les humains a été également évalué au laboratoire par mesure de la bioaccessibilité comme équivalent de la biodisponibilité par simulation de la digestion humaine. En général, les milieux aquatiques étudiés étaient peu affectés par ces 3 métal(loïd)s bien que certaines espèces de poisson issus des réservoirs les plus profonds indiquent des teneurs de Hg au dessus de 500 ngHg/g (poids frais) recommandé par l’OMS. Ces niveaux sont susceptibles de présenter des risques toxicologiques pour les poissons et pour leurs consommateurs. En considérant l’antagonisme Se/Hg, 99 % des échantillons de poisson seraient moins exposés à la toxicité du Hg dû à la présence simultanée du sélénium dans le milieu et pourraient être consommés sans risque. Cependant, les effets potentiels de l’antagonisme As/Se pourraient réduire les effets bénéfiques du Se et ramener cette proportion à 83 %. L’application des mesures de signatures en isotopes stables d’azote (δ15N) et de carbone (δ13C) des organismes aquatiques a permis le traçage des voies de transfert du Hg et du Se dans les réseaux trophiques. On y observe des chaînes trophiques très courtes (3 - 4 niveaux trophiques) et des poissons majoritairement benthiques. L’approche isotopique n’a cependant pas permis de détecter les variations saisonnières des niveaux de contamination en Hg des poissons. L’exploration des contenus stomacaux des poissons a permis de mieux expliquer la baisse des concentrations en Hg et Se observées chez certains poissons au cours de la saison sèche en lien avec la variation de la composition des proies que l’analyse isotopique n’a pas cerné. L’étude suggère que l’analyse de contenus stomacaux ainsi que l’étude de la dynamique des communautés d’invertébrés couplées à celle des métaux pourraient améliorer la compréhension du fonctionnement des écosystèmes étudiés. Enfin, l’évaluation expérimentale de l’exposition au Hg indique que les modes de traitement avant consommation ainsi que l’usage de composés alimentaires tels le thé, le café lors de repas de poisson par certaines communautés humaines ont un impact sur la bioaccessibilité du Hg de poisson. Ces résultats, sous réserve de validation par des modèles animaux, suggèrent la prise en compte des habitudes alimentaires des communautés dans l’élaboration adéquat des avis de consommation de poisson.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Afin d’étudier l’influence de la migration sur l’alimentation à Montréal aux XVIIe et XVIIIe siècles, 64 individus de la collection du cimetière Notre-Dame, daté de 1691 à 1796, ont fait l’objet d’analyses ostéologiques et isotopiques. Les analyses isotopiques ont portées sur le carbone (d13C) et l’azote (d15N) du collagène des os, ainsi que sur le d13C et l’oxygène (d18O) du carbonate de l’apatite des os et des dents (prémolaires et troisièmes molaires). Le d18O des dents a permis de définir approximativement trois régions d’origine (région de Montréal, région enrichie en 18O (i.e. Acadie, Louisiane, Nouvelle-Angleterre, France, Antilles et Afrique) et région appauvrie en 18O (intérieur des terres et plus au nord) pour 58 individus, et sept possibles parcours migratoire (N=27). Plus de la moitié de l’échantillon est composé d’individus possiblement natifs de Montréal (55 %). De plus, les résultats indiquent que les gens étaient peu mobiles avant l’âge de 16 ans. Toutefois, 12 individus ont entrepris des déplacements entre 7 et 16 ans, majoritairement d’un environnement enrichi vers Montréal (N=5) ou de Montréal vers une région appauvrie (N=5). L’âge de recrutement des mousses sur les navires, la traite de la fourrure, la coupe du bois et possiblement aussi l’esclavage pourraient expliquer cette « jeune » migration. Sur le plan alimentaire, les végétaux de type C3, la viande nourrie aux ressources C3 et le poisson faisaient partie du menu montréalais. Les plantes C4 (majoritairement maïs mais aussi sucre de canne [rhum]) étaient consommées en quantité variable. La question de l’influence de la migration sur l’alimentation n’a pu être explorée en profondeur en raison de contraintes liées à la contamination du d18O du carbonate des os. La combinaison des données ostéologiques et isotopiques à la distribution spatiale des sépultures, a permis d’étudier un aspect de l’archéologie funéraire à l’échelle individuelle (identité possible), sans toutefois fournir de résultats probants, à l’échelle du cimetière et de son organisation globale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La protéine core du virus de l’hépatite C (VHC) serait responsable des principaux effets pathogènes du VHC, dont le développement de fibrose, stéatose, cirrhose et carcinome hépatocellulaire. Un cadre de lecture alternatif existe dans le gène de core, permettant la synthèse d’une autre protéine appelée ARFP (pour alternatate reading frame protein) ou protéine F (pour frameshift), dont le rôle reste encore mal compris. La présence de la protéine F lors de l’étude des fonctions biologiques de core ne pouvant être exclue, il est possible que certains rôles attribués à core reflètent en réalité l’activité de la protéine F. Afin de déterminer les fonctions biologiques de la protéine F dans les hépatocytes et son influence dans la pathogenèse associée au VHC, nous avons généré des lignées transgéniques de poissons zébrés (Danio rerio) dans lesquelles l’expression de deux versions de la protéine F (AF11opti et AUG26opti) a été ciblée au foie par l’utilisation du promoteur de la liver fatty acid binding protein (L-FABP). Le phénotype des poissons transgéniques de génération F2 a été analysé au niveau morphologique, histologique et microscopique afin de rechercher des signes de pathologie hépatique. Nos résultats ont démontré l’implication de la protéine F dans le développement de stéatose hépatique chez les deux lignées transgéniques, mais aucun signe de fibrose ou d’oncogenèse n’a été détecté. L’identification des mécanismes cellulaires et moléculaires responsables de l’accumulation lipidique induite par la protéine F pourrait permettre de mieux comprendre son rôle dans la pathogenèse du VHC, et mener au développement de nouvelles stratégies antivirales.