913 resultados para DoS-resistant Protocol, SSL and HIP Model in CPN, CPN Simulation and Verification
Resumo:
GABA (y-amino butyric acid) is a non-protein amino acid synthesized through the a-decarboxylation of L-glutamate. This reaction is catalyzed by L-glutamate decarboxylase (EC 4.1.1.15), a cytosolic Ca2+/calmodulin-stimulated enzyme. The purpose of this study is to determine whether or not GABA accumulation is associated with the hypersensitive response of isolated Asparagus sprengeri mesophyll cells. The addition of 25 J.lM mastoparan, a G protein activator, to suspensions of isolated asparagus mesophyll cells significantly increased GABA synthesis and cell death. Cell death was assessed using Evan's blue dye and fluorescein diacetate tests for cell viability. In addition, mastoparan stimulated pH-dependent alkalinization of the external medium, and a rapid and large 02 consumption followed by a loss of photosynthetic activity. The rate of 02 consumption and the net decrease in 02 in the dark was enhanced by light. The inactive mastoparan analogue Mas17 was ineffective in stimulating GABA accumulation, medium alkalinization, 02 uptake and cell death. Accumulation of H202 in response tomastoparan was not detected, however, mastoparan caused the cell-dependent degradation of added H202. The pH dependence of mastoparan-stimulated alkalinization suggests cellular electrolyte leakage, while the consumption of 02 corresponds to the oxidative burst in which 02 at the cell surface is reduced to form various active oxygen species. The results are indicative of the "hypersensitive response" of plants to pathogen attack, namely, the death of cells in the locality of pathogen invasion. The data are compatible with a model in which mastoparan triggers G protein activity, subsequent intracellular signal transduction pathway/s, and the hypersensitive response. It is postulated that the physiological elicitation of the hypersensitive response involves G protein signal transduction. The synthesis of GABA during the hypersensitive response has not been documented previously; however the role/s of GABA synthesis in the hypersensitive response, if any, remain unclear.
Resumo:
This thesis tested a model of neurovisceral integration (Thayer & Lane, 2001) wherein parasympathetic autonomic regulation is considered to play a central role in cognitive control. We asked whether respiratory sinus arrhythmia (RSA), a parasympathetic index, and cardiac workload (rate pressure product, RPP) would influence cognition and whether this would change with age. Cognitive control was measured behaviourally and electrophysiologically through the error-related negativity (ERN) and error positivity (Pe). The ERN and Pe are thought to be generated by the anterior cingulate cortex (ACC), a region involved in regulating cognitive and autonomic control and susceptible to age-related change. In Study 1, older and younger adults completed a working memory Go/NoGo task. Although RSA did not relate to performance, higher pre-task RPP was associated with poorer NoGo performance among older adults. Relations between ERN/Pe and accuracy were indirect and more evident in younger adults. Thus, Study 1 supported the link between cognition and autonomic activity, specifically, cardiac workload in older adults. In Study 2, we included younger adults and manipulated a Stroop task to clarify conditions under which associations between RSA and performance will likely emerge. We varied task parameters to allow for proactive versus reactive strategies, and motivation was increased via financial incentive. Pre-task RSA predicted accuracy when response contingencies required maintenance of a specific item in memory. Thus, RSA was most relevant when performance required proactive control, a metabolically costly strategy that would presumably be more reliant on autonomic flexibility. In Study 3, we included older adults and examined RSA and proactive control in an additive factors framework. We maintained the incentive and measured fitness. Higher pre-task RSA among older adults was associated with greater accuracy when proactive control was needed most. Conversely, performance of young women was consistently associated with fitness. Relations between ERN/Pe and accuracy were modest; however, isolating ACC activity via independent component analysis allowed for more associations with accuracy to emerge in younger adults. Thus, performance in both groups appeared to be differentially dependent on RSA and ACC activation. Altogether, these data are consistent with a neurovisceral integration model in the context of cognitive control.
Resumo:
We study the problem of testing the error distribution in a multivariate linear regression (MLR) model. The tests are functions of appropriately standardized multivariate least squares residuals whose distribution is invariant to the unknown cross-equation error covariance matrix. Empirical multivariate skewness and kurtosis criteria are then compared to simulation-based estimate of their expected value under the hypothesized distribution. Special cases considered include testing multivariate normal, Student t; normal mixtures and stable error models. In the Gaussian case, finite-sample versions of the standard multivariate skewness and kurtosis tests are derived. To do this, we exploit simple, double and multi-stage Monte Carlo test methods. For non-Gaussian distribution families involving nuisance parameters, confidence sets are derived for the the nuisance parameters and the error distribution. The procedures considered are evaluated in a small simulation experi-ment. Finally, the tests are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995.
Resumo:
Les Wnts représentent une famille de glycoprotéines de signalisation qui sont connues pour les nombreux rôles qu'ils jouent durant le développement embryonnaire et dans la cancerogénèse. Plusieurs Wnts, leurs récepteurs (Fzd) et d'autres composants des voies de signalisation des Wnt sont exprimés dans l’ovaire postnatal, et il a été démontré que l’expression de certains de ces gènes est régulée pendant le développement et l'ovulation/luteinization folliculaires. Toutefois, leurs rôles physiologiques dans l’ovaire demeurent mal définis. Pour étudier le rôle de WNT4 dans le développement folliculaire, nous avons entrepris d’identifier ses cibles transcriptionnels dans les cellules de la granulosa. Pour ce faire, nous avons employé la souris Catnbflox(ex3)/flox(ex3), chez laquelle une activation constitutive de la voie de Wnt/β-catenin a lieu suite à l’action de la recombinare Cre. Des cellules de la granulosa de ces souris ont été mises en culture et infectées avec un adenovirus pour causer la surexpression de WNT4 ou l’expression de Cre. L’ARN a alors été extrait de ces cellules et analysé par micro-puce. Les résultats ont démontré qu’une forte proportion des gènes induits par WNT4 étaient des gènes impliqués dans la réponse cellulaire au stress. Presque tous gènes induits par WNT4 ont également été induits par Cre, indiquant que WNT4 signale via la voie Wnt/β-catenin dans ces cellules. Nos résultats suggèrent donc que WNT4 favorise la survie des follicules par l’induction de gènes de réponse au stress dans les cellules de la granulosa, augmentant ainsi la résistance cellulaire à l'apoptose.
Resumo:
Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
L’entérotoxine B staphylococcique (SEB) est une toxine entérique hautement résistante à la chaleur et est responsable de plus de 50 % des cas d’intoxication d’origine alimentaire par une entérotoxine. L’objectif principal de ce projet de maîtrise est de développer et valider une méthode basée sur des nouvelles stratégies analytiques permettant la détection et la quantification de SEB dans les matrices alimentaires. Une carte de peptides tryptiques a été produite et 3 peptides tryptiques spécifiques ont été sélectionnés pour servir de peptides témoins à partir des 9 fragments protéolytiques identifiés (couverture de 35 % de la séquence). L’anhydride acétique et la forme deutérée furent utilisés afin de synthétiser des peptides standards marqués avec un isotope léger et lourd. La combinaison de mélanges des deux isotopes à des concentrations molaires différentes fut utilisée afin d’établir la linéarité et les résultats ont démontré que les mesures faites par dilution isotopique combinée au CL-SM/SM respectaient les critères généralement reconnus d’épreuves biologiques avec des valeurs de pente près de 1, des valeurs de R2 supérieure à 0,98 et des coefficients de variation (CV%) inférieurs à 8 %. La précision et l’exactitude de la méthode ont été évaluées à l’aide d’échantillons d’homogénat de viande de poulet dans lesquels SEB a été introduite. SEB a été enrichie à 0,2, 1 et 2 pmol/g. Les résultats analytiques révèlent que la méthode procure une plage d’exactitude de 84,9 à 91,1 %. Dans l’ensemble, les résultats présentés dans ce mémoire démontrent que les méthodes protéomiques peuvent être utilisées efficacement pour détecter et quantifier SEB dans les matrices alimentaires. Mots clés : spectrométrie de masse; marquage isotopique; protéomique quantitative; entérotoxines
Resumo:
Les études antérieures ont démontré les bénéfices de la satisfaction des besoins intrinsèques et du soutien à l’autonomie dans le domaine de l’éducation. Or, l’applicabilité des tenants principaux de la Théorie de l’Auto-Détermination (TAD; Deci & Ryan, 2000) n’a pas été investiguée auprès d’une population clinique d’adolescents. L’objectif de cette thèse doctorale est de faire la lumière sur la façon dont l'adaptation scolaire et sociale peut être favorisée par les agents de socialisation dans le contexte de la réadaptation sociale. Cette thèse est composée de deux études s’intéressant à l’application des tenants clés de la TAD auprès de deux échantillons d’adolescents vivant des problèmes d’adaptation et recevant des services d’éducation spécialisée et de réadaptation sociale. Les relations entre les concepts motivationnels de base sont étudiés afin de déterminer si, comme la TAD le propose, la satisfaction des besoins intrinsèques des jeunes peut être soutenue par le style interpersonnel des agents de socialisation (c.-à-d., le soutien à l’autonomie, l’implication et la structure). Il est aussi vérifié si ces concepts motivationnels améliorent la motivation ainsi que d’autres conséquences qui résultent de leur expérience, proposées par la TAD. La première étude a évalué si le style interpersonnel des enseignants peut favoriser la satisfaction des besoins des élèves, leur style de motivationl, tout comme leur ajustement scolaire. Les élèves en difficulté d’adaptation (N = 115) inscrits aux écoles internes des Centres de Réadaptation en raison de leurs problématiques émotionnelles et comportementales ont rempli les questionnaires à deux reprises, au début et à la fin de l’année scolaire. Les analyses de modèles d’équations structurelles révèlent que l’augmentation du soutien à l’autonomie et de l’implication (mais pas de la structure) des enseignants pendant l’année est associée à une augmentation de la satisfaction des besoins des élèves qui, conséquemment, conduit à une motivation scolaire plus auto-déterminée et à une diminution d’intentions de décrochage à la fin de l’année scolaire. De plus, l’amélioration de la satisfaction des besoins mène directement à une meilleure expérience affective à l’école. La deuxième étude consiste en une recherche expérimentale conduite auprès d’adolescentes en difficulté d’adaptation (N = 29). Le devis expérimental a permis de comparer l’impact de la présence (c. absence) du soutien à l’autonomie sur l’internalisation d’une tâche et sur les conséquences motivationnelles et expérientielles des jeunes. La tâche, fastidieuse mais importante, consistait à de la résolution de problèmes interpersonnels (activité clinique). Les résultats suggèrent qu’un style interpersonnel soutenant l’autonomie a augmenté la motivation auto-déterminée, la perception de la valeur de la tâche et son appréciation, ainsi que diminué les affects négatifs comparativement à la condition sans soutien à l’autonomie. Les résultats sont discutés en lien avec les implications théoriques et pratiques d’étendre la portée de la TAD à une population clinique d’adolescents aux prises avec des difficultés d’adaptation.
Resumo:
Le glaucome est la principale cause de cécité irréversible dans le monde. Chez les patients atteints de cette pathologie, la perte de la vue résulte de la mort sélective des cellules ganglionnaires (CGR) de la rétine ainsi que de la dégénérescence axonale. La pression intraoculaire élevée est considérée le facteur de risque majeur pour le développement de cette maladie. Les thérapies actuelles emploient des traitements pharmacologiques et/ou chirurgicaux pour diminuer la pression oculaire. Néanmoins, la perte du champ visuel continue à progresser, impliquant des mécanismes indépendants de la pression intraoculaire dans la progression de la maladie. Il a été récemment démontré que des facteurs neuroinflammatoires pourraient être impliqués dans le développement du glaucome. Cette réponse est caractérisée par une régulation positive des cytokines pro-inflammatoires, en particulier du facteur de nécrose tumorale alpha (TNFα). Cependant, le mécanisme par lequel le processus neuroinflammatoire agit sur la mort neuronale reste à clarifier. L’hypothèse principale de ce doctorat propose que les facteurs pro-inflammatoires comme le TNFα et la phosphodiestérase 4 (PDE4) interagissent avec les mécanismes moléculaires de la mort neuronale, favorisant ainsi la survie et la protection des CGRs au cours du glaucome. Dans la première partie de ma thèse, J’ai utilisé un modèle in vivo de glaucome chez des rats Brown Norway pour montrer que l’expression du TNFα est augmentée après l'induction de l'hypertension oculaire. L'hypothèse spécifique de cette étude suggère que les niveaux élevés de TNFα provoquent la mort des CGRs en favorisant l'insertion de récepteurs AMPA perméables au calcium (CP-AMPAR) à la membrane cytoplasmique. Pour tester cette hypothèse, j’ai utilisé un inhibiteur sélectif de la forme soluble du TNFα, le XPro1595. L'administration de cet agent pharmacologique a induit une protection significative des somas et des axones des neurones rétiniens. L'évaluation de la perméabilité au cobalt a montré que le TNFα soluble est impliqué dans l'insertion de CP-AMPAR à la membrane des CGRs lors du glaucome. L’exposition des neurones à une pression oculaire élevée est à l’origine de la hausse de la densité membranaire des CP-AMPARs, grâce à une diminution de l’expression de la sous-unité GluA2. La présence de GluA2 au sein du récepteur ne permet pas l’entrée du calcium à l’intérieur de la cellule. L'administration intraoculaire d’antagonistes spécifiques des CP-AMPARs promeut la protection des somas et des axones des CGRs. Ces résultats montrent que les CP-AMPARs jouent un rôle important dans la pathologie du glaucome. Dans la deuxième partie de ma thèse, j’ai caractérisé l'effet neuroprotecteur d’un inhibiteur de la PDE4, l’ibudilast, dans notre modèle de glaucome. L'hypothèse spécifique s’oriente vers une atténuation de la réponse neuroinflammatoire et de la gliose par l’administration d’ibudilast, favorisant ainsi la protection neuronale. Les résultats montrent que dans les rétines glaucomateuses, l’ibudilast diminue la gliose et l'expression de plusieurs facteurs tels que le TNFα, l'interleukine-1β (IL-1β), l’interleukine-6 (IL-6) et le facteur inhibiteur de la migration des macrophages (MIF). Chez les rats glaucomateux, nous avons observé une expression notable de PDE4A dans les cellules de Müller, qui est en corrélation avec l'accumulation de l’AMP cyclique (AMPc) dans ces cellules après un traitement d’ibudilast. Finalement, nous avons démontré que la protection des CGRs via l’administration d’ibudilast est un mécanisme dépendent de l’AMPc et de la protéine kinase A (PKA). En conclusion, les résultats présentés dans cette thèse identifient deux mécanismes différents impliqués dans la perte des CGRs au cours du glaucome. Ces mécanismes pourraient fournir des perspectives potentielles pour le développement de nouvelles stratégies de traitement du glaucome.
Resumo:
This thesis presents the methodology of linking Total Productive Maintenance (TPM) and Quality Function Deployment (QFD). The Synergic power ofTPM and QFD led to the formation of a new maintenance model named Maintenance Quality Function Deployment (MQFD). This model was found so powerful that, it could overcome the drawbacks of TPM, by taking care of customer voices. Those voices of customers are used to develop the house of quality. The outputs of house of quality, which are in the form of technical languages, are submitted to the top management for making strategic decisions. The technical languages, which are concerned with enhancing maintenance quality, are strategically directed by the top management towards their adoption of eight TPM pillars. The TPM characteristics developed through the development of eight pillars are fed into the production system, where their implementation is focused towards increasing the values of the maintenance quality parameters, namely overall equipment efficiency (GEE), mean time between failures (MTBF), mean time to repair (MTIR), performance quality, availability and mean down time (MDT). The outputs from production system are required to be reflected in the form of business values namely improved maintenance quality, increased profit, upgraded core competence, and enhanced goodwill. A unique feature of the MQFD model is that it is not necessary to change or dismantle the existing process ofdeveloping house ofquality and TPM projects, which may already be under practice in the company concerned. Thus, the MQFD model enables the tactical marriage between QFD and TPM.First, the literature was reviewed. The results of this review indicated that no activities had so far been reported on integrating QFD in TPM and vice versa. During the second phase, a survey was conducted in six companies in which TPM had been implemented. The objective of this survey was to locate any traces of QFD implementation in TPM programme being implemented in these companies. This survey results indicated that no effort on integrating QFD in TPM had been made in these companies. After completing these two phases of activities, the MQFD model was designed. The details of this work are presented in this research work. Followed by this, the explorative studies on implementing this MQFD model in real time environments were conducted. In addition to that, an empirical study was carried out to examine the receptivity of MQFD model among the practitioners and multifarious organizational cultures. Finally, a sensitivity analysis was conducted to find the hierarchy of various factors influencing MQFD in a company. Throughout the research work, the theory and practice of MQFD were juxtaposed by presenting and publishing papers among scholarly communities and conducting case studies in real time scenario.
Resumo:
The antikaon optical potential in hot and dense nuclear matter is studied within the framework of a coupled-channel self-consistent calculation taking, as bare meson-baryon interaction, the meson-exchange potential of the Jlich group. Typical conditions found in heavy-ion collisions at GSI are explored. As in the case of zero temperature, the angular momentum components larger than L=0 contribute significantly to the finite temperature antikaon optical potential at finite momentum. It is found that the particular treatment of the medium effects has a strong influence on the behavior of the antikaon potential with temperature. Our self-consistent model, in which antikaons and pions are dressed in the medium, gives a moderately temperature dependent antikaon potential which remains attractive at GSI temperatures, contrary to what one finds if only nuclear Pauli blocking effects are included.
Resumo:
The nearshore marine ecosystem is a dynamic environment impacted by many activities, especially the coastal waters and sediments contiguous to major urban areas. Although heavy metals are natural constituents of the marine environment, inputs are considered to be conservative pollutants and are potentially toxic, accumulate in the sediment, are bioconcentrated by organisms and may cause health problems to humans via the food chain. A variety of metals in trace amounts are essential for biological processes in all organisms, but excessive levels can be detrimental by acting as enzyme inhibitors. Discharge of industrial wastewater, agriculture runoff and untreated sewage pose a particularly serious threat to the coastal environment of Kerala, but there is a dearth of studies in documenting the contaminant metals. This study aimed principally to assess such contamination by examining the results of heavy metal (Cu, Pb, Cr, Ni, Zn, Cd and Hg) analysis in seawater, sediment and benthic biota from a survey of five transects along the central and northern coast of Kerala in 2008 covering a 10.0 km stretch of near shore environment in each transect. Trophic transfer of metal contaminants from aquatic invertebrates to its predators was also assessed, by employing a suitable benthic food chain model in order to understand which all metals are undergoing biotransference (transfer of metals from a food source to consumer).The study of present contamination levels will be useful for potential environmental remediation and ecosystem restoration at contaminated sites and provides a scientific basis for standards and protective measures for the coastal waters and sediments. The usefulness of biomonitor proposed in this study would allow identification of different bioavailable metals as well as provide an assessment of the magnitude of metal contamination in the coastal marine milieu. The increments in concentration of certain metals between the predator and prey discerned through benthic food chain can be interpreted as evidence of biotransference.
Resumo:
Severe local storms, including tornadoes, damaging hail and wind gusts, frequently occur over the eastern and northeastern states of India during the pre-monsoon season (March-May). Forecasting thunderstorms is one of the most difficult tasks in weather prediction, due to their rather small spatial and temporal extension and the inherent non-linearity of their dynamics and physics. In this paper, sensitivity experiments are conducted with the WRF-NMM model to test the impact of convective parameterization schemes on simulating severe thunderstorms that occurred over Kolkata on 20 May 2006 and 21 May 2007 and validated the model results with observation. In addition, a simulation without convective parameterization scheme was performed for each case to determine if the model could simulate the convection explicitly. A statistical analysis based on mean absolute error, root mean square error and correlation coefficient is performed for comparisons between the simulated and observed data with different convective schemes. This study shows that the prediction of thunderstorm affected parameters is sensitive to convective schemes. The Grell-Devenyi cloud ensemble convective scheme is well simulated the thunderstorm activities in terms of time, intensity and the region of occurrence of the events as compared to other convective schemes and also explicit scheme
Resumo:
The problem of using information available from one variable X to make inferenceabout another Y is classical in many physical and social sciences. In statistics this isoften done via regression analysis where mean response is used to model the data. Onestipulates the model Y = µ(X) +ɛ. Here µ(X) is the mean response at the predictor variable value X = x, and ɛ = Y - µ(X) is the error. In classical regression analysis, both (X; Y ) are observable and one then proceeds to make inference about the mean response function µ(X). In practice there are numerous examples where X is not available, but a variable Z is observed which provides an estimate of X. As an example, consider the herbicidestudy of Rudemo, et al. [3] in which a nominal measured amount Z of herbicide was applied to a plant but the actual amount absorbed by the plant X is unobservable. As another example, from Wang [5], an epidemiologist studies the severity of a lung disease, Y , among the residents in a city in relation to the amount of certain air pollutants. The amount of the air pollutants Z can be measured at certain observation stations in the city, but the actual exposure of the residents to the pollutants, X, is unobservable and may vary randomly from the Z-values. In both cases X = Z+error: This is the so called Berkson measurement error model.In more classical measurement error model one observes an unbiased estimator W of X and stipulates the relation W = X + error: An example of this model occurs when assessing effect of nutrition X on a disease. Measuring nutrition intake precisely within 24 hours is almost impossible. There are many similar examples in agricultural or medical studies, see e.g., Carroll, Ruppert and Stefanski [1] and Fuller [2], , among others. In this talk we shall address the question of fitting a parametric model to the re-gression function µ(X) in the Berkson measurement error model: Y = µ(X) + ɛ; X = Z + η; where η and ɛ are random errors with E(ɛ) = 0, X and η are d-dimensional, and Z is the observable d-dimensional r.v.
Resumo:
In the course of the ‘Livestock Revolution’, extension and intensification of, among others, ruminant livestock production systems are current phenomena, with all their positive and negative side effects. Manure, one of the inevitable secondary products of livestock rearing, is a valuable source of plant nutrients and its skillful recycling to the soil-plant interface is essential for soil fertility, nutrient - and especially phosphorus - uses efficiency and the preservation or re-establishment of environmentally sustainable farming systems, for which organic farming systems are exemplarily. Against this background, the PhD research project presented here, which was embedded in the DFG-funded Research Training Group 1397 ‘Regulation of soil organic matter and nutrient turnover in organic agriculture ’ investigated possibilities to manipulate the diets of water buffalo (Bubalus bubalis L.) so as to produce manure of desired quality for organic vegetable production, without affecting the productivity of the animals used. Consisting of two major parts, the first study (chapter 2) tested the effects of diets differing in their ratios of carbon (C) to nitrogen (N) and of structural to non-structural carbohydrates on the quality of buffalo manure under subtropical conditions in Sohar, Sultanate of Oman. To this end, two trials were conducted with twelve water buffalo heifers each, using a full Latin Square design. One control and four tests diets were examined during three subsequent 7 day experimental periods preceded each by 21 days adaptation. Diets consisted of varying proportions of Rhodes grass hay, soybean meal, wheat bran, maize, dates, and a commercial concentrate to achieve a (1) high C/N and high NDF (neutral detergent fibre)/SC (soluble carbohydrate) ratio (HH), (2) low C/N and low NDF/SC ratio (LL); (3) high C/N and low NDF/SC ratio (HL) and (4) low C/N and high NDF/SC (LH) ratio. Effects of these diets, which were offered at 1.45 times maintenance requirements of metabolizable energy, and of individual diet characteristics, respectively, on the amount and quality of faeces excreted were determined and statistically analysed. The faeces produced from diets HH and LL were further tested in a companion PhD study (Mr. K. Siegfried) concerning their nutrient release in field experiments with radish and cabbage. The second study (chapter 3) focused on the effects of the above-described experimental diets on the rate of passage of feed particles through the gastrointestinal tract of four randomly chosen animals per treatment. To this end, an oral pulse dose of 683 mg fibre particles per kg live weight marked with Ytterbium (Yb; 14.5 mg Yb g-1 organic matter) was dosed at the start of the 7 day experimental period which followed 21 days of adaptation. During the first two days a sample for Yb determination was kept from each faecal excretion, during days 3 – 7 faecal samples were kept from the first morning and the first evening defecation only. Particle passage was modelled using a one-compartment age-dependent Gamma-2 model. In both studies individual feed intake and faecal excretion were quantified throughout the experimental periods and representative samples of feeds and faeces were subjected to proximate analysis following standard protocols. In the first study the organic matter (OM) intake and excretion of LL and LH buffaloes were significantly lower than of HH and HL animals, respectively. Digestibility of N was highest in LH (88%) and lowest in HH (74%). While NDF digestibility was also highest in LH (85%) it was lowest in LL (78%). Faecal N concentration was positively correlated (P≤0.001) with N intake, and was significantly higher in faeces excreted by LL than by HH animals. Concentrations of fibre and starch in faecal OM were positively affected by the respective dietary concentrations, with NDF being highest in HH (77%) and lowest in LL (63%). The faecal C/N ratio was positively related (P≤0.001) to NDF intake; C/N ratios were 12 and 7 for HH and LL (P≤0.001), while values for HL and LH were 11.5 and 10.6 (P>0.05). The results from the second study showed that dietary N concentration was positively affecting faecal N concentration (P≤0.001), while there was a negative correlation with the faecal concentration of NDF (P≤0.05) and the faecal ratios of NDF/N and C/N (P≤0.001). Particle passage through the mixing compartment was lower (P≤0.05) for HL (0.033 h-1) than for LL (0.043 h-1) animals, while values of 0.034 h-1 and 0.038 h-1 were obtained for groups LH and HH. At 55.4 h, total tract mean retention time was significantly (P≤0.05) lower in group LL that in all other groups where these values varied between 71 h (HH) and 79 h (HL); this was probably due to the high dietary N concentration of diet LL which was negatively correlated with time of first marker appearance in faeces (r= 0.84, P≤0.001), while the dietary C concentration was negatively correlated with particle passage through the mixing compartment (r= 0.57, P≤0.05). The results suggest that manure quality of river buffalo heifers can be considerably influenced by diet composition. Despite the reportedly high fibre digestion capacity of buffalo, digestive processes did not suppress the expression of diet characteristics in the faeces. This is important when aiming at producing a specific manure quality for fertilization purposes in (organic) crop cultivation. Although there was a strong correlation between the ingestion and the faecal excretion of nitrogen, the correlation between diet and faecal C/N ratio was weak. To impact on manure mineralization, the dietary NDF and N concentrations seem to be the key control points, but modulating effects are achieved by the inclusion of starch into the diet. Within the boundaries defined by the animals’ metabolic and (re)productive requirements for energy and nutrients, diet formulation may thus take into account the abiotically and biotically determined manure turnover processes in the soil and the nutrient requirements of the crops to which the manure is applied, so as to increase nutrient use efficiency along the continuum of the feed, the animal, the soil and the crop in (organic) farming systems.