13 resultados para Production lot-scheduling models
em Université de Montréal, Canada
Resumo:
The aim of this paper is to demonstrate that, even if Marx's solution to the transformation problem can be modified, his basic concusions remain valid.
Resumo:
We propose finite sample tests and confidence sets for models with unobserved and generated regressors as well as various models estimated by instrumental variables methods. The validity of the procedures is unaffected by the presence of identification problems or \"weak instruments\", so no detection of such problems is required. We study two distinct approaches for various models considered by Pagan (1984). The first one is an instrument substitution method which generalizes an approach proposed by Anderson and Rubin (1949) and Fuller (1987) for different (although related) problems, while the second one is based on splitting the sample. The instrument substitution method uses the instruments directly, instead of generated regressors, in order to test hypotheses about the \"structural parameters\" of interest and build confidence sets. The second approach relies on \"generated regressors\", which allows a gain in degrees of freedom, and a sample split technique. For inference about general possibly nonlinear transformations of model parameters, projection techniques are proposed. A distributional theory is obtained under the assumptions of Gaussian errors and strictly exogenous regressors. We show that the various tests and confidence sets proposed are (locally) \"asymptotically valid\" under much weaker assumptions. The properties of the tests proposed are examined in simulation experiments. In general, they outperform the usual asymptotic inference methods in terms of both reliability and power. Finally, the techniques suggested are applied to a model of Tobin’s q and to a model of academic performance.
Resumo:
It is well known that standard asymptotic theory is not valid or is extremely unreliable in models with identification problems or weak instruments [Dufour (1997, Econometrica), Staiger and Stock (1997, Econometrica), Wang and Zivot (1998, Econometrica), Stock and Wright (2000, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. One possible way out consists here in using a variant of the Anderson-Rubin (1949, Ann. Math. Stat.) procedure. The latter, however, allows one to build exact tests and confidence sets only for the full vector of the coefficients of the endogenous explanatory variables in a structural equation, which in general does not allow for individual coefficients. This problem may in principle be overcome by using projection techniques [Dufour (1997, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. AR-types are emphasized because they are robust to both weak instruments and instrument exclusion. However, these techniques can be implemented only by using costly numerical techniques. In this paper, we provide a complete analytic solution to the problem of building projection-based confidence sets from Anderson-Rubin-type confidence sets. The latter involves the geometric properties of “quadrics” and can be viewed as an extension of usual confidence intervals and ellipsoids. Only least squares techniques are required for building the confidence intervals. We also study by simulation how “conservative” projection-based confidence sets are. Finally, we illustrate the methods proposed by applying them to three different examples: the relationship between trade and growth in a cross-section of countries, returns to education, and a study of production functions in the U.S. economy.
Resumo:
Introduction: Le but de l’étude était d’examiner l’effet des matériaux à empreintes sur la précision et la fiabilité des modèles d’études numériques. Méthodes: Vingt-cinq paires de modèles en plâtre ont été choisies au hasard parmi les dossiers de la clinique d’orthodontie de l’Université de Montréal. Une empreinte en alginate (Kromopan 100), une empreinte en substitut d’alginate (Alginot), et une empreinte en PVS (Aquasil) ont été prises de chaque arcade pour tous les patients. Les empreintes ont été envoyées chez Orthobyte pour la coulée des modèles en plâtre et la numérisation des modèles numériques. Les analyses de Bolton 6 et 12, leurs mesures constituantes, le surplomb vertical (overbite), le surplomb horizontal (overjet) et la longueur d’arcade ont été utilisés pour comparaisons. Résultats : La corrélation entre mesures répétées était de bonne à excellente pour les modèles en plâtre et pour les modèles numériques. La tendance voulait que les mesures répétées sur les modèles en plâtre furent plus fiables. Il existait des différences statistiquement significatives pour l’analyse de Bolton 12, pour la longueur d’arcade mandibulaire, et pour le chevauchement mandibulaire, ce pour tous les matériaux à empreintes. La tendance observée fut que les mesures sur les modèles en plâtre étaient plus petites pour l’analyse de Bolton 12 mais plus grandes pour la longueur d’arcade et pour le chevauchement mandibulaire. Malgré les différences statistiquement significatives trouvées, ces différences n’avaient aucune signification clinique. Conclusions : La précision et la fiabilité du logiciel pour l’analyse complète des modèles numériques sont cliniquement acceptables quand on les compare avec les résultats de l’analyse traditionnelle sur modèles en plâtre.
Resumo:
Le vieillissement normal est associé à une réorganisation cérébrale qui peut être influencée par plusieurs facteurs. Des théories comme la réserve cognitive de Stern (2002) tentent d’expliquer les effets de ces différents facteurs. Certains, le niveau de scolarité par exemple, sont encore mal connus. Pourtant, le niveau de scolarité est connu pour avoir un impact sur les performances cognitives tout au long de la vie. Le but de ce mémoire est d’étudier les effets du niveau de scolarité sur l’oxygénation cérébrale de personnes âgées en santé lors d’une tâche d’évocation lexicale orthographique et sémantique. Chaque tâche est divisée selon un critère « plus productive » et « moins productive ». Les âgés faiblement scolarisés produisent moins de mots que les âgés fortement scolarisés. De plus, la différence de mots produits entre le critère plus productif et moins productif est plus grande pour la tâche sémantique que pour la tâche orthographique. Du point de vue hémodynamique, les deux groupes ont des activations semblables, contredisant le phénomène HAROLD. De plus, les participants peu scolarisés tendent à activer de façon plus importante l’hémisphère gauche, peu importe la tâche ou la condition. Par contre, les activations varient selon la tâche et la condition dans le cas du groupe fortement scolarisé.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Ce travail contribue au champ d’études sur l’adoption de politique publique des États américains en étudiant quantitativement leurs réactions à l’enjeu du réchauffement climatique. Suivant l’approche des déterminants internes, des facteurs économiques, politiques et environnementaux sont utilisés pour expliquer la densité réglementaire étatique limitant la production de gaz à effet de serre. La variable dépendante constitue la principale contribution de ce travail puisqu’elle incarne une revue exhaustive des options législatives adoptées par les États américains et les regroupe en six catégories. Les déterminants internes identifiés permettent d’expliquer pourquoi certains États sont des instigateurs ou des retardataires dans le dossier du réchauffement climatique. Les principaux facteurs explicatifs sont la présence d’une population idéologiquement libérale et de groupes d’intérêts environnementaux forts.
Resumo:
Dans les milieux contaminés par les métaux, les organismes vivants sont exposés à plusieurs d’entre eux en même temps. Les modèles courants de prédiction des effets biologiques des métaux sur les organismes (p. ex., modèle du ligand biotique, BLM ; modèle de l’ion libre, FIAM), sont des modèles d’équilibre chimique qui prévoient, en présence d'un deuxième métal, une diminution de la bioaccumulation du métal d’intérêt et par la suite une atténuation de ses effets. Les biomarqueurs de toxicité, tels que les phytochélatines (PCs), ont été utilisés comme étant un moyen alternatif pour l’évaluation des effets biologiques. Les phytochélatines sont des polypeptides riches en cystéine dont la structure générale est (γ-glu-cys)n-Gly où n varie de 2 à 11. Leur synthèse semble dépendante de la concentration des ions métalliques ainsi que de la durée de l’ exposition de l’organisme, aux métaux. L'objectif de cette étude était donc de déterminer, dans les mélanges binaires de métaux, la possibilité de prédiction de la synthèse des phytochélatines par les modèles d’équilibres chimiques, tel que le BLM. Pour cela, la quantité de phytochélatines produites en réponse d’une exposition aux mélanges binaires : Cd-Ca, Cd-Cu et Cd-Pb a été mesurée tout en surveillant l’effet direct de la compétition par le biais des concentrations de métaux internalisés. En effet, après six heures d’exposition, la bioaccumulation de Cd diminue en présence du Ca et de très fortes concentrations de Pb et de Cu (de l’ordre de 5×10-6 M). Par contre, avec des concentrations modérées de ces deux métaux, le Cd augmente en présence de Cu et ne semble pas affecté par la présence de Pb. Dans le cas de la compétition Cd-Cu, une bonne corrélation a été observée entre la production de PC2, PC3 et PC4 et la quantité des métaux bioaccumulés. Pour la synthèse des phytochélatines et la bioaccumulation, les effets étaient considérés comme synergiques. Dans le cas du Cd-Ca, les quantités de PC3 et PC4 ont diminué avec le métal internalisé (effet antagoniste), mais ce qui était remarquable était la grande quantité de cystéine (GSH) et PC2 qui ont été produites à de fortes concentrations du Ca. Le Pb seul n’a pas induit les PCs. Par conséquent, il n’y avait pas de variation de la quantité de PCs avec la concentration de Pb à laquelle les algues ont été exposées. La détection et la quantification des PCs ont été faites par chromatographie à haute performance couplée d’un détecteur de fluorescence (HPLC-FL). Tandis que les concentrations métalliques intracellulaires ont été analysées par spectroscopie d’absorption atomique (AAS) ou par spectrométrie de masse à source plasma à couplage inductif (ICP-MS).
Resumo:
L’implantation répandue de nouveaux quartiers résidentiels sur le territoire de la périphérie urbaine est en partie responsable de la baisse du couvert végétal et de l’augmentation des surfaces imperméables à grande échelle. Les villes sont maintenant aux prises avec une augmentation constante de la production de ruissellement qu'elles doivent gérer au moyen d’un vaste réseau d’égouts et de canalisations. Des données sur les impacts de ces modèles de quartier résidentiel nous révèlent que cette forme d’habitat provoque la dégradation des milieux naturels et aquatiques. La présente étude vise à mettre à l’épreuve la stratégie d’aménagement de l’Open space design en comparant l’effet de trois situations d’aménagement d’ensembles résidentiels sur le coefficient de ruissellement pondéré (Cp). Les trois situations étudiées sont 1 : le développement actuel tel que conçu par le promoteur, 2 : un scénario de quartier visant la préservation des cours d’eau existants ainsi qu’une réduction des lots et des surfaces imperméables et 3 : un quartier avec des types d’habitation plus denses. Les coefficients pondérés obtenus sont respectivement de 0,50 pour le quartier actuel, de 0,40 pour le scénario 1 et de 0,34 pour le scénario 2. Au terme de cet exercice, il apparaît, d’une part, que la densification du bâti, la nature des surfaces et l’organisation spatiale peuvent concourir à diminuer la production de ruissellement d’un quartier. Cette étude permet de situer l’importance de la gestion du ruissellement dans la planification et l’aménagement du territoire.
Resumo:
La demande croissante en carburants, ainsi que les changements climatiques dus au réchauffement planétaire poussent le monde entier à chercher des sources d’énergie capables de produire des combustibles alternatifs aux combustibles fossiles. Durant les dernières années, plusieurs sources potentielles ont été identifiées, les premières à être considérées sont les plantes oléagineuses comme source de biocarburant, cependant l’utilisation de végétaux ou d’huiles végétales ayant un lien avec l’alimentation humaine peut engendrer une hausse des prix des denrées alimentaires, sans oublier les questions éthiques qui s’imposent. De plus, l'usage des huiles non comestibles comme sources de biocarburants, comme l’huile de jatropha, de graines de tabac ou de jojoba, révèle un problème de manque de terre arable ce qui oblige à réduire les terres cultivables de l'industrie agricole et alimentaire au profit des cultures non comestibles. Dans ce contexte, l'utilisation de microorganismes aquatiques, tels que les microalgues comme substrats pour la production de biocarburant semble être une meilleure solution. Les microalgues sont faciles à cultiver et peuvent croitre avec peu ou pas d'entretien. Elles peuvent ainsi se développer dans des eaux douces, saumâtres ou salées de même que dans les terres non cultivables. Le rendement en lipide peut être largement supérieur aux autres sources de biocarburant potentiel, sans oublier qu’elles ne sont pas comestibles et sans aucun impact sur l'industrie alimentaire. De plus, la culture intensive de microalgues pour la production de biodiesel pourrait également jouer un rôle important dans l'atténuation des émissions de CO2. Dans le cache de ce travail, nous avons isolé et identifié morphologiquement des espèces de microalgues natives du Québec, pour ensuite examiner et mesurer leur potentiel de production de lipides (biodiesel). L’échantillonnage fut réalisé dans trois régions différentes du Québec: la région de Montréal, la gaspésie et le nord du Québec, et dans des eaux douces, saumâtres ou salées. Cent souches ont été isolées à partir de la région de Montréal, caractérisées et sélectionnées selon la teneur en lipides et leur élimination des nutriments dans les eaux usées à des températures différentes (10 ± 2°C et 22 ± 2°C). Les espèces ayant une production potentiellement élevée en lipides ont été sélectionnées. L’utilisation des eaux usées, comme milieu de culture, diminue le coût de production du biocarburant et sert en même temps d'outil pour le traitement des eaux usées. Nous avons comparé la biomasse et le rendement en lipides des souches cultivées dans une eau usée par apport à ceux dans un milieu synthétique, pour finalement identifié un certain nombre d'isolats ayant montré une bonne croissance à 10°C, voir une teneur élevée en lipides (allant de 20% à 45% du poids sec) ou une grande capacité d'élimination de nutriment (>97% d'élimination). De plus, nous avons caractérisé l'une des souches intéressantes ayant montré une production en lipides et une biomasse élevée, soit la microalgue Chlorella sp. PCH90. Isolée au Québec, sa phylogénie moléculaire a été établie et les études sur la production de lipides en fonction de la concentration initiale de nitrate, phosphate et chlorure de sodium ont été réalisées en utilisant de la méthodologie des surfaces de réponse. Dans les conditions appropriées, cette microalgue pourrait produire jusqu'à 36% de lipides et croitre à la fois dans un milieu synthétique et un milieu issu d'un flux secondaire de traitement des eaux usées, et cela à 22°C ou 10°C. Ainsi, on peut conclure que cette souche est prometteuse pour poursuivre le développement en tant que productrice potentielle de biocarburants dans des conditions climatiques locales.
Resumo:
L’azote est l’élément le plus abondant dans l’atmosphère terrestre avec un pourcentage atteignant 78 %. Composant essentiel pour la biosynthèse des matériels organiques cellulaires, il est inutilisable sous sa forme diatomique (N2) très stable par la plupart des organismes. Seules les bactéries dites diazotrophiques comme Rhodobacter capsulatus sont capables de fixer l’azote moléculaire N2 par le biais de la synthèse d’une enzyme, la nitrogénase. Cette dernière catalyse la réduction du N2 en ammonium (NH4) qui peut alors être assimilé par d’autres organismes. La synthèse et l’activité de la nitrogénase consomment beaucoup d’énergie ce qui implique une régulation rigoureuse et son inhibition tant qu’une quantité suffisante d’ammonium est disponible. Parmi les protéines impliquées dans cette régulation, la protéine d’intérêt AmtB est un transporteur membranaire responsable de la perception et le transport de l’ammonium. Chez R. capsulatus, il a été démontré que suite à l’addition de l’ammonium, l’AmtB inhibe de façon réversible (switch off/switch on) l’activité de la nitrogénase en séquestrant la protéine PII GlnK accompagnée de l’ajout d’un groupement ADP ribose sur la sous unités Fe de l’enzyme par DraT. De plus, la formation de ce complexe à lui seul ne serait pas suffisant pour cette inactivation, ce qui suggère la séquestration d’une troisième protéine, DraG, afin d’inhiber son action qui consiste à enlever l’ADP ribose de la nitrogénase et donc sa réactivation. Afin de mieux comprendre le fonctionnement de l’AmtB dans la régulation et le transport de l’ammonium à un niveau moléculaire et par la même occasion la fixation de l’azote, le premier volet de ce mémoire a été d’introduire une mutation ponctuelle par mutagénèse dirigée au niveau du résidu conservé W237 de l’AmtB. La production d’hydrogène est un autre aspect longtemps étudié chez R. capsulatus. Cette bactérie est capable de produire de l’hydrogène à partir de composés organiques par photofermentation suite à l’intervention exclusive de la nitrogénase. Plusieurs études ont été entreprises afin d’améliorer la production d’hydrogène. Certaines d’entre elles se sont intéressées à déterminer les conditions optimales qui confèrent une production maximale de gaz tandis que d’autres s’intéressent au fonctionnement de la bactérie elle même. Ainsi, le fait que la bioproduction de H2 par fermentation soit catalysée par la nitrogénase cela implique la régulation de l’activité de cette dernière par différents mécanismes dont le switch off par ADP ribosylation de l’enzyme. De ce fait, un mutant de R. capsulatus dépourvu d’AmtB (DG9) a été étudié dans la deuxième partie de cette thèse en termes d’activité de la nitrogénase, de sa modification par ADP ribosylation avec la détection des deux protéines GlnK et DraG qui interviennent dans cette régulation pour connaitre l’influence de différents acides aminés sur la régulation de la nitrogénase et pour l‘utilisation future de cette souche dans la production d’H2 car R. capsulatus produit de l’hydrogène par photofermentation grâce à cette enzyme. Les résultats obtenus ont révélé une activité de la nitrogénase continue et ininterrompue lorsque l’AmtB est absent avec une activité maximale quand la proline est utilisée comme source d’azote durant la culture bactérienne ce qui implique donc que l’abolition de l’activité de cette protéine entraine une production continue d’H2 chez R. capsulatus lorsque la proline est utilisée comme source d’azote lors de la culture bactérienne. Par ailleurs, avec des Western blots on a pu déterminer l’absence de régulation par ADP ribosylation ainsi que les expressions respectives de GlnK et DraG inchangées entre R. capsulatus sauvage et muté. En conclusion, la nitrogénase n’est pas modifiée et inhibée lorsque l’amtB est muté ce qui fait de la souche R. capsulatus DG9 un candidat idéal pour la production de biohydrogène en particulier lorsque du glucose et de la proline sont respectivement utilisés comme source de carbone et d'azote pour la croissance.
Resumo:
Le diabète de type 2 (DT2) se caractérise par une production insuffisante d'insuline par le pancréas ainsi qu'une résistance des tissus périphériques à l'action de l'insuline. Dans les cellules bêta pancréatiques, le glucose stimule la production de l'insuline en induisant la transcription de son gène et la traduction ainsi que la sécrétion de sa protéine. Paradoxalement, une exposition prolongée et simultanée de ces cellules à de hautes concentrations de glucose en présence d'acides gras conduit à la détérioration de la fonction bêta pancréatique et au développement du DT2. Toutefois, les mécanismes moléculaires responsables de ces effets du glucose ne sont que partiellement connus. L'objectif du travail décrit dans cette thèse est d'identifier les mécanismes responsables de la régulation de la transcription du gène de l'insuline. PDX-1 (de l’anglais pour pancreatic and duodenal homeobox 1) est un facteur de transcription majeur et essentiel tant pour le développement du pancréas que pour le maintien de sa fonction à l'état adulte. En réponse au glucose, PDX-1 se lie au promoteur du gène de l'insuline et induit sa transcription. Ceci est inhibé par l'acide gras palmitate. Dans la première partie des travaux effectués dans le cadre de cette thèse, nous avons identifié deux mécanismes de régulation de la transcription du gène de l'insuline: le premier via ERK1/2 (de l'anglais pour extracellular-signal-regulated protein kinases 1 and 2) et le second par l’enzyme PASK (pour per-arnt-sim kinase). Nous avons également mis en évidence l'existence d'un troisième mécanisme impliquant l'inhibition de l'expression du facteur de transcription MafA par le palmitate. Nos travaux indiquent que la contribution de la signalisation via PASK est majeure. L'expression de PASK est augmentée par le glucose et inhibée par le palmitate. Sa surexpression dans les cellules MIN6 et les îlots isolés de rats, mime les effets du glucose sur l'expression du gène de l'insuline ainsi que sur l'expression de PDX-1 et prévient les effets délétères du palmitate. Dans la deuxième partie de la thèse, nous avons identifié un nouveau mécanisme par lequel PASK augmente la stabilité protéique de PDX-1, soit via la phosphorylation et l'inactivation de la protéine kinase GSK3 bêta (de l'anglais pour glycogen synthase kinase 3 beta). Le glucose induit la translocation de PDX-1 du cytoplasme vers le noyau, ce qui est essentiel à sa liaison au promoteur de ses gènes cibles. L'exclusion nucléaire de PDX-1 a été observée dans plusieurs modèles ex vivo et in vivo de dysfonction de la cellule bêta pancréatique. Dans le dernier volet de cette thèse, nous avons démontré l'importance de l'utilisation de cellules primaires (îlots isolés et dispersés) pour étudier la translocation nucléaire de PDX-1 endogène étant donné que ce mode de régulation est absent dans les lignées insulino-sécrétrices MIN6 et HIT-T15. Ces études nous ont permis d'identifier et de mieux comprendre les mécanismes régulant la transcription du gène de l'insuline via le facteur de transcription PDX-1. Les cibles moléculaires ainsi identifiées pourraient contribuer au développement de nouvelles approches thérapeutiques pour le traitement du diabète de type 2. Mots-clés : Diabète, îlots de Langerhans, cellule bêta pancréatique, gène de l'insuline, PDX-1, PASK, GSK3 bêta, ERK1/2, PKB, glucose, palmitate.
Resumo:
La présence d’Escherichia coli pathogènes en élevages porcins entraine des retards de croissance et la mortalité. La transmission des E. coli pathogènes entre les élevages et l'abattoir d’un même réseau de production n'est pas bien décrite. La détection des gènes de virulence des E. coli pathogènes pourrait permettre d’identifier un marqueur de contamination dans le réseau. L’objectif de cette étude a été d’identifier un marqueur de contamination E. coli dans un réseau de production porcine défini afin de décrire certains modes de transmission des E. coli pathogènes. Pour ce faire, une région géographique comprenant 10 fermes d’engraissement, un abattoir et un réseau de transport a été sélectionnée. Trois lots de production consécutifs par ferme ont été suivis pendant 12 mois. Des échantillons environnementaux ont été prélevés à l’intérieur et à l’extérieur des fermes (3 visites d’élevage), dans la cour de l’abattoir (2 visites lors de sorties de lot) et sur le camion de transport. La détection des gènes de virulence (eltB, estA, estB, faeG, stxA, stx2A, eae, cnf, papC, iucD, tsh, fedA) dans les échantillons a été réalisée par PCR multiplexe conventionnelle. La distribution temporelle et spatiale des gènes de virulence a permis d’identifier le marqueur de contamination ETEC/F4 défini par la détection d’au moins un gène d’entérotoxine ETEC (estB, estA et eltB) en combinaison avec le gène de l’adhésine fimbriaire (faeG). La distribution des échantillons positifs ETEC/F4 qualifie la cour de l’abattoir comme un réservoir de contamination fréquenté par les transporteurs, vecteurs de contamination entre les élevages. Ceci suggère le lien microbiologique entre l’élevage, les transporteurs et l’abattoir jouant chacun un rôle dans la dissémination des microorganismes pathogènes et potentiellement zoonotiques en production porcine.