458 resultados para Formule du nombre de classes de Dirichlet


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le facteur d'initiation de la traduction chez les eukaryotes eIF4E (4E) est un puissant oncogène en raison de sa capacité à faciliter l'export et/ou la traduction de certains transcripts, dont beaucoup sont eux-mêmes des oncogènes. 4E intéragit avec un grand nombre de protéines régulatrices dont la protéine 4E-T (pour 4E-Transporter). La capacité de 4E-T à modifier la localisation subcellulaire de 4E pourrait offrir un mécanisme permettant de modifier le potentiel oncogène d'une cellule. La surexpression de 4E-T dans des cellules d'ostéosarcome conduit à l’augmentation du nombre et de la taille des P-bodies, dans lesquels 4E colocalisent avec 4E-T mais pas avec la version tronquée 4E-T/Y30A. Cependant, les différentes expériences menées, permettant d’analyser les taux de transcription, la quantité de protéine, les profiles polysomiques ainsi que la distribution nucléo-cytoplasmique, montrent que la surexpression de 4E-T n'a pas d'effet sur la fonction de 4E. L'observation d’un enrichissement cytoplasmique et d’une charge réduite de ribosomes sur les transcripts codant les protéines cycline D1 et ODC (profile polysomique) dans la lignée 4E-T suggère un role de 4E-T dans la séquestration cytoplasmique de certains transcrips par un mécanisme qui reste encore à déterminer.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le vieillissement de la population canadienne qui est appréhendé dans les années à venir entrainera son lot de défis pour l’administration des soins et services de longue durée. Par contre, une amélioration de l’état de santé fonctionnelle de la population pourrait atténuer le rythme de croissance du nombre d’aînés en état d’incapacité. Utilisant les données transversales de l’Enquête nationale sur la santé de la population (ENSP) et de l’Enquête de santé dans les collectivités canadiennes (ESCC), cette recherche analyse les tendances dans les niveaux d’incapacité chez les personnes de 65 ans et plus vivant dans les ménages privés au Canada entre 1994 et 2005, ainsi que les caractéristiques sociodémographiques associées au risque d’être en incapacité. Les résultats montrent que la prévalence de l’incapacité est à la baisse durant la période, et que parmi les personnes en incapacité, la proportion présentant une incapacité légère a diminué. Tout étant égal par ailleurs, certaines caractéristiques sociodémographiques augmentent le risque pour une personne âgée d’être en incapacité, notamment l’âge, être une femme, la faible scolarité, et être veuf, séparé ou divorcé. Cependant, les limites relativement importantes quant à la qualité des données font en sorte que nous devons interpréter ces résultats avec prudence.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les chercheurs s’étant penchés sur les facteurs influençant la décision du suspect de confesser son crime ont mis en évidence que deux facteurs sont principalement influents : la force de la preuve (Des Lauriers-Varin et St-Yves, 2006; Moston et al., 1992) et la conduite de l’enquêteur (Holmberg et Christianson, 2002; Kebell et al., 2005). Par contre, les contradictions entre ces études ont apporté davantage de confusion que de réponses à la pratique. Cette étude vise donc à explorer l’incidence de ces deux facteurs sur l’inclination du suspect à confesser son crime et les possibles interactions entre eux. Pour ce faire, 50 enregistrements vidéo d’interrogatoires d’homicide furent visionnés et les données furent soumises à des analyses statistiques et qualitatives. Les résultats d’une régression logistique démontrent que la conduite de l’enquêteur est le facteur prédominant pour prédire l’obtention d’aveux du suspect en contrôlant pour l’effet des variables statiques et de la preuve. Également, les résultats mettent en évidence qu’en augmentant les attitudes et comportements associés à une conduite « positive », l’enquêteur augmentait les probabilités d’aveux du suspect. De plus, les résultats indiquent que l’augmentation du nombre d’éléments de preuves est associée à une plus grande démonstration de « rapport de force » de la part de l’enquêteur. Les résultats sont discutés en relation à l’effet des principaux facteurs sur les schémas et dynamiques prenant place entre l’enquêteur et le suspect.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Comparativement au génome contenu dans le noyau de la cellule de plante, nos connaissances des génomes des deux organelles de cette cellule, soit le plastide et la mitochondrie, sont encore très limitées. En effet, un nombre très restreint de facteurs impliqués dans la réplication et la réparation de l’ADN de ces compartiments ont été identifiés à ce jour. Au cours de notre étude, nous avons démontré l’implication de la famille de protéines Whirly dans le maintien de la stabilité des génomes des organelles. Des plantes mutantes pour des gènes Whirly chez Arabidopsis thaliana et Zea mays montrent en effet une augmentation du nombre de molécules d’ADN réarrangées dans les plastides. Ces nouvelles molécules sont le résultat d’une forme de recombinaison illégitime nommée microhomology-mediated break-induced replication qui, en temps normal, se produit rarement dans le plastide. Chez un mutant d’Arabidopsis ne possédant plus de protéines Whirly dans les plastides, ces molécules d’ADN peuvent même être amplifiées jusqu’à cinquante fois par rapport au niveau de l’ADN sauvage et causer un phénotype de variégation. L’étude des mutants des gènes Whirly a mené à la mise au point d’un test de sensibilité à un antibiotique, la ciprofloxacine, qui cause des bris double brin spécifiquement au niveau de l’ADN des organelles. Le mutant d’Arabidopsis ne contenant plus de protéines Whirly dans les plastides est plus sensible à ce stress que la plante sauvage. L’agent chimique induit en effet une augmentation du nombre de réarrangements dans le génome du plastide. Bien qu’un autre mutant ne possédant plus de protéines Whirly dans les mitochondries ne soit pas plus sensible à la ciprofloxacine, on retrouve néanmoins plus de réarrangements dans son ADN mitochondrial que dans celui de la plante sauvage. Ces résultats suggèrent donc une implication pour les protéines Whirly dans la réparation des bris double brin de l’ADN des organelles de plantes. Notre étude de la stabilité des génomes des organelles a ensuite conduit à la famille des protéines homologues des polymérases de l’ADN de type I bactérienne. Plusieurs groupes ont en effet suggéré que ces enzymes étaient responsables de la synthèse de l’ADN dans les plastides et les mitochondries. Nous avons apporté la preuve génétique de ce lien grâce à des mutants des deux gènes PolI d’Arabidopsis, qui encodent des protéines hautement similaires. La mutation simultanée des deux gènes est létale et les simples mutants possèdent moins d’ADN dans les organelles des plantes en bas âge, confirmant leur implication dans la réplication de l’ADN. De plus, les mutants du gène PolIB, mais non ceux de PolIA, sont hypersensibles à la ciprofloxacine, suggérant une fonction dans la réparation des bris de l’ADN. En accord avec ce résultat, la mutation combinée du gène PolIB et des gènes des protéines Whirly du plastide produit des plantes avec un phénotype très sévère. En définitive, l’identification de deux nouveaux facteurs impliqués dans le métabolisme de l’ADN des organelles nous permet de proposer un modèle simple pour le maintien de ces deux génomes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les gangs de rue suscitent aujourd’hui l’intérêt de nombreux chercheurs en raison de la menace qu’ils semblent poser à la société et ses institutions. En effet, depuis quelques années, les Services Correctionnels du Québec connaissent une hausse du nombre de personnes incarcérées associées aux gangs de rue et plusieurs questionnements sont soulevés face à la recrudescence de ces groupes en prison. Peu de recherches se sont penchées sur la question des gangs de rue en prison, alors que ceux-ci semblent être à la source de plusieurs problèmes aigus dans les institutions carcérales. Ainsi, ces derniers sont souvent associés à la criminalité et à la violence, que ce soit dans les médias ou dans la littérature scientifique et semblent être la source de plusieurs inquiétudes de la part du grand public; considérés comme imprévisibles et violents, ils font peur. Groupes diversifiés et difficiles à saisir, leur étude se veut non seulement primordiale vu leur nature, mais nécessaire afin d’en saisir la complexité et pouvoir agir, que ce soit au niveau de la prévention, de la gestion ou encore de la répression. Ce mémoire vise donc la compréhension de l’expérience des membres de gangs de rue dans les prisons provinciales québécoises. Dans ce cadre, nous avons procédé par une approche qualitative au moyen d’entretiens de type qualitatif menés auprès de détenus considérés par les services correctionnels comme étant proches ou membres de gangs de rue. Les vingt-et-une entrevues menées nous ont permis d’approfondir et de saisir le vécu de ces derniers en détention. De ces entretiens, trois grandes dimensions sont ressorties, soit l’organisation sociale des gangs de rue en prison, les conditions de détention difficiles dans lesquelles évoluent ces groupes ainsi que leur fonctionnement en prison. Nos analyses nous ont permis de dégager certains constats. À leur arrivée en prison, les individus affiliés aux gangs de rue sont doublement étiquetés, et se retrouvent dans des secteurs de détention spécifiques où les conditions sont particulièrement difficiles à vivre. Dans ce contexte, les gangs de rue tendent à reproduire en prison certains attributs associés aux gangs de rue, notamment une certaine structure et hiérarchie organisationnelle et un esprit de cohésion. Il ressort ainsi de notre étude que cette solidarité semble permettre aux gangs de rue de s’adapter à l’environnement hostile que représente la prison. Toutefois, cette solidarité nous parait être un obstacle ou du moins une difficulté inhérente à la prise en charge et à la gestion des gangs de rue en prison.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

On s’intéresse ici aux erreurs de modélisation liées à l’usage de modèles de flammelette sous-maille en combustion turbulente non prémélangée. Le but de cette thèse est de développer une stratégie d’estimation d’erreur a posteriori pour déterminer le meilleur modèle parmi une hiérarchie, à un coût numérique similaire à l’utilisation de ces mêmes modèles. Dans un premier temps, une stratégie faisant appel à un estimateur basé sur les résidus pondérés est développée et testée sur un système d’équations d’advection-diffusion-réaction. Dans un deuxième temps, on teste la méthodologie d’estimation d’erreur sur un autre système d’équations, où des effets d’extinction et de réallumage sont ajoutés. Lorsqu’il n’y a pas d’advection, une analyse asymptotique rigoureuse montre l’existence de plusieurs régimes de combustion déjà observés dans les simulations numériques. Nous obtenons une approximation des paramètres de réallumage et d’extinction avec la courbe en «S», un graphe de la température maximale de la flamme en fonction du nombre de Damköhler, composée de trois branches et d’une double courbure. En ajoutant des effets advectifs, on obtient également une courbe en «S» correspondant aux régimes de combustion déjà identifiés. Nous comparons les erreurs de modélisation liées aux approximations asymptotiques dans les deux régimes stables et établissons une nouvelle hiérarchie des modèles en fonction du régime de combustion. Ces erreurs sont comparées aux estimations données par la stratégie d’estimation d’erreur. Si un seul régime stable de combustion existe, l’estimateur d’erreur l’identifie correctement ; si plus d’un régime est possible, on obtient une fac˛on systématique de choisir un régime. Pour les régimes où plus d’un modèle est approprié, la hiérarchie prédite par l’estimateur est correcte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le contexte social dans lequel s’inscrivent le désir d’enfant et la procréation en Occident s’est profondément transformé au cours des dernières décennies. Après l’introduction de la contraception et l’augmentation du nombre d’enfants nés hors mariage, le développement des nouvelles techniques reproductives et de l’adoption, notamment l’adoption internationale, ont à leur tour contribué à la transformation des cadres dans lesquels s’inscrivent les relations de parenté et la formation des familles. À partir de l’étude de témoignages de couples québécois dont les échecs successifs en procréation médicalement assistée (PMA) ont mené à la décision d’adopter, cette thèse interroge les multiples dimensions qu’implique un tel type de trajectoire. Sur le plan social, tant la procréation médicalement assistée que l’adoption nécessitent l’intervention d’une tierce partie pour concrétiser et faire reconnaître l’établissement du lien filiatif, soit la médecine dans le cas de la PMA et celle des autorités juridiques et gouvernementales dans le cas de l’adoption. Les deux phénomènes mettent également en scène des situations et des enjeux hautement révélateurs des valeurs et des représentations collectives en matière de parenté et de famille. D’un premier abord, le type de parcours étudié semble illustrer le passage entre deux sphères complètement distinctes: celle de la nature et du biologique incarnée par la PMA et celle de la culture et du lien social incarnée par l’adoption. Or, l’étude des trajectoires des participants donne à voir une situation beaucoup plus complexe où s’entremêlent un ensemble d’explications et de facteurs relatifs au désir d’enfant, à la famille, à la parentalité qui ne font sens qu’une fois replacés dans le contexte des grandes tendances sociales et idéologiques qui traversent notre société. Plus globalement, les analyses proposées dans cette thèse participent au développement d’une anthropologie de la parenté qui tienne compte des dynamiques et des tensions qui touchent la famille moderne.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse se propose de réévaluer l’œuvre de Guy Debord en privilégiant la lecture de ses autoportraits littéraires et cinématographiques. Cette recherche favorise une réception de Debord mettant en lumière l’importance de l’écriture de soi dans l’ensemble de sa production. L’inscription de soi, chez Debord, passe en effet par la création d’une légende. L’introduction démontre comment la trajectoire singulière de Debord témoigne d’un brouillage entre les frontières traditionnelles séparant l’esthétique et le politique. Elle explore les moyens pris par Debord afin de redéfinir le statut de l’artiste et la fonction de l’écriture dans le cadre d’une transformation d’une vie quotidienne. Dans ce cadre, la production artistique se subordonne entièrement au caractère de Debord, une personnalité qui se manifeste d’abord à travers la création d’un Grand style qui lui est propre. En célébrant le primat du vécu sur l’œuvre, la manœuvre de Debord s’inscrit dans la tradition moderniste de l’art. Le chapitre II montre comment Debord souhaita participer à l’entreprise de politisation de l’esthétique qui définit l’action des avant-gardes historiques. On y explique notamment comment l’œuvre de Debord s’est construite à partir des ruines du surréalisme. Pour se distinguer de ses ancêtres, le mouvement situationniste rejeta cependant l’esthétique surréaliste du rêve au profit d’une nouvelle poétique de l’ivresse se basant sur la dérive et sur l’intensification du moi. La dernière section de ce chapitre se consacre à la question de la création d’un mythe moderne, volonté partagée par les deux groupes. La troisième partie de cette thèse traite spécifiquement de la construction mythologique de Debord. Ce chapitre situe le projet mémorialiste de Debord dans la tradition littéraire française de l’écriture du moi. Il explore ensuite l’économie des sources classiques de Debord, en soulignant l’importance chez lui d’une éthique aristocratique issue du Grand siècle, éthique qui met de l’avant la distinction individuelle. Enfin, l’importance de la mentalité baroque est abordée conjointement à la question primordiale de la stratégie et de la manipulation. Le quatrième chapitre aborde la question de l’identification. Quand Debord décide de parler de sa vie, il le fait toujours en employant des éléments qui lui sont extérieurs : des « détournements ». Son « mode d’emploi » des détournements est défini dans la perspective d’un dévoilement de soi. On explore par la suite la question de l’imaginaire politique de Debord, imaginaire qui convoque sans cesse des représentations issues du XIXe siècle (classes dangereuses, conspirateur, bohème). Ce dernier chapitre se termine sur un essai d’interprétation approfondissant l’utilisation répétée de certaines figures criminelles, notamment Lacenaire. On mettra de l’avant la fonction centrale qu’occupent le crime et la transgression dans la sensibilité de Debord.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le CD40 ligand (CD40L) est une molécule inflammatoire appartenant à la famille du Facteur de Nécrose Tumorale ("Tumor Necrosis Factor", TNF), originalement identifié au niveau des cellules immunitaires. L’interaction du CD40L avec son récepteur de haute affinité présent sur les cellules B, le CD40, est d’une importance cruciale à la production d’immunoglobulines lors de la réponse immunitaire. Aujourd’hui, nous savons que ces deux molécules qui constituent l’axe CD40/CD40L sont aussi exprimées au niveau des cellules du système vasculaire et occupent une place importante dans une variété de réactions inflammatoires, de sorte que le CD40L est présentement reconnu comme une molécule thrombo-inflammatoire prédictive des évènements cardiovasculaires. Les plaquettes sont la principale source du CD40L soluble ("soluble CD40L", sCD40L) plasmatique et il fut démontré être impliqué dans l’activation plaquettaire, malgré que son impact exact sur la fonction plaquettaire et les mécanismes sous-jacents demeurent inconnus. Ainsi, le but de ce projet était de déterminer l’impact du sCD40L sur la fonction plaquettaire et d’élucider les mécanismes cellulaires et moléculaires sous-jacents. Les objectifs spécifiques étaient : 1) d’évaluer l’impact du sCD40L sur l’activation et l’agrégation plaquettaire in vitro; 2) de déterminer le récepteur cible (CD40 ou autre) impliqué dans ces effets; 3) de décortiquer les voies signalétiques intracellulaires et moléculaires induites par le sCD40L, impliquant la participation potentielle de la famille du facteur associé du récepteur du TNF ("Tumor Necrosis Factor Receptor Associated Factor", TRAF) et 4) d’analyser l’effet du sCD40L sur la formation du thrombus in vivo. Le sCD40L augmente fortement l’activation et l’agrégation plaquettaire induite par de faibles doses d’agonistes. Les plaquettes humaines traitées avec une forme mutante du sCD40L qui n’interagit pas avec le CD40 et les plaquettes de souris CD40 déficientes (CD40-/-) ne furent pas en mesure d’induire ces effets. De plus, nous démontrons la présence de plusieurs membres de la famille des TRAFs dans les plaquettes, parmi lesquels seulement TRAF-2 interagit avec le CD40 suite à la stimulation par le sCD40L. Le sCD40L agit sur les plaquettes au repos par l’entremise de la protéine Rac1 et de sa cible en aval, soit la protéine kinase activatrice du mitogène p38 ("Mitogen Activating Protein Kinase", MAPK). Ceci mène ultimement au changement de forme plaquettaire et à la polymérisation de l’actine. Par ailleurs, il est intéressant de noter que les souris CD40-/- démontrent un défaut significatif de l’agrégation plaquettaire en réponse au collagène, ce qui souligne l’importance du CD40 dans les interactions plaquettes-plaquettes. Dans un deuxième temps, le sCD40L amplifie l’agrégation plaquettaire en sang complet, accélère les temps de thrombose in vitro mesurés à l’aide du système PFA-100 et augmente l’adhésion plaquettaire au collagène sous condition de flux, le tout par l’entremise du CD40. Finalement, dans un modèle de thrombose artérielle murin, l’infusion du sCD40L exacerbe la formation du thrombus chez les souris du type sauvage ("Wild Type", WT), mais non chez les souris CD40-/-. Ceci fut en plus associé à une augmentation significative du nombre de leucocytes au sein du thrombus des souris WT traitées à l’aide du sCD40L, tel que démontré par marquage immuno-histologique anti-CD45 et par quantification des coupes artérielles par microscopie optique. En résumé, ce projet identifie une nouvelle voie signalétique, TRAF-2/Rac1/p38 MAPK, en réponse au sCD40L et démontre ses effets sur l’activation et l’agrégation plaquettaire. De manière encore plus importante, nous démontrons pour la première fois la présence d’une corrélation positive entre les niveaux circulants du sCD40L et la thrombose artérielle, tout en soulignant l’importance du CD40 dans ce processus. Ainsi, le sCD40L constitue un activateur important des plaquettes, les prédisposant à une thrombose exacerbée en réponse au dommage vasculaire. Ces résultats peuvent expliquer le lien étroit qui existe entre les niveaux circulants du sCD40L et l’incidence des maladies cardiovasculaires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique deduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes deduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Israël est l’un des pays développés les plus féconds dans le monde et maintient un taux de fécondité stable depuis 1995. Il a échappé à la chute spectaculaire de la fécondité qui a été observée dans la plupart des pays occidentaux. Le taux de fécondité était de 2,96 enfants par femme en 2009 (Statistical Abstract of Israel, 2010, tableau 3.14). Le maintien d’une si forte fécondité pourrait être dû à l’immigration et à la “guerre démographique” qui sévit entre les différentes communautés vivant dans le pays (Sardon, 2006). Toutefois, on observe une différence significative entre les niveaux de fécondité des juifs d’Israël et de Cisjordanie depuis plusieurs années. Les études qui portent sur la fécondité en Israël sont faites au niveau national, ce qui ne fournit aucune explication sur cette différence. Pour ces raisons, l’étude de la fécondité en Israël mérite une attention particulière. Ce projet vise à identifier les différents facteurs qui ont une incidence sur la fécondité des femmes juives vivant en Israël et en Cisjordanie. Il contribuera à une meilleure compréhension des comportements liés à la fécondité de la population juive de la Cisjordanie et peut fournir des indices sur les mécanismes complexes qui régissent les relations entre Juifs et Arabes dans les territoires occupés. Grâce aux données recueillies dans l’Enquête sociale générale de 2004 d’Israël,des analyses descriptives et explicatives ont été produites. Dans un premier temps, les facteurs qui ont un impact sur la fécondité dans chaque région ont été déterminés et par la suite, une analyse de l’importance de ces facteur sur la fécondité a été produite. Le nombre d’enfants nés de femmes âgées de 20 à 55 ans constitue la variable d’intérêt et les variables explicatives retenues sont les suivantes: religiosité, éducation, revenu familial mensuel, statut d’emploi, pays d’origine, âge et état matrimonial. Cette étude a montré que les femmes juives qui résident en Cisjordanie ont un nombre prévu d’enfants de 13% supérieur à celui des femmes juives qui résident en Israël lorsque l’on contrôle toutes les variables. Il est notamment montré que la religion joue un rôle important dans l’explication de la forte fécondité des femmes juives dans les deux régions, mais son impact est plus important en Israël. L’éducation joue également un rôle important dans la réduction du nombre prévu d’enfants, en particulier en Cisjordanie. Tous ces facteurs contribuent à expliquer les différents niveaux de fécondité dans les deux régions, mais l’étude montre que ces facteurs ne permettent pas une explication exhaustive de la forte fécondité en Israël et en Cisjordanie. D’autres forces qui ne sont pas mesurables doivent avoir une incidence sur la fécondité telles que le nationalisme ou la laïcisation, par exemple.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’athérosclérose est à l’origine d’importantes obstructions vasculaires. La sévérité de l’ischémie tissulaire provoquée par l’athérosclérose dépend en partie de la capacité de l’organisme à former de nouveaux vaisseaux (néovascularisation). Les mécanismes de néovascularisation sont modulés par la balance oxydo-réductive. Une exacerbation du stress oxydant est retrouvée dans tous les facteurs de risque cardiovasculaire, et en particulier lors du vieillissement. Au niveau vasculaire, la CuZnSOD est la principale enzyme antioxydante. Cependant, son rôle spécifique dans le vieillissement vasculaire et dans le développement de nouveaux vaisseaux en réponse à l’ischémie n’est pas connu. Nos hypothèses de recherche sont: 1) qu’une absence de CuZnSOD diminue la néovascularisation réparatrice en réponse à l’ischémie 2) que cette diminution de la néovascularisation est dûe au vieillissement de la vasculature affectant à la fois les cellules endothéliales matures et les cellules progénitrices endothéliales. Nous avons démontré qu’une déficience en CuZnSOD diminue significativement la néovascularisation en réponse à l’ischémie. Cette diminution de néovascularisation est associée à une augmentation du stress oxydant et une réduction de la biodisponibilité du NO. La déficience en CuZnSOD réduit significativement le nombre de EPCs (moelle, rate). De plus, ces EPCs présentent une augmentation significative des niveaux de stress oxydant, une diminution de la production de NO et une capacité réduite à migrer et à s’intégrer à un réseau tubulaire. Fait important, il iv est possible d’améliorer la néovascularisation des souris déficientes en CuZnSOD par une supplémentation en EPCs provenant de souris contrôles. Nous avons également démontré que la récupération du flot sanguin suivant l’ischémie est significativement réduite par l’âge. À la fois chez les jeunes et les vieilles souris, la déficience en CuZnSOD mène à une réduction additionnelle de la néovascularisation. Fait intéressant, le potentiel néovasculaire des jeunes souris déficiente en CuZnSOD est similaire à celui des vieilles souris contrôles. Les niveaux de stress oxydant sont également augmentés de façon similaire dans ces deux groupes de souris. L’âge et la déficience en CuZnSOD sont tous deux associés à une réduction du nombre d’EPCs isolées de la moelle et de la rate. L’effet de l’âge seul sur la fonction des EPCs est modeste. Par contre, la déficience en CuZnSOD en condition de vieillissement est associée à d’importants effets délétères sur l’activité fonctionnelle des EPCs. En résumé, nos résultats suggèrent que la protection contre le stress oxydant par la CuZnSOD est essentielle pour préserver la fonction des EPCs et la néovascularisation réparatrice en réponse à l’ischémie. Le défaut de néovascularisation observé en absence de CuZnSOD est associé à un vieillissement vasculaire accéléré. Nos résultats suggèrent que dans le contexte du vieillissement, la CuZnSOD a un rôle encore plus important pour limiter les niveaux de stress oxydant, préserver la fonction des EPCs et maintenir l’intégrité des tissus ischémiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi deduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.