685 resultados para Labrèche, Marie-Sissi,--1969---Lune dans un HLM


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire se propose d’aborder le concept adornien de matériau musical selon deux de ses moments essentiels : l’intégration et la désintégration. Dans un premier temps, il s’agira d’analyser la critique de l’Aufklärung, selon laquelle la rationalité éclairée, par la domination progressive de la nature, se transforme en son contraire, le mythe. Cette analyse servira de base théorique pour la compréhension du concept de matériau. Dans un deuxième temps, il conviendra d’examiner la tendance progressiste—exemplifiée dans la sonate classique de Beethoven—vers l’intégration du matériau musical, comprise comme un moment dans le processus plus large de rationalisation sociale identifié par Max Weber. Dans un troisième temps, il conviendra d’examiner la tendance régressive—exemplifiée dans les œuvres du Beethoven tardif, de Mahler et de Berg—vers la désintégration du matériau musical, une tendance qui reflète les aspects noirs de l’Aufklärung, à savoir la fragmentation sociale et la réification. Enfin, nous évaluerons quelques commentaires critiques soulevant des doutes quant à la validité d’un concept de matériau musical basé sur une philosophie de l’histoire qui, malgré ses distances, ne s’échappe pas de ses origines hégéliennes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire traite du droit de l’adoption dans une perspective comparative entre régimes arabo-musulman, français et québécois. Dans un premier temps est abordée la place de l’enfant dans l’Islam : de sa conception au sein de la famille musulmane à l’ensemble de ses droits selon le droit religieux. Ce tour d’horizon permet d’aborder l’épineux problème de l’interdiction de l’adoption par le Coran et les alternatives qui ont été développées pour y remédier, plus particulièrement la kafala. La kafala sera expliquée et située dans l’ordre public international, puis examinée au regard de quatre législations arabes : le Maroc, la Tunisie, l’Algérie et le Liban. Dans un deuxième temps, la question sera examinée d’un point de vue occidental. Il y sera analysé la possibilité et les difficultés entourant l’application des règles musulmanes de statut personnel en France et au Québec. Finalement sera abordé l’accueil que ces deux sociétés ont réservé à la kafala dans leur système respectif.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans cet ouvrage, nous cherchons à comprendre l‘impact des perceptions sur la production et la gestion de la sécurité dans le réseau du transport en commun de Montréal. Quinze entrevues de recherche ont été effectuées avec des policiers de l‘Unité-Métro pour dégager les principaux éléments qui entrent dans la conception du risque. Les policiers sont appelés à travailler dans un environnement où, d‘une part, il n‘y a jamais eu d‘attaques terroristes, mais d‘autre part qui demeure une cible potentielle à la fois pour les experts, les gouvernements et dans la culture populaire. Nos résultats montrent que les policiers se développent une perception du risque qui leur est propre. En général, ils ont une attitude pragmatique qui leur permet de relativiser les situations et de décider lesquelles nécessitent une intervention de leur part. De plus, les policiers adoptent des stratégies de justification et de protection qui minimisent la perception du risque. Nos participants soulignent que ces stratégies sont nécessaires pour leur permettre d‘effectuer leurs tâches quotidiennes. Ainsi, afin d‘échapper à la paranoïa, les policiers évitent de penser à la menace terroriste et focus plutôt leur attention sur la criminalité sur laquelle ils ont l‘impression d‘avoir un pouvoir réel. Toutefois, la vigilance reste de mise. Malgré que les policiers ne conçoivent pas le risque de la même manière que les gestionnaires, la présence de l‘Unité-Métro demeure un élément important de production de la sécurité sur le terrain.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le CD40 ligand (CD40L) est une molécule inflammatoire appartenant à la famille du Facteur de Nécrose Tumorale ("Tumor Necrosis Factor", TNF), originalement identifié au niveau des cellules immunitaires. L’interaction du CD40L avec son récepteur de haute affinité présent sur les cellules B, le CD40, est d’une importance cruciale à la production d’immunoglobulines lors de la réponse immunitaire. Aujourd’hui, nous savons que ces deux molécules qui constituent l’axe CD40/CD40L sont aussi exprimées au niveau des cellules du système vasculaire et occupent une place importante dans une variété de réactions inflammatoires, de sorte que le CD40L est présentement reconnu comme une molécule thrombo-inflammatoire prédictive des évènements cardiovasculaires. Les plaquettes sont la principale source du CD40L soluble ("soluble CD40L", sCD40L) plasmatique et il fut démontré être impliqué dans l’activation plaquettaire, malgré que son impact exact sur la fonction plaquettaire et les mécanismes sous-jacents demeurent inconnus. Ainsi, le but de ce projet était de déterminer l’impact du sCD40L sur la fonction plaquettaire et d’élucider les mécanismes cellulaires et moléculaires sous-jacents. Les objectifs spécifiques étaient : 1) d’évaluer l’impact du sCD40L sur l’activation et l’agrégation plaquettaire in vitro; 2) de déterminer le récepteur cible (CD40 ou autre) impliqué dans ces effets; 3) de décortiquer les voies signalétiques intracellulaires et moléculaires induites par le sCD40L, impliquant la participation potentielle de la famille du facteur associé du récepteur du TNF ("Tumor Necrosis Factor Receptor Associated Factor", TRAF) et 4) d’analyser l’effet du sCD40L sur la formation du thrombus in vivo. Le sCD40L augmente fortement l’activation et l’agrégation plaquettaire induite par de faibles doses d’agonistes. Les plaquettes humaines traitées avec une forme mutante du sCD40L qui n’interagit pas avec le CD40 et les plaquettes de souris CD40 déficientes (CD40-/-) ne furent pas en mesure d’induire ces effets. De plus, nous démontrons la présence de plusieurs membres de la famille des TRAFs dans les plaquettes, parmi lesquels seulement TRAF-2 interagit avec le CD40 suite à la stimulation par le sCD40L. Le sCD40L agit sur les plaquettes au repos par l’entremise de la protéine Rac1 et de sa cible en aval, soit la protéine kinase activatrice du mitogène p38 ("Mitogen Activating Protein Kinase", MAPK). Ceci mène ultimement au changement de forme plaquettaire et à la polymérisation de l’actine. Par ailleurs, il est intéressant de noter que les souris CD40-/- démontrent un défaut significatif de l’agrégation plaquettaire en réponse au collagène, ce qui souligne l’importance du CD40 dans les interactions plaquettes-plaquettes. Dans un deuxième temps, le sCD40L amplifie l’agrégation plaquettaire en sang complet, accélère les temps de thrombose in vitro mesurés à l’aide du système PFA-100 et augmente l’adhésion plaquettaire au collagène sous condition de flux, le tout par l’entremise du CD40. Finalement, dans un modèle de thrombose artérielle murin, l’infusion du sCD40L exacerbe la formation du thrombus chez les souris du type sauvage ("Wild Type", WT), mais non chez les souris CD40-/-. Ceci fut en plus associé à une augmentation significative du nombre de leucocytes au sein du thrombus des souris WT traitées à l’aide du sCD40L, tel que démontré par marquage immuno-histologique anti-CD45 et par quantification des coupes artérielles par microscopie optique. En résumé, ce projet identifie une nouvelle voie signalétique, TRAF-2/Rac1/p38 MAPK, en réponse au sCD40L et démontre ses effets sur l’activation et l’agrégation plaquettaire. De manière encore plus importante, nous démontrons pour la première fois la présence d’une corrélation positive entre les niveaux circulants du sCD40L et la thrombose artérielle, tout en soulignant l’importance du CD40 dans ce processus. Ainsi, le sCD40L constitue un activateur important des plaquettes, les prédisposant à une thrombose exacerbée en réponse au dommage vasculaire. Ces résultats peuvent expliquer le lien étroit qui existe entre les niveaux circulants du sCD40L et l’incidence des maladies cardiovasculaires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les fichiers video (d'animation) sont dans un format Windows Media (.wmv)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audio‐visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’hépatite autoimmune (HAI) est une maladie grave affectant le foie et présentant un haut taux de mortalité lorsque non traitée. Les traitements disponibles sont efficaces, mais de graves effets secondaires leur sont associés. Ces effets secondaires sont généralement le résultat d'une forte immunosuppression et d’autres sont spécifiques à chaque médicament. Aucune immunothérapie spécifique n’est présentement disponible pour le traitement de l’HAI. Récemment, un modèle murin d’HAI a été développé dans notre laboratoire par xénoimmunisation des souris C57BL/6 avec les antigènes humains de l'HAI de type 2. Ce modèle présente la plupart des caractéristiques biochimiques et cliniques retrouvées chez les patients atteints d'HAI de type 2. Dans cette étude, nous avons évaluée l’efficacité de deux types de traitement pour l’HAI de type 2 à l’aide de notre modèle murin. Dans un premier temps, l’anticorps anti-CD3ε a été étudié en prophylaxie et en traitement. Nous avons montré qu’une posologie de 5µg d’anti-CD3 i.v. par jour pendant 5 jours consécutifs induit une rémission chez les souris avec HAI de type 2 établie (traitement). Cette rémission est caractérisée par une normalisation des niveaux d’alanine aminotransférase et une diminution significative de l’inflammation hépatique. Cette rémission semble être associée à une déplétion partielle et transitoire des lymphocytes T CD3+ dans la périphérie et une augmentation des lymphocytes T régulateurs CD4+, CD25+ et Foxp3+ dans le foie. La même posologie lorsqu’elle est appliquée en prophylaxie n’a pas réussi à prévenir l’apparition de l’HAI de type 2. La deuxième voie de traitement consiste en l’administration par voie intranasale d’un forte dose de formiminotransférase cyclodésaminase murin (mFTCD), un autoantigène reconnu dans l’HAI de type 2. Une administration en prophylaxie par voie intranasale de 100µg de mFTCD par jour durant 3 jours consécutifs arrive à prévenir l’HAI de type 2 en diminuant l’inflammation hépatique au bout de deux semaines post-traitement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte : Les premières implantations PACS (Picture Archiving and Communication System) remontent aux années 80. Le rehaussement récent du PACS au sein d’un centre hospitalier universitaire a permis d’étudier l’introduction d’innovations dans une technologie mature. Objectif : Dans un premier temps, effectuer une revue de la littérature sur les études évaluant la perceptions des utilisateurs de l’implantation des PACS. Deuxièmement, évaluer dans une étude de cas si le niveau d’alignement entre les tâches et la technologie prédit l’utilisation et la perception des bénéfices. Méthodes : Il y a eu une revue systématique de la littérature afin d’identifier les études sur la perception des utilisateurs du PACS. Une adaptation du modèle TTF (Task-Technology-Fit) développé par Goodhue (1995) a servi de base théorique pour l’étude de cas effectuée par questionnaire auto-administré. Résultats : Les modèles recensés dans la revue systématique sont mieux adaptés à des nouvelles implantions PACS qu’à des systèmes matures en évolution. Il y a une corrélation significative entre le niveau de l’alignement, tel que perçu par les utilisateurs, et la perception des bénéfices nets, ainsi que l’utilisation de la technologie. L’étude a démontré un écart entre la perception des utilisateurs et celle des développeurs interviewés. Conclusions : Cette étude supporte la validité du concept alignement tâche-technologie dans l’analyse d’un rehaussement PACS. Il est important de maintenir une interaction soutenue entre développeurs et utilisateurs, qui va audelà de la phase initiale de développement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le tire-lait est un appareil conçu pour aider les mères durant l’allaitement. Selon la recherche préliminaire effectuée, c’est un thème très peu exploré dans les études; il est donc difficile d’affirmer si le produit répond correctement aux besoins reliés à son usage et à son utilité ou comment il s’intègre dans l’allaitement. Les fondements de l’étude exploratoire ont été bâtis sur ces enjeux dans le but de comprendre l’expérience d’usage du tire-lait. Inspirée de l’approche phénoménologique centrée sur l’usager, l’étude a permis d’amasser des données qualitatives à travers des entrevues semi-dirigées auprès de sept participantes. L’analyse de ces données a permis d’identifier les thèmes importants qui ont mené à des constats, rédigés dans une optique de design. L’étude a trouvé que c’est souvent quand la réalité de l’allaitement au sein rattrape les mères qu’elles vont vouloir se procurer un tire-lait, en s’inspirant des marques utilisées dans les hôpitaux par manque de temps. Le tire-lait devient alors principalement utile pour se désengorger et pour la liberté qu’il procure, s’intégrant dans une routine. Le tire-lait est par contre peu ergonomique; il semble y avoir un décalage entre le concept proposé et les manipulations réelles, notamment au niveau de la mise en marche, des bouteilles et des embouts. Ces résultats de l’étude pourraient être intégrés dans le tire-lait pour mieux représenter la réalité du contexte, de la pratique et de l’usage du produit. Ils pourraient ainsi nourrir le processus de conception dans un projet futur afin d’améliorer le design du tire-lait.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans le contexte actuel de l’éducation au Québec où la réforme des programmes de formation des jeunes appelle un renouvellement des pratiques d’enseignement, notre recherche s’intéresse au développement de la dimension didactique de la pratique liée à l’enseignement des mathématiques qui est considéré comme l’un des éléments clés des nouvelles orientations. Nous abordons la question par le biais de la collaboration de formation initiale pour l’enseignement des mathématiques au primaire qui se vit en stage entre des praticiennes en exercice et en formation et une didacticienne des mathématiques. Cette rencontre sur le terrain des stages au primaire entre praticiennes et didacticienne, longtemps réclamée et rendue possible à l’UQAT , nous a amené à formuler une première question de recherche touchant ce qui se construit à travers les échanges de ces partenaires de la formation au cours des supervisions pédagogiques conjointes qui les réunissent en stage. Nous avons cadré ce questionnement à partir des balises théoriques de la didactique professionnelle qui proposent modèle et concepts pour expliciter l’activité professionnelle et traiter des phénomènes de développement des compétences professionnelles en contexte de travail et de formation. La didactique professionnelle attribue un rôle essentiel à la communauté de pratique et au processus d’analyse de l’expérience dans le développement professionnel des novices et dans l’explicitation d’un savoir d’action jugé pertinent et reconnu. Nous y faisons donc appel pour poser le potentiel que représentent les échanges issus de la collaboration quant à leur contribution à l’établissement d’un savoir de référence pour l’enseignement des mathématiques. La didactique professionnelle propose également le recours au concept de schème pour décrire l’activité professionnelle et à l’idée de concepts organisateurs comme élément central de l’activité et comme variable de la situation professionnelle concernée. Nous recourons à ces mêmes concepts pour expliciter le savoir de référence pour l’enseignement des mathématiques qui émerge à travers les échanges des partenaires de la formation. Dans le cadre d’une étude de cas, nous nous sommes intéressée aux échanges qui se déroulent entre une stagiaire qui effectue son troisième et avant dernier stage , l’enseignante-associée qui la reçoit et la chercheure-didacticienne qui emprunte le rôle de superviseure universitaire. Les échanges recueillis sont issus de trois cycles de supervision conjointe qui prennent la forme de rencontres de préparation des situations d’enseignement de mathématique; d’observation en classe des séances d’enseignement pilotées par la stagiaire auprès de ses élèves; et des rencontres consacrées à l’analyse des situations d’enseignement observées et de l’activité mise en œuvre par la stagiaire. Ainsi les objets de discussion relevés par les différents partenaires de la formation et la négociation de sens des situations professionnelles vécues et observées sont analysés de manière à rendre visibles les constituants de l’activité professionnelle qui sont jugés pertinents par la triade de formation. Dans un deuxième temps, en partant de cette première analyse, nous dégageons les concepts organisateurs des situations professionnelles liées à l’enseignement des mathématiques qui sont pris en compte par la triade de formation et qui constituent des variables de la situation professionnelle. Les constituants de l’activité et des situations professionnelles qui résultent de cette analyse sont envisagés en tant que représentations collectives qui se révèlent à travers les échanges de la triade de formation. Parce que ces représentations se sont trouvées partagées, négociées dans le cadre des supervisions pédagogiques, elles sont envisagées également en tant que savoir de référence pour cette triade de formation. Les échanges rendus possibles entre les praticiennes et la didacticienne placent ce savoir de référence dans une dynamique de double rationalité pratique et didactique. Enfin, partant de l’apport déterminant de la communauté de pratique et de formation de même que du savoir de référence que cette dernière reconnait comme pertinent dans le développement professionnel des novices, les résultats de cette recherches peuvent contribuer à réfléchir la formation des futures enseignantes en stage en ce qui a trait à l’enseignement des mathématiques au primaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audio‐visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les seize détecteurs MPX constituant le réseau ATLAS-MPX ont été placés à différentes positions dans le détecteur ATLAS et sa averne au CERN dans le but de mesurer en emps réel les champs de radiation produits ar des particules primaires (protons des faisceaux) et des particules secondaires (kaons, pions, g, protons) issues des collisions proton-proton. Des films de polyéthylène (PE) et de fluorure de lithium (6LiF) recouvrent les détecteurs afin d’augmenter leur sensibilité aux neutrons produits par les particules primaires et secondaires interagissant avec les matériaux présents dans l’environnement d’ATLAS. La reconnaissance des traces laissées par les particules dans un détecteur ATLAS-MPX se fait à partir des algorithmes du logiciel MAFalda (“Medipix Analysis Framework”) basé sur les librairies et le logiciel d’analyse de données ROOT. Une étude sur le taux d’identifications erronées et le chevauchement d’amas a été faite en reconstruisant les activités des sources 106Ru et 137Cs. L’efficacité de détection des neutrons rapides a été mesurée à l’aide des sources 252Cf et 241AmBe (neutrons d’énergie moyenne de 2.13 et 4.08 MeV respectivement). La moyenne des efficacités de détection mesurées pour les neutrons produits par les sources 252C f et 241AmBe a été calculée pour les convertisseurs 6LiF et PE et donnent (0.8580 ± 0.1490)% et (0.0254 ± 0.0031)% pour LiF et (0.0510 ± 0.0061)% et (0.0591 ± 0.0063)% pour PE à bas et à haut seuil d’énergie respectivement. Une simulation du calcul de l’efficacité de détection des neutrons dans le détecteur MPX a été réalisée avec le logiciel GEANT4. Des données MPX correspondant aux collisions proton-proton à 2.4 TeV et à 7 TeV dans le centre de masse ont été analysées. Les flux détectés d’électrons et de photons sont particulièrement élevés dans les détecteurs MPX01 et MPX14 car ils sont plus près du point de collision. Des flux de neutrons ont été estimés en utilisant les efficacités de détection mesurées. Une corrélation avec la luminosité du LHC a été établie et on prédit que pour les collisions à 14 TeV dans le centre de masse et avec une luminosité de 10^34 cm-1*s-1 il y aura environ 5.1x10^8 ± 1.5x10^7 et 1.6x10^9 ± 6.3x10^7 particules détectées par les détecteurs MPX01 et MPX14 respectivement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Avec les nouvelles technologies des réseaux optiques, une quantité de données de plus en plus grande peut être transportée par une seule longueur d'onde. Cette quantité peut atteindre jusqu’à 40 gigabits par seconde (Gbps). Les flots de données individuels quant à eux demandent beaucoup moins de bande passante. Le groupage de trafic est une technique qui permet l'utilisation efficace de la bande passante offerte par une longueur d'onde. Elle consiste à assembler plusieurs flots de données de bas débit en une seule entité de données qui peut être transporté sur une longueur d'onde. La technique demultiplexage en longueurs d'onde (Wavelength Division Multiplexing WDM) permet de transporter plusieurs longueurs d'onde sur une même fibre. L'utilisation des deux techniques : WDM et groupage de trafic, permet de transporter une quantité de données de l'ordre de terabits par seconde (Tbps) sur une même fibre optique. La protection du trafic dans les réseaux optiques devient alors une opération très vitale pour ces réseaux, puisqu'une seule panne peut perturber des milliers d'utilisateurs et engendre des pertes importantes jusqu'à plusieurs millions de dollars à l'opérateur et aux utilisateurs du réseau. La technique de protection consiste à réserver une capacité supplémentaire pour acheminer le trafic en cas de panne dans le réseau. Cette thèse porte sur l'étude des techniques de groupage et de protection du trafic en utilisant les p-cycles dans les réseaux optiques dans un contexte de trafic dynamique. La majorité des travaux existants considère un trafic statique où l'état du réseau ainsi que le trafic sont donnés au début et ne changent pas. En plus, la majorité de ces travaux utilise des heuristiques ou des méthodes ayant de la difficulté à résoudre des instances de grande taille. Dans le contexte de trafic dynamique, deux difficultés majeures s'ajoutent aux problèmes étudiés, à cause du changement continuel du trafic dans le réseau. La première est due au fait que la solution proposée à la période précédente, même si elle est optimisée, n'est plus nécessairement optimisée ou optimale pour la période courante, une nouvelle optimisation de la solution au problème est alors nécessaire. La deuxième difficulté est due au fait que la résolution du problème pour une période donnée est différente de sa résolution pour la période initiale à cause des connexions en cours dans le réseau qui ne doivent pas être trop dérangées à chaque période de temps. L'étude faite sur la technique de groupage de trafic dans un contexte de trafic dynamique consiste à proposer différents scénarios pour composer avec ce type de trafic, avec comme objectif la maximisation de la bande passante des connexions acceptées à chaque période de temps. Des formulations mathématiques des différents scénarios considérés pour le problème de groupage sont proposées. Les travaux que nous avons réalisés sur le problème de la protection considèrent deux types de p-cycles, ceux protégeant les liens (p-cycles de base) et les FIPP p-cycles (p-cycles protégeant les chemins). Ces travaux ont consisté d’abord en la proposition de différents scénarios pour gérer les p-cycles de protection dans un contexte de trafic dynamique. Ensuite, une étude sur la stabilité des p-cycles dans un contexte de trafic dynamique a été faite. Des formulations de différents scénarios ont été proposées et les méthodes de résolution utilisées permettent d’aborder des problèmes de plus grande taille que ceux présentés dans la littérature. Nous nous appuyons sur la méthode de génération de colonnes pour énumérer implicitement les cycles les plus prometteurs. Dans l'étude des p-cycles protégeant les chemins ou FIPP p-cycles, nous avons proposé des formulations pour le problème maître et le problème auxiliaire. Nous avons utilisé une méthode de décomposition hiérarchique du problème qui nous permet d'obtenir de meilleurs résultats dans un temps raisonnable. Comme pour les p-cycles de base, nous avons étudié la stabilité des FIPP p-cycles dans un contexte de trafic dynamique. Les travaux montrent que dépendamment du critère d'optimisation, les p-cycles de base (protégeant les liens) et les FIPP p-cycles (protégeant les chemins) peuvent être très stables.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La thèse a été réalisée dans le cadre d'une cotutelle entre l'Université de Montréal et l'Université Stendhal - Grenoble 3.