969 resultados para Formule du nombre de classes de Dirichlet


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse se propose de réévaluer l’œuvre de Guy Debord en privilégiant la lecture de ses autoportraits littéraires et cinématographiques. Cette recherche favorise une réception de Debord mettant en lumière l’importance de l’écriture de soi dans l’ensemble de sa production. L’inscription de soi, chez Debord, passe en effet par la création d’une légende. L’introduction démontre comment la trajectoire singulière de Debord témoigne d’un brouillage entre les frontières traditionnelles séparant l’esthétique et le politique. Elle explore les moyens pris par Debord afin de redéfinir le statut de l’artiste et la fonction de l’écriture dans le cadre d’une transformation d’une vie quotidienne. Dans ce cadre, la production artistique se subordonne entièrement au caractère de Debord, une personnalité qui se manifeste d’abord à travers la création d’un Grand style qui lui est propre. En célébrant le primat du vécu sur l’œuvre, la manœuvre de Debord s’inscrit dans la tradition moderniste de l’art. Le chapitre II montre comment Debord souhaita participer à l’entreprise de politisation de l’esthétique qui définit l’action des avant-gardes historiques. On y explique notamment comment l’œuvre de Debord s’est construite à partir des ruines du surréalisme. Pour se distinguer de ses ancêtres, le mouvement situationniste rejeta cependant l’esthétique surréaliste du rêve au profit d’une nouvelle poétique de l’ivresse se basant sur la dérive et sur l’intensification du moi. La dernière section de ce chapitre se consacre à la question de la création d’un mythe moderne, volonté partagée par les deux groupes. La troisième partie de cette thèse traite spécifiquement de la construction mythologique de Debord. Ce chapitre situe le projet mémorialiste de Debord dans la tradition littéraire française de l’écriture du moi. Il explore ensuite l’économie des sources classiques de Debord, en soulignant l’importance chez lui d’une éthique aristocratique issue du Grand siècle, éthique qui met de l’avant la distinction individuelle. Enfin, l’importance de la mentalité baroque est abordée conjointement à la question primordiale de la stratégie et de la manipulation. Le quatrième chapitre aborde la question de l’identification. Quand Debord décide de parler de sa vie, il le fait toujours en employant des éléments qui lui sont extérieurs : des « détournements ». Son « mode d’emploi » des détournements est défini dans la perspective d’un dévoilement de soi. On explore par la suite la question de l’imaginaire politique de Debord, imaginaire qui convoque sans cesse des représentations issues du XIXe siècle (classes dangereuses, conspirateur, bohème). Ce dernier chapitre se termine sur un essai d’interprétation approfondissant l’utilisation répétée de certaines figures criminelles, notamment Lacenaire. On mettra de l’avant la fonction centrale qu’occupent le crime et la transgression dans la sensibilité de Debord.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le CD40 ligand (CD40L) est une molécule inflammatoire appartenant à la famille du Facteur de Nécrose Tumorale ("Tumor Necrosis Factor", TNF), originalement identifié au niveau des cellules immunitaires. L’interaction du CD40L avec son récepteur de haute affinité présent sur les cellules B, le CD40, est d’une importance cruciale à la production d’immunoglobulines lors de la réponse immunitaire. Aujourd’hui, nous savons que ces deux molécules qui constituent l’axe CD40/CD40L sont aussi exprimées au niveau des cellules du système vasculaire et occupent une place importante dans une variété de réactions inflammatoires, de sorte que le CD40L est présentement reconnu comme une molécule thrombo-inflammatoire prédictive des évènements cardiovasculaires. Les plaquettes sont la principale source du CD40L soluble ("soluble CD40L", sCD40L) plasmatique et il fut démontré être impliqué dans l’activation plaquettaire, malgré que son impact exact sur la fonction plaquettaire et les mécanismes sous-jacents demeurent inconnus. Ainsi, le but de ce projet était de déterminer l’impact du sCD40L sur la fonction plaquettaire et d’élucider les mécanismes cellulaires et moléculaires sous-jacents. Les objectifs spécifiques étaient : 1) d’évaluer l’impact du sCD40L sur l’activation et l’agrégation plaquettaire in vitro; 2) de déterminer le récepteur cible (CD40 ou autre) impliqué dans ces effets; 3) de décortiquer les voies signalétiques intracellulaires et moléculaires induites par le sCD40L, impliquant la participation potentielle de la famille du facteur associé du récepteur du TNF ("Tumor Necrosis Factor Receptor Associated Factor", TRAF) et 4) d’analyser l’effet du sCD40L sur la formation du thrombus in vivo. Le sCD40L augmente fortement l’activation et l’agrégation plaquettaire induite par de faibles doses d’agonistes. Les plaquettes humaines traitées avec une forme mutante du sCD40L qui n’interagit pas avec le CD40 et les plaquettes de souris CD40 déficientes (CD40-/-) ne furent pas en mesure d’induire ces effets. De plus, nous démontrons la présence de plusieurs membres de la famille des TRAFs dans les plaquettes, parmi lesquels seulement TRAF-2 interagit avec le CD40 suite à la stimulation par le sCD40L. Le sCD40L agit sur les plaquettes au repos par l’entremise de la protéine Rac1 et de sa cible en aval, soit la protéine kinase activatrice du mitogène p38 ("Mitogen Activating Protein Kinase", MAPK). Ceci mène ultimement au changement de forme plaquettaire et à la polymérisation de l’actine. Par ailleurs, il est intéressant de noter que les souris CD40-/- démontrent un défaut significatif de l’agrégation plaquettaire en réponse au collagène, ce qui souligne l’importance du CD40 dans les interactions plaquettes-plaquettes. Dans un deuxième temps, le sCD40L amplifie l’agrégation plaquettaire en sang complet, accélère les temps de thrombose in vitro mesurés à l’aide du système PFA-100 et augmente l’adhésion plaquettaire au collagène sous condition de flux, le tout par l’entremise du CD40. Finalement, dans un modèle de thrombose artérielle murin, l’infusion du sCD40L exacerbe la formation du thrombus chez les souris du type sauvage ("Wild Type", WT), mais non chez les souris CD40-/-. Ceci fut en plus associé à une augmentation significative du nombre de leucocytes au sein du thrombus des souris WT traitées à l’aide du sCD40L, tel que démontré par marquage immuno-histologique anti-CD45 et par quantification des coupes artérielles par microscopie optique. En résumé, ce projet identifie une nouvelle voie signalétique, TRAF-2/Rac1/p38 MAPK, en réponse au sCD40L et démontre ses effets sur l’activation et l’agrégation plaquettaire. De manière encore plus importante, nous démontrons pour la première fois la présence d’une corrélation positive entre les niveaux circulants du sCD40L et la thrombose artérielle, tout en soulignant l’importance du CD40 dans ce processus. Ainsi, le sCD40L constitue un activateur important des plaquettes, les prédisposant à une thrombose exacerbée en réponse au dommage vasculaire. Ces résultats peuvent expliquer le lien étroit qui existe entre les niveaux circulants du sCD40L et l’incidence des maladies cardiovasculaires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique deduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes deduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Israël est l’un des pays développés les plus féconds dans le monde et maintient un taux de fécondité stable depuis 1995. Il a échappé à la chute spectaculaire de la fécondité qui a été observée dans la plupart des pays occidentaux. Le taux de fécondité était de 2,96 enfants par femme en 2009 (Statistical Abstract of Israel, 2010, tableau 3.14). Le maintien d’une si forte fécondité pourrait être dû à l’immigration et à la “guerre démographique” qui sévit entre les différentes communautés vivant dans le pays (Sardon, 2006). Toutefois, on observe une différence significative entre les niveaux de fécondité des juifs d’Israël et de Cisjordanie depuis plusieurs années. Les études qui portent sur la fécondité en Israël sont faites au niveau national, ce qui ne fournit aucune explication sur cette différence. Pour ces raisons, l’étude de la fécondité en Israël mérite une attention particulière. Ce projet vise à identifier les différents facteurs qui ont une incidence sur la fécondité des femmes juives vivant en Israël et en Cisjordanie. Il contribuera à une meilleure compréhension des comportements liés à la fécondité de la population juive de la Cisjordanie et peut fournir des indices sur les mécanismes complexes qui régissent les relations entre Juifs et Arabes dans les territoires occupés. Grâce aux données recueillies dans l’Enquête sociale générale de 2004 d’Israël,des analyses descriptives et explicatives ont été produites. Dans un premier temps, les facteurs qui ont un impact sur la fécondité dans chaque région ont été déterminés et par la suite, une analyse de l’importance de ces facteur sur la fécondité a été produite. Le nombre d’enfants nés de femmes âgées de 20 à 55 ans constitue la variable d’intérêt et les variables explicatives retenues sont les suivantes: religiosité, éducation, revenu familial mensuel, statut d’emploi, pays d’origine, âge et état matrimonial. Cette étude a montré que les femmes juives qui résident en Cisjordanie ont un nombre prévu d’enfants de 13% supérieur à celui des femmes juives qui résident en Israël lorsque l’on contrôle toutes les variables. Il est notamment montré que la religion joue un rôle important dans l’explication de la forte fécondité des femmes juives dans les deux régions, mais son impact est plus important en Israël. L’éducation joue également un rôle important dans la réduction du nombre prévu d’enfants, en particulier en Cisjordanie. Tous ces facteurs contribuent à expliquer les différents niveaux de fécondité dans les deux régions, mais l’étude montre que ces facteurs ne permettent pas une explication exhaustive de la forte fécondité en Israël et en Cisjordanie. D’autres forces qui ne sont pas mesurables doivent avoir une incidence sur la fécondité telles que le nationalisme ou la laïcisation, par exemple.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’athérosclérose est à l’origine d’importantes obstructions vasculaires. La sévérité de l’ischémie tissulaire provoquée par l’athérosclérose dépend en partie de la capacité de l’organisme à former de nouveaux vaisseaux (néovascularisation). Les mécanismes de néovascularisation sont modulés par la balance oxydo-réductive. Une exacerbation du stress oxydant est retrouvée dans tous les facteurs de risque cardiovasculaire, et en particulier lors du vieillissement. Au niveau vasculaire, la CuZnSOD est la principale enzyme antioxydante. Cependant, son rôle spécifique dans le vieillissement vasculaire et dans le développement de nouveaux vaisseaux en réponse à l’ischémie n’est pas connu. Nos hypothèses de recherche sont: 1) qu’une absence de CuZnSOD diminue la néovascularisation réparatrice en réponse à l’ischémie 2) que cette diminution de la néovascularisation est dûe au vieillissement de la vasculature affectant à la fois les cellules endothéliales matures et les cellules progénitrices endothéliales. Nous avons démontré qu’une déficience en CuZnSOD diminue significativement la néovascularisation en réponse à l’ischémie. Cette diminution de néovascularisation est associée à une augmentation du stress oxydant et une réduction de la biodisponibilité du NO. La déficience en CuZnSOD réduit significativement le nombre de EPCs (moelle, rate). De plus, ces EPCs présentent une augmentation significative des niveaux de stress oxydant, une diminution de la production de NO et une capacité réduite à migrer et à s’intégrer à un réseau tubulaire. Fait important, il iv est possible d’améliorer la néovascularisation des souris déficientes en CuZnSOD par une supplémentation en EPCs provenant de souris contrôles. Nous avons également démontré que la récupération du flot sanguin suivant l’ischémie est significativement réduite par l’âge. À la fois chez les jeunes et les vieilles souris, la déficience en CuZnSOD mène à une réduction additionnelle de la néovascularisation. Fait intéressant, le potentiel néovasculaire des jeunes souris déficiente en CuZnSOD est similaire à celui des vieilles souris contrôles. Les niveaux de stress oxydant sont également augmentés de façon similaire dans ces deux groupes de souris. L’âge et la déficience en CuZnSOD sont tous deux associés à une réduction du nombre d’EPCs isolées de la moelle et de la rate. L’effet de l’âge seul sur la fonction des EPCs est modeste. Par contre, la déficience en CuZnSOD en condition de vieillissement est associée à d’importants effets délétères sur l’activité fonctionnelle des EPCs. En résumé, nos résultats suggèrent que la protection contre le stress oxydant par la CuZnSOD est essentielle pour préserver la fonction des EPCs et la néovascularisation réparatrice en réponse à l’ischémie. Le défaut de néovascularisation observé en absence de CuZnSOD est associé à un vieillissement vasculaire accéléré. Nos résultats suggèrent que dans le contexte du vieillissement, la CuZnSOD a un rôle encore plus important pour limiter les niveaux de stress oxydant, préserver la fonction des EPCs et maintenir l’intégrité des tissus ischémiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi deduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectif : L’objectif principal de cette thèse est d’examiner les déterminants de l’utilisation des services de soins pour des raisons de santé mentale dans le sud-ouest de Montréal. Données et méthodes : L’étude utilise les données de la première phase du projet portant sur « le développement d’une zone circonscrite d’études épidémiologiques en psychiatrie dans le sud-ouest de Montréal ». Les données ont été collectées entre mai 2007 et août 2008 auprès d’un échantillon de 2434 personnes sélectionnées au hasard dans tout le territoire de l’étude. De cet échantillon, nous avons sélectionné un sous-échantillon de personnes ayant eu au moins un diagnostic de santé mentale au cours de la dernière année. 423 personnes ont rencontrées ce critère et constituent l’échantillon pour les analyses de la présente thèse. Le modèle comportemental d’Andersen a servi de cadre pour le choix des variables à analyser. Parce que l’approche socio-spatiale a été privilégiée pour modéliser les déterminants de l’utilisation des services, les analyses ont été effectuées à l’aide de quatre logiciels distincts à savoir : SPSS, AMOS, ArcGIS et MlWin. Résultats : Les résultats montrent que 53,66% de notre échantillon ont utilisés au moins un service de santé pour des raisons de santé mentale. On constate néanmoins que les déterminants de l’utilisation des services en santé mentale sont à la fois complexes et spatialement inégalement réparties. En ce qui concerne les caractéristiques sociodémographiques et cliniques, les femmes et ceux qui perçoivent la stigmatisation envers les personnes ayant un problème de santé mentale utilisent plus les services. Le nombre de diagnostics de santé mentale est aussi associé à l’utilisation des services. L’augmentation du nombre de diagnostics entraîne une augmentation de l’utilisation des services (=0,38; p<0,001). D’autres variables comme l’âge, le statut matrimonial, la taille du ménage, le soutien social et la qualité de vie influencent indirectement l’utilisation des services. À titre illustratif toute augmentation de l’âge entraîne une augmentation du soutien social de (=0,69; p<0,001) qui à son tour fait diminuer la détresse psychiatrique (= -0,09 (p<0,05). Or, toute augmentation d’une unité de détresse psychiatrique entraîne une augmentation de l’utilisation des services (=0,58 (p<0,001). Sur le plan spatiale, il existe une corrélation positive entre l’utilisation des services et la défavorisation matérielle, la défavorisation sociale et le nombre d’immigrants récents sur un territoire. Par contre, la corrélation entre la prévalence de la santé mentale et l’utilisation des services est négative. Les analyses plus poussées indiquent que le contexte de résidence explique 12,26 % (p<0,05) de la variation totale de l’utilisation des services. De plus, lorsqu’on contrôle pour les caractéristiques individuelles, vivre dans un environnement stable augmente l’utilisation des services (O.R=1,24; p<0,05) tandis que les contextes défavorisés du point de vue socioéconomique ont un effet néfaste sur l’utilisation (O.R=0,71; p<0,05). Conclusion : Les résultats de l’étude suggèrent que si on veut optimiser l’utilisation des services en santé mentale, il est important d’agir prioritairement au niveau de la collectivité. Plus spécifiquement, il faudrait mener des campagnes de sensibilisation auprès de la population pour combattre la stigmatisation des personnes ayant un problème de santé mentale. Sur le plan de la planification des soins de santé, on devrait augmenter l’offre des services dans les territoires défavorisés pour en faciliter l’accès aux habitants.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette étude aborde le thème de l’utilisation des modèles de mélange de lois pour analyser des données de comportements et d’habiletés cognitives mesurées à plusieurs moments au cours du développement des enfants. L’estimation des mélanges de lois multinormales en utilisant l’algorithme EM est expliquée en détail. Cet algorithme simplifie beaucoup les calculs, car il permet d’estimer les paramètres de chaque groupe séparément, permettant ainsi de modéliser plus facilement la covariance des observations à travers le temps. Ce dernier point est souvent mis de côté dans les analyses de mélanges. Cette étude porte sur les conséquences d’une mauvaise spécification de la covariance sur l’estimation du nombre de groupes formant un mélange. La conséquence principale est la surestimation du nombre de groupes, c’est-à-dire qu’on estime des groupes qui n’existent pas. En particulier, l’hypothèse d’indépendance des observations à travers le temps lorsque ces dernières étaient corrélées résultait en l’estimation de plusieurs groupes qui n’existaient pas. Cette surestimation du nombre de groupes entraîne aussi une surparamétrisation, c’est-à-dire qu’on utilise plus de paramètres qu’il n’est nécessaire pour modéliser les données. Finalement, des modèles de mélanges ont été estimés sur des données de comportements et d’habiletés cognitives. Nous avons estimé les mélanges en supposant d’abord une structure de covariance puis l’indépendance. On se rend compte que dans la plupart des cas l’ajout d’une structure de covariance a pour conséquence d’estimer moins de groupes et les résultats sont plus simples et plus clairs à interpréter.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Au cours des dernières décennies, l’augmentation du nombre de guerres irrégulières place les armées modernes dans une situation délicate. Pour pouvoir relever ce nouveau défi, ces organisations militaires, avant tout destinées à mener des guerres interétatiques, se doivent d’innover. Plusieurs cas historiques montrent comment, face à de nouvelles formes de conflit, certaines armées se sont lancées dans un processus d’innovation. Le cas de l’armée française en Algérie en est un. L’objectif de ce mémoire est de comprendre comment l’innovation a émergé lors du conflit, et comment elle s’est diffusée au sein de l’organisation militaire. Un survol de la stratégie française en Algérie va permettre de dégager trois principales innovations : La mise en place de la doctrine de la guerre révolutionnaire, la création des Sections Administratives Spécialisées et l’approche de David Galula. L’étude de ses trois cas nous montre que, durant la Guerre d’Algérie, l’innovation provenait principalement des militaires, plus précisément du sommet de la hiérarchie. Cependant, certains exemples d’innovation par le bas existent. Dans ces cas-là, la diffusion se fera via la doctrine informelle. L’exemple de Galula nous prouve néanmoins qu’une innovation se diffuse beaucoup plus difficilement lorsqu’elle émane des hommes de terrain.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le récepteur de la vasopressine de type 2 (V2R) joue un rôle crucial dans l’homéostasie hydrique. Exprimé principalement au niveau du rein, son activation par l’hormone antidiurétique arginine-vasopressine (AVP) favorise la réabsorption d’eau, participant ainsi à diminuer la diurèse. Plus de 200 mutations dans le gène du V2R ont été associées au diabète néphrogénique insipide congénital (DINc), une maladie causée par une perte de fonction du récepteur. À l’opposé, trois mutations découvertes récemment induisent un gain de fonction du V2R, et sont la cause du syndrome néphrogénique de l’anti-diurèse inappropriée (NSIAD). Les travaux de cette thèse visent à mieux comprendre les bases moléculaires responsables de la perte ou du gain de fonction des récepteurs mutants associés à ces deux maladies. Dans plus de 50% des cas, les mutations faux-sens affectent négativement l’adoption d’une conformation native par le V2R, provoquant la reconnaissance et la rétention intracellulaire des mutants par le système de contrôle de qualité du réticulum endoplasmique. Nos résultats ont démontré que l’interaction entre les récepteurs mutants et le chaperon moléculaire calnexine est dépendante de N-glycosylation et que sa durée varie en fonction de la mutation. De plus, l’importance de cette modification co-traductionnelle et des interactions lectines-sucres dans le processus de maturation d’un mutant donné s’est avérée une caractéristique intrinsèque, puisque l’absence de N-glycosylation n’a pas affecté le mutant Y128S (phénotype léger) tandis que la maturation du mutant W164S (phénotype sévère) a été totalement abolie. Nos résultats suggèrent aussi que l’action des chaperons pharmacologiques (CP), molécules favorisant la maturation des mutants du V2R, peut survenir à différentes étapes au cours du processus de maturation, selon le mutant réchappé. Ces différences entre muta nts suggèrent des processus biosynthétiques ‘personnalisés’ dictés par la nature de la mutation impliquée et pourraient expliquer la différence de sévérité des manifestations cliniques chez les patients porteurs de ces mutations. Bien qu’une récupération de fonction ait été obtenue pour les mutants Y128S et W164S par un traitement au CP, il n’en est pas de même pour toutes les mutations occasionnant un défaut conformationnel. C’est ce que nous avons démontré pour le mutant V88M, affligé de deux défauts, soit une faible efficacité de maturation combinée à une basse affinité pour l’AVP. Dans ce cas, et malgré une augmentation du nombre de récepteurs mutants la surface cellulaire, la diminution de l’affinité apparente du récepteur mutant pour l’AVP a été exacerbée par la présence résiduelle de CP à son site de liaison, rendant impossible l’activation du récepteur aux concentrations physiologiques d’AVP. Les mutants R137C et R137L ont une activité constitutive élevée et mènent au NSIAD tandis que la substitution de cette même arginine par une histidine (R137H) mène au DINc. Ces trois mutants se sont avéré partager plusieurs caractéristiques, dont une efficacité de maturation réduite et une désensibilisation spontanée élevée. La seule différence iden tifiée entre ces mutants est leur niveau d’activité constitutive. Le CP utilisé dans nos études possède aussi la propriété d’agoniste inverse, mais n’a pourtant pas diminué l’activité constitutive des mutants R137C/L, suggérant une conformation active ‘figée’. Seul l’effet chaperon a été observé, entraînant la hausse de récepteurs à la surface cellulaire, qui se traduit par une augmentation de la production de second messager. Nous avons par contre suggéré l’utilisation d’AVP puisqu’il favorise l’endocytose des récepteurs R137/L sans promouvoir leur activation, diminuant ainsi le nombre de récepteurs actifs à la surface cellulaire. Nous avons identifié la première mutation occasionnant un gain de fonction du V2R qui n’implique pas l’arginine 137. Le mutant F229V a une activité constitutive élevée et, contrairement aux R137C et R137L, il n’est pas sujet à une désensibilisation spontanée accrue. L’observation que des agonistes inverses sont aptes à inhiber l’activité constitutive de ce nouveau mutant est une découverte importante puisque l’insuccès obtenu avec les mutations précédentes suggérait que ces molécules n’étaient pas utiles pour le traitement du NSIAD. Considérés globalement, ces travaux illustrent le caractère particulier des formes mutantes du V2R et l’importance de bien cerner les conséquences fonctionnelles des mutations afin d’apporter aux patients atteints de DINc ou NSIAD une thérapie personnalisée, et de développer de nouveaux agents thérapeutiques adaptés aux besoins.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les systèmes cholinergique et dopaminergique jouent un rôle prépondérant dans les fonctions cognitives. Ce rôle est exercé principalement grâce à leur action modulatrice de l’activité des neurones pyramidaux du cortex préfrontal. L’interaction pharmacologique entre ces systèmes est bien documentée mais les études de leurs interactions neuroanatomiques sont rares, étant donné qu’ils sont impliqués dans une transmission diffuse plutôt que synaptique. Ce travail de thèse visait à développer une expertise pour analyser ce type de transmission diffuse en microscopie confocale. Nous avons étudié les relations de microproximité entre ces différents systèmes dans le cortex préfrontal médian (mPFC) de rats et souris. En particulier, la densité des varicosités axonales en passant a été quantifiée dans les segments des fibres cholinergiques et dopaminergiques à une distance mutuelle de moins de 3 µm ou à moins de 3 µm des somas de cellules pyramidales. Cette microproximité était considérée comme une zone d’interaction probable entre les éléments neuronaux. La quantification était effectuée après triple-marquage par immunofluorescence et acquisition des images de 1 µm par microscopie confocale. Afin d’étudier la plasticité de ces relations de microproximité, cette analyse a été effectuée dans des conditions témoins, après une activation du mPFC et dans un modèle de schizophrénie par déplétion des neurones cholinergiques du noyau accumbens. Les résultats démontrent que 1. Les fibres cholinergiques interagissent avec des fibres dopaminergiques et ce sur les mêmes neurones pyramidaux de la couche V du mPFC. Ce résultat suggère différents apports des systèmes cholinergique et dopaminergique dans l’intégration effectuée par une même cellule pyramidale. 2. La densité des varicosités en passant cholinergiques et dopaminergiques sur des segments de fibre en microproximité réciproque est plus élevée comparé aux segments plus distants les uns des autres. Ce résultat suggère un enrichissement du nombre de varicosités axonales dans les zones d’interaction. 3. La densité des varicosités en passant sur des segments de fibre cholinergique en microproximité de cellules pyramidales, immunoúactives pour c-Fos après une stimulation visuelle et une stimulation électrique des noyaux cholinergiques projetant au mPFC est plus élevée que la densité des varicosités de segments en microproximité de cellules pyramidales non-activées. Ce résultat suggère un enrichissement des varicosités axonales dépendant de l’activité neuronale locale au niveau de la zone d'interaction avec d'autres éléments neuronaux. 4. La densité des varicosités en passant des fibres dopaminergiques a été significativement diminuée dans le mPFC de rats ayant subi une déplétion cholinergique dans le noyau accumbens, comparée aux témoins. Ces résultats supportent des interrelations entre la plasticité structurelle des varicosités dopaminergiques et le fonctionnement cortical. L’ensemble des donneès démontre une plasticité de la densité locale des varicosités axonales en fonction de l’activité neuronale locale. Cet enrichissement activité-dépendant contribue vraisemblablement au maintien d’une interaction neurochimique entre deux éléments neuronaux.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les cellules sont capables de détecter les distributions spatiales de protéines et ainsi de migrer ou s’étendre dans la direction appropriée. Une compréhension de la réponse cellulaire aux modifications de ces distributions spatiales de protéines est essentielle pour l’avancement des connaissances dans plusieurs domaines de recherches tels que le développement, l’immunologie ou l’oncologie. Un exemple particulièrement complexe est le guidage d’axones se déroulant pendant le développement du système nerveux. Ce dernier nécessite la présence de plusieurs distributions de molécules de guidages étant attractives ou répulsives pour connecter correctement ce réseau complexe qu’est le système nerveux. Puisque plusieurs indices de guidage collaborent, il est particulièrement difficile d’identifier la contribution individuelle ou la voie de signalisation qui est déclenchée in vivo, il est donc nécessaire d’utiliser des méthodes pour reproduire ces distributions de protéines in vitro. Plusieurs méthodes existent pour produire des gradients de protéines solubles ou liées aux substrats. Quelques méthodes pour produire des gradients solubles sont déjà couramment utilisées dans plusieurs laboratoires, mais elles limitent l’étude aux distributions de protéines qui sont normalement sécrétées in vivo. Les méthodes permettant de produire des distributions liées au substrat sont particulièrement complexes, ce qui restreint leur utilisation à quelques laboratoires. Premièrement, nous présentons une méthode simple qui exploite le photoblanchiment de molécules fluorescentes pour créer des motifs de protéines liées au substrat : Laser-assisted protein adsorption by photobleaching (LAPAP). Cette méthode permet de produire des motifs de protéines complexes d’une résolution micrométrique et d’une grande portée dynamique. Une caractérisation de la technique a été faite et en tant que preuve de fonctionnalité, des axones de neurones du ganglion spinal ont été guidés sur des gradients d’un peptide provenant de la laminine. Deuxièmement, LAPAP a été amélioré de manière à pouvoir fabriquer des motifs avec plusieurs composantes grâce à l’utilisation de lasers à différentes longueurs d’onde et d’anticorps conjugués à des fluorophores correspondants à ces longueurs d’onde. De plus, pour accélérer et simplifier le processus de fabrication, nous avons développé LAPAP à illumination à champ large qui utilise un modulateur spatial de lumière, une diode électroluminescente et un microscope standard pour imprimer directement un motif de protéines. Cette méthode est particulièrement simple comparativement à la version originale de LAPAP puisqu’elle n’implique pas le contrôle de la puissance laser et de platines motorisées, mais seulement d’envoyer l’image du motif désiré au modulateur spatial. Finalement, nous avons utilisé LAPAP pour démontrer que notre technique peut être utilisée dans des analyses de haut contenu pour quantifier les changements morphologiques résultant de la croissance neuronale sur des gradients de protéines de guidage. Nous avons produit des milliers de gradients de laminin-1 ayant différentes pentes et analysé les variations au niveau du guidage de neurites provenant d’une lignée cellulaire neuronale (RGC-5). Un algorithme pour analyser les images des cellules sur les gradients a été développé pour détecter chaque cellule et quantifier la position du centroïde du soma ainsi que les angles d’initiation, final et de braquage de chaque neurite. Ces données ont démontré que les gradients de laminine influencent l’angle d’initiation des neurites des RGC-5, mais n’influencent pas leur braquage. Nous croyons que les résultats présentés dans cette thèse faciliteront l’utilisation de motifs de protéines liées au substrat dans les laboratoires des sciences de la vie, puisque LAPAP peut être effectué à l’aide d’un microscope confocal ou d’un microscope standard légèrement modifié. Cela pourrait contribuer à l’augmentation du nombre de laboratoires travaillant sur le guidage avec des gradients liés au substrat afin d’atteindre la masse critique nécessaire à des percées majeures en neuroscience.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le vieillissement de la population canadienne prévisible dans les prochaines années entrainera d’importants changements au point de vue social. L’un d’eux est l’augmentation fulgurante du nombre d’aînés en état d’incapacité. Utilisant le modèle de microsimulation LifePaths, cette recherche compare deux projections, ayant des méthodologies différentes, du nombre d’individus en incapacité de 65 ans et plus vivant en ménage privé en 2031. La première méthode utilise le module d’incapacité de LifePaths pour générer les individus en incapacité tandis que la seconde méthode utilise plutôt une régression logistique ordonnée pour les obtenir. Les projections du nombre d’individus en état d’incapacité des deux méthodes nous permettent une comparaison entre ces résultats. Suite à l’élaboration de tableaux et de graphiques permettant de tracer un portait de la situation, cette recherche essaie de démystifier les sources possibles à l’origine de ces différences. Les résultats montrent d’importantes différences entre les projections, spécifiquement pour les individus en état d’incapacité sévère. De plus, lorsqu’on s’intéresse aux variables d’intérêts, on remarque que les différences de projections d’effectifs sont importantes chez les hommes et les gens mariés. Par contre, lorsque les proportions sont analysées, c’est plutôt le groupe d’âges 80 ans et plus ainsi que les projections pour la province du Québec qui créent problème. Ces différences sont attribuables aux caractéristiques d’un modèle de microsimulation, aux populations de départ ainsi qu’aux paramètres définis. Les résultats démontrés dans cette recherche mettent en garde sur les travaux étudiant le nombre d’individus en incapacité dans le futur. Nos deux méthodes ayant des résultats différents, nous ne pouvons pas conclure avec certitude quelle sera la situation dans le futur.