1000 resultados para Couverture dynamique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire de maîtrise porte sur la gestion des risques informationnels dans l’entreprise privée. Plus précisément, nous avons cherché à comprendre, à partir de l’expérience et du point de vue des gestionnaires de la sécurité, comment s’élaborait une prise de décisions relativement à la protection des actifs informationnels d’une entreprise, de l’identification des risques à la mise en place de mesures visant à les réduire. Pour ce faire, nous devions dégager les éléments du contexte organisationnel qui contribuent à façonner les décisions du gestionnaire de la sécurité en cette matière en considérant deux principales dimensions : la dynamique relationnelle à l’œuvre de même que les enjeux, les contraintes et les opportunités susceptibles d’influence la prise de décisions. Nous voulions également connaitre le rôle et les responsabilités du gestionnaire de la sécurité au sein de ce processus décisionnel et préciser, le cas échéant, sa participation au modèle de gouvernance de gestion des risques. Pour rendre compte de la complexité de ce processus, il semblait approprié de concevoir un cadre théorique combinant deux approches: l’approche multidimensionnelle du risque et l’approche de la transaction sociale. Si la première considère que la définition du risque doit être contextualiser, l’autre admet que la dynamique relationnelle n’est pas le simple fait de jeux entres acteurs stratégiques. L’analyse en fonction de ses deux approches a révélé que la gestion des risques informationnels dans une entreprise est largement tributaire des caractéristiques personnelles du gestionnaire de la sécurité. Certes, le contexte organisationnel et la multiplication des enjeux sécuritaires exercent une influence considérable sur le processus décisionnel mais l’expérience, les connaissances et les capacités communicationnelles du gestionnaire contribuent directement à la réussite de chaque phase du processus de gestion des risques informationnels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La production porcine a fait l’objet de plusieurs études visant à réduire la prévalence de Salmonella sur les carcasses à l’abattoir. Ces études ont ciblé l’élevage comme une source de la contamination observée. Malgré la multitude de facteurs de risques identifiés dans les travaux antérieurs, des étapes restent à investiguer dans le réseau de production primaire porcin. L’objectif de ce projet était de décrire la contamination à l’interface du réseau de production porcin: entre la ferme et l’abattoir. Pour ce faire, un réseau composé de dix fermes et un abattoir a été choisi incluant les trasporteurs. Trente visites de fermes, 36 suivis de camions lors du chargement - livraison et 18 investigations de la cour arrière de l’abattoir ont été réalisés au cours des 13 mois de la phase terrain du projet. De ces 738 échantillons, les résultats ont démontré des profils spécifiques de fermes cumulant 9 sérovars de Salmonella et 4 lysotypes différents de S. Typhimurium. Le quai de chargement à la ferme présentait 34,21% d’échantillons positifs. Des isolats non différenciables de S. Derby contaminaient ce site pour quatre fermes distinctes. Dans la cour d’abattoir, Salmonella a été retrouvée abondamment sur tous les trajets de circulation des camions (67% n=144). L’existence d’un lien dynamique de contamination par le camion de livraison des porcs lors des opérations de livraison à l’interface élevage- abattoir a été documentée. Cette interface représente un réservoir de Salmonella et donc un risque permanent de contamination croisée du réseau de production vers l’abattoir mais aussi de retour vers l’élevage

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le domaine de l’éducation, comme dans d’autres domaines d’intervention auprès des humains, les organismes d’agrément exigent de plus en plus que les pratiques professionnelles s’appuient sur des résultats de recherches qui les valident (des données probantes). Cela conduit certains chercheurs à privilégier des travaux qui suivent une démarche hypothético-déductive avec des dispositifs standardisés et des données étalonnées (quantitatives). D’autres, pour mieux comprendre ce qui se passe, privilégient l’induction analytique recourant à des dispositifs plus souples qui s’adaptent aux variations du terrain et produisent des données qui ne seront étalonnées qu’a posteriori (qualitatives). Enfin, un troisième groupe de chercheur utilise aussi des dispositifs adaptatifs, mais traite leur matériel de manière plus gestaltiste par typicalisation produisant des récits de dynamique professionnelle. Or, aucune de ces trois orientations de recherche ne parvient, comme le remarquait déjà Huberman en en 1982, à combler l’écart entre les recherches et le discours des enseignants-chercheurs d’une part, et leur participation effective à la formation de professionnels de l’intervention dont les pratiques devraient être fondées sur des données probantes. Des facteurs historiques peuvent excuser cette situation dans des départements et formations professionnelles jadis dispensées dans des grandes écoles non universitaires. Cependant, on constate que les pratiques de recherche restent largement inspirées par une image idéalisée de la recherche fondamentale ou expérimentale ou philosophique avec des visées épistémiques. Or, il y a d’autres domaines de savoir, celui de la technique, de la sagesse pratique et de l’art. Corrélativement, on peut dire qu’il y a d’autres métiers de chercheurs que celui qui consiste à développer des connaissances causales ou interprétatives alors que c’est à partir de cette seule sensibilité théorique que la notion de pôle paradigmatique a été développée et que les questions auxquelles les recherches qualitatives devaient répondre ont été établies . Aussi les questions et les réponses aux quatre pôles épistémologiques (ontologique, sémantique, instrumental et rhétorique) auront d’autres exigences de forme et de contenu pour les chercheurs engagés dans des perspectives technologiques, pratiques ou artistiques. L’hypothèse proposée pour tenter de comprendre le hiatus entre les recherches universitaires et l’attitude des praticiens porte sur le glissement opéré par trop de chercheurs entre une formulation de problèmes arrimés aux sensibilités technologiques, pratiques ou artistiques et leur reproblématisation dans la perspective d’une sensibilité théorique. Il en découle que ces recherches privilégient des dispositifs conçus pour vérifier ou découvrir des hypothèses discursives (la sémantique de l’intelligibilité de l’action, selon Barbier ), plutôt que des dispositifs semblables aux conditions de la pratique professionnelle et qui respectent ses contraintes. Or, les professionnels attendent des résultats de la recherche que ceux-ci prennent en compte les contraintes de leurs activités et que leurs conclusions soient formulées dans des formes de présentation qui leur sont appropriées : une sémantique et une rhétorique de l’action intelligente, selon la formule d’Evans qui définit la praxis comme une action pensée et finalisée autant qu’une finalité pensée et agie. Quatre cas de professeurs-chercheurs et d’étudiants illustrent cette tension et les glissements méthodologiques vers l’épistémique au détriment des sensibilités professionnelles et les difficultés qui en découlent, surtout pour les étudiants. Or, il y a moyen de résoudre autrement cette tension, à condition de changer de posture. C’est la piste que nous suggérons avec une méthodologie qui respecte les contraintes de l’activité professionnelle, qui exploite les formulations et les dispositifs propres aux praticiens, et qui utilise les confrontations entre l’activité et les praticiens eux-mêmes comme démarche de la co-construction d’une présentation explicitant l’intelligence de l’action.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transmission mère-enfant (TME) du virus de l’hépatite C (VHC) est la première cause d’acquisition de l’infection chez les enfants des pays développés. Celle-ci prend place dans <10% des cas. Toutefois, dans le cas d’une coinfection maternelle avec le virus de l’immunodéficience de type 1 (VIH-1), ce taux est accru alors qu’il n’existe aucune intervention préventive de la TME du VHC. Le VHC arbore une diversité importante qui est le résultat d’une réplication exempte de mécanisme de correction. Il est donc retrouvé chez son hôte sous la forme d’un spectre de virions génétiquement apparentés mais différents qu’on appelle quasiespèce. Lorsque le VHC est transmis entre adultes, seulement un nombre limité de variantes sont responsables de l’infection, c’est ce qu’on appelle un goulot d’étranglement génétique. L’existence d’un tel profil de transmission lors de la TME du VHC restait, jusqu’à maintenant, à confirmer. En se basant sur la détection par RT-PCR de la virémie à la naissance, la TME du VHC est réputée prendre place in utero et peripartum, une dynamique de transmission qui reste à démontrer. Ici, nous rapportons une analyse longitudinale de la TME du VHC par séquençage de nouvelle génération chez 5 paires mère-enfant dont 3 mères sont également coinfectées avec le VIH-1. L’analyse de l’identité des variantes virales basée sur la séquence nucléotidique des régions hypervariables 1-2 de la glycoprotéine E2 (positions 1491-1787 de l’isolat H77) révèle qu’un nombre limité de variantes virales sont transmises de la mère à l’enfant lorsque la mère est seulement infectée par le VHC (n = 1-4 variantes transmises). Dans le cas de la coinfection maternelle avec le VIH-1, ce nombre est toutefois drastiquement plus important (n = 111-118). La détection de variantes retrouvées chez la mère au deuxième trimestre et l’enfant mais non détectées subséquemment chez la mère témoigne que la TME du VHC peut prendre place aussi tôt que lors du deuxième trimestre de grossesse. Finalement, nous montrons que la dynamique d’infection chez l’enfant implique une augmentation transitoire de la virémie concomitante avec une perte de diversité de la quasiespèce. Dans l’ensemble ces résultats sont les premiers à démontrer directement l’existence d’un goulot d’étranglement lors de la TME du VHC. Celui-ci serait moins restringent dans le cas de la coinfection maternelle avec le VIH-1. Cette transmission peut prendre place aussi tôt que lors du deuxième trimestre de grossesse et il semblerait qu’un spectre limité de variantes soit responsable pour l’établissement de l’essentiel de la production virale chez le jeune enfant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilisation accrue des nanomatériaux manufacturés (NM) fait en sorte que les différents acteurs de réglementation se questionnent de plus en plus par rapport à leur destin et leurs impacts sur les écosystèmes et la santé humaine suite à leur rejet dans l’environnement. Le développement de techniques analytiques permettant de détecter et de caractériser les NM en matrice environnementale est impératif étant donné la nécessité d’évaluer le risque relié à ces polluants émergents. Une des approches de plus en plus favorisée est d’utiliser une technique chromatographique et un ou plusieurs détecteurs sensibles dans les buts de réduire les effets de matrice, d’identifier des nanoparticules (NP) selon leurs temps de rétention et de les quantifier à des concentrations représentatives de la réalité environnementale. Une technique analytique utilisant la chromatographie hydrodynamique (HDC) et des détecteurs en ligne ou hors ligne (détecteurs de diffusion statique ou dynamique de la lumière, spectromètre de masse par torche à plasma en mode particule unique (SP-ICPMS), l’ultracentrifugation analytique) a donc été développée. Le couplage de la colonne HDC avec ces détecteurs a permis de caractériser des NP standards et l’optimisation des conditions de séparation de ces nanoparticules de polystyrène, d’or et d’argent a permis de confirmer que les NP y sont bel et bien séparées seulement selon leur taille, tel que la théorie le prédit. De plus, l’utilisation de la colonne HDC couplée au SP-ICPMS a permis de séparer un mélange de nanoparticules d’argent (nAg) et de les détecter à des concentrations représentatives de celles rencontrées dans l’environnement, soit de l’ordre du μg L-1 au ng L-1. Par exemple, dans un échantillon d’eau usée (effluent), un mélange de nAg de 80 et de 40 nm a été séparé et les nAg ont été détectées à l’aide du SP-ICPMS connecté à la colonne HDC (temps de rétention de 25.2 et 25.6 minutes et diamètres déterminés de 71.4 nm et 52.0 nm). Finalement, pour plusieurs échantillons environnementaux auxquels aucun ajout de nanoparticules n’a été fait, les analyses HDC-SP-ICPMS effectuées ont permis de déterminer qu’ils ne contenaient initialement pas de nAg.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Consumers are legitimate stakeholders but are unevenly active and powerful in the dynamics that can lead companies to a more socially responsible behaviour. This article proposes to test the relevance, across the struggles of consumers, of the well-known opposition in business ethics between ethics of justice and ethics of care. Relying on a semi-participant direct and webnographic observation of a wide citizen movement that arose in Spain, questioning banks and mortgage regulation, after the explosion of the housing bubble in 2008, this article strives to highlight the permanent dual approach to ethics at all levels of the movement, from spokespersons to supporters, in speech and in actions. One approach is more focused on laws and principles, whereas the other is more focused on direct support to people affected by foreclosures. This article demonstrates the continuities between these two registers of justice and care and their functional complementarities in the dynamics of mobilization. A discussion will then follow on the substance of the opposition between the ethics of justice and the ethics of care as well as on the possible representativeness of this case: behind the singularities of the mortgage issue or of Spanish political culture, one cannot but observe the challenging mobilizing process that comprises a human rightist activism combined with a feminist approach to social issues.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vaccination figure parmi les interventions sanitaires les plus efficaces et les plus rentables connues. Pourtant, des inégalités de couverture persistent entre les régions et les pays. Les interventions visant à améliorer la couverture vaccinale sont généralement regroupées soit comme interventions pour améliorer l’offre ou la prestation des services de santé, soit comme interventions pour stimuler la demande pour les services de vaccination. L’objectif de cette étude est d’évaluer si les interventions du côté de la demande qui visent à améliorer la couverture vaccinale peuvent accroître la vaccination de routine des enfants dans les pays en développement. Nous avons effectué une revue systématique et une méta-analyse des essais randomisés contrôlés ainsi que d’autres types d’études scientifiques réalisées dans des pays en développement. La population ciblée comprenait les parents et les gardiens d'enfants de moins de deux ans qui sont exposés à une intervention visant à accroître la demande de vaccination de routine des enfants. La recherche des études originales dans les différentes bases de données a été limitée aux études publiées avant septembre 2013 (dernière mise à jour le 25 Mars 2014) dans 6 langues. Onze études ont été sélectionnées puis classifiées dans deux catégories: (a) éducation ou transfert de connaissances (7 études) et (b) incitations (4 études). Les résultats de la métaanalyse ont démontré un impact positif des interventions sur la demande de vaccination des enfants dans les pays en développement (RR 1.30; 95% CI 1.17, 1.44). Ces impacts positifs ont été constatés autant pour les interventions qui comprennent l’éducation ou transfert de connaissances (RR 1.40; 95% CI1.20, 1.63) que pour les interventions de type incitation (RR 1.28; 95% CI 1.12, 1.45). Les résultats suggèrent que diverses stratégies visant à accroître la demande peuvent conduire à une augmentation de la couverture vaccinale dans différents pays en développement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Induced pluripotent stem cells (iPSC) have the capacity to self renew and differentiate into a myriad of cell types making them potential candidates for cell therapy and regenerative medicine. The goal of this thesis was to determine the characteristics of equine iPSC (eiPSC) that can be harnessed for potential use in veterinary regenerative medicine. Trauma to a horse’s limb often leads to the development of a chronic non-healing wound that lacks a keratinocyte cover, vital to healing. Thus, the overall hypothesis of this thesis was that eiPSC might offer a solution for providing wound coverage for such problematic wounds. Prior to considering eiPSC for clinical applications, their immunogenicity must be studied to ensure that the transplanted cells will be accepted and integrate into host tissues. The first objective of this thesis was to determine the immune response to eiPSC. To investigate the immunogenicity of eiPSC, the expression of major histocompatibility complex (MHC) molecules by the selected lines was determined, then the cells were used in an intradermal transplantation model developed for this study. While transplantation of allogeneic, undifferentiated eiPSC elicited a moderate cellular response in experimental horses, it did not cause acute rejection. This strategy enabled the selection of weakly immunogenic eiPSC lines for subsequent differentiation into lineages of therapeutic importance. Equine iPSC offer a potential solution to deficient epithelial coverage by providing a keratinocyte graft with the ability to differentiate into other accessory structures of the epidermis. The second objective of this thesis was to develop a protocol for the differentiation of eiPSC into a keratinocyte lineage. The protocol was shown to be highly efficient at inducing the anticipated phenotype within 30 days. Indeed, the eiPSC derived vi keratinocytes (eiPSC-KC) showed both morphologic and functional characteristics of primary equine keratinocytes (PEK). Moreover, the proliferative capacity of eiPSC-KC was superior while the migratory capacity, measured as the ability to epithelialize in vitro wounds, was comparable to that of PEK, suggesting exciting potential for grafting onto in vivo wound models. In conclusion, equine iPSC-derived keratinocytes exhibit features that are promising to the development of a stem cell-based skin construct with the potential to fully regenerate lost or damaged skin in horses. However, since eiPSC do not fully escape immune surveillance despite low MHC expression, strategies to improve engraftment of iPSC derivatives must be pursued.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bien que l’on ait longtemps considéré que les substrats cérébraux de la mémoire sémantique (MS) demeuraient intacts au cours du vieillissement normal (VN), en raison d’une préservation de la performance des personnes âgées à des épreuves sémantiques, plusieurs études récentes suggèrent que des modifications cérébrales sous-tendant le traitement sémantique opèrent au cours du vieillissement. Celles-ci toucheraient principalement les régions responsables des aspects exécutifs du traitement sémantique, impliqués dans les processus de recherche, de sélection et de manipulation stratégique de l’information sémantique. Cependant, les mécanismes spécifiques régissant la réorganisation cérébrale du traitement sémantique au cours du VN demeurent méconnus, notamment en raison de divergences méthodologiques entre les études. De plus, des données de la littérature suggèrent que des modifications cérébrales associées au vieillissement pourraient également avoir lieu en relation avec les aspects perceptifs visuels du traitement des mots. Puisque le processus de lecture des mots représente un processus interactif et dynamique entre les fonctions perceptuelles de bas niveau et les fonctions de plus haut niveau tel que la MS, il pourrait exister des modifications liées à l’âge au plan des interactions cérébrales entre les aspects perceptifs et sémantiques du traitement des mots. Dans son ensemble, l’objectif de la présente thèse était de caractériser les modifications cérébrales ainsi que le décours temporel du signal cérébral qui sont associés au traitement sémantique ainsi qu’au traitement perceptif des mots en lien avec le VN, ainsi que les relations et les modulations entre les processus sémantiques et perceptifs au cours du VN, en utilisant la magnétoencéphalographie (MEG) comme technique d’investigation. Dans un premier temps (chapitre 2), les patrons d’activation cérébrale d’un groupe de participants jeunes et d’un groupe de participants âgés sains ont été comparés alors qu’ils effectuaient une tâche de jugement sémantique sur des mots en MEG, en se concentrant sur le signal autour de la N400, une composante associée au traitement sémantique. Les résultats démontrent que des modifications cérébrales liées à l’âge touchent principalement les structures impliquées dans les aspects exécutifs du traitement sémantique. Une activation plus importante du cortex préfrontal inférieur (IPC) a été observée chez les participants jeunes que chez les participants âgés, alors que ces derniers activaient davantage les régions temporo-pariétales que les jeunes adultes. Par ailleurs, le lobe temporal antérieur (ATL) gauche, considéré comme une région centrale et amodale du traitement sémantique, était également davantage activé par les participants âgés que par les jeunes adultes. Dans un deuxième temps (chapitre 3), les patrons d’activation cérébrale d’un groupe de participants jeunes et d’un groupe de participants âgés sains ont été comparés en se concentrant sur le signal associé au traitement perceptif visuel, soit dans les 200 premières millisecondes du traitement des mots. Les résultats montrent que des modifications cérébrales liées à l’âge touchent le gyrus fusiforme mais aussi le réseau sémantique, avec une plus grande activation pour le groupe de participants âgés, malgré une absence de différence d’activation dans le cortex visuel extrastrié entre les deux groupes. Les implications théoriques des résultats de ces deux études sont ensuite discutées, et les limites et perspectives futures sont finalement adressées (chapitre 4).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entailing of phosphorus exchanges in most bio-chemicals as a key factor in disease, increases researcher’s interest to develop the technologies capable of detecting this metabolite. Phosphorus magnetic resonance spectroscopy is able to detect key metabolites in a non-invasive manner. Particularly, it offers the ability to measure the dynamic rate of phosphocreatine(PCr) degeneration through the exercise and recovery. This metric as a valid indication of mitochondrial oxidative metabolism in muscle, differentiate between normal and pathological state. To do magnetic resonance imaging and spectroscopy, clinical research tools provide a wide variety of anatomical and functional contrasts, however they are typically restricted to the tissues containing water or hydrogen atoms and they are still blind to the biochemicals of other atoms of interests. Through this project we intended to obtain the phosphorus spectrum in human body – specificadenerativelly in muscle – using 31P spectroscopy. To do so a double loop RF surface coil, tuned to phosphorus frequency, is designed and fabricated using bench work facilities and then validated through in vitro spectroscopy using 3 Tesla Siemens scanner. We acquired in vitro as well as in vivo phosphorus spectrum in a 100 mM potassium phosphate phantom and human calf muscle in rest-exercise-recovery phase in a 3T MR scanner. The spectrum demonstrates the main constituent in high-energy phosphate metabolism. We also observed the dynamic variation of PCr for five young healthy subjects who performed planter flexions using resistance band during exercise and recovery. The took steps in this project pave the way for future application of spectroscopic quantification of phosphate metabolism in patients affected by carotid artery disease as well as in age-matched control subjects.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La guerre et ses conséquences sont trop importantes pour que la réflexion philosophique ne s’y attarde pas. Pour comprendre ses fondements et ses mécanismes internes, il faut une pensée qui creuse au coeur même des comportements guerriers. C’est ce que Thomas Hobbes et Carl von Clausewitz ont chacun tenté de faire en réfléchissant sur la nature de la guerre. Ce mémoire vise entre autres à rendre compte de leur théorie respective sur la nature de la guerre et de voir les rapprochements possibles. L’analyse du concept d’état de guerre et de ses causes chez Hobbes, de même que la pensée de Clausewitz centrée sur la nature de la guerre, rendent compte d’une même dynamique où la relation de réciprocité qu’entretiennent les belligérants conduit à une montée de la violence. La notion de volonté est centrale chez nos auteurs, car elle explique autant cette montée continue de la violence que sa possible résolution vers la paix. Écartant la sphère de la morale et du droit pour penser le phénomène guerrier, leurs réflexions se veulent froides et sans illusion. En saisissant la dynamique relationnelle (et mimétique) qui conduit à un désir illimité de puissance, nos deux auteurs décortiquent l’essence de la guerre par une pensée fondamentalement orientée vers la paix. Ainsi nous donnent-ils des outils pour éviter le pire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse examine les théories politiques profanes qui sont mises de l’avant dans les articles et les reportages des journalistes politiques. Par «théories profanes», nous entendons les constructions intellectuelles informelles qui aident les journalistes à appréhender et à concevoir la vie politique. Nous les définissons ici par opposition aux théories scientifiques des universitaires. Ces théories sont examinées sous trois angles différents, au travers de trois articles scientifiques distincts. Notre principal objectif est de déterminer dans quelle mesure et pour quelles raisons les théories journalistiques profanes convergent ou divergent des théories universitaires scientifiques. Au premier chapitre, nous nous demandons ce que les journalistes font, en nous attardant aux critères sur lesquels ces derniers s’appuient pour analyser la personnalité des chefs de partis politiques. Plus précisément, nous cherchons à savoir si les journalistes tiennent compte des considérations politiques jugées importantes par les citoyens. Afin d’atteindre cet objectif, nous réalisons une analyse de contenu des reportages diffusés dans les grands bulletins d’information télévisés au sujet de l’ex-chef du Parti québécois, André Boisclair. Au second chapitre, nous poussons notre réflexion un cran plus loin en nous demandant ce que les journalistes disent précisément dans les théories qu’ils développent. Pour ce faire, nous examinons les théories développées par les journalistes pour expliquer le comportement des parlementaires. De manière spécifique, nous contrastons les théories académiques de la dissidence politique avec ce qui s’est écrit dans les grands journaux canadiens à l’occasion de quatre votes particulièrement serrés ayant eu lieu à la Chambre des communes à propos de la prolongation de la mission canadienne en Afghanistan et de l’abolition du registre des armes d’épaule. Enfin, nous nous attardons à ce que les journalistes pensent de leurs propres théories, en les interrogeant sur les raisons qui les poussent à mettre ces dernières de l’avant et sur la manière dont ils s’y prennent pour les développer. Nous nous attardons aux mécanismes qui rythment la pensée des journalistes et nous portons notre regard sur les matériaux dont ceux-ci se servent pour construire les théories qu’ils incluent dans leurs reportages. Pour ce faire, nous réalisons des entrevues semi-dirigées avec des journalistes politiques affectés à la couverture de l’élection présidentielle française de 2012. Nos questions portent notamment sur le chemin intellectuel qu’ils parcourent lorsqu’ils tentent de comprendre et d’expliquer le comportement des politiciens, ainsi que sur la façon dont ils conçoivent les campagnes électorales et le rôle qu’ils sont appelés à jouer à l’intérieur de celles-ci. Nos conclusions sont à l’effet que les journalistes construisent bel et bien des théories profanes de la vie politique afin d’aller au-delà des simples comptes rendus factuels et de répondre à ce qu’ils considèrent être une nécessité de leur travail. Les théories qu’ils mettent de l’avant tiennent compte des considérations politiques jugées importantes par les électeurs, et elles ont des traits communs avec certaines des idées sous-tendues par les théories scientifiques des universitaires. Ces théories s’articulent autour des observations que font les journalistes, et des conversations auxquelles ils prennent part ou dont ils sont témoins. Elles reflètent la plupart du temps l’expérience ou le vécu du journaliste. Les théories journalistiques profanes se distinguent toutefois des théories scientifiques en ce qu’elles ne sont ni formalisées, ni explicitement nommées. Elles n’ont pas la sophistication des théories universitaires, et elles sont parfois reléguées à l’arrière-plan de la couverture médiatique au bénéfice d’aspects plus théâtraux de la vie politique. Les journalistes développent par contre des mécanismes pour valider leurs théories. La contribution de cette thèse à l’avancement des connaissances se manifeste sur les plans conceptuel, théorique et empirique. Sur le plan conceptuel, nous étayons davantage le concept des théories journalistiques. Notre thèse permet de mieux comprendre la couverture médiatique de la politique, en mettant en lumière un de ses aspects jusqu’ici négligé par les politologues, soit le fait que les journalistes construisent et utilisent des théories politiques qui leur sont propres pour appréhender l’univers au sein duquel ils évoluent. Sur le plan théorique, nous faisons ressortir les objectifs et les impératifs qui guident les journalistes qui développent ces théories. Enfin, sur le plan empirique, nous donnons pour une rare fois l’occasion aux journalistes de s’exprimer sur la manière dont ils perçoivent leur propre travail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche se situe dans le contexte de la société du savoir et de la nécessité de l’apprentissage et du développement professionnel tout au long de la vie. Elle porte sur la dynamique motivationnelle qui anime les enseignants en processus d’apprentissage professionnel, c’est-à-dire lorsqu’ils doivent accomplir des activités dans un programme de formation continue. Les objectifs de cette recherche sont les suivants : développer et valider une échelle qui mesure la satisfaction des besoins psychologiques fondamentaux dans le contexte du développement professionnel lié à l’intégration des TIC chez les enseignants du primaire et du secondaire; déterminer le degré de satisfaction des besoins psychologiques fondamentaux des enseignants dans le contexte de la formation continue concernant l’intégration des TIC; déterminer la perception des enseignants à l’égard de la pertinence des activités de formation continue; identifier les activités et les conditions organisationnelles favorisant la motivation des enseignants du primaire dans leur développement professionnel concernant l’intégration des TIC. Pour atteindre nos objectifs de recherche, nous avons adopté une méthodologie de type mixte, comprenant l’analyse des données quantitatives recueillies à l’aide d’un questionnaire à question fermées (64 participants) et des données qualitatives collectées à l’aide d’entrevues individuelles (5 participants). Malgré certaines limites méthodologiques et conceptuelles, les résultats de la présente recherche indiquent que le soutien à l’autonomie, au sentiment de compétence et à l’appartenance sociale, de même que la pertinence des activités de formation sont proposés comme déterminants principaux de la satisfaction et de la motivation dans le développement professionnel des enseignants. Les résultats de cette recherche ouvrent également la voie à des pistes pour favoriser la motivation dans le développement professionnel et proposent des idées de recherche prospectives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le but d’optimiser la représentation en mémoire des enregistrements Scheme dans le compilateur Gambit, nous avons introduit dans celui-ci un système d’annotations de type et des vecteurs contenant une représentation abrégée des enregistrements. Ces derniers omettent la référence vers le descripteur de type et l’entête habituellement présents sur chaque enregistrement et utilisent plutôt un arbre de typage couvrant toute la mémoire pour retrouver le vecteur contenant une référence. L’implémentation de ces nouvelles fonctionnalités se fait par le biais de changements au runtime de Gambit. Nous introduisons de nouvelles primitives au langage et modifions l’architecture existante pour gérer correctement les nouveaux types de données. On doit modifier le garbage collector pour prendre en compte des enregistrements contenants des valeurs hétérogènes à alignements irréguliers, et l’existence de références contenues dans d’autres objets. La gestion de l’arbre de typage doit aussi être faite automatiquement. Nous conduisons ensuite une série de tests de performance visant à déterminer si des gains sont possibles avec ces nouvelles primitives. On constate une amélioration majeure de performance au niveau de l’allocation et du comportement du gc pour les enregistrements typés de grande taille et des vecteurs d’enregistrements typés ou non. De légers surcoûts sont toutefois encourus lors des accès aux champs et, dans le cas des vecteurs d’enregistrements, au descripteur de type.