1000 resultados para Université de Fribourg. Faculté de théologie.
Resumo:
Executive Summary The first essay of this dissertation investigates whether greater exchange rate uncertainty (i.e., variation over time in the exchange rate) fosters or depresses the foreign investment of multinational firms. In addition to the direct capital financing it supplies, foreign investment can be a source of valuable technology and know-how, which can have substantial positive effects on a host country's economic growth. Thus, it is critically important for policy makers and central bankers, among others, to understand how multinationals base their investment decisions on the characteristics of foreign exchange markets. In this essay, I first develop a theoretical framework to improve our knowledge regarding how the aggregate level of foreign investment responds to exchange rate uncertainty when an economy consists of many firms, each of which is making decisions. The analysis predicts a U-shaped effect of exchange rate uncertainty on the total level of foreign investment of the economy. That is, the effect is negative for low levels of uncertainty and positive for higher levels of uncertainty. This pattern emerges because the relationship between exchange rate volatility and 'the probability of investment is negative for firms with low productivity at home (i.e., firms that find it profitable to invest abroad) and the relationship is positive for firms with high productivity at home (i.e., firms that prefer exporting their product). This finding stands in sharp contrast to predictions in the existing literature that consider a single firm's decision to invest in a unique project. The main contribution of this research is to show that the aggregation over many firms produces a U-shaped pattern between exchange rate uncertainty and the probability of investment. Using data from industrialized countries for the period of 1982-2002, this essay offers a comprehensive empirical analysis that provides evidence in support of the theoretical prediction. In the second essay, I aim to explain the time variation in sovereign credit risk, which captures the risk that a government may be unable to repay its debt. The importance of correctly evaluating such a risk is illustrated by the central role of sovereign debt in previous international lending crises. In addition, sovereign debt is the largest asset class in emerging markets. In this essay, I provide a pricing formula for the evaluation of sovereign credit risk in which the decision to default on sovereign debt is made by the government. The pricing formula explains the variation across time in daily credit spreads - a widely used measure of credit risk - to a degree not offered by existing theoretical and empirical models. I use information on a country's stock market to compute the prevailing sovereign credit spread in that country. The pricing formula explains a substantial fraction of the time variation in daily credit spread changes for Brazil, Mexico, Peru, and Russia for the 1998-2008 period, particularly during the recent subprime crisis. I also show that when a government incentive to default is allowed to depend on current economic conditions, one can best explain the level of credit spreads, especially during the recent period of financial distress. In the third essay, I show that the risk of sovereign default abroad can produce adverse consequences for the U.S. equity market through a decrease in returns and an increase in volatility. The risk of sovereign default, which is no longer limited to emerging economies, has recently become a major concern for financial markets. While sovereign debt plays an increasing role in today's financial environment, the effects of sovereign credit risk on the U.S. financial markets have been largely ignored in the literature. In this essay, I develop a theoretical framework that explores how the risk of sovereign default abroad helps explain the level and the volatility of U.S. equity returns. The intuition for this effect is that negative economic shocks deteriorate the fiscal situation of foreign governments, thereby increasing the risk of a sovereign default that would trigger a local contraction in economic growth. The increased risk of an economic slowdown abroad amplifies the direct effect of these shocks on the level and the volatility of equity returns in the U.S. through two channels. The first channel involves a decrease in the future earnings of U.S. exporters resulting from unfavorable adjustments to the exchange rate. The second channel involves investors' incentives to rebalance their portfolios toward safer assets, which depresses U.S. equity prices. An empirical estimation of the model with monthly data for the 1994-2008 period provides evidence that the risk of sovereign default abroad generates a strong leverage effect during economic downturns, which helps to substantially explain the level and the volatility of U.S. equity returns.
Resumo:
Summary: Bacterial small RNAs (sRNAs) are transcripts most of which have regulatory functions. Sequence and secondary structure elements enable numerous sRNAs to interact with mRNAs or with regulatory proteins resulting in diverse regulatory effects on virulence, iron storage, organization of cell envelope proteins or stress response. sRNAs having high affinity for RsmA-like RNA-binding proteins are important for posttranscriptional regulation in various Gram-negative bacteria. In Pseudomonas spp., the GacS/GacA two component system positively controls the production of such sRNAs. They titrate RsmA-like proteins and thus overcome translational repression due to these proteins. As a consequence, secondary metabolites can be produced that are implicated in the biocontrol capacity of P. fluorescens or in the virulence of P. aeruginosa. A genome-wide search carried out in P. aeruginosa PAO1 and in closely related Pseudomonas spp. resulted in the identification of 15 genes coding for sRNAs. Eight of these are novel, the remaining seven have previously been observed. Among them, the 1698 sRNA gene was expressed under GacA control, whereas the transcription of 1887 sRNA gene was transcribed under the control of the anaerobic regulator Anr in an oxygen-limited environment. Overexpression of 1698 sRNA in P. fluorescens strain CHAO did not affect the expression of the GacA-regulated hcnA gene (first gene of the operon coding for HCN synthase), indicating that 1698 sRNA is probably not part of the secondary metabolite regulation pathway. The expression of 1698 sRNA was positively regulated by RpoS in both P. aeruginosa PAO 1 and P. ,fluorescens CHAO and appeared to be modulated temporarily by oxidative stress conditions. However, the effect of 1698 sRNA on oxidative stress survival has not yet been established. Hfq protein interacted with 1698 sRNA in vitro and improved 1698 sRNA expression in vivo in P. aeruginosa. In P. fluorescens, GacA and Hfq were both required for expression of rpoS and GacA showed a positively control on the hfq expression; therefore, at least in this organism, GacA control of 1698 sRNA expression may act indirectly via Hfq and RpoS. Different methods were employed to find abase-pairing target for 1698 sRNA. In a proteomic analysis carried out in P. aeruginosa, positive regulation by 1698 sRNA was observed for Soda, the iron-associated superoxide dismutase, an enzyme involved in oxidative stress resistance. A sequence complementary with 1698 sRNA was predicted to be located in the 5' leader of soda mRNA. However, base-pairing between soda mRNA and 1698 sRNA remains to be proven. In conclusion, this work has revealed eight novel sRNAs and novel functions of two sRNAs in Pseudomonas spp. Résumé Les petits ARNs non-codants (sRNAs) produits par les bactéries sont des transcrits ayant pour la plupart des activités régulatrices importantes. Leurs séquences nucléotidiques ainsi que leurs structures secondaires permettent aux sRNAs d'interagir soit avec des RNA messagers (mRNAs), de sorte à modifier l'expression des protéines pour lesquelles ils codent, soit avec des protéines régulatrices liant des rnRNAs, ce qui a pour effet de modifier l'expression de ces mRNAs. Des sRNAs sont impliqués dans diverses voies de régulation, telles que celles qui régissent la virulence, le stockage du fer, l'organisation des protéines de l'enveloppe bactérienne ou la réponse au stress. Chez les Pseudomonas spp., le système à deux composantes GacS/GacA contrôle la production de métabolites secondaires. Ceux-ci sont engagés dans l'établissement du biocontrôle, chez P. fluorescens, ou. de la virulence, chez P. aeruginosa. La régulation génique dirigée par le système GacS/GacA fait intervenir les sRNAs du type RsmZ, capables de contrecarrer l'action au niveau traductionnel exercée par les protéines régulatrices du type RsmA. Une recherche au niveau du génome a été menée chez P. aeruginosa PAO1 de même que chez des espèces qui lui sont étroitement apparentées, débouchant sur la mise en évidence de 15 gènes codant pour des sRNAs. Parmi ceux-ci, huit ont été découverts pour la première fois et sept confirment des travaux publiés. L'expression du gène du sRNAs 1698 s'avère être régulée par GacA, vraisemblablement de manière indirecte. La transcription du gène du sRNA 1887 montre une dépendance envers Anr, régulateur de l'anaérobiose, et envers une carence en oxygène. La surexpression du sRNA 1698 chez P. fluorescens CHAO n'affecte pas l'expression de hcnA, un gène du régulon GacA, laissant supposer que le sRNA n'intervient pas dans la régulation des métabolites secondaires. Chez P. aeruginosa PAOI et chez P. fluorescens CHAO, RpoS, le facteur sigma du stress, est nécessaire à l'expression du sRNA 1698, et la concentration de ce dernier est modulée par des conditions de stress oxydatif. Toutefois, un effet du sRNA 1698 quant à la survie suite au stress oxydatif n'a pas été établi. Par ailleurs, l'interaction entre le sRNA 1698 et Hfq, la protéine chaperone de RNAs, in vitro ainsi qu'un rôle positif de Hfq pour l'expression du sRNA 1698 in vivo ont été démontrés chez P. aeruginosa. L'induction de l'expression par GacA de rpoS et de hfq a été confirmée chez P. fluorescens CHAO, suggérant que la régulation par GacA du sRNA 1698 pourrait se faire par l'intermédiaire de RpoS et Hfq. Diverses méthodes ont été employées pour identifier un transcrit qui puisse être apparié par le sRNA 1698. Une analyse de protéome chez P. aeruginosa montre que l'expression de Soda, la superoxyde dismutase associée au fer, est positivement régulée par le sRNA 1698. Soda est une enzyme impliquée dans la résistance au stress oxydatif. Une séquence de complémentarité avec le sRNA 1698 a bien été prédite sur le leader 5' du mRNA de soda. Cependant, l'appariement entre le sRNA et son transcrit cible est encore à prouver. En conclusion, ce travail a dévoilé huit nouveaux sRNAs et de nouvelles fonctions pour deux sRNAs chez les Pseudomonas.
Resumo:
Methods like Event History Analysis can show the existence of diffusion and part of its nature, but do not study the process itself. Nowadays, thanks to the increasing performance of computers, processes can be studied using computational modeling. This thesis presents an agent-based model of policy diffusion mainly inspired from the model developed by Braun and Gilardi (2006). I first start by developing a theoretical framework of policy diffusion that presents the main internal drivers of policy diffusion - such as the preference for the policy, the effectiveness of the policy, the institutional constraints, and the ideology - and its main mechanisms, namely learning, competition, emulation, and coercion. Therefore diffusion, expressed by these interdependencies, is a complex process that needs to be studied with computational agent-based modeling. In a second step, computational agent-based modeling is defined along with its most significant concepts: complexity and emergence. Using computational agent-based modeling implies the development of an algorithm and its programming. When this latter has been developed, we let the different agents interact. Consequently, a phenomenon of diffusion, derived from learning, emerges, meaning that the choice made by an agent is conditional to that made by its neighbors. As a result, learning follows an inverted S-curve, which leads to partial convergence - global divergence and local convergence - that triggers the emergence of political clusters; i.e. the creation of regions with the same policy. Furthermore, the average effectiveness in this computational world tends to follow a J-shaped curve, meaning that not only time is needed for a policy to deploy its effects, but that it also takes time for a country to find the best-suited policy. To conclude, diffusion is an emergent phenomenon from complex interactions and its outcomes as ensued from my model are in line with the theoretical expectations and the empirical evidence.Les méthodes d'analyse de biographie (event history analysis) permettent de mettre en évidence l'existence de phénomènes de diffusion et de les décrire, mais ne permettent pas d'en étudier le processus. Les simulations informatiques, grâce aux performances croissantes des ordinateurs, rendent possible l'étude des processus en tant que tels. Cette thèse, basée sur le modèle théorique développé par Braun et Gilardi (2006), présente une simulation centrée sur les agents des phénomènes de diffusion des politiques. Le point de départ de ce travail met en lumière, au niveau théorique, les principaux facteurs de changement internes à un pays : la préférence pour une politique donnée, l'efficacité de cette dernière, les contraintes institutionnelles, l'idéologie, et les principaux mécanismes de diffusion que sont l'apprentissage, la compétition, l'émulation et la coercition. La diffusion, définie par l'interdépendance des différents acteurs, est un système complexe dont l'étude est rendue possible par les simulations centrées sur les agents. Au niveau méthodologique, nous présenterons également les principaux concepts sous-jacents aux simulations, notamment la complexité et l'émergence. De plus, l'utilisation de simulations informatiques implique le développement d'un algorithme et sa programmation. Cette dernière réalisée, les agents peuvent interagir, avec comme résultat l'émergence d'un phénomène de diffusion, dérivé de l'apprentissage, où le choix d'un agent dépend en grande partie de ceux faits par ses voisins. De plus, ce phénomène suit une courbe en S caractéristique, poussant à la création de régions politiquement identiques, mais divergentes au niveau globale. Enfin, l'efficacité moyenne, dans ce monde simulé, suit une courbe en J, ce qui signifie qu'il faut du temps, non seulement pour que la politique montre ses effets, mais également pour qu'un pays introduise la politique la plus efficace. En conclusion, la diffusion est un phénomène émergent résultant d'interactions complexes dont les résultats du processus tel que développé dans ce modèle correspondent tant aux attentes théoriques qu'aux résultats pratiques.
Resumo:
AbstractDigitalization gives to the Internet the power by allowing several virtual representations of reality, including that of identity. We leave an increasingly digital footprint in cyberspace and this situation puts our identity at high risks. Privacy is a right and fundamental social value that could play a key role as a medium to secure digital identities. Identity functionality is increasingly delivered as sets of services, rather than monolithic applications. So, an identity layer in which identity and privacy management services are loosely coupled, publicly hosted and available to on-demand calls could be more realistic and an acceptable situation. Identity and privacy should be interoperable and distributed through the adoption of service-orientation and implementation based on open standards (technical interoperability). Ihe objective of this project is to provide a way to implement interoperable user-centric digital identity-related privacy to respond to the need of distributed nature of federated identity systems. It is recognized that technical initiatives, emerging standards and protocols are not enough to guarantee resolution for the concerns surrounding a multi-facets and complex issue of identity and privacy. For this reason they should be apprehended within a global perspective through an integrated and a multidisciplinary approach. The approach dictates that privacy law, policies, regulations and technologies are to be crafted together from the start, rather than attaching it to digital identity after the fact. Thus, we draw Digital Identity-Related Privacy (DigldeRP) requirements from global, domestic and business-specific privacy policies. The requirements take shape of business interoperability. We suggest a layered implementation framework (DigldeRP framework) in accordance to model-driven architecture (MDA) approach that would help organizations' security team to turn business interoperability into technical interoperability in the form of a set of services that could accommodate Service-Oriented Architecture (SOA): Privacy-as-a-set-of- services (PaaSS) system. DigldeRP Framework will serve as a basis for vital understanding between business management and technical managers on digital identity related privacy initiatives. The layered DigldeRP framework presents five practical layers as an ordered sequence as a basis of DigldeRP project roadmap, however, in practice, there is an iterative process to assure that each layer supports effectively and enforces requirements of the adjacent ones. Each layer is composed by a set of blocks, which determine a roadmap that security team could follow to successfully implement PaaSS. Several blocks' descriptions are based on OMG SoaML modeling language and BPMN processes description. We identified, designed and implemented seven services that form PaaSS and described their consumption. PaaSS Java QEE project), WSDL, and XSD codes are given and explained.
Resumo:
This thesis concerns the role of scientific expertise in the decision-making process at the Swiss federal level of government. It aims to understand how institutional and issue-specific factors influence three things: the distribution of access to scientific expertise, its valuation by participants in policy for- mulation, and the consequence(s) its mobilization has on policy politics and design. The theoretical framework developed builds on the assumption that scientific expertise is a strategic resource. In order to effectively mobilize this resource, actors require financial and organizational resources, as well as the conviction that it can advance their instrumental interests within a particular action situation. Institutions of the political system allocate these financial and organizational resources, influence the supply of scientific expertise, and help shape the venue of its deployment. Issue structures, in turn, condition both interaction configurations and the way in which these are anticipated by actors. This affects the perceived utility of expertise mobilization, mediating its consequences. The findings of this study show that the ability to access and control scientific expertise is strongly concentrated in the hands of the federal administration. Civil society actors have weak capacities to mobilize it, and the autonomy of institutionalized advisory bodies is limited. Moreover, the production of scientific expertise is undergoing a process of professionalization which strengthens the position of the federal administration as the (main) mandating agent. Despite increased political polarization and less inclu- sive decision-making, scientific expertise remains anchored in the policy subsystem, rather than being used to legitimate policy through appeals to the wider population. Finally, the structure of a policy problem matters both for expertise mobilization and for the latter's impact on the policy process, be- cause it conditions conflict structures and their anticipation. Structured problems result in a greater overlap between the principal of expertise mobilization and its intended audience, thereby increasing the chance that expertise shapes policy design. Conversely, less structured problems, especially those that involve conflicts about values and goals, reduce the impact of expertise.
Resumo:
(English Abstract) In western societies, grades are to date the most widespread means by which achievement and performance are assessed in educational contexts. Grades are used for their capacity to provide individuals with a clear indicator of success or failure, in particular in comparison to others; in this respect, we study their impact on particular work contexts requiring cooperation. Indeed, students are often exhorted to cooperate and work in groups, while at the same time assessed with grades and focused on inter-individual comparison. However, to the best of our knowledge, no work has investigated the effects of grades on cooperation and on indicators of cooperation, a central question to be addressed given its significance for educational trends encouraging cooperative practices, and which we propose to explore in the experimental parts of this thesis. The first experimental chapter, Chapter 4, investigates the effect of grades with regards to their capacity to highlight individual visibility and at the same time social comparison. It tries to disentangle which of these facets could affect a motivated bias likely to reduce cooperation, namely individuals' preference for information confirming their own choice. In two experiments, results showed that a graded-cooperative situation increased this preference effect in comparison to other conditions where only individual visibility was manipulated, and furthermore increased individuals' perception of a competitive atmosphere. Chapter 5 investigates the effect of grades on direct cooperative inter- individual interactions, namely on group information sharing. Two experiments showed that grades hindered informational communication between individuals, leading them to withhold crucial task-information. Finally, Chapter 6 investigates the effects of grades on another indicator of group cooperation, namely inter-individual coordination. Results indicated that showcasing grades at the onset of a cooperative task necessitating inter-individual coordination decreased group performance and elicited more negative dominant behaviours amongst participants. Together these results provide evidence that grades hamper group cooperation. We conclude by discussing implications for the practice of grading in Education. ------------------------------------------------------- (Résumé en langue française) Dans la plupart des pays occidentaux, les notes sont majoritairement utilisées pour évaluer la performance et rendre compte de la réussite scolaire des individus. Dans cette perspective, elles sont non seulement un indicateur de succès ou d'échec, mais aussi de la valeur comparative des individus. Dans cette thèse nous proposons de tester l'effet des notes lorsque celles-ci sont utilisées dans des contextes bien spécifiques de coopération. En effet, si les notes et la comparaison sociale sont pratique courante, les étudiants sont souvent encouragés et amenés à coopérer en groupe. Cependant, à notre connaissance, point d'études ont testé l'effet des notes sur la coopération; études qui seraient pourtant légitimes étant donné la tendance existante en milieu éducatif à encourager les pratiques coopératives. C'est précisément ce que proposent de faire les chapitres expérimentaux de cette thèse. Le premier (Chapitre 4) teste l'effet des notes au regard de leur capacité à accentuer à la fois la visibilité et la comparaison sociale. Deux expériences investiguent l'effet des notes et tentent de démêler ce qui, de la visibilité individuelle, de la comparaison sociale ou des deux, pourrait affecter un biais motivationnel qui réduit la propension à coopérer: la propension à préférer les informations qui confirment les choix de l'individu. Les résultats montrent qu'en situation coopérative, les notes accroissent ce biais comparativement à des situations où seule la visibilité individuelle est soulignée, suggérant de plus que les notes produisent une focalisation des individus sur une comparaison sociale compétitive. Le second (Chapitre 5) teste l'effet des notes sur les interactions coopératives des individus, précisément sur le partage d'information. Deux expériences montrent que dans un contexte de travail en groupe coopératif, les notes entravent le bon partage des informations entre individus, les amenant à faire de la rétention d'information. Enfin, le troisième (Chapitre 6) investigue l'effet des notes sur un autre indicateur de coopération en groupe: la coordination interindividuelle. Les résultats montrent que les notes réduisent la coordination des individus et les mènent à avoir des comportements de dominance négative entre eux. En somme, les notes entravent la coopération et réduisent les comportements coopératifs entre individus. Enfin, nous discutons des implications pour le milieu éducatif.
Resumo:
Question de recherche : Est-ce que la limite de taille de 7 mm d'un anévrisme intracrânien non rompu¦proposée par les études internationales est un critère valable de sélection entre un traitement¦conservateur (observation périodique) ou une intervention curative sur la population du CHUV ?¦Contexte : On estime actuellement la fréquence des anévrismes intracrâniens à 0.2-9% dans la¦population générale. Le taux d'hémorragie sous-arachnoïdienne due à une rupture d'anévrisme est¦estimé à 6-16 pour 100'000 personnes.¦Selon les investigateurs de l'International Study of Unruptured Intracranial Aneurysms (ISUIA, 2003),¦le taux cumulé de rupture à 5 ans pour les anévrismes de moins de 7 mm de diamètre est de 0.05% ou¦2.5% selon que l'anévrisme se situe sur une artère de la circulation cérébrale antérieure ou postérieure,¦respectivement.¦Ces chiffres sont fortement controversés. En effet, d'autres études montrent que le risque de rupture des¦anévrismes inférieurs à 7 mm de diamètre est bien plus important que ne le laisse supposer l'étude¦ISUIA.¦Objectifs : L'objectif de ce travail de maîtrise vise à déterminer si la limite de taille de 7 mm d'un¦anévrisme cérébral non rompu proposé par certaines études internationales (et notamment l'étude¦ISUIA) est un critère valable pour sélectionner entre une observation périodique ou une intervention¦curative (chirurgicale ou endovasculaire) des patients.¦Un corollaire qui découle de cette question est de savoir s'il est justifié de traiter d'emblée un¦anévrisme cérébral non rompu mesurant moins de 7 mm.¦Matériel et Méthodes : Etude rétrospective observationnelle basée sur des données provenant des¦dossiers médicaux des patients admis aux urgences du CHUV avec une hémorragie sousarachnoïdienne¦due à la rupture d'un anévrisme intracrânien pendant une période allant de juin 2005 à¦avril 2011.¦Différents paramètres sont pris en considération : l'âge et le sexe du patient, la taille, la localisation et le¦nombre d'anévrismes, les facteurs de risque de rupture comme le tabac, l'hypertension artérielle et la¦consommation d'alcool, ainsi que les antécédents et l'histoire familiale de rupture d'anévrisme.¦Le critère de jugement principal est la taille de l'anévrisme, suivi par sa localisation.¦Les critères d'exclusion des patients sont les suivants : anévrismes mycotique, fusiforme ou¦traumatique, tumeur cérébrale maligne.¦Résultats escomptés : Avec ce travail, une nouvelle limite de diamètre anévrismal pourrait être¦proposée, en tenant compte des différents paramètres analysés sur un échantillon de la population¦locale. Les résultats pourraient apporter plus de précisions dans le bilan du risque d'une rupture¦anévrismale. Ainsi, la décision d'une intervention bénéficierait d'une base de réflexion nouvelle pour¦les anévrismes non rompus de petite taille.¦Plus-value escomptée : Cette étude pourrait contribuer à améliorer le pronostic des patients porteurs¦d'anévrisme(s) intracrânien(s). Elle permettrait en effet d'intervenir en cas d'anévrismes intracrâniens¦non rompus de taille inférieure à 7 mm, avant que ceux-ci ne se rompent et provoquent une hémorragie¦sous-arachnoïdienne.
Resumo:
Résumé Suite à la publication des recommandations de pratiques cliniques sur la prise en soins de patients fébriles au retour des tropiques, nous avons développé un site internet de consultation www.fevertravel.ch qui comprend un arbre décisionnel et des caractéristiques diagnostiques spécifiques fournissant une assistance diagnostique aux médecins de premier recours. Nous avons ensuite intégré une composante de recherche afin d'évaluer l'implémentation de ces recommandations de pratiques cliniques informatisées. De plus, le site est capable d'enregistrer : (1) le chemin parcouru par le médecin au travers de l'arbre décisionnel, (2) les tests diagnostics effectués, (3) les diagnostics initial et final ainsi que les devenirs des patients et (4) les raisons de non-adhérence lorsque les médecins divergent de l'attitude proposée. Nous croyons que la technologie internat est un moyen puissant pour atteindre des médecins provenant de différents horizons dans leur propre environnement et qu'il pourrait se montrer être un outil de recherche efficace pour disséminer les recommandations de pratiques cliniques et évaluer leur justesse-adéquation. Dans cet article, nous décrivons le design, le contenu, l'architecture et l'implémentation du système de ce prototype d'étude interactive qui vise à intégrer une recherche opérationnelle en médecine de premier recours.
Resumo:
RESUME : BAFF est un membre de 1a famille du TNF qui contrôle l'homéostasie des lymphocytes B. BAFF lie les récepteurs TACI, BCMA et BAFF-R sur les cellules B, tandis qu'APRIL, son proche homologue, lie seulement TACI et BCMA. BAFF et APRIL sont des protéines transmembranaires pouvant -être relâchées sous forme de cytokines trimériques solubles suite à un clivage protéolytique. Le BAFF soluble peut s'assembler en 60-mère. Les rôles physiologiques des BAFF membranaires et solubles sont inconnnus. Nous avons étudié la capacité de diverses formes de BAFF et APRIL à activer différents récepteurs. BAFF-R répond à toutes les formes dé BAFF, tandis que TACI nécessite du BAFF ou de l'APRIL membranaire ou oligomérisé pour être activé et pour transmettre des signaux de survie dans les lymphocytes B primaires. TACI ne répond pas aux ligands trimériques bien qu'il puisse les lier. TACI est essentiel pour la réponse humorale aux antigènes présentant des épitoges répétitifs, une réponse qui est indépendante des lymphocytes T (réponse TI-2). Des souris exprimant moins de BAFF ont un pourcentage modérément réduit de lymphocytes B et leur réponse TI-2 est atténuée. Par contre, des souris qui n'expriment que du BAFF membranaire ont encore moins de cellules B mais répondent efficacement aux antigènes TI-2. Ces résultats suggèrent que le BAFF soluble est impliqué dans le maintien de la population des lymphocytes B, alors que le BAFF membranaire peut activer TACI lors d'are réponse TI-2. Le BAFF 60-mère est un autre activateur potentiel de TACI in vivo. Le BAFF 60-mère existe dans des surnageants de cellules productrices de BAFF mais n'est pas détecté dans le plasma de souris saines, même lorsqu'elles présentent des niveaux élevés de BAFF. BAFF 60-mère est néanmoins présent dans le plasma de souris transgéniques pour BAFF et de souris déficientes en TACI. Comme ces deux lignées présentent des signes d'autoimmunité, ces résultats suggèrent que la présence de BAFF 60-mère pourrait être liée à des conditions pathologiques. Summary : The TNF family ligand BAFF is essential for B cell homeostasis. BAFF binds to the receptors TACI, BCMA and BAFF-R on B cells, whereas its close homolog APRIL binds to TACI and BCMA only. BAFF and APRIL are transmembrane proteins, which can be proteolytically processed to release trimeric soluble cytokines. Soluble BAFF 3-mer can further assemble in a 60-mer. The physiological roles of membrane-bound and soluble BAFF are unknown. We studied the ability of various forms of BAFF and APRIL to signal through different receptors. BAFF-R responded to all forms of BAFF, but TACI required membrane-bound, cross-licked or oligomeric BAFF or APRIL in order to transmit productive signals in primary B cells. TACI was unresponsive to trimeric ligands, although it could bind them. TACI is essential for T-cell independent antibody responses to antigens with repetitive epitopes (TI-2 responses). Mice expressing lower than normal levels of BAFF displayed a moderate B cell reduction and impaired TI-2 responses, whereas mice expressing membrane-bound BAFF displayed severe B cell reduction, but unimpaired TI-2 responses. These results suggest that processed BAFF is involved in the maintenance of the B cell pool and that membrane-bound BAFF can activate TACI during T-cell independent humoral responses. BAFF 60-mer is another potential activator of TACI in vivo. BAFF 60-mer was detected in the supernatant of BAFF-producing cells, but not in the plasma of healthy mice with either norma1 or elevated BAFF levels. It was however present in sera of BAFF transgenic mice and TACI-/- mice, both of which suffer from autoimmunity, suggesting that GAFF 60-mer may be linked to pathogenic conditions.
Resumo:
Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.
Resumo:
Rapport de synthèse : Introduction : le vieillissement cutané est un processus biologique complexe auquel participe une exposition excessive au rayonnement ultraviolet du soleil. En particulier, les longueurs d'onde des rayons ultraviolets A et B (UV-A et UV-B) peuvent induire une augmentation de la synthèse de protéases, comme la métalloprotéinase matricielle 1 (MMP-1), qui est impliquée dans le processus de vieillissement. La thermothérapie par infrarouges, dont les longueurs d'onde sont plus longues que celles des UV, est largement utilisée à des fins thérapeutiques ou cosmétiques. Or, il a été démontré que les infrarouges en filtration aqueuse (IRFA) pouvaient induire une augmentation de la production de MMP-1 et par conséquent être nocifs. Il serait donc intéressant d'évaluer les effets des IRFA au niveau cellulaire et moléculaire. But Expérimental : étudier les effets des lampes à infrarouges en filtration aqueuse utilisées en clinique sur des fibroblastes cutanés humains en culture, afin d'analyser l'expression du gène codant pour la protéine MMP-1. Méthode : des fibroblastes cutanés humain ont été irradiés d'une part avec approximativement 88% d'IRFA (780-1400 nm) et 12% de lumière rouge (LR, 665-780 nm) avec 380 mW/cm2 IRFA(+LR) (333 mW/cm2 IRFA) et d'autre part avec des UV-A comme contrôle. Des courbes de survie cellulaire ont été établies après une exposition allant de 15 minutes à 8 heures au IRFA(+LR) (340-10880 J/cm2 wIRA(+RL), 300-9600 J/cm2 wIRA) ou de 15 à 45 minutes aux UV-A(+BL) (25-75 J/cm2 UV-A(+BL). L'induction de l'ARNm du gène de la MMP-1 a été analysé dans les fibroblastes cutanés humain à deux températures physiologiques (30°C et 37°C) lors d'expositions uniques de 15 à 60 minutes aux IRFA(+LR) (340-1360 J/cm2 IRFA(+LR), 300-1200 J/cm2 IRFA) ou de 30 minutes aux UV-A(+BL) (50 J/cm2 UVA(+BL)). De plus, nous avons effectué des irradiations répétées, une a chaque passage cellulaire jusqu'au passage. 10 de 15 minutes d'IRFA(+LR) 340 J/cm2 IRFA(+LR), 300 J/cm2 IRFA) . Résultats : une exposition unique aux UV-A (+BL) entraîne chez des fibroblastes cutanés humains une augmentation de la mort cellulaire, ainsi qu'une forte augmentation de l'expression du gène codant pour la MMP-1. L'augmentation mise en évidence pour cet ARNm varie en fonction de la technique utilisée : elle est de 11 ± 1 fois par RT-PCR classique, de 76 ± 2 fois par RT-PCR quantitative à 30°C, et de 75 ± 1 fois par RT-PCR quantitative à 37°C. Par contre, une exposition unique ou répétée aux IRFA (+LR) n'induit aucune augmentation de la mort cellulaire, ni de l'expression de l'ARNm de la MMP-1 chez ces fibroblastes. Conclusions : les résultats de cette étude montrent que, contrairement aux rayons ultraviolets, les IRFA (+LR) ne semblent impliqués ni dans le vieillissement, ni dans la mort cellulaire, même utilisés à des doses très élevées. Ces résultats sont en accord avec certaines investigations in vivo montrant une induction de MMP-1 par des UV et non des infrarouges. Ces dernières études suggèrent d'ailleurs plutôt un rôle protecteur des IRFA (+LR).
Resumo:
Summary: Victims of crime are not only physical persons. Firms also experience some different forms of victimization either from outsiders or front employees. Crimes committed inside the firm are various: theft, embezzlement, fraud, fraudulent management, money laundering, vandalism etc. Assessed damage could be considerable. But in general, most of the criminological studies relating to victimization have been interested in individuals as victims. In Switzerland, to date, research on firms'victimization is simply rare and traditional research methods such as victimization survey, self-reported delinquency or controlled experiments are not very much utilized in Swiss white-collar crime studies. Thus, in order to improve the situation, we have decided to start a victimization study on white-collar crime committed in firms of the canton of Geneva. To narrow the field of research, our project seeks to apprehend white-collar crime as a series of offences committed by employees inside the firm, by fraud or deceit, aiming at an illegitimate enrichment. The phenomenon of white-collar crime perpetrated has been evaluated by examining the presence of risk factors and prevention strategies. Furthermore, the correlation between the victimization rate and some aspects of vulnerability has also been investigated. Using data collected from the victimization survey carried out in 2005, some of the key research questions are the following: - which are the types of offences committed? - Which types of measure of prevention are the most efficient to prevent such offences ? - Which type of business is more vulnerable? - Which are the risk factors? - Which is the profile of the authors? - Which are the motivations?, etc. Findings show that companies which valorize their employees and pursue a transparent management style suffer a lower victimization rate. Further, the retail sector seems to be more affected than the financial sector and big firms are more vulnerable.