1000 resultados para 1015


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat propose une analyse comparative détaillée du phénomène de l'enchâssement narratif dans deux textes antiques du IIe s. apr. J.-C. : Leucippé et Clitophon d'Achille Tatius, écrit en grec ancien, et les Métamorphoses d'Apulée, en latin. Ces deux oeuvres sont rattachées par la critique moderne à un genre désigné comme le roman antique.Si le corpus est abordé de façon minutieuse, ce travail n'a pas la forme du commentaire philologique traditionnel, mais d'une nouvelle forme de commentaire, inspirée du Narratological Commentary de VOdyssée par Irene de Jong. L'analyse est sous-tendue par divers mouvements de synthèse et de comparaison ; cela est fait en recourant à diverses méthodes provenant de différents domaines de recherche : philologie grecque et latine, rhétorique antique, narratologie moderne et comparaison différentielle, telle que proposée par Ute Heidmann, qui défend une approche des textes non-hiérarchisante, focalisée autant sur les ressemblances que les dissemblances et les différences entre les textes étudiés.A la croisée de ces différents domaines de recherche, la thèse tente d'offrir de nouveaux apports. Sur le plan philologique, cette étude comparative de l'enchâssement dans deux textes antiques porte l'attention sur des voix et des récits qui étaient encore restés « in-ouïs » par la critique ; en ce sens qu'ils n'avaient pas encore été tous étudiés. Appliquant une comparaison non-hiérarchisante et différentielle, cette thèse va à l'encontre de deux opinions communes en philologie classique. Elle nuance l'idée générale d'une séparation étanche entre roman grec et roman latin, ainsi que l'idée reçue selon laquelle le dialogue entre la culture grecque et latine serait unilatéral, allant seulement du grec au latin et non pas aussi vice-versa. En ce qui concerne la critique sur l'enchâssement en philologie classique et plus concrètement dans les travaux sur le roman antique, l'apport de cette thèse peut être résumé par les termes « contextualisant » et « englobant ». Le contexte culturel de la Seconde Sophistique, mouvement fortement marqyé par la performance, l'oralité et la rhétorique, est pris en compte en prenant appui, en particulier, sur les traités d'art oratoire et les exercices de rhétorique. Si l'importance de ces derniers a été récemment reconnue et leur intérêt renouvelé par la critique, un rapprochement explicite avec le phénomène de l'enchâssement n'avait pas encore été effectué. Par ailleurs, l'étude du récit enchâssé dans deux romans antiques est ici, pour la première fois, effectuée dans son intégralité, en vue de mieux comprendre le procédé de l'enchâssement au sein des oeuvres étudiées, mais aussi en tant que phénomène à part entière.Sur le plan narratologique, la prise en considération de tous les récits enchâssés a permis de proposer l'ébauche d'une « grammaire de l'enchâssement narratif », applicable aussi à d'autres textes. Pour ce faire, le dispositif conceptuel proposé, entre autres, par Genette a été étendu et affiné. Les notions de récit et d'histoire ont également été élargies. Considérant l'histoire comme tout contenu comportant des séquences logico-temporelles, la narrativité a été étendue à tout discours portant sur cette histoire, ce qui a permis d'intégrer dans l'étude des rêves, oracles, plans, lamentations aussi bien que des actes comme les menaces, promesses, reproches, et même les énumérations et descriptions.Soulignant le dialogue entre la culture grecque et latine, la comparaison menée dans ce travail peut être qualifiée d'interculturelle et d'interdisciplinaire, en raison de l'intégration dialogique des philologies grecque et latine, de la narratologie et de la rhétorique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Adjuvants have been shown since many years to have an important role in enhancing the immune responses against the co-administered antigens used as vaccines. The continuous study of the mechanism of action of adjuvants is necessary to develop further safe and efficacious vaccines. Complete Freund's adjuvant (CFA) is currently in use as adjuvant to induce some autoimmune diseases in murine models, therefore the study of the mechanisms involved in the generation of the related immune responses could be instrumental for the understanding of the induction of inflammatory Thl7 responses. In the present work, we showed in C57B1/6 mice that CFA peripheral administration induces very early, at 6 h, a potent influx of CDllb+ cells, mainly neutrophils (CD11b+Ly6GhighLy6Cint) and monocytes (CD11b+Ly6GlowLy6Chigh), in the draining lymph node. By investigating the route by which neutrophils reach the lymph node we observed that, around 20% of them arrive from the afferent lymph and the majority stains positive for Mycobacterium tuberculosis. We also observed a correlation between the influx of neutrophils and an increase in IL-23 and IL-Ιβ, together with several inflammatory chemokines, in the draining lymph node. Concomitantly, we detected the expression of the IL-23 receptor on CDllc+ DCs. Moreover, we confirmed the ability of murine neutrophils to express IL-23 both, in vitro by stimulating bone-marrow extracted PMNs with Mycobacterium tuberculosis, and on total cells from draining lymph node by immunohistochemistry. We also observed by in vivo priming a reduction in the percentage of IFN-γ and CXCR3 expressing Τ cells upon depletion of neutrophils. Altogether, we show that upon stimulation from the periphery, the draining lymph node undergo changes in cytokine/chemokine production leading to the recruitment of different leukocytes subpopulations. Here we show that CFA induces a rapid influx of neutrophils which are responsible for the production of IL-23 that in turn influences the generation of Τ helper cells.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilisation de l'Internet comme medium pour faire ses courses et achats a vu une croissance exponentielle. Cependant, 99% des nouveaux business en ligne échouent. La plupart des acheteurs en ligne ne reviennent pas pour un ré-achat et 60% abandonnent leur chariot avant de conclure l'achat. En effet, après le premier achat, la rétention du consommateur en ligne devient critique au succès du vendeur de commerce électronique. Retenir des consommateurs peut sauver des coûts, accroître les profits, et permet de gagner un avantage compétitif.Les recherches précédentes ont identifié la loyauté comme étant le facteur le plus important dans la rétention du consommateur, et l'engagement ("commitment") comme étant un des facteurs les plus importants en marketing relationnel, offrant une réflexion sur la loyauté. Pourtant, nous n'avons pu trouver d'étude en commerce électronique examinant l'impact de la loyauté en ligne et de l'engagement en ligne ("online commitment") sur le ré-achat en ligne. Un des avantages de l'achat en ligne c'est la capacité à chercher le meilleur prix avec un clic. Pourtant, nous n'avons pu trouver de recherche empirique en commerce électronique qui examinait l'impact de la perception post-achat du prix sur le ré-achat en ligne.L'objectif de cette recherche est de développer un modèle théorique visant à comprendre le ré-achat en ligne, ou la continuité d'achat ("purchase continuance") du même magasin en ligne.Notre modèle de recherche a été testé dans un contexte de commerce électronique réel, sur un échantillon total de 1,866 vrais acheteurs d'un même magasin en ligne. L'étude est centrée sur le ré-achat. Par conséquent, les répondants sélectionnés aléatoirement devaient avoir acheté au moins une fois de ce magasin en ligne avant le début de l'enquête. Cinq mois plus tard, nous avons suivi les répondants pour voir s'ils étaient effectivement revenus pour un ré-achat.Notre analyse démontre que l'intention de ré-achat en ligne n'a pas d'impact significatif sur le ré-achat en ligne. La perception post-achat du prix en ligne ("post-purchase Price perception") et l'engagement normatif en ligne ("Normative Commitment") n'ont pas d'impact significatif sur l'intention de ré-achat en ligne. L'engagement affectif en ligne ("Affective Commitment"), l'attitude loyale en ligne ("Attitudinal Loyalty"), le comportement loyal en ligne ("Behavioral Loyalty"), l'engagement calculé en ligne ("Calculative Commitment") ont un impact positif sur l'intention de ré-achat en ligne. De plus, l'attitude loyale en ligne a un effet de médiation partielle entre l'engagement affectif en ligne et l'intention de ré-achat en ligne. Le comportement loyal en ligne a un effet de mediation partielle entre l'attitude loyale en ligne et l'intention de ré-achat en ligne.Nous avons réalisé deux analyses complémentaires : 1) Sur un échantillon de premiers acheteurs, nous trouvons que la perception post-achat du prix en ligne a un impact positif sur l'intention de ré-achat en ligne. 2) Nous avons divisé l'échantillon de l'étude principale entre des acheteurs répétitifs Suisse-Romands et Suisse-Allemands. Les résultats démontrent que les Suisse-Romands montrent plus d'émotions durant l'achat en ligne que les Suisse-Allemands. Nos résultats contribuent à la recherche académique mais aussi aux praticiens de l'industrie e-commerce.AbstractThe use of the Internet as a shopping and purchasing medium has seen exceptional growth. However, 99% of new online businesses fail. Most online buyers do not comeback for a repurchase, and 60% abandon their shopping cart before checkout. Indeed, after the first purchase, online consumer retention becomes critical to the success of the e-commerce vendor. Retaining existing customers can save costs, increase profits, and is a means of gaining competitive advantage.Past research identified loyalty as the most important factor in achieving customer retention, and commitment as one of the most important factors in relationship marketing, providing a good description of what type of thinking leads to loyalty. Yet, we could not find an e-commerce study investing the impact of both online loyalty and online commitment on online repurchase. One of the advantages of online shopping is the ability of browsing for the best price with one click. Yet, we could not find an e- commerce empirical research investigating the impact of post-purchase price perception on online repurchase.The objective of this research is to develop a theoretical model aimed at understanding online repurchase, or purchase continuance from the same online store.Our model was tested in a real e-commerce context with an overall sample of 1, 866 real online buyers from the same online store.The study focuses on repurchase. Therefore, randomly selected respondents had purchased from the online store at least once prior to the survey. Five months later, we tracked respondents to see if they actually came back for a repurchase.Our findings show that online Intention to repurchase has a non-significant impact on online Repurchase. Online post-purchase Price perception and online Normative Commitment have a non-significant impact on online Intention to repurchase, whereas online Affective Commitment, online Attitudinal Loyalty, online Behavioral Loyalty, and online Calculative Commitment have a positive impact on online Intention to repurchase. Furthermore, online Attitudinal Loyalty partially mediates between online Affective Commitment and online Intention to repurchase, and online Behavioral Loyalty partially mediates between online Attitudinal Loyalty and online Intention to repurchase.We conducted two follow up analyses: 1) On a sample of first time buyers, we find that online post-purchase Price perception has a positive impact on Intention. 2) We divided the main study's sample into Swiss-French and Swiss-German repeated buyers. Results show that Swiss-French show more emotions when shopping online than Swiss- Germans. Our findings contribute to academic research but also to practice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Walk-in centers may improve access to healthcare for some patients, due to their convenient location and extensive opening hours, with no need for appointment. Herein we describe and assess a new model of walk-in centre, characterized by care provided by residents and supervision achieved by experienced family doctors. Main aim of the study was to assess patients satisfaction about the care they received from residents and the supervision by family doctors. Secondary aim was to describe walk-in patients demographic characteristics and to identify potential associations with satisfaction. Methods The study was conducted in the walk-in centre of Lausanne. Patients who consulted between in April 2011 were automatically included and received a questionnaire in French. We used a five-point Likert scale, from "not at all satisfied" to "very satisfied", converted from 1 to 5. We focused on the satisfaction regarding residents care and supervision by a family doctor. The former was divided in three categories: "Skills", "Treatment" and "Behaviour". Mean satisfaction was calculated for each category and a multivariable logistic model was applied in order to identify associations among patients demographics. Results Response rate was 47% [184/395], Walk-in patients were more likely to be women, young, with a high education level. Patients were very satisfied with residents care, with median satisfaction between 4.5 and 5, for each category. Over than 90% of patients were "satisfied" or "very satisfied" that a family doctor was involved in the consultation. Age showed the major association of satisfaction. Discussion Patients were highly satisfied with care provided by residents and with involvement of a family doctor in the consultation. Older age showed the major association with satisfaction with a positive impact. The high satisfaction reported by walk-in patients supports this new model of walk-in centre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Executive Summary The first essay of this dissertation investigates whether greater exchange rate uncertainty (i.e., variation over time in the exchange rate) fosters or depresses the foreign investment of multinational firms. In addition to the direct capital financing it supplies, foreign investment can be a source of valuable technology and know-how, which can have substantial positive effects on a host country's economic growth. Thus, it is critically important for policy makers and central bankers, among others, to understand how multinationals base their investment decisions on the characteristics of foreign exchange markets. In this essay, I first develop a theoretical framework to improve our knowledge regarding how the aggregate level of foreign investment responds to exchange rate uncertainty when an economy consists of many firms, each of which is making decisions. The analysis predicts a U-shaped effect of exchange rate uncertainty on the total level of foreign investment of the economy. That is, the effect is negative for low levels of uncertainty and positive for higher levels of uncertainty. This pattern emerges because the relationship between exchange rate volatility and 'the probability of investment is negative for firms with low productivity at home (i.e., firms that find it profitable to invest abroad) and the relationship is positive for firms with high productivity at home (i.e., firms that prefer exporting their product). This finding stands in sharp contrast to predictions in the existing literature that consider a single firm's decision to invest in a unique project. The main contribution of this research is to show that the aggregation over many firms produces a U-shaped pattern between exchange rate uncertainty and the probability of investment. Using data from industrialized countries for the period of 1982-2002, this essay offers a comprehensive empirical analysis that provides evidence in support of the theoretical prediction. In the second essay, I aim to explain the time variation in sovereign credit risk, which captures the risk that a government may be unable to repay its debt. The importance of correctly evaluating such a risk is illustrated by the central role of sovereign debt in previous international lending crises. In addition, sovereign debt is the largest asset class in emerging markets. In this essay, I provide a pricing formula for the evaluation of sovereign credit risk in which the decision to default on sovereign debt is made by the government. The pricing formula explains the variation across time in daily credit spreads - a widely used measure of credit risk - to a degree not offered by existing theoretical and empirical models. I use information on a country's stock market to compute the prevailing sovereign credit spread in that country. The pricing formula explains a substantial fraction of the time variation in daily credit spread changes for Brazil, Mexico, Peru, and Russia for the 1998-2008 period, particularly during the recent subprime crisis. I also show that when a government incentive to default is allowed to depend on current economic conditions, one can best explain the level of credit spreads, especially during the recent period of financial distress. In the third essay, I show that the risk of sovereign default abroad can produce adverse consequences for the U.S. equity market through a decrease in returns and an increase in volatility. The risk of sovereign default, which is no longer limited to emerging economies, has recently become a major concern for financial markets. While sovereign debt plays an increasing role in today's financial environment, the effects of sovereign credit risk on the U.S. financial markets have been largely ignored in the literature. In this essay, I develop a theoretical framework that explores how the risk of sovereign default abroad helps explain the level and the volatility of U.S. equity returns. The intuition for this effect is that negative economic shocks deteriorate the fiscal situation of foreign governments, thereby increasing the risk of a sovereign default that would trigger a local contraction in economic growth. The increased risk of an economic slowdown abroad amplifies the direct effect of these shocks on the level and the volatility of equity returns in the U.S. through two channels. The first channel involves a decrease in the future earnings of U.S. exporters resulting from unfavorable adjustments to the exchange rate. The second channel involves investors' incentives to rebalance their portfolios toward safer assets, which depresses U.S. equity prices. An empirical estimation of the model with monthly data for the 1994-2008 period provides evidence that the risk of sovereign default abroad generates a strong leverage effect during economic downturns, which helps to substantially explain the level and the volatility of U.S. equity returns.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Methods like Event History Analysis can show the existence of diffusion and part of its nature, but do not study the process itself. Nowadays, thanks to the increasing performance of computers, processes can be studied using computational modeling. This thesis presents an agent-based model of policy diffusion mainly inspired from the model developed by Braun and Gilardi (2006). I first start by developing a theoretical framework of policy diffusion that presents the main internal drivers of policy diffusion - such as the preference for the policy, the effectiveness of the policy, the institutional constraints, and the ideology - and its main mechanisms, namely learning, competition, emulation, and coercion. Therefore diffusion, expressed by these interdependencies, is a complex process that needs to be studied with computational agent-based modeling. In a second step, computational agent-based modeling is defined along with its most significant concepts: complexity and emergence. Using computational agent-based modeling implies the development of an algorithm and its programming. When this latter has been developed, we let the different agents interact. Consequently, a phenomenon of diffusion, derived from learning, emerges, meaning that the choice made by an agent is conditional to that made by its neighbors. As a result, learning follows an inverted S-curve, which leads to partial convergence - global divergence and local convergence - that triggers the emergence of political clusters; i.e. the creation of regions with the same policy. Furthermore, the average effectiveness in this computational world tends to follow a J-shaped curve, meaning that not only time is needed for a policy to deploy its effects, but that it also takes time for a country to find the best-suited policy. To conclude, diffusion is an emergent phenomenon from complex interactions and its outcomes as ensued from my model are in line with the theoretical expectations and the empirical evidence.Les méthodes d'analyse de biographie (event history analysis) permettent de mettre en évidence l'existence de phénomènes de diffusion et de les décrire, mais ne permettent pas d'en étudier le processus. Les simulations informatiques, grâce aux performances croissantes des ordinateurs, rendent possible l'étude des processus en tant que tels. Cette thèse, basée sur le modèle théorique développé par Braun et Gilardi (2006), présente une simulation centrée sur les agents des phénomènes de diffusion des politiques. Le point de départ de ce travail met en lumière, au niveau théorique, les principaux facteurs de changement internes à un pays : la préférence pour une politique donnée, l'efficacité de cette dernière, les contraintes institutionnelles, l'idéologie, et les principaux mécanismes de diffusion que sont l'apprentissage, la compétition, l'émulation et la coercition. La diffusion, définie par l'interdépendance des différents acteurs, est un système complexe dont l'étude est rendue possible par les simulations centrées sur les agents. Au niveau méthodologique, nous présenterons également les principaux concepts sous-jacents aux simulations, notamment la complexité et l'émergence. De plus, l'utilisation de simulations informatiques implique le développement d'un algorithme et sa programmation. Cette dernière réalisée, les agents peuvent interagir, avec comme résultat l'émergence d'un phénomène de diffusion, dérivé de l'apprentissage, où le choix d'un agent dépend en grande partie de ceux faits par ses voisins. De plus, ce phénomène suit une courbe en S caractéristique, poussant à la création de régions politiquement identiques, mais divergentes au niveau globale. Enfin, l'efficacité moyenne, dans ce monde simulé, suit une courbe en J, ce qui signifie qu'il faut du temps, non seulement pour que la politique montre ses effets, mais également pour qu'un pays introduise la politique la plus efficace. En conclusion, la diffusion est un phénomène émergent résultant d'interactions complexes dont les résultats du processus tel que développé dans ce modèle correspondent tant aux attentes théoriques qu'aux résultats pratiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

AbstractDigitalization gives to the Internet the power by allowing several virtual representations of reality, including that of identity. We leave an increasingly digital footprint in cyberspace and this situation puts our identity at high risks. Privacy is a right and fundamental social value that could play a key role as a medium to secure digital identities. Identity functionality is increasingly delivered as sets of services, rather than monolithic applications. So, an identity layer in which identity and privacy management services are loosely coupled, publicly hosted and available to on-demand calls could be more realistic and an acceptable situation. Identity and privacy should be interoperable and distributed through the adoption of service-orientation and implementation based on open standards (technical interoperability). Ihe objective of this project is to provide a way to implement interoperable user-centric digital identity-related privacy to respond to the need of distributed nature of federated identity systems. It is recognized that technical initiatives, emerging standards and protocols are not enough to guarantee resolution for the concerns surrounding a multi-facets and complex issue of identity and privacy. For this reason they should be apprehended within a global perspective through an integrated and a multidisciplinary approach. The approach dictates that privacy law, policies, regulations and technologies are to be crafted together from the start, rather than attaching it to digital identity after the fact. Thus, we draw Digital Identity-Related Privacy (DigldeRP) requirements from global, domestic and business-specific privacy policies. The requirements take shape of business interoperability. We suggest a layered implementation framework (DigldeRP framework) in accordance to model-driven architecture (MDA) approach that would help organizations' security team to turn business interoperability into technical interoperability in the form of a set of services that could accommodate Service-Oriented Architecture (SOA): Privacy-as-a-set-of- services (PaaSS) system. DigldeRP Framework will serve as a basis for vital understanding between business management and technical managers on digital identity related privacy initiatives. The layered DigldeRP framework presents five practical layers as an ordered sequence as a basis of DigldeRP project roadmap, however, in practice, there is an iterative process to assure that each layer supports effectively and enforces requirements of the adjacent ones. Each layer is composed by a set of blocks, which determine a roadmap that security team could follow to successfully implement PaaSS. Several blocks' descriptions are based on OMG SoaML modeling language and BPMN processes description. We identified, designed and implemented seven services that form PaaSS and described their consumption. PaaSS Java QEE project), WSDL, and XSD codes are given and explained.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis concerns the role of scientific expertise in the decision-making process at the Swiss federal level of government. It aims to understand how institutional and issue-specific factors influence three things: the distribution of access to scientific expertise, its valuation by participants in policy for- mulation, and the consequence(s) its mobilization has on policy politics and design. The theoretical framework developed builds on the assumption that scientific expertise is a strategic resource. In order to effectively mobilize this resource, actors require financial and organizational resources, as well as the conviction that it can advance their instrumental interests within a particular action situation. Institutions of the political system allocate these financial and organizational resources, influence the supply of scientific expertise, and help shape the venue of its deployment. Issue structures, in turn, condition both interaction configurations and the way in which these are anticipated by actors. This affects the perceived utility of expertise mobilization, mediating its consequences. The findings of this study show that the ability to access and control scientific expertise is strongly concentrated in the hands of the federal administration. Civil society actors have weak capacities to mobilize it, and the autonomy of institutionalized advisory bodies is limited. Moreover, the production of scientific expertise is undergoing a process of professionalization which strengthens the position of the federal administration as the (main) mandating agent. Despite increased political polarization and less inclu- sive decision-making, scientific expertise remains anchored in the policy subsystem, rather than being used to legitimate policy through appeals to the wider population. Finally, the structure of a policy problem matters both for expertise mobilization and for the latter's impact on the policy process, be- cause it conditions conflict structures and their anticipation. Structured problems result in a greater overlap between the principal of expertise mobilization and its intended audience, thereby increasing the chance that expertise shapes policy design. Conversely, less structured problems, especially those that involve conflicts about values and goals, reduce the impact of expertise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME : BAFF est un membre de 1a famille du TNF qui contrôle l'homéostasie des lymphocytes B. BAFF lie les récepteurs TACI, BCMA et BAFF-R sur les cellules B, tandis qu'APRIL, son proche homologue, lie seulement TACI et BCMA. BAFF et APRIL sont des protéines transmembranaires pouvant -être relâchées sous forme de cytokines trimériques solubles suite à un clivage protéolytique. Le BAFF soluble peut s'assembler en 60-mère. Les rôles physiologiques des BAFF membranaires et solubles sont inconnnus. Nous avons étudié la capacité de diverses formes de BAFF et APRIL à activer différents récepteurs. BAFF-R répond à toutes les formes dé BAFF, tandis que TACI nécessite du BAFF ou de l'APRIL membranaire ou oligomérisé pour être activé et pour transmettre des signaux de survie dans les lymphocytes B primaires. TACI ne répond pas aux ligands trimériques bien qu'il puisse les lier. TACI est essentiel pour la réponse humorale aux antigènes présentant des épitoges répétitifs, une réponse qui est indépendante des lymphocytes T (réponse TI-2). Des souris exprimant moins de BAFF ont un pourcentage modérément réduit de lymphocytes B et leur réponse TI-2 est atténuée. Par contre, des souris qui n'expriment que du BAFF membranaire ont encore moins de cellules B mais répondent efficacement aux antigènes TI-2. Ces résultats suggèrent que le BAFF soluble est impliqué dans le maintien de la population des lymphocytes B, alors que le BAFF membranaire peut activer TACI lors d'are réponse TI-2. Le BAFF 60-mère est un autre activateur potentiel de TACI in vivo. Le BAFF 60-mère existe dans des surnageants de cellules productrices de BAFF mais n'est pas détecté dans le plasma de souris saines, même lorsqu'elles présentent des niveaux élevés de BAFF. BAFF 60-mère est néanmoins présent dans le plasma de souris transgéniques pour BAFF et de souris déficientes en TACI. Comme ces deux lignées présentent des signes d'autoimmunité, ces résultats suggèrent que la présence de BAFF 60-mère pourrait être liée à des conditions pathologiques. Summary : The TNF family ligand BAFF is essential for B cell homeostasis. BAFF binds to the receptors TACI, BCMA and BAFF-R on B cells, whereas its close homolog APRIL binds to TACI and BCMA only. BAFF and APRIL are transmembrane proteins, which can be proteolytically processed to release trimeric soluble cytokines. Soluble BAFF 3-mer can further assemble in a 60-mer. The physiological roles of membrane-bound and soluble BAFF are unknown. We studied the ability of various forms of BAFF and APRIL to signal through different receptors. BAFF-R responded to all forms of BAFF, but TACI required membrane-bound, cross-licked or oligomeric BAFF or APRIL in order to transmit productive signals in primary B cells. TACI was unresponsive to trimeric ligands, although it could bind them. TACI is essential for T-cell independent antibody responses to antigens with repetitive epitopes (TI-2 responses). Mice expressing lower than normal levels of BAFF displayed a moderate B cell reduction and impaired TI-2 responses, whereas mice expressing membrane-bound BAFF displayed severe B cell reduction, but unimpaired TI-2 responses. These results suggest that processed BAFF is involved in the maintenance of the B cell pool and that membrane-bound BAFF can activate TACI during T-cell independent humoral responses. BAFF 60-mer is another potential activator of TACI in vivo. BAFF 60-mer was detected in the supernatant of BAFF-producing cells, but not in the plasma of healthy mice with either norma1 or elevated BAFF levels. It was however present in sera of BAFF transgenic mice and TACI-/- mice, both of which suffer from autoimmunity, suggesting that GAFF 60-mer may be linked to pathogenic conditions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : Introduction : le vieillissement cutané est un processus biologique complexe auquel participe une exposition excessive au rayonnement ultraviolet du soleil. En particulier, les longueurs d'onde des rayons ultraviolets A et B (UV-A et UV-B) peuvent induire une augmentation de la synthèse de protéases, comme la métalloprotéinase matricielle 1 (MMP-1), qui est impliquée dans le processus de vieillissement. La thermothérapie par infrarouges, dont les longueurs d'onde sont plus longues que celles des UV, est largement utilisée à des fins thérapeutiques ou cosmétiques. Or, il a été démontré que les infrarouges en filtration aqueuse (IRFA) pouvaient induire une augmentation de la production de MMP-1 et par conséquent être nocifs. Il serait donc intéressant d'évaluer les effets des IRFA au niveau cellulaire et moléculaire. But Expérimental : étudier les effets des lampes à infrarouges en filtration aqueuse utilisées en clinique sur des fibroblastes cutanés humains en culture, afin d'analyser l'expression du gène codant pour la protéine MMP-1. Méthode : des fibroblastes cutanés humain ont été irradiés d'une part avec approximativement 88% d'IRFA (780-1400 nm) et 12% de lumière rouge (LR, 665-780 nm) avec 380 mW/cm2 IRFA(+LR) (333 mW/cm2 IRFA) et d'autre part avec des UV-A comme contrôle. Des courbes de survie cellulaire ont été établies après une exposition allant de 15 minutes à 8 heures au IRFA(+LR) (340-10880 J/cm2 wIRA(+RL), 300-9600 J/cm2 wIRA) ou de 15 à 45 minutes aux UV-A(+BL) (25-75 J/cm2 UV-A(+BL). L'induction de l'ARNm du gène de la MMP-1 a été analysé dans les fibroblastes cutanés humain à deux températures physiologiques (30°C et 37°C) lors d'expositions uniques de 15 à 60 minutes aux IRFA(+LR) (340-1360 J/cm2 IRFA(+LR), 300-1200 J/cm2 IRFA) ou de 30 minutes aux UV-A(+BL) (50 J/cm2 UVA(+BL)). De plus, nous avons effectué des irradiations répétées, une a chaque passage cellulaire jusqu'au passage. 10 de 15 minutes d'IRFA(+LR) 340 J/cm2 IRFA(+LR), 300 J/cm2 IRFA) . Résultats : une exposition unique aux UV-A (+BL) entraîne chez des fibroblastes cutanés humains une augmentation de la mort cellulaire, ainsi qu'une forte augmentation de l'expression du gène codant pour la MMP-1. L'augmentation mise en évidence pour cet ARNm varie en fonction de la technique utilisée : elle est de 11 ± 1 fois par RT-PCR classique, de 76 ± 2 fois par RT-PCR quantitative à 30°C, et de 75 ± 1 fois par RT-PCR quantitative à 37°C. Par contre, une exposition unique ou répétée aux IRFA (+LR) n'induit aucune augmentation de la mort cellulaire, ni de l'expression de l'ARNm de la MMP-1 chez ces fibroblastes. Conclusions : les résultats de cette étude montrent que, contrairement aux rayons ultraviolets, les IRFA (+LR) ne semblent impliqués ni dans le vieillissement, ni dans la mort cellulaire, même utilisés à des doses très élevées. Ces résultats sont en accord avec certaines investigations in vivo montrant une induction de MMP-1 par des UV et non des infrarouges. Ces dernières études suggèrent d'ailleurs plutôt un rôle protecteur des IRFA (+LR).