671 resultados para Fonction caracteristique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Des développements antérieurs, au sein de l'Institut de Géophysique de Lausanne, ont permis de développer des techniques d'acquisition sismique et de réaliser l'interprétation des données sismique 2D et 3D pour étudier la géologie de la région et notamment les différentes séquences sédimentaires du Lac Léman. Pour permettre un interprétation quantitative de la sismique en déterminant des paramètres physiques des sédiments la méthode AVO (Amplitude Versus Offset) a été appliquée. Deux campagnes sismiques lacustres, 2D et 3D, ont été acquises afin de tester la méthode AVO dans le Grand Lac sur les deltas des rivières. La géométrie d'acquisition a été repensée afin de pouvoir enregistrer les données à grands déports. Les flûtes sismiques, mises bout à bout, ont permis d'atteindre des angles d'incidence d'environ 40˚ . Des récepteurs GPS spécialement développés à cet effet, et disposés le long de la flûte, ont permis, après post-traitement des données, de déterminer la position de la flûte avec précision (± 0.5 m). L'étalonnage de nos hydrophones, réalisé dans une chambre anéchoïque, a permis de connaître leur réponse en amplitude en fonction de la fréquence. Une variation maximale de 10 dB a été mis en évidence entre les capteurs des flûtes et le signal de référence. Un traitement sismique dont l'amplitude a été conservée a été appliqué sur les données du lac. L'utilisation de l'algorithme en surface en consistante a permis de corriger les variations d'amplitude des tirs du canon à air. Les sections interceptes et gradients obtenues sur les deltas de l'Aubonne et de la Dranse ont permis de produire des cross-plots. Cette représentation permet de classer les anomalies d'amplitude en fonction du type de sédiments et de leur contenu potentiel en gaz. L'un des attributs qui peut être extrait des données 3D, est l'amplitude de la réflectivité d'une interface sismique. Ceci ajoute une composante quantitative à l'interprétation géologique d'une interface. Le fond d'eau sur le delta de l'Aubonne présente des anomalies en amplitude qui caractérisent les chenaux. L'inversion de l'équation de Zoeppritz par l'algorithme de Levenberg-Marquardt a été programmée afin d'extraire les paramètres physiques des sédiments sur ce delta. Une étude statistique des résultats de l'inversion permet de simuler la variation de l'amplitude en fonction du déport. On a obtenu un modèle dont la première couche est l'eau et dont la seconde est une couche pour laquelle V P = 1461 m∕s, ρ = 1182 kg∕m3 et V S = 383 m∕s. Abstract A system to record very high resolution (VHR) seismic data on lakes in 2D and 3D was developed at the Institute of Geophysics, University of Lausanne. Several seismic surveys carried out on Lake Geneva helped us to better understand the geology of the area and to identify sedimentary sequences. However, more sophisticated analysis of the data such as the AVO (Amplitude Versus Offset) method provides means of deciphering the detailed structure of the complex Quaternary sedimentary fill of the Lake Geneva trough. To study the physical parameters we applied the AVO method at some selected places of sediments. These areas are the Aubonne and Dranse River deltas where the configurations of the strata are relatively smooth and the discontinuities between them easy to pick. A specific layout was developed to acquire large incidence angle. 2D and 3D seismic data were acquired with streamers, deployed end to end, providing incidence angle up to 40˚ . One or more GPS antennas attached to the streamer enabled us to calculate individual hydrophone positions with an accuracy of 50 cm after post-processing of the navigation data. To ensure that our system provides correct amplitude information, our streamer sensors were calibrated in an anechoic chamber using a loudspeaker as a source. Amplitude variations between the each hydrophone were of the order of 10 dB. An amplitude correction for each hydrophone was computed and applied before processing. Amplitude preserving processing was then carried out. Intercept vs. gradient cross-plots enable us to determine that both geological discontinuities (lacustrine sediments/moraine and moraine/molasse) have well defined trends. A 3D volume collected on the Aubonne river delta was processed in order ro obtain AVO attributes. Quantitative interpretation using amplitude maps were produced and amplitude maps revealed high reflectivity in channels. Inversion of the water bottom of the Zoeppritz equation using the Levenberg-Marquadt algorithm was carried out to estimate V P , V S and ρ of sediments immediately under the lake bottom. Real-data inversion gave, under the water layer, a mud layer with V P = 1461 m∕s, ρ = 1182 kg∕m3 et V S = 383 m∕s.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail décrit le cas d'un patient présentant un carcinome parathyroïdien ayant occasionné des calcifications pulmonaires métastatiques d'évolution rapidement fatale, malgré une prise en charge médicale précoce et agressive. L'objectif de cette présentation est de faciliter le diagnostic ainsi que la prise en charge de cette pathologie rarement symptomatique mais potentiellement mortelle.¦Une revue extensive de littérature a été effectuée, afin de préciser les aspects étiologiques, pathogéniques, pathologiques, cliniques et radiologiques des calcifications pulmonaires métastatiques. Un recensement de tous les cas décrits ayant conduit au décès des patients a en outre été fait.¦La pathogenèse des calcifications pulmonaires métastatiques est encore incomplètement élucidée. Elle fait intervenir des variations de l'équillibre phospho- calcique, de la fonction rénale ou encore du pH. Les étiologies le plus souvent retouvées sont l'hyperparathyroïdie, les lésions osseuses lytiques néoplasiques et l'insuffisance rénale. Le diagnostic définitif est obtenu par l'histologie, les différents examens radiologiques n'étant que peu sensibles. Les manifestations clinique peuvent comprendre un syndrome pulmonaire restrictif, des troubles de la diffusion, une hypoxémie ou encore une insuffisance respiratoire.¦Le cas relaté démontre le caractère potentiellement fulminant et létàl des calcifications pulmonaires métastatiques. Il s'agit du premier cas mortel décrit de calcifications pulmonaires métastatiques secondaires à une néoplasie parathyroïdienne maligne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une lésion fonctionnelle ou structurale des artérioles intramurales influence le seuil ischémique du myocarde. Le diagnostic de dysfonction microvasculaire est retenu en présence d'une diminution du flux coronaire maximal et de coronaires angio-graphiquement normales ou presque normales. Un trouble de la microcirculation peut traduire une dysfonction endothéliale chez le sujet diabétique ou hyperlipidémique, ou une lésion structurale ou fonctionnelle dans le cadre de la cardiomyopathie hypertrophique, la sténose aortique ou l'hypertension artérielle. Après recanalisation de l'artère responsable d'un infarctus, la mesure de la fonction microcirculatoire permet d'estimer la qualité de la reperfusion myocardique. L'appréciation de la fonction microvasculaire est un enjeu majeur dans l'évaluation de l'ischémie du myocarde en l'absence de sténose coronaire. Functional or structural lesions in intramural arterioles influence the ischemic threshold of the myocardium. Microvascular dysfonction is evidenced by a decrease in coronary blood flow during maximum hyperemia in the presence of angiographically normal or near-normal coronary arteries. Microvascular dysfonction may reflect endothelial dysfonction in diabetic or hyperlipidemic patients, as well as structural and functional changes in patients with hypertrophic cardiomyopathy, aortic stenosis or hypertension. Assessing microvascular fonction after thrombolysis or primary angioplasty for acute myocardial infarction allows to estimate the quality of myocardial reperfusion. Assessing microvascular fonction is a major component of the evaluation of myocardial ischemia in the absence of coronary artery stenoses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat a comme sujet la poésie dialectale contemporaine du Nord de l'Italie. Il s'agit d'une étude métrique de poésies écrites dans divers dialectes sélectionnés sur la base d'un système linguistique unitaire tel que le galloitalico que l'on trouve au Piémont, en Lombardie, en Ligurie et en Emilie-Romagne. Plus précisément, le corpus soumis à examen prend en considération les formes poétiques qui, au cours de la deuxième moitié du XXème siècle, confèrent au vers libre une certaine régularité comme les structures « simples » presque archétypiques des quatrains, des huitains et de toutes les formes métriques qui optent pour une strophe unique avec un nombre de vers multiple de quatre. Ces dernières sont particulièrement intéressantes car elles peuvent cacher une structure en quatrain souvent dévoilée par la disposition des rimes, de la syntaxe et parfois également du rythme. Ces choix qui pourraient sembler arbitraires sont en réalité liés aux tentatives des poètes de reprendre des formes de la tradition pour les innover ou simplement pour les reproposer avec ou sans modification. Les liens avec la tradition et la notion de libertà nella chiusura ont été étudiés en fonction des composantes fondamentales de l'organisme métrique, c'est-à-dire la forme, les rimes, la syllabation et le rythme. Pour citer Raboni, il s'agit de comprendre la manière dont "la dissonanza può essere usata per «salvare» l'ipotesi tonale" et la manière dont "la trasgressione metrica finisce col prolungare la vita della regola alla quale, derivandone, si oppone" (Giovanni RABONI, L'opera poetica, a cura di Rodolfo Zucco, Milano, Mondadori, i Meridiani, 2006, p.403). L'objectif de cette recherche est donc d'explorer et d'expliquer l'ambiguïté métrique de la poésie dialectale du XXème siècle tout en se référant à un article fondamental pour ce genre d'étude écrit par Pier Vincenzo Mengaldo et intitulé Questioni metriche novecentesche. L'ambition de cette thèse ne se limite pas à prolonger une réflexion encore à ses débuts dans le cas de la poésie régionale contemporaine, mais elle réalise également un panorama essentiel, bien que sommaire, qui met au premier plan les aspects innovateurs, et parfois conservateurs de la poésie dialectale contemporaine de certaines régions du Nord de l'Italie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'article rend compte des résultats d'une recherche comparative sur les processus de féminisation des professions juridiques en France et en Grande-Bretagne. Les auteurs attirent l'attention sur l'importance du rôle du « levier des diplômes » sur la féminisation plus précoce et plus soutenue de certaines professions juridiques en France par rapport à la Grande-Bretagne. Les auteurs situent ce phénomène de féminisation dans le contexte des transformations structurelles qui touchent ces professions depuis le milieu des années 1970. Prenant appui sur les données portant sur l'évolution des carrières des avocats français et des solicitors britanniques en fonction du sexe et de l'ancienneté, elles attirent l'attention sur la manière dont ces transformations structurelles s'articulent avec le phénomène de féminisation et insistent sur la nécessité d'une analyse approfondie des trajectoires professionnelles sexuées dans ce contexte de grands bouleversements structurels. The paper presents the results of a comparative research project on the feminisation of the legal professions in Britain and France. The authors stress the importance of the role of the « qualifications lever » on the earlier and more extensive character of the feminisation of certain legal professions in France as compared to Britain. An attempt is made to place feminisation in the general context of structural change taking place within the legal profesions since the middle of the 1970's. On the basis of original data on the career structure of French avocats and British solicitors by gender and length of service, the authors stress the manner in which such structural changes interrelate with the process of professional féminisation and insist on the need to adopt in-depth analysis of gendered professional career patterns within this context of profound structural transformation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SUMMARY : The recognition by recipient T cells of the allograft major histocompatibility complex (MHC)mismatched antigens is the primary event that ultimately leads to rejection. In the transplantation setting, circulating alloreactive CD4+ T cells play a central role in the initiation and the coordination of the immune response and can initiate the rejection of an allograft via three distinct pathways: the direct, indirect and the recently described semi-direct pathway. However, the exact role of individual CD4+ T-cell subsets in the development of allograft rejection is not clearly defined. Furthermore, besides pathogenic effector T cells, a new subset of T cells with regulatory properties, the CD4+CD25+Foxp3+ (Treg) cells, has come under increased scrutiny over the last decade. The experiments presented in this thesis were designed to better define the phenotype and functional characteristics of CD4+ T-cell subsets and Treg cells in vitro and in vivo in a marine adoptive transfer and skin transplantation model. As Treg cells play a key role in the induction and maintenance of peripheral transplantation tolerance, we have explored whether donor-antigen specific Treg cells could be expanded in vitro. Here we describe a robust protocol for the ex-vivo generation and expansion of antigen-specific Treg cells, without loss of their characteristic phenotype and suppressive function. In our in vivo transplantation model, antigen-specific Treg cells induced donor-specific tolerance to skin allografts in lymphopenic recipients and significantly delayed skin graft rejection in wild-type mice in the absence of any other immunosuppression. Naïve and memory CD4+ T cells have distinct phenotypes, effector functions and in vivo homeostatsis, and thus may play different roles in anti-donor immunity after transplantation. We have analyzed in vitro and in vivo primary alloresponses of naïve and cross-reactive memory CD4+ T cells. We found that the CD4+CD45RBlo memory T-cell pool was heterogeneous and contained cells with regulatory potentials, both in the CD4+CD25+ and CD4+CD25- populations. CD4+ T cells capable of inducing strong primary alloreactive responses in vitro and rejection of a first allograft in vivo were mainly contained within the CD45RBhi naïve CD4+ T-cell compartment. Taken together, the work described in this thesis provides new insights into the mechanisms that drive allograft rejection or donor-specific transplantation tolerance. These results will help to optimise current clinical immunosuppressive regimens used after solid organ transplantation and design new immunotherapeutic strategies to prevent transplant rejection. RÉSUMÉ : ROLE DES SOUS-POPULATIONS DE CELLULES T DANS LE REJET DE GREFFE ET L'INDUCTION DE TOLERANCE EN TRANSPLANTATION La reconnaissance par les cellules T du receveur des alloantigènes du complexe majeur d'histocompatibilité (CMIT) présentés par une greffe allogénique, est le premier événement qui aboutira au rejet de l'organe greffé. Dans le contexte d'une transplantation, les cellules alloréactives T CD4+ circulantes jouent un rôle central dans l'initiation et la coordination de 1a réponse immune, et peuvent initier le rejet par 3 voies distinctes : la voie directe, indirecte et la voie servi-directe, plus récemment décrite. Toutefois, le rôle exact des sous-populations de cellules T CD4+ dans les différentes étapes menant au rejet d'une allogreffe n'est pas clairement établi. Par ailleurs, hormis les cellules T effectrices pathogéniques, une sous-population de cellules T ayant des propriétés régulatrices, les cellules T CD4+CD25+Foxp3+ (Treg), a été nouvellement décrite et est intensément étudiée depuis environ dix ans. Les expériences présentées dans cette thèse ont été planifiées afin de mieux définir le phénotype et les caractéristiques fonctionnels des sous-populations de cellules T CD4+ et des Treg in vitro et in vivo dans un modèle marin de transfert adoptif de cellules et de transplantation de peau. Comme les cellules Treg jouent un rôle clé dans l'induction et le maintien de la tolérance périphérique en transplantation, nous avons investigué la possibilité de multiplier in vitro des cellules Treg avec spécificité antigénique pour le donneur. Nous décrivons ici un protocole reproductible pour la génération et l'expansion ex-vivo de cellules Treg avec spécificité antigénique, sans perte de leur phénotype caractéristique et de leur fonction suppressive. Dans notre modèle in vivo de transplantation de peau, ces cellules Treg pouvaient induire une tolérance spécifique vis-à-vis du donneur chez des souris lymphopéniques, et, chez des souris normales non-lymphopéniques ces Treg ont permis de retarder significativement le rejet en l'absence de tout traitement immunosuppresseur. Les cellules T CD4+ naïves et mémoires se distinguent par leur phénotype, fonction effectrice et leur homéostasie in vivo, et peuvent donc moduler différemment la réponse immune contre le donneur après transplantation. Nous avons analysé in vitro et in vivo les réponses allogéniques primaires de cellules T CD4+ naïves et mémoires non-spécifiques (cross-réactives). Nos résultats ont montré que le pool de cellules T CD4+CD45RB'° mémoires était hétérogène et contenait des cellules avec un potentiel régulateur, aussi bien parmi la sous-population de cellules CD4+CD25+ que CD4+CD25+. Les cellules T CD4+ capables d'induire une alloréponse primaire intense in vitro et le rejet d'une première allogreffe in vivo étaient essentiellement contenues dans le pool de cellules T CD4+CD45RBhi naïves. En conclusion, le travail décrit dans cette thèse amène un nouvel éclairage sur les mécanismes responsables du rejet d'une allogreffe ou de l'induction de tolérance en transplantation. Ces résultats permettront d'optimaliser les traitements immunosuppresseurs utilisés en transplantation clinique et de concevoir des nouvelles stratégies irnmuno-thérapeutiques pour prévenir le rejet de greffe allogénique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Crise économique et travail féminin : retour à l'ordre. L'offensive contre le travail des femmes dans les services publics en Suisse et en France durant les années 1930 La crise économique mondiale des années 1930 se caractérise par une véritable offensive contre l'activité professionnelle féminine dans les services publics. Dans l'ensemble des pays industrialisés, le travail des femmes fonctionnaires acquiert le statut d'enjeu économique, politique, social, familial et moral. La généralisation du chômage sous l'effet de la crise économique suscite d'âpres discussions sur la répartition des postes de travail et les femmes fonctionnaires endossent le rôle de bouc émissaire. Les gouvernements et autorités publiques des pays industrialisés plébiscitent dès lors, selon des modalités diverses, la « solution » d'une réglementation restrictive du travail des salariées des services publics. Cette thèse met en lumière un épisode de l'histoire de la « ségrégation ordinaire » entre les sexes dans le monde du travail. Elle montre que la segmentation et la hiérarchisation sexuées du travail ne reflètent pas des faits « naturels », mais qu'elles constituent l'aboutissement d'un long processus de différenciation engageant une multitude d'acteurs·trices sociaux·ales. Nous avons opté pour une histoire croisée de l'offensive contre l'activité des salariées de la fonction publique en Suisse et en France, en y intégrant un « détour » par l'analyse de la dimension internationale de cette campagne contre l'emploi féminin. Cette approche permet de revisiter l'histoire politique, sociale, culturelle, économique et financière propre à la Suisse et à la France des années 1930. La sexuation de l'histoire, soit la prise en compte des rapports entre les sexes dans et par le récit historique, l'éclairage novateur de l'histoire d'une nation sur l'autre, ainsi que la prise en considération de l'internationalisation de certaines pratiques (législatives et féministes), permettent de renouveler un cadre d'analyse et de proposer de nouvelles pistes de recherche sur l'histoire du travail et des féminismes. En premier lieu, ce travail analyse les modalités de la reconfiguration des rapports entre les sexes durant les années 1930, sous le prisme de l'activité salariée. Il détermine de quelle manière le travail des femmes fonctionnaires se constitue en « problème » à cette période et quels sont les termes de l'offensive contre les salariées des services publics en Suisse et en France, mais également sur le plan international. En deuxième lieu, le coeur de la recherche porte sur les incidences de l'offensive contre les femmes fonctionnaires en Suisse et en France. Nous montrons de quelle manière les gouvernements et les autorités publiques prennent appui sur les impératifs d'austérité budgétaire pour redessiner des lignes de démarcation entre « travail masculin » et « travail féminin » dans certains domaines bien spécifiques des services publics. En troisième lieu, cette contribution propose une lecture de l'histoire de la mobilisation féministe pour défendre le droit au travail des femmes fonctionnaires, mobilisation encore trop souvent occultée par les récits historiques traditionnels. Pour les sources consultées, l'étude de la manière dont le travail des femmes fonctionnaires se constitue en « problème » sur le plan international (partie I) repose sur les archives et les publications du Bureau international du travail. Quant à l'étude des cas nationaux (parties II et III), pour chaque pays, trois types de sources ont été dépouillés : les archives des associations féministes investies dans la défense du droit au travail féminin ; les sources publiées ayant trait à l'offensive contre le travail féminin (rapports, actes de journées d'étude, organes de presse) ; les sources officielles législatives qui entérinent le processus de ségrégation sexuée dans les emplois publics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse Cette thèse consiste en trois essais sur les stratégies optimales de dividendes. Chaque essai correspond à un chapitre. Les deux premiers essais ont été écrits en collaboration avec les Professeurs Hans Ulrich Gerber et Elias S. W. Shiu et ils ont été publiés; voir Gerber et al. (2006b) ainsi que Gerber et al. (2008). Le troisième essai a été écrit en collaboration avec le Professeur Hans Ulrich Gerber. Le problème des stratégies optimales de dividendes remonte à de Finetti (1957). Il se pose comme suit: considérant le surplus d'une société, déterminer la stratégie optimale de distribution des dividendes. Le critère utilisé consiste à maximiser la somme des dividendes escomptés versés aux actionnaires jusqu'à la ruine2 de la société. Depuis de Finetti (1957), le problème a pris plusieurs formes et a été résolu pour différents modèles. Dans le modèle classique de théorie de la ruine, le problème a été résolu par Gerber (1969) et plus récemment, en utilisant une autre approche, par Azcue and Muler (2005) ou Schmidli (2008). Dans le modèle classique, il y a un flux continu et constant d'entrées d'argent. Quant aux sorties d'argent, elles sont aléatoires. Elles suivent un processus à sauts, à savoir un processus de Poisson composé. Un exemple qui correspond bien à un tel modèle est la valeur du surplus d'une compagnie d'assurance pour lequel les entrées et les sorties sont respectivement les primes et les sinistres. Le premier graphique de la Figure 1 en illustre un exemple. Dans cette thèse, seules les stratégies de barrière sont considérées, c'est-à-dire quand le surplus dépasse le niveau b de la barrière, l'excédent est distribué aux actionnaires comme dividendes. Le deuxième graphique de la Figure 1 montre le même exemple du surplus quand une barrière de niveau b est introduite, et le troisième graphique de cette figure montre, quand à lui, les dividendes cumulés. Chapitre l: "Maximizing dividends without bankruptcy" Dans ce premier essai, les barrières optimales sont calculées pour différentes distributions du montant des sinistres selon deux critères: I) La barrière optimale est calculée en utilisant le critère usuel qui consiste à maximiser l'espérance des dividendes escomptés jusqu'à la ruine. II) La barrière optimale est calculée en utilisant le second critère qui consiste, quant à lui, à maximiser l'espérance de la différence entre les dividendes escomptés jusqu'à la ruine et le déficit au moment de la ruine. Cet essai est inspiré par Dickson and Waters (2004), dont l'idée est de faire supporter aux actionnaires le déficit au moment de la ruine. Ceci est d'autant plus vrai dans le cas d'une compagnie d'assurance dont la ruine doit être évitée. Dans l'exemple de la Figure 1, le déficit au moment de la ruine est noté R. Des exemples numériques nous permettent de comparer le niveau des barrières optimales dans les situations I et II. Cette idée, d'ajouter une pénalité au moment de la ruine, a été généralisée dans Gerber et al. (2006a). Chapitre 2: "Methods for estimating the optimal dividend barrier and the probability of ruin" Dans ce second essai, du fait qu'en pratique on n'a jamais toute l'information nécessaire sur la distribution du montant des sinistres, on suppose que seuls les premiers moments de cette fonction sont connus. Cet essai développe et examine des méthodes qui permettent d'approximer, dans cette situation, le niveau de la barrière optimale, selon le critère usuel (cas I ci-dessus). Les approximations "de Vylder" et "diffusion" sont expliquées et examinées: Certaines de ces approximations utilisent deux, trois ou quatre des premiers moments. Des exemples numériques nous permettent de comparer les approximations du niveau de la barrière optimale, non seulement avec les valeurs exactes mais également entre elles. Chapitre 3: "Optimal dividends with incomplete information" Dans ce troisième et dernier essai, on s'intéresse à nouveau aux méthodes d'approximation du niveau de la barrière optimale quand seuls les premiers moments de la distribution du montant des sauts sont connus. Cette fois, on considère le modèle dual. Comme pour le modèle classique, dans un sens il y a un flux continu et dans l'autre un processus à sauts. A l'inverse du modèle classique, les gains suivent un processus de Poisson composé et les pertes sont constantes et continues; voir la Figure 2. Un tel modèle conviendrait pour une caisse de pension ou une société qui se spécialise dans les découvertes ou inventions. Ainsi, tant les approximations "de Vylder" et "diffusion" que les nouvelles approximations "gamma" et "gamma process" sont expliquées et analysées. Ces nouvelles approximations semblent donner de meilleurs résultats dans certains cas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

AbstractType 2 diabetes (T2D) is a metabolic disease which affects more than 200 millions people worldwide. The progression of this affection reaches nowadays epidemic proportions, owing to the constant augmentation in the frequency of overweight, obesity and sedentary. The pathogenesis of T2D is characterized by reduction in the action of insulin on its target tissues - an alteration referred as insulin resistance - and pancreatic β-cell dysfunction. This latter deterioration is defined by impairment in insulin biosynthesis and secretion, and a loss of β-cell mass by apoptosis. Environmental factors related to T2D, such as chronic elevation in glucose and free fatty acids levels, inflammatory cytokines and pro-atherogenic oxidized low- density lipoproteins (LDL), contribute to the loss of pancreatic β-cell function.In this study, we have demonstrated that the transcription factor Inducible Cyclic AMP Early Repressor (ICER) participates to the progression of both β-cell dysfunction and insulin resistance. The expression of this factor is driven by an alternative promoter and ICER protein represents therefore a truncated product of the Cyclic AMP Response Element Modulator (CREM) family which lacks transactivation domain. Consequently, the transcription factor ICER acts as a passive repressor which reduces expression of genes controlled by the cyclic AMP and Cyclic AMP Response Element Binding protein (CREB) pathway.In insulin-secreting cells, the accumulation of reactive oxygen species caused by environmental factors and notably oxidized LDL - a process known as oxidative stress - induces the transcription factor ICER. This transcriptional repressor hampers the secretory capacity of β-cells by silencing key genes of the exocytotic machinery. In addition, the factor ICER reduces the expression of the scaffold protein Islet Brain 1 (IB 1 ), thereby favouring the activation of the c-Jun N-terminal Kinase (JNK) pathway. This triggering alters in turn insulin biosynthesis and survival capacities of pancreatic β-cells.In the adipose tissue of mice and human subjects suffering from obesity, the transcription factor ICER contributes to the alteration in insulin action. The loss in ICER protein in these tissues induces a constant activation of the CREB pathway and the subsequent expression of the Activating Transcription Factor 3 (ATF3). In turn, this repressor reduces the transcript levels of the glucose transporter GLUT4 and the insulin-sensitizer peptide adiponectin, thereby contributing to the diminution in insulin action.In conclusion, these data shed light on the important role of the transcriptional repressor ICER in the pathogenesis of T2D, which contributes to both alteration in β-cell function and aggravation of insulin resistance. Consequently, a better understanding of the molecular mechanisms responsible for the alterations in ICER levels is required and could lead to develop new therapeutic strategies for the treatment of T2D.RésuméLe diabète de type 2 (DT2) est une maladie métabolique qui affecte plus de 200 millions de personnes dans le monde. La progression de cette affection atteint aujourd'hui des proportions épidémiques imputables à l'augmentation rapide dans les fréquences du surpoids, de l'obésité et de la sédentarité. La pathogenèse du DT2 se caractérise par une diminution de l'action de l'insuline sur ses tissus cibles - un processus nommé insulino-résistance - ainsi qu'une dysfonction des cellules β pancréatiques sécrétrices d'insuline. Cette dernière détérioration se définit par une réduction de la capacité de synthèse et de sécrétion de l'insuline et mène finalement à une perte de la masse de cellules β par apoptose. Des facteurs environnementaux fréquemment associés au DT2, tels l'élévation chronique des taux plasmatiques de glucose et d'acides gras libres, les cytokines pro-inflammatoires et les lipoprotéines de faible densité (LDL) oxydées, contribuent à la perte de fonction des cellules β pancréatiques.Dans cette étude, nous avons démontré que le facteur de transcription « Inducible Cyclic AMP Early Repressor » (ICER) participe à la progression de la dysfonction des cellules β pancréatiques et au développement de Pinsulino-résistance. Son expression étant gouvernée par un promoteur alternatif, la protéine d'ICER représente un produit tronqué de la famille des «Cyclic AMP Response Element Modulator » (CREM), sans domaine de transactivation. Par conséquent, le facteur ICER agit comme un répresseur passif qui réduit l'expression des gènes contrôlés par la voie de l'AMP cyclique et des « Cyclic AMP Response Element Binding protein » (CREB).Dans les cellules sécrétrices d'insuline, l'accumulation de radicaux d'oxygène libres, soutenue par les facteurs environnementaux et notamment les LDL oxydées - un processus appelé stress oxydatif- induit de manière ininterrompue le facteur de transcription ICER. Ainsi activé, ce répresseur transcriptionnel altère la capacité sécrétoire des cellules β en bloquant l'expression de gènes clés de la machinerie d'exocytose. En outre, le facteur ICER favorise l'activation de la cascade de signalisation « c-Jun N- terminal Kinase » (JNK) en réduisant l'expression de la protéine « Islet Brain 1 » (IB1), altérant ainsi les fonctions de biosynthèse de l'insuline et de survie des cellules β pancréatiques.Dans le tissu adipeux des souris et des sujets humains souffrant d'obésité, le facteur de transcription ICER contribue à l'altération de la réponse à l'insuline. La disparition de la protéine ICER dans ces tissus entraîne une activation persistante de la voie de signalisation des CREB et une induction du facteur de transcription « Activating Transcription Factor 3 » (ATF3). A son tour, le répresseur ATF3 inhibe l'expression du transporteur de glucose GLUT4 et du peptide adipocytaire insulino-sensibilisateur adiponectine, contribuant ainsi à la diminution de l'action de l'insuline en conditions d'obésité.En conclusion, à la lumière de ces résultats, le répresseur transcriptionnel ICER apparaît comme un facteur important dans la pathogenèse du DT2, en participant à la perte de fonction des cellules β pancréatiques et à l'aggravation de l'insulino-résistance. Par conséquent, l'étude des mécanismes moléculaires responsables de l'altération des niveaux du facteur ICER pourrait permettre le développement de nouvelles stratégies de traitement du DT2.Résumé didactiqueL'énergie nécessaire au bon fonctionnement de l'organisme est fournie par l'alimentation, notamment sous forme de sucres (glucides). Ceux-ci sont dégradés en glucose, lequel sera distribué aux différents organes par la circulation sanguine. Après un repas, le niveau de glucose sanguin, nommé glycémie, s'élève et favorise la sécrétion d'une hormone appelée insuline par les cellules β du pancréas. L'insuline permet, à son tour, aux organes, tels le foie, les muscles et le tissu adipeux de capter et d'utiliser le glucose ; la glycémie retrouve ainsi son niveau basai.Le diabète de type 2 (DT2) est une maladie métabolique qui affecte plus de 200 millions de personnes dans le monde. Le développement de cette affection est causée par deux processus pathologiques. D'une part, les quantités d'insuline secrétée par les cellules β pancréatiques, ainsi que la survie de ces cellules sont réduites, un phénomène connu sous le nom de dysfonction des cellules β. D'autre part, la sensibilité des tissus à l'insuline se trouve diminuée. Cette dernière altération, l'insulino-résistance, empêche le transport et l'utilisation du glucose par les tissus et mène à une accumulation de ce sucre dans le sang. Cette stagnation de glucose dans le compartiment sanguin est appelée hyperglycémie et favorise l'apparition des complications secondaires du diabète, telles que les maladies cardiovasculaires, l'insuffisance rénale, la cécité et la perte de sensibilité des extrémités.Dans cette étude, nous avons démontré que le facteur ICER qui contrôle spécifiquement l'expression de certains gènes, contribue non seulement à la dysfonction des cellules β, mais aussi au développement de l'insulino-résistance. En effet, dans les cellules β pancréatiques en conditions diabétiques, l'activation du facteur ICER altère la capacité de synthèse et de sécrétion d'insuline et réduit la survie ces cellules.Dans le tissu adipeux des souris et des sujets humains souffrant d'obésité, le facteur ICER contribue à la perte de sensibilité à l'insuline. La disparition d'ICER altère l'expression de la protéine qui capte le glucose, le transoprteur GLUT4, et l'hormone adipocytaire favorisant la sensibilité à l'insuline, nommée adiponectine. Ainsi, la perte d'ICER participe à la réduction de la captation de glucose par le tissue adipeux et au développement de l'insulino-résistance au cours de l'obésité.En conclusion, à la lumière de ces résultats, le facteur ICER apparaît comme un contributeur important à la progression du DT2, en soutenant la dysfonction des cellules β pancréatiques et l'aggravation de l'insulino-résistance. Par conséquent, l'étude des mécanismes responsables de la dérégulation du facteur ICER pourrait permettre le développement de nouvelles stratégies de traitement du DT2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

DES FRONTIERES ENTRE TEXTE ET CONTEXTE : POINTS DE VUE THEORIQUES - Sur la métacommunication / C. Sluzki - De l'amour du texte à l'amour du contexte / J. Cosnier - Le dialogue entre l'intra-psychique et l'interpersonnel : une perspective développmentale / D. Stern - Texte et contexte. La perspective thermodynamique / R. Fivaz - Une position constructiviste pour la thérapie familiale / L. Hoffman MICROPROCESSUS DANS LES CONVERSATIONS : POINTS DE VUE EMPIRIQUES ET DEVELOPPEMENTAUX - Le contrat comme relation. Une étude des cadres sociaux du consentement / M. Modak - Recherche sur les axiomes de "Une logique de la communication" / J. Beavin-Bavelas - Distance physique ou distance psychique ? Les formations corporelles parents-bébé comme contextes de l'autonomisation dans la famille / C. Gertsch-Bettens - L'encadrement parental dans le jeu à trois. Une recherche exploratoire d'inspiration systémique / A. Corbosz-Warnery - L'évolution des formations corporelles lors de thérapies familiales en fonction de l'alliance thérapeutique / S. Serpa-Rusconi, P.-A. Doudin - Genèse de la négociation interpersonnelle des conflits : point de vue pragmatique / H. Jisa LES RECONTEXTUALISATIONS EN THERAPIE FAMILIALE - De l'ajustement du cadre en thérapie familiale / F. Seywert, E. Fivaz Depeursinge - Les questions réflexives, source d'autoguérison / K. Tomm...[et al.] - Langage et changement. L'usage de paroles-clés en thérapie / J. Pereira - Texte et contexte en psychosomatique : des modèles réductionnistes à une épistémologie de la complexité / L. Onnis

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette publication présente une approche originale et novatrice de la recherche et de l'exploitation des traces de stupéfiants. Elle propose une description détaillée des phénomènes de transfert et de persistances de ces particules ainsi que l'interprétation des résultats obtenus par l'analyse de spectrométrie à mobilité ionique (IMS). Des simulations de manipulation et de conditionnement de produits stupéfiants ont été réalisées en distinguant plusieurs groupes de personnes en fonction de leur proximité de contact avec des stupéfiants. Ces simulations ont montré que des personnes n'étant pas en contact avec des produits stupéfiants ne présentaient pas de traces de ces derniers. Au contraire, une manipulation laisse des traces qu'il est possible de détecter et d'interpréter. Parmi les stupéfiants étudiés, le plus "contaminogène" s'est avéré être la cocaïne. Les résultats obtenus permettent enfin de proposer une démarche opérationnelle d'intégration de cette technologie dans le cadre des interventions effectuées par les brigades canines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction et But de l'étude. - La plupart des études d'évaluation de la nutrition en réanimation concernent les patients ventilés bénéficiant d'un support nutritionnel artificiel. La nutrition per os qui concerne les patients les moins graves ou sortis de la phase critique est peu étudiée. Cette étude observationnelle, menée dans le cadre d'un travail de Bachelor en collaboration avec les Hôpitaux Universitaires de Genève, a pour objectif de réaliser un état des lieux des pratiques nutritionnelles actuelles, tous patients confondus, dans un service de réanimation médico-chirurgicale, et de mesurer la couverture des besoins énergétiques en fonction du type de nutrition administré ou consommé. Matériel et Méthodes. - Inclusion de tous les patients adultes hospitalisés pour plus de 24 h en réanimation durant 6 semaines consécutives, suivis jusqu'à la sortie du service mais pendant 14 jours au maximum. Les apports caloriques entéraux et parentéraux ont été récoltés dans le dossier patient informatisé. Les apports per os ont été estimés sur la base de la composition nutritionnelle standard des repas servis et le report infirmier des quantités consommées. Les suppléments nutritifs oraux ont été inclus dans les apports per os. Les solutés glucosés et les dilutions de médicaments n'ont pas été comptabilisés. La cible calorique a été fixée à 30 kcal/kg pour les hommes et 25 kcal/kg pour les femmes, sur la base du poids mesuré ou anamnestique ou sur le poids correspondant à un BMI de 22,5 en cas d'obésité. Résultats. - Six cent quatre-vingt douze journées-patients ont été analysées, issues de 114 patients dont le score SAPS II moyen est de 43. Toutes journées confondues (sans tenir compte du début ou fin de séjour) : 44 % (n = 307) des journées sont sous NE exclusive, 9 % (n = 64) sous NP exclusive et 7 % (n = 47) combinent ces deux types d'apports. La nutrition per os exclusive représente 17 % (n = 116) des journées et 23 % (n = 158) ne comportent aucun apport nutritionnel. Lorsque l'on s'intéresse au pour centage d'atteinte de la cible calorique selon le type de nutrition, il se répartit comme tel (médiane ± espace interquartile) : NE : 83 ± 44 % ; NP : 84 ± 75 % ; combiné : 95 ± 39 % ; per os : 28 ± 33 %. La nutrition per os se retrouve en fin de séjour mais pas uniquement puisque seules un peu plus de la moitié des journées de nutrition per os ont lieu lors du dernier (35 %) ou de l'avant dernier (28 %) jour du séjour. L'atteinte de la cible calorique par la nutrition per os exclusive évolue peu au long du séjour. Conclusion. - La nutrition per os représente le mode d'alimentation d'un nombre important de journées dans cette observation. La très faible couverture des besoins caloriques lors de ces journées, tout au long du séjour, classe ces patients dans une catégorie à risque nutritionnel important. Une évaluation plus précise des apports protéino-énergétique devrait être réalisée afin de quantifier plus exactement les déficits et un suivi de l'évolution de ces patients apporterait un éclairage important.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT Adult neuronal plasticity is a term that corresponds to a set of biological mechanisms allowing a neuronal circuit to respond and adapt to modifications of the received inputs. Mystacial whiskers of the mouse are the starting point of a major sensory pathway that provides the animal with information from its immediate environment. Through whisking, information is gathered that allows the animal to orientate itself and to recognize objects. This sensory system is crucial for nocturnal behaviour during which vision is not of much use. Sensory information of the whiskers are sent via brainstem and thalamus to the primary somatosensory area (S1) of the cerebral cortex in a strictly topological manner. Cell bodies in the layer N of S 1 are arranged in ring forming structures called barrels. As such, each barrel corresponds to the cortical representation in layer IV of a single whisker follicle. This histological feature allows to identify with uttermost precision the part of the cortex devoted to a given whisker and to study modifications induced by different experimental conditions. The condition used in the studies of my thesis is the passive stimulation of one whisker in the adult mouse for a period of 24 hours. It is performed by glueing a piece of metal on one whisker and placing the awake animal in a cage surrounded by an electromagnetic coil that generates magnetic field burst inducing whisker movement at a given frequency during 24 hours. I analysed the ultrastructure of the barrel corresponding the stimulated whisker using serial sections electron microscopy and computer-based three-dimensional reconstructions; analysis of neighbouring, unstimulated barrels as well as those from unstimulated mice served as control. The following elements were structurally analyzed: the spiny dendrites, the axons of excitatory as well as inhibitory cells, their connections via synapses and the astrocytic processes. The density of synapses and spines is upregulated in a barrel corresponding to a stimulated whisker. This upregulation is absent in the BDNF heterozygote mice, indicating that a certain level of activity-dependent released BDNF is required for synaptogenesis in the adult cerebral cortex. Synpaptogenesis is correlated with a modification of the astrocytes that place themselves in closer vicinity of the excitatory synapses on spines. Biochemical analysis revealed that the astrocytes upregulate the expression of transporters by which they internalise glutamate, the neurotransmitter responsible for the excitatory response of cortical neurons. In the final part of my thesis, I show that synaptogenesis in the stimulated barrel is due to the increase in the size of excitatory axonal boutons that become more frequently multisynaptic, whereas the inhibitory axons do not change their morphology but form more synapses with spines apposed to them. Taken together, my thesis demonstrates that all the cellular elements present in the neuronal tissue of the adult brain contribute to activity-dependent cortical plasticity and form part of a mechanism by which the animal responds to a modified sensory experience. Throughout life, the neuronal circuit keeps the faculty to adapt its function. These adaptations are partially transitory but some aspects remain and could be the structural basis of a memory trace in the cortical circuit. RESUME La plasticité neuronale chez l'adulte désigne un ensemble de mécanismes biologiques qui permettent aux circuits neuronaux de répondre et de s'adapter aux modifications des stimulations reçues. Les vibrisses des souris sont un système crucial fournissant des informations sensorielles au sujet de l'environnement de l'animal. L'information sensorielle collectée par les vibrisses est envoyée via le tronc cérébral et le thalamus à l'aire sensorielle primaire (S 1) du cortex cérébral en respectant strictement la somatotopie. Les corps cellulaires dans la couche IV de S 1 sont organisés en anneaux délimitant des structures nommées tonneaux. Chaque tonneau reçoit l'information d'une seule vibrisse et l'arrangement des tonneaux dans le cortex correspond à l'arrangement des vibrisses sur le museau de la souris. Cette particularité histologique permet de sélectionner avec certitude la partie du cortex dévolue à une vibrisse et de l'étudier dans diverses conditions. Le paradigme expérimental utilisé dans cette thèse est la stimulation passive d'une seule vibrisse durant 24 heures. Pour ce faire, un petit morceau de métal est collé sur une vibrisse et la souris est placée dans une cage entourée d'une bobine électromagnétique générant un champ qui fait vibrer le morceau de métal durant 24 heures. Nous analysons l'ultrastructure du cortex cérébral à l'aide de la microscopie électronique et des coupes sériées permettant la reconstruction tridimensionnelle à l'aide de logiciels informatiques. Nous observons les modifications des structures présentes : les dendrites épineuses, les axones des cellules excitatrices et inhibitrices, leurs connections par des synapses et les astrocytes. Le nombre de synapses et d'épines est augmenté dans un tonneau correspondant à une vibrisse stimulée 24 heures. Basé sur cela, nous montrons dans ces travaux que cette réponse n'est pas observée dans des souris hétérozygotes BDNF+/-. Cette neurotrophine sécrétée en fonction de l'activité neuronale est donc nécessaire pour la synaptogenèse. La synaptogenèse est accompagnée d'une modification des astrocytes qui se rapprochent des synapses excitatrices au niveau des épines dendritiques. Ils expriment également plus de transporteurs chargés d'internaliser le glutamate, le neurotransmetteur responsable de la réponse excitatrice des neurones. Nous montrons aussi que les axones excitateurs deviennent plus larges et forment plus de boutons multi-synaptiques à la suite de la stimulation tandis que les axones inhibiteurs ne changent pas de morphologie mais forment plus de synapses avec des épines apposées à leur membrane. Tous les éléments analysés dans le cerveau adulte ont maintenu la capacité de réagir aux modifications de l'activité neuronale et répondent aux modifications de l'activité permettant une constante adaptation à de nouveaux environnements durant la vie. Les circuits neuronaux gardent la capacité de créer de nouvelles synapses. Ces adaptations peuvent être des réponses transitoires aux stimuli mais peuvent aussi laisser une trace mnésique dans les circuits.