999 resultados para réseau de connaissances


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Suite à trois années de concertation, le Département de l'instruction publique du canton de Genève a mis en place un « nouveau fonctionnement » de l'enseignement primaire à la rentrée scolaire de septembre 2008. La mise en oeuvre du nouveau dispositif était accompagnée de la création d'un outil d'évaluation externe appelé « Observatoire du fonctionnement de l'enseignement primaire ». L'analyse de cet outil d'évaluation fait l'objet du présent article. La problématique développée vise à montrer que, si l'expertise en matière d'évaluation de l'éducation n'est pas la science, elle peut toutefois être modestement fondée sur les valeurs de la production des connaissances, voire contribuer à quelque production de connaissances limitées aux « hypothèses mineures qui jaillissent chaque jour à foison dans le travail quotidien de la recherche » (Merton, 1965, pp. 13-14).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

« Un jour viendra où le principal avantage d'apprendre la médecine sera de se protéger contre les médecins ». Cette phrase de Jacques Ferron illustre bien le sentiment que certain-e-s patient-e-s cultivent à l'égard du corps médical, une confiance en les connaissances fournies par la science, mais une méfiance envers ceux chargés de les transmettre. La pilule contraceptive en est certainement l'emblème. Ce médicament apparu il y a maintenant 52 ans, fait depuis son apparition l'objet de débats intenses. Débats tant sociaux que médicaux. Aujourd'hui, la contraception orale est devenue la forme de contraception la plus utilisée dans le monde occidental mais malgré sont succès, elle reste toujours au centre des débats. Toutefois le contexte, les préoccupations et même la pilule ont changés. Le contexte actuel pousse les femmes à prendre la pilule, pour diverses raisons, soit personnelles, sociales, médicales ou commerciales. D'un côté elle est présentée comme la contraception « idéale », comme l'outil permettant à une femme d'avoir une vie sexuelle et professionnelle « libérée » avec un rapport risques- bénéfices optimal et de l'autre côté les femmes se posent des questions face à une pilule qui doit être prise quotidiennement et souvent à long terme. Une pilule dont elles entendent régulièrement parler dans les médias comme véhiculant un danger camouflé par un complot pharmaco-médical. Parfois commencée à un jeune âge, lorsque l'on est plus tout à fait enfant et loin d'être femme, ce contraceptif accompagne leurs premières aventures sexuelles et leurs premiers pas dans leur processus de construction en tant que femme. Mais très vite la pilule pose de nombreuses questions. Parce que les copines en parlent, parce que les médias en parlent, parce qu'elles ont l'impression d'avoir prit du poids, d'avoir une baisse de libido, d'être plus triste. Les médecins parlent d'un médicament peu dangereux, avec peu d'effets secondaires, mais elles ne se sentent pas rassurées. Parce que partout on nous dit que la pilule peut être dangereuse. Il y a ce reportage sur cette fille qui a fait un AVC, il y a cette amie qui portera un collant (bas à compression) à vie, il y a cet article qui dit que les poissons changent de sexe à cause des oestrogènes de leur pilule. Il y a ce sentiment que l'on ne leur dit pas tout.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract The object of game theory lies in the analysis of situations where different social actors have conflicting requirements and where their individual decisions will all influence the global outcome. In this framework, several games have been invented to capture the essence of various dilemmas encountered in many common important socio-economic situations. Even though these games often succeed in helping us understand human or animal behavior in interactive settings, some experiments have shown that people tend to cooperate with each other in situations for which classical game theory strongly recommends them to do the exact opposite. Several mechanisms have been invoked to try to explain the emergence of this unexpected cooperative attitude. Among them, repeated interaction, reputation, and belonging to a recognizable group have often been mentioned. However, the work of Nowak and May (1992) showed that the simple fact of arranging the players according to a spatial structure and only allowing them to interact with their immediate neighbors is sufficient to sustain a certain amount of cooperation even when the game is played anonymously and without repetition. Nowak and May's study and much of the following work was based on regular structures such as two-dimensional grids. Axelrod et al. (2002) showed that by randomizing the choice of neighbors, i.e. by actually giving up a strictly local geographical structure, cooperation can still emerge, provided that the interaction patterns remain stable in time. This is a first step towards a social network structure. However, following pioneering work by sociologists in the sixties such as that of Milgram (1967), in the last few years it has become apparent that many social and biological interaction networks, and even some technological networks, have particular, and partly unexpected, properties that set them apart from regular or random graphs. Among other things, they usually display broad degree distributions, and show small-world topological structure. Roughly speaking, a small-world graph is a network where any individual is relatively close, in terms of social ties, to any other individual, a property also found in random graphs but not in regular lattices. However, in contrast with random graphs, small-world networks also have a certain amount of local structure, as measured, for instance, by a quantity called the clustering coefficient. In the same vein, many real conflicting situations in economy and sociology are not well described neither by a fixed geographical position of the individuals in a regular lattice, nor by a random graph. Furthermore, it is a known fact that network structure can highly influence dynamical phenomena such as the way diseases spread across a population and ideas or information get transmitted. Therefore, in the last decade, research attention has naturally shifted from random and regular graphs towards better models of social interaction structures. The primary goal of this work is to discover whether or not the underlying graph structure of real social networks could give explanations as to why one finds higher levels of cooperation in populations of human beings or animals than what is prescribed by classical game theory. To meet this objective, I start by thoroughly studying a real scientific coauthorship network and showing how it differs from biological or technological networks using divers statistical measurements. Furthermore, I extract and describe its community structure taking into account the intensity of a collaboration. Finally, I investigate the temporal evolution of the network, from its inception to its state at the time of the study in 2006, suggesting also an effective view of it as opposed to a historical one. Thereafter, I combine evolutionary game theory with several network models along with the studied coauthorship network in order to highlight which specific network properties foster cooperation and shed some light on the various mechanisms responsible for the maintenance of this same cooperation. I point out the fact that, to resist defection, cooperators take advantage, whenever possible, of the degree-heterogeneity of social networks and their underlying community structure. Finally, I show that cooperation level and stability depend not only on the game played, but also on the evolutionary dynamic rules used and the individual payoff calculations. Synopsis Le but de la théorie des jeux réside dans l'analyse de situations dans lesquelles différents acteurs sociaux, avec des objectifs souvent conflictuels, doivent individuellement prendre des décisions qui influenceront toutes le résultat global. Dans ce cadre, plusieurs jeux ont été inventés afin de saisir l'essence de divers dilemmes rencontrés dans d'importantes situations socio-économiques. Bien que ces jeux nous permettent souvent de comprendre le comportement d'êtres humains ou d'animaux en interactions, des expériences ont montré que les individus ont parfois tendance à coopérer dans des situations pour lesquelles la théorie classique des jeux prescrit de faire le contraire. Plusieurs mécanismes ont été invoqués pour tenter d'expliquer l'émergence de ce comportement coopératif inattendu. Parmi ceux-ci, la répétition des interactions, la réputation ou encore l'appartenance à des groupes reconnaissables ont souvent été mentionnés. Toutefois, les travaux de Nowak et May (1992) ont montré que le simple fait de disposer les joueurs selon une structure spatiale en leur permettant d'interagir uniquement avec leurs voisins directs est suffisant pour maintenir un certain niveau de coopération même si le jeu est joué de manière anonyme et sans répétitions. L'étude de Nowak et May, ainsi qu'un nombre substantiel de travaux qui ont suivi, étaient basés sur des structures régulières telles que des grilles à deux dimensions. Axelrod et al. (2002) ont montré qu'en randomisant le choix des voisins, i.e. en abandonnant une localisation géographique stricte, la coopération peut malgré tout émerger, pour autant que les schémas d'interactions restent stables au cours du temps. Ceci est un premier pas en direction d'une structure de réseau social. Toutefois, suite aux travaux précurseurs de sociologues des années soixante, tels que ceux de Milgram (1967), il est devenu clair ces dernières années qu'une grande partie des réseaux d'interactions sociaux et biologiques, et même quelques réseaux technologiques, possèdent des propriétés particulières, et partiellement inattendues, qui les distinguent de graphes réguliers ou aléatoires. Entre autres, ils affichent en général une distribution du degré relativement large ainsi qu'une structure de "petit-monde". Grossièrement parlant, un graphe "petit-monde" est un réseau où tout individu se trouve relativement près de tout autre individu en termes de distance sociale, une propriété également présente dans les graphes aléatoires mais absente des grilles régulières. Par contre, les réseaux "petit-monde" ont, contrairement aux graphes aléatoires, une certaine structure de localité, mesurée par exemple par une quantité appelée le "coefficient de clustering". Dans le même esprit, plusieurs situations réelles de conflit en économie et sociologie ne sont pas bien décrites ni par des positions géographiquement fixes des individus en grilles régulières, ni par des graphes aléatoires. De plus, il est bien connu que la structure même d'un réseau peut passablement influencer des phénomènes dynamiques tels que la manière qu'a une maladie de se répandre à travers une population, ou encore la façon dont des idées ou une information s'y propagent. Ainsi, durant cette dernière décennie, l'attention de la recherche s'est tout naturellement déplacée des graphes aléatoires et réguliers vers de meilleurs modèles de structure d'interactions sociales. L'objectif principal de ce travail est de découvrir si la structure sous-jacente de graphe de vrais réseaux sociaux peut fournir des explications quant aux raisons pour lesquelles on trouve, chez certains groupes d'êtres humains ou d'animaux, des niveaux de coopération supérieurs à ce qui est prescrit par la théorie classique des jeux. Dans l'optique d'atteindre ce but, je commence par étudier un véritable réseau de collaborations scientifiques et, en utilisant diverses mesures statistiques, je mets en évidence la manière dont il diffère de réseaux biologiques ou technologiques. De plus, j'extrais et je décris sa structure de communautés en tenant compte de l'intensité d'une collaboration. Finalement, j'examine l'évolution temporelle du réseau depuis son origine jusqu'à son état en 2006, date à laquelle l'étude a été effectuée, en suggérant également une vue effective du réseau par opposition à une vue historique. Par la suite, je combine la théorie évolutionnaire des jeux avec des réseaux comprenant plusieurs modèles et le réseau de collaboration susmentionné, afin de déterminer les propriétés structurelles utiles à la promotion de la coopération et les mécanismes responsables du maintien de celle-ci. Je mets en évidence le fait que, pour ne pas succomber à la défection, les coopérateurs exploitent dans la mesure du possible l'hétérogénéité des réseaux sociaux en termes de degré ainsi que la structure de communautés sous-jacente de ces mêmes réseaux. Finalement, je montre que le niveau de coopération et sa stabilité dépendent non seulement du jeu joué, mais aussi des règles de la dynamique évolutionnaire utilisées et du calcul du bénéfice d'un individu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pour comprendre la croissance urbaine de la ville de Praia nous nous avons posés plusieurs questions auxquelles nous avons essayé de répondre dans les différents chapitres de la présente thèse: a) quelles sont les caractéristiques démographiques (structure et composition) de la population de la ville et comment elle a évolué toute au long de son histoire? Comment se différencie l’espace urbain en fonction du niveau de confort des résidents et comment cela a influencé la croissance urbaine? Comment les caractéristiques du réseau d’autobus et les caractéristiques du système de voiries urbaines influencent l’accessibilité des quartiers de la ville? Quelles sont les caractéristiques du système de gestion et de Planification de la ville ? Quelles formes de croissance nous pouvons identifier à Praia ? Quelle est la relation entres ce formes de croissance, les caractéristiques démographiques et sociales de la population résidente et la structure du système de gestion et de planification à Praia? A partir de ces questions nous avons fait un diagnostic de la situation de la ville, avons identifié les principaux problèmes et finalement nous avons présenté quelques solutions possibles à sa résolution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les résultats des recherches contemporaines, montrant notamment l'importance du raisonnement fluide, de la mémoire de travail (IMT) et de la vitesse de traitement (IVT) dans le fonctionnement cognitif, ont conduit les concepteurs de la WAIS-IV à introduire de nouvelles épreuves pour renforcer l'évaluation de ces dimensions cognitives. L'interprétation des scores de la WAIS-IV repose maintenant sur quatre indices factoriels (ICV, IRP, IMT et IVT), ainsi que sur le QIT. Les concepteurs de la WAIS-IV indiquent que l'un des objectifs de la révision consistait à actualiser les fondements théoriques de cette échelle. Pourtant, la structure globale de la WAIS-IV ne correspond que partiellement à celle proposée dans le modèle qui fait consensus aujourd'hui, le modèle de Cattell-Horn-Carroll (CHC). Par exemple, la WAIS-IV ne propose pas d'indice de raisonnement fluide, bien que les constructeurs soulignent l'importance de cette dimension dans le fonctionnement cognitif. Dans cet article, nous proposons, pour la WAIS-IV, les normes francophones de cinq scores composites CHC, à savoir le raisonnement fluide (Gf), compréhension-connaissances (Gc), le traitement visuel (Gv), la mémoire à court terme (Gsm), et l'IVT (Gs). Ces normes ont été établies en utilisant une procédure d'approximation statistique. À l'instar des scores CHC que nous avons proposés pour le WISCIV, ces normes pour la WAIS-IV permettent aux cliniciens de basculer vers une grille d'interprétation basée sur le modèle dominant et d'utiliser les cinq scores composites CHC en complément des quatre indices standard dans le cadre d'analyses normatives et ipsatives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1) Etat des connaissances : Actuellement, les indications à la transplantation pulmonaire sont bien décrites et validées. Par contre, lors d'une retransplantation, les résultats restent encore discutés : la retransplantation pulmonaire reste la seule option thérapeutique dans certains cas de rejet du greffon, de syndrome de bronchiolite oblitérante avancée et aussi lors de graves affections respiratoires, principalement de sténose cicatricielle. Malgré cela, son utilité a été mise en doute en raison de la pénurie de donneurs d'organes et des rapports indiquant des résultats insatisfaisants. 2) But de l'étude : Ce travail est une étude d'évaluation méthodologique dans lequel on utilisera un questionnaire DELPHI auprès de 10 soignants engagés dans le programme Vaud-Genève de transplantation pulmonaire afin de déterminer les critères de sélection qui mèneraient à la pratique d'une retransplantation. 3) Objectifs : Ce projet a pour but d'élaborer un consensus local sur les critères et les contre-indications à une retransplantation pulmonaire, dans le cadre du programme Vaud-Genève et du système d'allocation d'organes en vigueur en Suisse. D'où la question : ''Quelles sont les indications potentielles à une retransplantation pulmonaire ?'' 4) Justification : Dans une situation de pénurie explicite de ressources (manque de donneurs), l'utilisation des greffons doit être basée à la fois sur des critères d'équité et d'efficacité médicale. En l'absence de données claires dans la littérature sur les indications à la retransplantation pulmonaire, la recherche d'une attitude pragmatique au sein du programme local est justifiée. 5) Méthode : Cette étude monocentrique multisite est une étude clinique ouverte où les personnes interrogées restent en insu: un questionnaire DELPHI sera envoyé à 10 soignants spécialisés dans le domaine de la transplantation pulmonaire issus du programme Vaud-Genève. La méthode Delphi a pour but de mettre en évidence des convergences d'opinions afin de trouver des consensus grâce à l'interrogation de différents experts par le biais de questionnaires successifs. L'objectif des études Delphi est d'apporter l'éclairage des experts sur des zones d'incertitude en vue d'une aide à la décision. 6) Sélection des sujets : Les ''sujets'' éligibles sont un groupe de 10 experts anonymes spécialisés dans le domaine de la retransplantation pulmonaire du canton de Vaud et de Genève. 6.1 Critères d'inclusion : Personnel médical et paramédical directement impliqué dans le cadre du programme de transplantation Vaud-Genève. 6.2 Critère d'exclusion : Toute personne qui est elle-même directement impliquée dans l'analyse de l'étude. 7) Déroulement de l'étude et investigations prévues: L'étude aura lieu au CHUV et au HUG pour une durée de 2 ans. Les investigations seront effectuées par le biais de questionnaires envoyés par courrier électronique et seront analysées au CHUV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract: The improvement in antiretroviral drug therapy has transformed HIV infection into a chronic disease. However, treatment failure and drug toxicity are frequent. Inadequate response to treatment is clearly multifactorial and, therefore, dosage individualisation based on demographic factors, genetic markers and measurement of cellular and plasma drug level may enhance both drug efficacy and tolerability. At present, antiretroviral drugs levels are monitored in plasma, whereas only drugs penetrating into cells are able to exert an antiviral activity, suggesting that cellular drug determination may more confidently reflect drug exposure at the site of pharmacological action. The overall objective of this thesis is to provide a better understanding of the Pharmacokinetic and pharmacogenetic factors influencing the plasma and cellular disposition of antiretroviral drugs. To that endeavour, analytical methods for the measurements of plasma and cellular drug levels have been developed and validated using liquid chromatography methods coupled with ultraviolet and tandem mass spectrometry detection, respectively. Correlations between plasma and cellular exposures were assessed during observational and experimental studies. Cytochrome (CYP) 2B6, efflux transporters (ABCB1, ABCC1, ABCC2 and ABCG2) and orosomucoid (ORM) polymorphisms were determined and were related to plasma and cellular exposures, as well as toxicity of antiretroviral drugs. A Pharmacokinetic population model was developed to characterise inter- and intra-patient variability of atazanavir pharmacokinetics, and to identify covariates influencing drug disposition. In that context, a Pharmacokinetic interaction study between atazanavir and lopinavir, both boosted with ritonavir, has beén conducted to assess the safety and pharmacokinetics of this boosted double-protease inhibitors regimen. Well to moderately-correlated cellular and plasma drug levels are .observed or protease inhibitors, whereas for efavirenz and nevirapine these correlations are weak. Cellular exposure, and CYP2B6 genotype (516G>T) are predictors of efavirenz neuropsychological toxicity. Nevirapine plasma exposure is also influenced by CYPZB6 polymorphism. Nelfinavir cellular exposure appears to be significantly associated only with ABCB1 genotype (3435C>T and intron 26 + 80T>C). Indinavir and lopinavir clearance and lopinavir cellular/plasma exposure ratio are influenced by the concentration of the variant S of ORM, suggesting-a specific binding of these drugs to this variant. Nelfinavir and efavirenz are not influenced by ORM concentration and phenotype. The Pharmacokinetic parameters of atazanavir are adequately described by our population model. The atazanavir-lopinavir interaction study indicates no influence on plasma and cellular atazanavir pharmacokinetics, while limited decrease in lopinavir concentrations was observed after atazanavir addition. The residual variability unexplained by the considered variables suggests that other covariates either uncontrolled at present or remaining to be identified, such as genetic and environmental factors influence antiretroviral drug pharmacokinetics, with substantial impact on treatment efficacy and tolerability. In that context, a comprehensive approach taking into account drug pharmacokinetics and patient genetic background is expected to contribute to increase treatment success, and to reduce the occurrence of adverse drug reactions by stratifying patients in an individualised antiretroviral therapy approach. Résumé Facteurs pharmacocinétiques et pharmacogénétiques influençant l'exposition plasmatique et cellulaire des antirétroviraux Les progrès de la thérapie antirétrovirale ont transformé l'infection par le VIH d'une affection mortelle à une maladie chronique. En dépit de ce succès, l'échec thérapeutique et la toxicité médicamenteuse restent fréquents. Une réponse inadéquate au traitement est clairement multifactorielle et une individualisation de la posologie des médicaments qui se baserait sur les facteurs démographiques et génétiques des patients et sur les taux sanguins des médicaments pourrait améliorer à la fois l'efficacité et la tolérance de la thérapie. Par ailleurs, seules les concentrations plasmatiques sont actuellement considérées pour le suivi thérapeutique des médicaments, alors que les taux cellulaires pourraient mieux refléter l'activité de ses médicaments qui agissent au niveau intracellulaire. L'objectif global de cette thèse était de mieux comprendre les facteurs pharmacocinétiques et pharmacocénétiques influençant l'exposition plasmatique et cellulaire des médicaments antirétroviraux. A cet effet, des méthodes pour quantifier les concentrations plasmatiques et cellulaires des antirétroviraux ont été développées et validées en utilisant la chromatographie liquide couplée à la détection ultraviolette et la spectrométrie de masse en tandem, respectivement. La corrélation entre l'exposition cellulaire et plasmatique de ces médicaments a été étudiée lors d'études observationnelles et expérimentales. Les polymorphismes du cytochrome (CYP) 2B6, ainsi que des transporteurs d'efflux (ABCB1, ABCC1, ABCC2 et ABCG2) et de l'orosomucoïde (ORM) ont été déterminés et corrélés avec l'exposition plasmatique et cellulaire des antirétroviraux, ainsi qu'à leur toxicité. Un modèle de pharmacocinétique de population a été établi afin de caractériser la variabilité inter- et intra-individuelle de l'atazanavir, et d'identifier les covariables pouvant influencer le devenir de ce médicament. Dans ce contexte, une étude d'interaction entre l'atazanavir et le lopinavir a été effectuée afin de déterminer la sécurité et le profil pharmacocinétique de ce régime thérapeutique. Des corrélations modérées à bonnes ont été observées entre les taux cellulaires et plasmatiques des inhibiteurs de protéase, alors que pour l'efavirenz et la névirapine ces corrélations sont faibles. L'exposition cellulaire, ainsi que le génotype du CYP2B6 (516G>T) sont des indices de la toxicité neuropsychologique de l'efavirenz. L'exposition plasmatique de la névirapine est également influencée par le polymorphisme du CYPZB6. L'exposition cellulaire du nelfinavir est significativement associée au génotype du ABCB1 (3435C>T et intron 26 + 80T>C). La clairance de l'indinavir et du lopinavir, ainsi que le rapport entre exposition cellulaire et plasmatique du lopinavir sont influencés par la concentration du variant S de l'ORM, suggérant une liaison spécifique de ces médicaments à ce variant. La clairance du nelfinavir et de l'efavirenz n'est pas influencée ni par la concentration ni par le phénotype de l'ORM. Les paramètres pharmacocinétiques de l'atazanavir ont été décrits de façon adéquate par le modèle de population proposé. De plus, le lopinavir n'influence pas les concentrations plasmatiques et cellulaires de l'atazanavir; alors que celui-ci conduit à une baisse limitée des taux de lopinavir. L'importante variabilité pharmacocinétique des antirétroviraux suggère que d'autres facteurs génétiques et environnementaux -qui restent encore à découvrir- influencent également leur disponibilité. Dans un proche futur, une prise en charge qui tienne. compte de la pharmacocinétique des médicaments et des caractéristiques génétiques du patient devrait permettre d'individualiser le traitement, contribuant certainement à une amélioration de la réponse thérapeutique et à une diminution de la toxicité. Résumé grand public Facteurs pharmacocinétiques et pharmacogénétiques influençant l'exposition plasmatique et cellulaire des antirétroviraux Les progrès effectués dans le traitement de l'infection par le virus de l'immunodéficience humaine acquise (VIH), ont permis de transformer une maladie avec un pronostic sombre, en une maladie chronique traitable avec des médicaments de plus en plus efficaces. Malgré ce succès, de nombreux patients ne répondent pas de façon optimale à leur traitement et/ou souffrent d'effets indésirables médicamenteux entraînant fréquemment une modification de leur thérapie. Actuellement, le suivi de la réponse au traitement s'effectue par la mesure chez les patients de la quantité de virus et du nombre des cellules immunitaires dans le sang, ainsi que par la concentration sanguine des médicaments administrés. Cependant, comme le virus se réplique à l'intérieur de la cellule, la mesure des concentrations médicamenteuses au niveau intracellulaire pourrait mieux refléter l'activité pharmacologique au site d'action. De plus, il a été possible de mettre en évidence la grande variabilité des concentrations plasmatiques de médicaments chez des patients prenant pourtant la même dose de médicament. Comme cette variabilité est notamment due à des facteurs génétiques qui sont susceptibles d'influencer la réponse au traitement antirétroviral, des analyses génétiques ont été également effectuées chez ces patients. Cette thèse a eu pour objectif de mieux comprendre les facteurs pharmacologiques et génétiques influençant l'activité et la toxicité des médicaments antirétroviraux afin de réduire la variabilité de la réponse thérapeutique. A cet effet, une méthode de dosage permettant la quantification des médicaments anti-HIV au niveau intracellulaire a été développée. Par ailleurs, nos études ont également porté .sur les variations génétiques influençant la quantité et l'activité des protéines impliquées dans le métabolisme et dans le transport des médicaments antirétroviraux. Enfin, les conséquences de ces variations sur la réponse clinique et la toxicité du traitement ont été évaluées. Nos études ont mis en évidence des associations significatives entre les variations génétiques considérées et la concentration sanguine, cellulaire et la toxicité de quelques médicaments antirétroviraux. La complémentarité des connaissances pharmacologiques, génétiques et virales pourrait aboutir à une stratégie globale permettant d'individualiser le traitement et la dose administrée, en fonction des caractéristiques propres de chaque patient. Cette approche pourrait contribuer à une optimisation du traitement antirétroviral dans la perspective d'une meilleure- efficacité thérapeutique à long terme et d'une diminution des effets indésirables rencontrés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1.1 AbstractThe treatment of memory disorders and cognitive deficits in various forms of mental retardation may greatly benefit from a better understanding of the molecular and cellular mechanisms of memory formation. Different forms of memory have distinct molecular requirements.Short-term memory (STM) is thought to be mediated by covalent modifications of existing synaptic molecules, such as phosphorylation or dephosphorylation of enzymes, receptors or ion channels. In contrast, long-term memoiy (LTM) is thought to be mediated by growth of new synapses and restructuring of existing synapses. There is extensive evidence that changes in gene expression and de novo protein synthesis are key processes for LTM formation. In this context, the transcription factor CREB (cAMP-response element-binding protein) was shown to be crucial. Activation of CREB requires phosphorylation of a serine residue (Ser-133), and the subsequent recruitment of a coactivator called CREB-binding protein (CBP). Moreover, we have recently shown that another coactivator called CREB Regulated Transcription Coactivator 1 (CRTC1) functions as a calcium- and cAMP-sensitive coincidence detector in neurons, and is involved in hippocampal long-term synaptic plasticity. Given the importance of cAMP and calcium signaling for plasticity-related gene expression in neurons and in astrocytes, we sought to determine the respective involvement of the CREB coactivators CBP and CRTC1 in CREB-mediated transcription.We developed various strategies to selectively interfere with these CREB coactivators in mouse primary neurons and in astrocytes in vitro. However, despite several pieces of evidence implicating CBP and/or CRTC1 in the regulation of neuronal plasticity genes, we could not clearly determine the respective requirement of these coactivators for the activation of these genes. Nevertheless, we showed that calcineurin activity, which is important for CRTC1 nuclear translocation, is necessary for the expression of some CREB-regulated plasticity genes. We associated this phenomena to physiopathological conditions observed in Down's syndrome. In addition, we demonstrated that in astrocytes, noradrenaline stimulates CREB-target gene expression through β-adrenergic receptor activation, intracellular cAMP pathway activation, and CRTC-induced CREB transactivation.Defining the respective role of CREB and its coactivators CBP and CRTC1 in neuronal and astrocytic cultures in vitro sets the stage for future in vivo studies and for the possible development of new therapeutic strategies to improve the treatment of memoiy and cognitive disorders.1.2 RésuméUne meilleure connaissance des mécanismes moléculaires et cellulaires responsables de la formation de la mémoire pourrait grandement améliorer le traitement des troubles de la mémoire ainsi que des déficits cognitifs observés dans différentes formes de pathologies psychiatriques telles que le retard mental. Les différentes formes de mémoire dépendent de processus moléculaires différents.La mémoire à court terme (STM) semble prendre forme suite à des modifications covalentes de molécules synaptiques préexistantes, telles que la phosphorylation ou la déphosphorylation d'enzymes, de récepteurs ou de canaux ioniques. En revanche, la mémoire à long terme (LTM) semble être due à la génération de nouvelles synapses et à la restructuration des synapses existantes. De nombreuses études ont permis de démontrer que les changements dans l'expression des gènes et la synthèse de protéine de novo sont des processus clés pour la formation de la LTM. Dans ce contexte, le facteur de transcription CREB (cAMP-response element-binding protein) s'est avéré être un élément crucial. L'activation de CREB nécessite la phosphorylation d'un résidu sérine (Ser-133), et le recrutement d'un coactivateur nommé CBP (CREB binding protein). En outre, nous avons récemment démontré qu'un autre coactivateur de CREB nommé CRTC1 (CREB Regulated Transcription Coactivator 1) agit comme un détecteur de coïncidence de l'AMP cyclique (AMPc) et du calcium dans les neurones et qu'il est impliqué dans la formation de la plasticité synaptique à long terme dans l'hippocampe. Etant donné l'importance des voies de l'AMPc et du calcium dans l'expression des gènes impliqués dans la plasticité cérébrale, nous voulions déterminer le rôle respectif des coactivateurs de CREB, CBP et CRTC1.Nous avons développé diverses stratégies pour interférer de façon sélective avec les coactivateurs de CREB dans les neurones et dans les astrocytes chez la souris in vitro. Nos résultats indiquent que CBP et CRTC1 sont tous deux impliqués dans la transcription dépendante de CREB induite par l'AMPc et le calcium dans les neurones. Cependant, malgré plusieurs évidences impliquant CBP et/ou CRTC1 dans l'expression de gènes de plasticité neuronale, nous n'avons pas pu déterminer clairement leur nécessité respective pour l'activation de ces gènes. Toutefois, nous avons montré que l'activité de la calcineurine, dont dépend la translocation nucléaire de CRTC1, est nécessaire à l'expression de certains de ces gènes. Nous avons pu associer ce phénomène à une condition physiopathologique observée dans le syndrome de Down. Nous avons également montré que dans les astrocytes, la noradrénaline stimule l'expression de gènes cibles de CREB par une activation des récepteurs β- adrénergiques, l'activation de la voie de l'AMPc et la transactivation de CREB par les CRTCs.Définir le rôle respectif de CREB et de ses coactivateurs CBP et CRTC1 dans les neurones et dans les astrocytes in vitro permettra d'acquérir les connaissances nécessaires à de futures études in vivo et, à plus long terme d'éventuellement développer des stratégies thérapeutiques pour améliorer les traitements des troubles cognitifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte La tétralogie de Fallot est la cardiopathie congénitale cyanogène la plus courante. Elle se présente avec une prévalence de 1/3000 naissances et sa proportion dans les malformations cardiaques congénitales est de 6.8% (Baltimore-Washington Infant Study). La correction, qui doit être chirurgicale, est généralement faite dans la première année de vie avec une intervention à coeur ouvert qui permet la réparation des différentes malformations. Dans certains cas on effectue d'abord une intervention de type palliatif, qui sera suivie d'une deuxième pour la réparation complète. Objectifs Les objectifs de ce travail sont de présenter les différentes stratégies de correction cardio-chirurgicale pratiquées actuellement et les raisons du choix; d'évaluer les complications rencontrées à long terme et leur prise en charge; ainsi que d'analyser les possibles différences dans l'évolution clinique à long terme de patients ayant subi une réparation unique vs. en deux stades. Méthode Revue de la littérature spécialisée, avec une attention particulière aux études qui traitent du decours clinique à long terme et des complications rencontrées après correction chirurgicale de la tétralogie de Fallot. Comparaison des informations récoltées concernant les deux stratégies pratiquées actuellement: réparation complète précédée ou non d'un traitement palliatif néonatal. Conclusions Ce travail résumera les connaissances actuelles sur le traitement chirurgical de cette anomalie cardiaque. Il permettra d'avoir une analyse récente des dernières études concernant l'évolution à long terme après sa correction et offrira une base de comparaison entre les différentes stratégies de réparation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La nouvelle organisation sociale du travail du début du 21e siècle pose une série de questions et lance de nombreux défis aux spécialistes de l'accompagnement en orientation professionnelle. Compte tenu de la mondialisation du conseil en orientation, c'est dans un cadre international que nous avons décidé d'aborder ces questions, puis de formuler des réponses potentiellement innovantes. Cette approche permet d'éviter les difficultés que soulève la création de modèles et de méthodes dans un pays donné en tentant ensuite de les exporter dans d'autres, où ils doivent être adaptés pour être utilisés. Cet article présente le premier résultat tangible de cette collaboration : un modèle et des méthodes d'accompagnement des personnes. Le modèle « Construire sa vie », destiné à des interventions d'accompagnement en orientation se fonde sur cinq présupposés concernant les personnes et leur vie professionnelle : des possibilités liées aux contextes, des processus dynamiques, une progression non linéaire, des perspectives multiples et des configurations individuelles. En partant de ces présupposés, nous avons bâti un modèle en contexte, se réclamant de l'épistémologie du constructionnisme social, reconnaissant en particulier que les connaissances et l'identité d'un individu sont le produit d'interactions sociales et que le sens est co-construit, via la médiation du discours. Le cadre général « construire sa vie » s'appuie sur les théories de la construction de soi (Guichard, 2005) et de la construction des parcours professionnels (Savickas, 2005), qui décrivent les conduites d'orientation et leurs développements. Ce cadre concerne toute la vie, il est holiste, tient compte des contextes et est préventif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé de la thèseCette étude repose sur un double constat initial : en premier lieu, les récits français d'explorationau Tibet de la période s'étendant de 1850 à 1912 relèvent d'une tradition particulière du voyagescientifique en partie irréductible aux traditions des autres nations impérialistes de la mêmeépoque, notamment la tradition britannique à laquelle on les a souvent assimilés. En second lieu,ces récits révèlent à la fois la place centrale dégagée à la description du paysage tibétain et uneévolution unique et originale des savoirs et des représentations qui lui sont liés.Ce travail montre la rapide évolution des images du Tibet que s'est façonnées l'Europe,l'interrelation de cette histoire des représentations avec une révision des connaissances sur laterre et l'homme dans les sciences du XIXe siècle, ainsi qu'une dimension différentielle entre lesobjectifs de connaissance émanant des explorateurs français et anglais, différence due à uncontexte géopolitique hétérogène. Sur le fond de cette démarche contextualisante, le recours àl'analyse textuelle met en évidence le rôle qu'ont joué les explorateurs français dans l'histoire dessavoirs sur le Tibet.Pour des raisons inhérentes à la qualité d'écriture de ses récits et à l'acuité remarquable de sonapproche du monde tibétain, une place centrale de ce travail a été ménagée à Jacques Bacot(voyages de 1906 à 1907 - Dans les Marches tibétaines - et de 1909 à 1910 - Le Tibet révolté). Il a dèslors été fructueux de replacer ses récits dans l'histoire des savoirs et des représentations du Tibetet de les comparer aux récits majeurs d'autres explorateurs français au Tibet comme GabrielBonvalot, Fernand Grenard et Henri d'Ollone.Le paysage est une notion-clé pour comprendre le regard que portent les explorateurs sur leTibet. Or le paysage revêt des acceptions variables selon les auteurs et affiche des facettesdifférentes. Il a ainsi été possible de distinguer plusieurs dimensions : une dimension cognitive, unedimension épistémique, une dimension intersubjective et, enfin, une dimension imaginaire et sacrée. Cettedimension sacrée du paysage peut également être actualisée en tant que dimension écosymbolique.C'est là l'aboutissement des voyages de Bacot. L'explorateur, attentif à la culture tibétaine, envient à réaliser la valeur sacrée qui traverse la relation des Tibétains eux-mêmes à leurenvironnement. Le paysage ainsi compris se place au fondement d'une expérience partagée avecdes acteurs issus d'une autre culture et apparaît ainsi comme un opérateur privilégié pour« comprendre les compréhensions » (Clifford Geertz) des explorateurs, mais aussi, de proche enproche, des Tibétains.D'un point de vue épistémologique, la mise au jour de ces dimensions du paysage permetd'éviter certains écueils de la critique historienne et littéraire sur les récits de voyage au Tibet, quin'y a vu tantôt que de simples documents inertes, tantôt que le reflet d'un imaginaire purementet indéfectiblement occidental. La présente étude montre au contraire la part irréductiblequ'occupe la rencontre in situ avec l'autre et l'ailleurs dans l'élaboration conjointe desreprésentations et des savoirs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Alors que les pratiques religieuses régulières diminuent et que les groupes religieux majoritaires perdent des membres formellement enregistrés, une évènementisation de l'appartenance religieuse peut être observée depuis environ deux décennies. Dans un premier exemple, l'auteure montre que le réseau transnational de la confrérie soufie des Mourides resserre les liens entre adeptes dans un contexte migratoire qui tend à fragiliser les relations sociales. La confrérie y fait face à travers une spectacularisation de la pratique religieuse, occupant l'espace public à Harlem ou, dans une moindre mesure, à Paris. Le second exemple traite du pèlerinage aux Saintes et Saints d'Afrique dans la ville valaisanne de Saint Maurice. Ce dernier fut inventé par l'Église catholique suisse afin d'attirer des migrants africains, mais aussi afin de redynamiser une pratique religieuse ordinaire en perte de vitesse. L'évènement a lieu en même temps que le pèlerinage de Namugongo en Ouganda, réunissant plus d'un demi-million de personnes. Les communautés évènementielles ainsi créées sont-elles durables ou plutôt liquides ? Abstract While regular religious practice is decreasing and the major religious groups are losing formally registered members, a 'spectacularization' of religious belonging can be observed over the last two decades. The author presents two examples to support this argument. In the first, the transnational network of the Murids, a Sufi brotherhood, has tried to reinforce the relations between its members, which become fragile during migration. The brotherhood occupies a public space in Harlem, and, to a lesser extent, in Paris, in a spectacularization of religious belonging, in order to remain attractive to migrants. The second example deals with the pilgrimage dedicated to African Saints in the Swiss town of Saint Maurice. This event was invented by the missionary service of the Swiss Catholic Church in order to attract African migrants, but also in order to make ordinary religious practice more appealing. The event takes place at the same time as the Ugandan pilgrimage of Namugongo, which assembles more than half a million people. However, are these 'event communities' sustainable or ephemeral?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La définition des politiques de conservation des ressources naturelles dépend pratiquement que du niveau de connaissances que nous possédons sur ces ressources à un moment donné, d’où le besoin d’étudier les différentes formes et expressions de la variabilité naturelle, soit dans un cadre intégré des ressources biologiques et de leurs habitats respectifs, soit dans un cadre évolutif en fonction des variations des facteurs abiotiques. Le Cap Vert est un petit pays insulaire très dépendant de la conjoncture internationale et très vulnérable aux problèmes écologiques qui affligent actuellement le monde moderne. Ses écosystèmes sont naturellement fragiles et leur base génétique – très limitée – ne résistera pas à une exploitation déchaînée et déréglementée de la biodiversité. Il est donc nécessaire et urgent d’adopter des stratégies de développement qui puissent intégrer l’homme capverdien dans des processus interactifs de mitigation des effets néfastes de cette pression, soit des stratégies capables d’assimiler, d’intégrer et de minimiser les dégâts naturels d’origine anthropique. Le présent rapport, structuré par chapitres, de I à IX, est le « Deuxième Rapport National sur l’Etat de la Biodiversité au Cap Vert », qui sera présenté à la Conférence des Parties Signataires de la Convention sur la Diversité Biologique1. La rédaction et la structuration du rapport sauvegarde une certaine indépendance d’un chapitre à l’autre en termes de compréhension, tout en essayant de suivre une séquence logique et de compréhension globale du contenu. Ce Rapport présente un bilan de l’état actuel de la biodiversité au Cap Vert, en s’appuyant sur les connaissances existantes en 1998, ainsi que sur de nouvelles connaissances résultant de la mise en oeuvre, au cours des trois dernières années, de programmes et projets, nationaux et internationaux, en matière de recherche et développement. Les divers chapitres font l'approche de l’essentiel des informations considérées importantes dans les études de la faune et de la flore, des écosystèmes marin et terrestre, ainsi que l’état d’avancement des connaissances sur les interactions homme-environnement dans l’espace géographique national.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le protozoaire unicellulaire Leishmania est l'agent responsable de la leishmaniose, une maladie parasitaire humaine qui se manifeste par des lésions de la peau, se résolvant le plus souvent spontanément, jusqu'à des lésions viscérales fatales. Le parasite est transmis de l'insecte à l'hôte mammifère lors d'un repas sanguin de la mouche des sables et y réside respectivement sous formes extra- et intracellulaires. On estime que cette maladie touche environ 12 millions de personnes dans 98 pays. Etant donné que les médicaments disponibles à ce jour sont faiblement efficaces et/ou hautement toxiques, il est indispensable de consolider les connaissances sur le fonctionnement et la survie du parasite pour pouvoir développer de nouvelles stratégies de traitements et de préventions. Tous les organismes vivants, dont Leishmania, contiennent du polyphopshate (polyP). Cette molécule chargée négativement est constituée de trois jusqu'à plusieurs centaines de résidus de phosphates reliées par des liaisons à haute énergie. Le polyP sert donc de source d'énergie et de réservoir de phosphate; dans certaines espèces, il joue aussi un rôle dans l'adaptation au stress et la virulence de pathogènes. Ceci nous a amené à étudier le rôle du polyP dans le parasite Leishmania. L'enzyme responsable de la synthèse de polyP a été identifié récemment dans la levure : il s'agit de la chaperone de transport vacuolaire 4 (Vtc4). Nous avons identifié un homologue de Vtc4 chez les Trypanosomatidae, et avons donc décidé d'examiner sa fonction dans le métabolisme du polyP chez Leishmania. En éliminant l'expression de Vtc4 chez L. major et L. guyanensis, nous avons pu démontrer qu'il est indispensable pour la production de polyP chez Leishmania. De plus, nous avons constaté que ces parasites possèdent des chaînes de polyP allant de trois jusqu'à environ 300 résidus de phosphate. Le taux de polyP dans la cellule est précisément régulé et varie entre un très haut niveau durant la phase proliférative des promastigotes à un niveau bas en phase stationnaire tardive, alors que l'expression de Vtc4p reste stable. Dans les amastigotes intracellulaires, seulement des petites quantités de polyP et de Vtc4p sont détectées. En outre, l'absence de Vc4p et de polyP n'a pas d'effet significatif sur les infections in vivo de souris, ce qui indique que le polyP n'est pas nécessaire au développement de la leishmaniose. Ceci suggère que Vtc4p n 'est pas une bonne cible pour le développement de nouveaux traitements contre Leishmania. "Néanmoins, la présence du polyP favorise fortement la survie du parasite suite à un choc de température (37°C) et aide ainsi à sa persistance intracellulaire pendant les premiers jours d'infection de macrophages. En résumé, nos résultats indiquent que si le polyP a peu d'importance pendant l'infection et le développement de la leishmaniose chez la souris, il est par contre crucial pour l'adaptation à des situations de stress comme l'augmentation de la température. Le fait que le polyP a été conservé dans tous les organismes durant l'évolution suggère toutefois que cette molécule joue un rôle fondamental. Etant donné que l'absence de polyP n'a pas d'effet sur la survie des amastigotes, il pourrait être plus important dans la forme promastigote infectant la mouche des sables. - The unicellular protozoan parasite Leishmania is the causative agent of the human disease leishmaniasis, which can range from self-healing skin lesions to fatal visceral lesions. The parasite is transmitted from the insect vector to the mammalian host when the sand fly takes its blood meal and exists in an extra- and an intracellular form, respectively. The disease is estimated to affect 12 million people in 98 countries and currently available drug treatments are of relatively low potency and/or high toxicity. Thus, investigating parasite survival mechanisms and parasite adaptation to the two host environments contributes to the general understanding of Leishmania propagation and might therefore help to develop future treatments or preventions. All living cells, including Leishmania, contain a negatively charged polymer of a few up to several hundred phosphate residues. These so-called polyphosphates (polyPs) serve as an energy source and phosphate reservoir. In some organisms, polyP is also involved in adaptation to stresses and virulence of pathogens. Therefore we were interested in investigating the importance of polyP in Leishmania parasites. Recently, an eukaryotic enzyme responsible for polyP synthesis has been identified as the vacuolar transporter chaperone 4 (Vtc4) in yeast. We, and others, found a Vtc4 homologue in trypanosomatids and decided to examine its potential function in polyP metabolism. By generating VTC4 knock-out cell lines in L. major and Vtc4 knock-down cell lines in L. guyanensis, we were able to demonstrate that Vtc4p is responsible for the total amount of cellular polyP. We also observed that Leishmania polyP chain length ranges from a few up to around 300 residues and that its level is tightly regulated. PolyP abundance is highest during the logarithmic proliferating phase of promastigotes and decreases in the stationary phase, while Vtc4 protein expression remains stable during both phases. In the intracellular amastigote form, only low amounts of polyP and Vtc4p were detectable. Furthermore, absence of Vtc4p and polyP did not have a significant effect on in vivo mouse infections, indicating that polyP is not necessary for Leishmania disease progression. This suggests that Vtc4p would be a poor drug target against Leishmania infection. However, presence of the polymer strongly supported parasite survival during heat shock (37°C) and thereby promoted intracellular persistence during the first days of macrophage infections. Taken together, we found that polyP has little importance in Leishmania {in vivo) infection but that it plays a crucial role during adaptation to stress, such as heat shock. Given that polyP has been preciously conserved in all organisms during evolution it seems to play a fundamental role. Since absence of polyP does not affect amastigote survival, it might be significant for promastigote existence in the sand fly vector.