76 resultados para Warens, Françoise Louise de la Tour de, Mme.
Resumo:
RESUME Le diabète de type 1 se définit comme un désordre métabolique d'origine auto-immune qui aboutit à la destruction progressive et sélective de la cellule ß-pancréatique sécrétrice d'insuline. Cette maladie représente 10 % des cas de diabète enregistrés dans la population mondiale, et touche les jeunes de moins de 20 ans. Le traitement médical par insulinothérapie corrige le manque d'hormone mais ne prévient pas les nombreuses complications telles que les atteintes cardiaques, neurologiques, rénales, rétiniennes, et les amputations que la maladie provoque. Le remplacement de la cellule ß par transplantation d'îlots de Langerhans est une alternative prometteuse au traitement médical du diabète de type 1. Cependant la greffe d'îlots est encore un traitement expérimental et ne permet pas un contrôle efficace de la glycémie au long terme chez les patients transplantés, et les raisons de cet échec restent mal comprises. L'obstacle immédiat qui se pose est la purification d'un nombre suffisant d'îlots viables et la perte massive de ces îlots dans les premières heures suite à la greffe. Cette tendance presque systématique de la perte fonctionnelle du greffon immédiatement après la transplantation est connue sous le terme de « primary graft non-function » (PNF). En effet, la procédure d'isolement des îlots provoque la destruction des composantes cellulaires et non cellulaires du tissu pancréatique qui jouent un rôle déterminant dans le processus de survie de l'îlot. De plus, la transplantation elle-même expose les cellules à différents stress, notamment le stress par les cytokines inflammatoires qui encourage la mort cellulaire par apoptose et provoque par la suite le rejet de la greffe. L'ensemble de ces mécanismes aboutit a une perte de la masse d'îlot estimée a plus de 60%. Dans ce contexte, nous nous sommes intéressés à définir les voies majeures de stress qui régissent cette perte massive d'îlot par apoptose lors du processus d'isolement et suite à l'exposition immédiate aux cytokines. L'ensemble des résultats obtenus indique que plusieurs voies de signalisation intracellulaire sont recrutées qui s'activent de manière maximale très tôt lors des premières phases de l'isolement. La mise en culture des îlots deux jours permet aux voies activées de revenir aux taux de base. De ce fait nous proposons une stratégie dite de protection qui doit être 1) initiée aussitôt que possible lors de l'isolement des îlots pancréatiques, 2) devrait probablement bloquer l'activation de ces différentes voies de stress mis en évidence lors de notre étude et 3) devrait inclure la mise en culture des îlots purifiés deux jours après l'isolement et avant la transplantation. RESUME LARGE PUBLIC Le diabète est une maladie qui entraîne un taux anormalement élevé de sucre (glucose) dans le sang du à une insuffisance du pancréas endocrine à produire de l'insuline, une hormone qui régule la glycémie (taux de glucose dans le sang). On distingue deux types majeurs de diabètes; le diabète de type 1 ou juvénile ou encore appelé diabète maigre qui se manifeste souvent pendant l'enfance et qui se traduit par une déficience absolue en insuline. Le diabète de type 2 ou diabète gras est le plus fréquent, et touche les sujets de plus de 40 ans qui souffrent d'obésité et qui se traduit par une dysfonction de la cellule ß avec une incapacité à réguler la glycémie malgré la production d'insuline. Dans le diabète de type 1, la destruction de la cellule ß est programmée (apoptose) et est majoritairement provoquée par des médiateurs inflammatoires appelés cytokines qui sont produites localement par des cellules inflammatoires du système immunitaire qui envahissent la cellule ß-pancréatiques. Les cytokines activent différentes voies de signalisation parmi lesquelles on distingue celles des Mitogen-Activated Protein Kinase (MAPKs) composées de trois familles de MAPKs: ERK1/2, p38, et JNK, et la voie NF-κB. Le traitement médical par injections quotidiennes d'insuline permet de contrôler la glycémie mais ne prévient pas les nombreuses complications secondaires liées à cette maladie. La greffe d'îlots de Langerhans est une alternative possible au traitement médical, considérée avantageuse comparée a la greffe du pancréas entier. En effet l'embolisation d'îlots dans le foie par injection intraportale constitue une intervention simple sans complications majeures. Néanmoins la technique de préparation d'îlots altère la fonction endocrine et cause la perte massive d'îlots pancréatiques. De plus, la transplantation elle-même expose la cellule ß à différents stress, notamment le stress par les cytokines inflammatoires qui provoque le rejet de greffon cellulaire. Dans la perspective d'augmenter les rendements des îlots purifiés, nous nous sommes intéressés à définir les voies majeures de stress qui régissent cette perte massive d'îlot lors du processus d'isolement et suite à l'exposition immédiate aux cytokines après transplantation. L'ensemble de ces résultats indique que le stress induit lors de l'isolement des îlots et celui des cytokines recrute différentes voies de signalisation intracellulaire (JNK, p38 et NF-κB) qui s'additionnent entre-elles pour altérer la fonction et la viabilité de l'îlot. De ce fait une stratégie doit être mise en place pour bloquer toute action synergique entre ces différentes voies activées pour améliorer la viabilité et la fonction de la cellule ß lors du greffon cellulaire. SUMMARY Type 1 diabetes mellitus (T1DM) is an autoimmune disease characterized by the progressive and selective destruction of the pancreatic ß-cells that secrete insulin, leading to absolute insulin deficiency. T1DM accounts for about 10% of all diabetes cases, affecting persons younger than 20 years of age. Medical treatment using daily exogenous insulin injection corrects hormone deficiency but does not prevent devastating complications such as heart attack, neuropathy, kidney failure, blindness, and amputation caused by the disease. Pancreatic islet transplantation (PIT) is one strategy that holds promise to cure patients with T1DM, but purified pancreatic islet grafts have failed to maintain long-term glucose homeostasis in human recipients, the reasons for this failure being still poorly understood. There is however a more immediate problem with islet grafting that is dependent upon poor islet recovery from donors and early islet loss following the first hours of grafting. This tendency of islet grafts to fail to function within a short period after transplantation is termed primary graft non-function (PNF). Indeed, the islet isolation procedure itself destroys cellular and non-cellular components of the pancreas that may play a role in supporting islet survival. Further, islet transplantation exposes cells to a variety of stressful stimuli, notably pro-inflammatory cytokines that encourage ß-cell death by apoptosis and lead to early graft failure. Altogether these mechanisms lead to an estimated loss of 60% of the total islet mass. Here, we have mapped the major intracellular stress signaling pathways that may mediate human islet loss by apoptosis during isolation and following cytokine attack. We found that several stress pathways are maximally activated from the earliest stages of the isolation procedure. Culturing islet for two days allow for the activated pathways to return to basal levels. We propose that protective strategies should 1) be initiated as early as possible during isolation of the islets, 2) should probably target the activated stress pathways that we uncovered during our studies and 3) should include culturing islets for two days post-isolation and prior transplantation.
Resumo:
Rapport de synthèse : Introduction: la prévalence de l'insuffisance rénale chronique (IRC) augmente et malgré les traitements de remplacement rénal telle que la transplantation ou la dialyse, la mortalité chez des patients atteints d'une IRC reste très élevée. Les maladies cardiovasculaires sont la cause principale de mortalité chez ces patients, et le risque de décès dú à une complication cardiovasculaire est chez eux accru de 10 à 20 fois par rapport à la population générale. Méme si les facteurs de risque cardiovasculaires «traditionnels », principalement l'hypertension artérielle et le diabète sont très prévalents chez les patients avec IRC, ils sont insuffisants pour expliquer l'excès de mortalité cardiovasculaire. D'autres facteurs de risques « nontraditionnels » comme l'accumulation du diméthylarginine asymétrique (ADMA), un inhibiteur endogène de la synthase d'oxyde d'azote (NO), semblent aussi être importants. Chez les patients avec IRC, des taux élevés d'ADMA sont un puissant facteur prédictif indépendant de la mortalité cardiovasculaire. Il a également été démontré chez des souris que l'ADMA peut étre une cause directe de dysfonction endothéliale. Cette dernière joue un rôle primordial dans le développement de l'athérosclérose, cause principale des complications cardiovasculaires. Le but du présent travail est de tester l'hypothèse qu'une réduction du taux d'ADMA après une séance unique d'hémodialyse améliore la dysfonction endothéliale. Méthodes: la dysfonction endothéliale peut être évaluée dans les microvaisseaux de la péan de façon non invasive par fluxmétrie laser Doppler. La vasodilatation cutanée induite par un échauffement local de 34° à 41 °C (hyperémie thermique) est connue pour être dépendante de la production endothéliale de NO et a été utilisée dans plusieurs études cliniques pour évaluer la dysfonction endothéliale. Nous avons recruté 24 patients traités par hémodialyse chronique et également 24 sujets contrôles du même âge et sexe. Chez les patients dialysés, l'hyperémie thermique est mesuré une fois directement avant une séance d'hémodialyse, et une fois directement après une autre séance, toutes deux distantes de 2 à 7 jours. En même temps, les taux plasmatiques d'ADMA sont mesurés par la méthode de spectrométrie de masse en tandem. Chez les sujets contrôle, l'hyperémie thermique est également mesurée à deux reprises, à un intervalle de 2 à 7 jours comme chez les patients dialysés et les taux d'ADMA sont déterminés qu'une seule fois. Résultats: chez les patients dialysés, les réactions d'hyperémie thermique étaient superposables avant et après dialyse, mais moindre que chez les sujets contrôles. Par contre, les taux d'ADMA étaient plus élevés avant qu'après dialysé. Les taux d'ADMA après dialyse étaient similaires aux taux chez les sujets contrôles. Conclusion: cette étude montre que la vasodilatation dépendante de la production endothéliale de NO dans la microcirculation cutanée n'est pas influencée par les taux plasmatiques d'ADMA chez les patients dialysés. Ces résultats suggèrent que d'autres mécanismes sont responsables de la dysfonction endothéliale chez ces patients. Ceci met en question le concept que l'accumulation d'ADMA est un facteur causal du risque cardiovasculaire élevé et suggère que l'ADMA est juste un marqueur du milieu très athérogénique causé par l'IRC.
Resumo:
Cet article présente les risques liés aux transitians de soins et en particulier hospitalo-ambulatoires, qui, sans mesure d'accompagnement proactive, menacent le processus de rétablissement des personnes souffrant de troubles psychiatriques. En effet, les risques de rupture des soins et de réadmission sont davantage liés aux caractéristiques du système sociosanitaire qu'à celles du patient ou de la maladie. Des mesures d'accompagnement simples ne sont pas systématiques dans le domaine de la psychiatrie, alors même que ces patients sont particulièrement vulnérables dans les périodes de post-hospitalisation souvent synonymes de barrières au traitement. Le modèle de case management de transition développé à Lausanne est brièvement présenté et illustré au moyen d'une vignette clinique. Ses particularités sont notamment le recours systématique à certains outils soutenant le rétablissement et l'implication active du patient et de son entourage depuis l'hospitalisation jusqu'au retour dans la communauté.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
Résumé : La première partie de ce travail de thèse est consacrée au canal à sodium épithélial (ENaC), l'élément clé du transport transépithélial de Na+ dans le néphron distal, le colon et les voies aériennes. Ce canal est impliqué dans certaines formes génétiques d'hypo- et d'hypertension (PHA I, syndrome de Liddle), mais aussi, indirectement, dans la mucoviscidose. La réabsorption transépithéliale de Na+ est principalement régulée par des hormones (aldostérone, vasopressine), mais aussi directement par le Na+, via deux phénomènes distincts, la « feedback inhibition » et la « self-inhibition » (SI). Ce second phénomène est dépendant de la concentration de Na+ extracellulaire, et montre une cinétique rapide (constante de temps d'environ 3 s). Son rôle physiologique serait d'assurer l'homogénéité de la réabsorption de Na+ et d'empêcher que celle-ci soit excessive lorsque les concentrations de Na+ sont élevées. Différents éléments appuient l'hypothèse de la présence d'un site de détection de la concentration du Na+ extracellulaire sur ENaC, gouvernant la SI. L'objectif de ce premier projet est de démontrer l'existence du site de détection impliqué dans la SI et de déterminer ses propriétés physiologiques et sa localisation. Nous avons montré que les caractéristiques de la SI (en termes de sélectivité et affinité ionique) sont différentes des propriétés de conduction du canal. Ainsi, nos résultats confirment l'hypothèse de l'existence d'un site de détection du Na+ (responsable de la transmission de l'information au mécanisme de contrôle de l'ouverture du canal), différent du site de conduction. Par ailleurs, ce site présente une affinité basse et indépendante du voltage pour le Na+ et le Li+ extracellulaires. Le site semble donc être localisé dans le domaine extracellulaire, plutôt que transmembranaire, de la protéine. L'étape suivante consiste alors à localiser précisément le site sur le canal. Des études précédentes, ainsi que des résultats préliminaires récemment obtenus, mettent en avant le rôle dans la self-inhibition du premiers tiers des boucles extracellulaires des sous-unités α et γ du canal. Le second projet tire son origine des limitations de la méthode classique pour l'étude des canaux ioniques, après expression dans les ovocytes de Xenopus laevis, par la méthode du voltage-clamp à deux électrodes, en particulier les limitations dues à la lenteur des échanges de solutions. En outre, cette méthode souffre de nombreux désavantages (manipulations délicates et peu rapides, grands volumes de solution requis). Plusieurs systèmes améliorés ont été élaborés, mais aucun ne corrige tous les désavantages de la méthode classique Ainsi, l'objectif ici est le développement d'un système, pour l'étude électrophysiologique sur ovocytes, présentant les caractéristiques suivantes : manipulation des cellules facilitée et réduite, volumes de solution de perfusion faibles et vitesse rapide d'échange de la perfusion. Un microsystème intégré sur une puce a été élaboré. Ces capacités de mesure ont été testées en utilisant des ovocytes exprimant ENaC. Des résultats similaires (courbes IV, courbes dose-réponse au benzamil) à ceux obtenus avec le système traditionnel ont été enregistrés avec le microsystème. Le temps d'échange de solution a été estimé à ~20 ms et des temps effectifs de changement ont été déterminés comme étant 8 fois plus court avec le nouveau système comparé au classique. Finalement, la SI a été étudiée et il apparaît que sa cinétique est 3 fois plus rapide que ce qui a été estimé précédemment avec le système traditionnel et son amplitude de 10 à 20 % plus importante. Le nouveau microsystème intégré apparaît donc comme adapté à la mesure électrophysiologique sur ovocytes de Xenopus, et possèdent des caractéristiques appropriées à l'étude de phénomènes à cinétique rapide, mais aussi à des applications de type « high throughput screening ». Summary : The first part of the thesis is related to the Epithelial Sodium Channel (ENaC), which is a key component of the transepithelial Na+ transport in the distal nephron, colon and airways. This channel is involved in hypo- and hypertensive syndrome (PHA I, Liddle syndrome), but also indirectly in cystic fibrosis. The transepithelial reabsorption of Na+ is mainly regulated by hormones (aldosterone, vasopressin), but also directly by Na+ itself, via two distinct phenomena, feedback inhibition and self-inhibition. This latter phenomenon is dependant on the extracellular Na+ concentration and has rapid kinetics (time constant of about 3 s). Its physiological role would be to prevent excessive Na+ reabsorption and ensure this reabsorption is homogenous. Several pieces of evidence enable to propose the hypothesis of an extracellular Na+ sensing site on ENaC, governing self-inhibition. The aim of this first project is to demonstrate the existence of the sensing site involved in self-inhibition and to determine its physiological properties and localization. We show self-inhibition characteristics (ionic selectivity and affinity) are different from the conducting properties of the channel. Our results support thus the hypothesis that the Na+ sensing site (responsible of the transmission of the information about the extracellular Na+ concentration to the channel gating mechanism), is different from the channel conduction site. Furthermore, the site has a low and voltage-insensitive affinity for extracellular Na+ or Li+. This site appears to be located in the extracellular domain rather than in the transmembrane part of the channel protein. The next step is then to precisely localize the site on the channel. Some previous studies and preliminary results we recently obtained highlight the role of the first third of the extracellular loop of the α and γ subunits of the channel in self-inhibition. The second project originates in the limitation of the classical two-electrode voltageclamp system classically used to study ion channels expressed in Xenopus /aevis oocytes, in particular limitations related to the slow solution exchange time. In addition, this technique undergoes several drawbacks (delicate manipulations, time consumption volumes). Several improved systems have been built up, but none corrected all these detriments. The aim of this second study is thus to develop a system for electrophysiological study on oocytes featuring an easy and reduced cell handling, small necessary perfusion volumes and fast fluidic exchange. This last feature establishes the link with the first project, as it should enable to improve the kinetics analysis of self-inhibition. A PDMS chip-based microsystem has been elaborated. Its electrophysiological measurement abilities have been tested using oocytes expressing ENaC. Similar measurements (IV curves of benzamil-sensitive currents, benzamil dose-response curves) have been obtained with this system, compared to the traditional one. The solution exchange time has been estimated at N20 ms and effective exchange times (on inward currents) have been determined as 8 times faster with the novel system compared to the classical one. Finally, self-inhibition has been studied and it appears its kinetics is 3 times faster and its amplitude 10 to 20 % higher than what has been previously estimated with the traditional system. The novel integrated microsystem appears therefore to be convenient for electrophysiological measurement on Xenopus oocytes, and displays features suitable for the study of fast kinetics phenomenon, but also high throughput screening applications. Résumé destiné large public : Le corps humain est composé d'organes, eux-mêmes constitués d'un très grand nombre de cellules. Chaque cellule possède une paroi appelée membrane cellulaire qui sépare l'intérieur de cette cellule (milieu intracellulaire) du liquide (milieu extracellulaire) dans lequel elle baigne. Le maintien de la composition stable de ce milieu extracellulaire est essentiel pour la survie des cellules et donc de l'organisme. Le sodium est un des composants majeurs du milieu extracellulaire, sa quantité dans celui-ci doit être particulièrement contrôlée. Le sodium joue en effet un rôle important : il conditionne le volume de ce liquide extracellulaire, donc, par la même, du sang. Ainsi, une grande quantité de sodium présente dans ce milieu va de paire avec une augmentation du volume sanguin, ce qui conduit l'organisme à souffrir d'hypertension. On se rend donc compte qu'il est très important de contrôler la quantité de sodium présente dans les différents liquides de l'organisme. Les apports de sodium dans l'organisme se font par l'alimentation, mais la quantité de sodium présente dans le liquide extracellulaire est contrôlée de manière très précise par le rein. Au niveau de cet organe, on appelle urine primaire le liquide résultant de la filtration du sang. Elle contient de nombreuses substances, des petites molécules, dont l'organisme a besoin (sodium, glucose...), qui sont ensuite récupérées dans l'organe. A la sortie du rein, l'urine finale ne contient plus que l'excédent de ces substances, ainsi que des déchets à éliminer. La récupération du sodium est plus ou moins importante, en fonction des ajustements à apporter à la quantité présente dans le liquide extracellulaire. Elle a lieu grâce à la présence de protéines, dans les membranes des cellules du rein, capables de le transporter et de le faire transiter de l'urine primaire vers le liquide extracellulaire, qui assurera ensuite sa distribution dans l'ensemble de l'organisme. Parmi ces protéines « transporteurs de sodium », nous nous intéressons à une protéine en particulier, appelée ENaC. Il a été montré qu'elle jouait un rôle important dans cette récupération de sodium, elle est en effet impliquée dans des maladies génétiques conduisant à l'hypo- ou à l'hypertension. De précédents travaux ont montré que lorsque le sodium est présent en faible quantité dans l'urine primaire, cette protéine permet d'en récupérer une très grande partie. A l'inverse, lorsque cette quantité de sodium dans l'urine primaire est importante, sa récupération par le biais d'ENaC est réduite. On parle alors d'autorégulation : la protéine elle-même est capable d'adapter son activité de transport en fonction des conditions. Ce phénomène d'autorégulation constitue a priori un mécanisme préventif visant à éviter une trop grande récupération de sodium, limitant ainsi les risques d'hypertension. La première partie de ce travail de thèse a ainsi consisté à clarifier le mécanisme d'autorégulation de la protéine ENaC. Ce phénomène se caractérise en particulier par sa grande vitesse, ce qui le rend difficile à étudier par les méthodes traditionnelles. Nous avons donc, dans une deuxième partie, développé un nouveau système permettant de mieux décrire et analyser cette « autorégulation » d'ENaC. Ce second projet a été mené en collaboration avec l'équipe de Martin Gijs de l'EPFL.
Resumo:
RESUME Peu d'informations sont disponibles concernant la prévalence et les motifs de refus de la vaccination contre la grippe dans la population âgée. Le but de notre recherche était d'investiguer les vrais motifs de refus de la vaccination (c'est-à-dire pas uniquement les raisons de non-vaccination parfois indépendantes du patient lui- même) chez les personnes âgées. Tous les patients ambulatoires de plus de 65 ans consultant la Policlinique Médicale Universitaire (PMU) de Lausanne ou leur médecin traitant durant les périodes de vaccination contre la grippe 1999-2000 et 2000-2001 ont été inclus. Chaque patient recevait une information sur la grippe et ses complications, de même que sur la nécessité de la vaccination, son efficacité et ses effets seconda ires éventuels. En l'absence de contre-indication, la vaccination était proposée. En cas de refus, les motifs étaient investigués par une question ouverte. Sur 1398 sujets inclus, 148 (12%) ont refusé la vaccination. Les raisons principales de refus étaient la perception d'être en bonne santé (16%), de ne pas être susceptible à la grippe (15%) ou le fait de ne jamais avoir été vacciné contre la grippe dans le passé (15%). On retrouvait également la mauvaise expérience personnelle ou d'un proche lors d'une vaccination (15%) et l'impression d'inutilité du vaccin (10%). 17% des personnes interrogées ont donné des motifs autres et 12% n'ont pas explicité leur non-acceptation. Les refus de vaccination contre la grippe dans la population âgée sont essentiellement liés aux convictions intimes du patient quant à son état de santé et à sa susceptibilité à la grippe, de même qu'à l'efficacité supposée de la vaccination. La résistance au changement semble être un obstacle majeur à l'introduction de la vaccination chez les personnes de plus de 65 ans. SUMMARY More knowledge on the reasons for refusal of the influenza vaccine in elderly patients is essential to target groups for additional information, and hence improve coverage rate. The objective of the present study was to describe precisely the true motives for refusal. All patients aged over 64 who attended the Medical Outpatient Clinic, University of Lausanne, or their private practitioner's office during the 1999 and 2000 vaccination periods were included. Each patient was informed on influenza and its complications, as well as on the need for vaccination, its efficacy and adverse events. The vaccination was then proposed. In case of refusal, the reasons were investigated with an open question. Out of 1398 patients, 148 (12%) refused the vaccination. The main reasons for refusal were the perception of being in good health (16%), of not being susceptible to influenza (15%), of not having had the influenza vaccine in the past (15%), of having had a bad experience either personally or a relative (15%), and the uselessness of the vaccine (10%). Seventeen percent gave miscellaneous reasons and 12% no reason at all for refusal. Little epidemiological knowledge and resistance to change appear to be the major obstacles for wide acceptance of the vaccine by the elderly.
Resumo:
La mortalité du cancer colorectal reste importante malgré les nombreux progrès effectués dans la compréhension des mécanismes responsables à son développement. Dans ce contexte, il a été démontré qu'une enzyme appelée cyclooxygénase-2 (COX-2) joue un rôle important dans la pathogenèse du cancer colorectal. En effet, les métabolites produits par cette enzyme, en particulier la Prostaglandine E2 (PGE2), sont capables de directement stimuler la prolifération et la survie des cellules tumorales nécessaires à la progression tumorale. De plus, la PGE2 stimule également la formation de nouveaux vaisseaux sanguins indispensable à la croissance tumorale en induisant la formation du facteur de croissance vasculaire (VEGF). L'importance de COX- 2 dans le cancer colorectal ne se limite pas au niveau expérimental mais a aussi été démontré chez des patients où il a été prouvé que des inhibiteurs chimiques de COX-2 comme l'aspirine réduisaient le risque de développer un cancer colorectal. Il est donc important de caractériser et de comprendre les mécanismes par lesquels la COX-2 et les PGE2 participent au développement du cancer colorectal afin de générer de nouvelles approches thérapeutiques. Dans cette étude, nous avons observé qu'un complexe protéique intracellulaire appelé mTORC1 joue un rôle important dans la prolifération de cellules du cancer colorectal induite par la PGE2. En effet, nous avons trouvé que l'activité de mTORC1 était augmentée après stimulation des cellules tumorales par la PGE2. Nous avons également trouvé que cette stimulation était médiée par un type spécifique de récepteurs de la PGE2 appelé EP4. L'inhibition de mTORC1 par des composés chimiques ou par interférence de RNA bloque la prolifération cellulaire induite par la PGE2. De même, la production du facteur de croissance endothéliale (VEGF) par la PGE2 est bloquée par les inhibiteurs de mTORC1. Nos résultats montrent donc que mTORC1 est un intermédiaire cellulaire important dans la croissance tumorale induite par la PGE2 ainsi que dans la production de VEGF. mTORC1 représente de ce fait une cible thérapeutique intéressante dans le cancer colorectal qui mérite d'être évaluée dans des études cliniques.
Resumo:
La présente recherche se propose de désobstruer un certain nombre de catégories « esthétiques », au sens étendu du terme, de leur métaphysique implicite. La thèse que je souhaite défendre se présente sous la forme d'un paradoxe : d'une part, le sens originel d'« esthétique » a été perdu de vue, d'autre part, malgré cet oubli, quiconque s'interroge philosophiquement sur les beaux-arts reçoit, nolens volens, Baumgarten en héritage. Avec AEsthetica (1750/1758), ouvrage inachevé et hautement problématique, nous pourrions dire, citant René Char, qu'il s'agit-là d'un « héritage précédé d'aucun testament ». En d'autres termes, ce qui nous échoit nous occupe, voire nous préoccupe, sans que nous disposions des outils conceptuels pour nous y rapporter librement. Soyons clairs, je ne soutiens pas que l'esthétique philosophique, telle qu'elle s'énonce à ses débuts, soit un passage obligé pour penser l'art, et ce d'autant plus qu'il ne s'agit pas d'un passage, mais proprement d'une impasse. Ce que je veux dire, c'est que Kant répond à Baumgarten, et que Hegel répond à Kant et ainsi de suite. Il n'y a pas de tabula rasa dans l'histoire de la pensée, et l'oubli de l'historicité d'une pensée est le meilleur moyen de la neutraliser en simple supplément culturel, tout en demeurant entièrement captifs de ses présupposés.Au départ, la question qui motivait implicitement la rédaction de cette recherche se formulait ainsi : « Dans quelle mesure la philosophie énonce-t-elle quelque chose d'important au sujet des beaux-arts ? » Au fil du temps, la question s'est inversée pour devenir : « Qu'est-ce que les écrits sur les beaux- arts, tels qu'ils foisonnent au 18e siècle, nous enseignent à propos de la philosophie et des limites inhérentes à sa manière de questionner ?» Et gardons-nous de penser qu'une telle inversion cantonne la question de l'esthétique, au sens très large du terme, à n'être qu'une critique immanente à l'histoire de la philosophie. Si la philosophie était une « discipline » parmi d'autres, un « objet » d'étude possible dans la liste des matières universitaires à choix, elle ne vaudrait pas, à mon sens, une seule heure de peine. Mais c'est bien parce que la philosophie continue à orienter la manière dont nous nous rapportons au « réel », au « monde » ou à l'« art » - je place les termes entre guillemets pour indiquer qu'il s'agit à la fois de termes usuels et de concepts philosophiques - que les enjeux de la question de l'esthétique, qui est aussi et avant tout la question du sentir, excèdent l'histoire de la philosophie.Pour introduire aux problèmes soulevés par l'esthétique comme discipline philosophique, j'ai commencé par esquisser à grands traits la question du statut de l'image, au sens le plus général du terme. Le fil conducteur a été celui de l'antique comparaison qui conçoit la poésie comme une « peinture parlante » et la peinture comme une « poésie muette ». Dans le prolongement de cette comparaison, le fameux adage ut pictura poesis erit a été conçu comme le véritable noeud de toute conception esthétique à venir.Il s'est avéré nécessaire d'insister sur la double origine de la question de l'esthétique, c'est-à-dire la rencontre entre la pensée grecque et le christianisme. En effet, l'un des concepts fondamentaux de l'esthétique, le concept de création et, plus spécifiquement la possibilité d'une création ex nihiio, a été en premier lieu un dogme théologique. Si j'ai beaucoup insisté sur ce point, ce n'est point pour établir une stricte identité entre ce dogme théologique et le concept de création esthétique qui, force est de l'admettre, est somme toute souvent assez flottant dans les écrits du 18e siècle. L'essor majeur de la notion de création, couplée avec celle de génie, sera davantage l'une des caractéristiques majeures du romantisme au siècle suivant. La démonstration vise plutôt à mettre en perspective l'idée selon laquelle, à la suite des théoriciens de l'art de la Renaissance, les philosophes du Siècle des Lumières ont accordé au faire artistique ou littéraire une valeur parfaitement inédite. Si l'inventeur du terme « esthétique » n'emploie pas explicitement le concept de création, il n'en demeure pas moins qu'il attribue aux poètes et aux artistes le pouvoir de faire surgir des mondes possibles et que ceux-ci, au même titre que d'autres régions de l'étant, font l'objet d'une saisie systématique qui vise à faire apparaître la vérité qui leur est propre. Par l'extension de l'horizon de la logique classique, Baumgarten inclut les beaux-arts, à titre de partie constituante des arts libéraux, comme objets de la logique au sens élargi du terme, appelée « esthético- logique ». L'inclusion de ce domaine spécifique d'étants est justifiée, selon les dires de son auteur, par le manque de concrétude de la logique formelle. Or, et cela n'est pas le moindre des paradoxes de l'esthétique, la subsomption des beaux-arts sous un concept unitaire d'Art et la portée noétique qui leur est conférée, s'opère à la faveur du sacrifice de leur singularité et de leur spécificité. Cela explique le choix du titre : « métaphysique de l'Art » et non pas « métaphysique de l'oeuvre d'art » ou « métaphysique des beaux-arts ». Et cette aporîe constitutive de la première esthétique est indépassable à partir des prémices que son auteur a établies, faisant de la nouvelle discipline une science qui, à ce titre, ne peut que prétendre à l'universalité.Au 18e siècle, certaines théories du beau empruntent la voie alternative de la critique du goût. J'ai souhaité questionner ces alternatives pour voir si elles échappent aux problèmes posés par la métaphysique de l'Art. Ce point peut être considéré comme une réplique à Kant qui, dans une note devenue célèbre, soutient que « les Allemands sont les seuls à se servir du mot "esthétique" pour désigner ce que d'autres appellent la critique du goût ». J'ai démontré que ces deux termes ne sont pas synonymes bien que ces deux positions philosophiques partagent et s'appuient sur des présupposés analogues.La distinction entre ces deux manières de penser l'art peut être restituée synthétiquement de la sorte : la saisie systématique des arts du beau en leur diversité et leur subsomption en un concept d'Art unitaire, qui leur attribue des qualités objectives et une valeur de vérité indépendante de toute saisie subjective, relègue, de facto, la question du jugement de goût à l'arrière-plan. La valeur de vérité de l'Art, définie comme la totalité des qualités intrinsèques des oeuvres est, par définition, non tributaire du jugement subjectif. Autrement dit, si les oeuvres d'art présentent des qualités intrinsèques, la question directrice inhérente à la démarche de Baumgarten ne peut donc nullement être celle d'une critique du goût, comme opération subjective {Le. relative au sujet, sans que cela soit forcément synonyme de « relativisme »), mais bien la quête d'un fondement qui soit en mesure de conférer à l'esthétique philosophique, en tant que métaphysique spéciale, sa légitimité.Ce qui distingue sur le plan philosophique le projet d'une métaphysique de l'Art de celui d'une esthétique du goût réside en ceci que le premier est guidé, a priori, par la nécessité de produire un discours valant universellement, indépendant des oeuvres d'art, tandis que le goût, pour s'exercer, implique toujours une oeuvre singulière, concrète, sans laquelle celui-ci ne reste qu'à l'état de potentialité. Le goût a trait au particulier et au contingent, sans être pour autant quelque chose d'aléatoire. En effet, il n'est pas un véritable philosophe s'interrogeant sur cette notion qui n'ait entrevu, d'une manière ou d'une autre, la nécessité de porter le goût à la hauteur d'un jugement, c'est-à-dire lui conférer au moins une règle ou une norme qui puisse le légitimer comme tel et le sauver du relativisme, pris en son sens le plus péjoratif. La délicatesse du goût va même jusqu'à être tenue pour une forme de « connaissance », par laquelle les choses sont appréhendées dans toute leur subtilité. Les différents auteurs évoqués pour cette question (Francis Hutcheson, David Hume, Alexander Gerard, Louis de Jaucourt, Montesquieu, Voltaire, D'Alembert, Denis Diderot, Edmund Burke), soutiennent qu'il y a bien quelque chose comme des « normes » du goût, que celles-ci soient inférées des oeuvres de génie ou qu'elles soient postulées a priori, garanties par une transcendance divine ou par la bonté de la Nature elle-même, ce qui revient, en dernière instance au même puisque le geste est similaire : rechercher dans le suprasensible, dans l'Idée, un fondement stable et identique à soi en mesure de garantir la stabilité de l'expérience du monde phénoménal.La seconde partie de la recherche s'est articulée autour de la question suivante : est-ce que les esthétiques du goût qui mesurent la « valeur » de l'oeuvre d'art à l'aune d'un jugement subjectif et par l'intensité du sentiment échappent aux apories constitutives de la métaphysique de l'Art ?En un sens, une réponse partielle à cette question est déjà contenue dans l'expression « esthétique du goût ». Cette expression ne doit pas être prise au sens d'une discipline ou d'un corpus unifié : la diversité des positions présentées dans cette recherche, bien que non exhaustive, suffit à le démontrer. Mais ce qui est suggéré par cette expression, c'est que ces manières de questionner l'art sont plus proches du sens original du terme aisthêsis que ne l'est la première esthétique philosophique de l'histoire de la philosophie. L'exercice du goût est une activité propre du sentir qui, en même temps, est en rapport direct avec la capacité intellectuelle à discerner les choses et à un juger avec finesse et justesse.Avec le goût esthétique s'invente une espèce de « sens sans organe » dont la teneur ontologique est hybride, mais dont le nom est identique à celui des cinq sens qui procurent la jouissance sensible la plus immédiate et la moins raisonnable qui soit. Par la reconnaissance de l'existence d'un goût « juste » et « vrai », ou à défaut, au moins de l'existence d'une « norme » indiscutable de celui-ci, c'est-à-dire de la possibilité de formuler un jugement de goût une tentative inédite de spîritualisation de la sensibilité a lieu.Par conséquent, il est loin d'être évident que ce que j'ai appelé les esthétiques du goût échappent à un autre aspect aporétique de la métaphysique de l'Art, à savoir : passer à côté du caractère singulier de telle ou telle oeuvre afin d'en dégager les traits universels qui permettent au discours de s'étayer. Dans une moindre mesure, cela est même le cas dans les Salons de Diderot où, trop souvent, le tableau sert de prétexte à l'élaboration d'un discours brillant.Par contre, tout l'intérêt de la question du goût réside en ceci qu'elle présente, de façon particulièrement aiguë, les limites proprement métaphysiques dont l'esthétique, à titre de discipline philosophique, se fait la légataire et tente à sa manière d'y remédier par une extension inédite du concept de vérité et sa caractérisai ion en termes de vérité « esthéticologique » au paragraphe 427 de Y Esthétique. Cela dit, le fait même que dans l'empirisme la sensibilité s'oppose, une fois de plus, à l'intellect comme source de la naissance des idées - même si c'est dans la perspective d'une réhabilitation de la sensibilité -, indique que l'horizon même de questionnement demeure inchangé. Si le goût a pu enfin acquérir ses lettres de noblesse philosophique, c'est parce qu'il a été ramené, plus ou moins explicitement, du côté de la raison. Le jugement portant sur les arts et, de manière plus générale, sur tout ce qui est affaire de goût ne saurait se limiter au sentiment de plaisir immédiat. Le vécu personnel doit se transcender en vertu de critères qui non seulement permettent de dépasser le relativisme solipsiste, mais aussi de donner forme à l'expérience vécue afin qu'elle manifeste à chaque fois, et de façon singulière, une portée universelle.Le goût, tel qu'il devient un topos des discours sur l'art au 18e siècle, peut, à mon sens, être interprété comme l'équivalent de la glande pinéale dans la physiologie cartésienne : l'invention d'un « je ne sais quoi » situé on ne sait où, sorte d'Hermès qui assure la communication entre l'âme et le corps et sert l'intermédiaire entre l'intellect et la sensibilité. L'expérience décrite dans l'exercice du goût implique de facto une dimension par définition occultée par la métaphysique de l'Art : le désir. Pour goûter, il faut désirer et accepter d'être rempli par l'objet de goût. Dans l'exercice du goût, le corps est en jeu autant que l'intellect, il s'agit d'une expérience totale dans laquelle aucune mise à distance théorétique n'est, en un premier temps, à même de nous prémunir de la violence des passions qui nous affectent. L'ambiguïté de cette notion réside précisément dans son statut ontologiquement problématique. Mais cette incertitude est féconde puisqu'elle met en exergue le caractère problématique de la distinction entre corps et esprit. Dans la notion de goût est contenue l'idée que le corps pense aussi et que, par voie de conséquence, la sensibilité n'est pas dépourvue de dimension spirituelle. Reste que formuler les choses de la sorte revient à rejouer, en quelque sorte, l'antique diaphorâ platonicienne et à convoquer, une fois de plus, les grandes oppositions métaphysiques telles que corps et âme, sensible et intelligible, matière et forme.La troisième partie est entièrement consacrée à Shaftesbury qui anticipe le statut ontologiquement fort de l'oeuvre d'art (tel qu'il sera thématisé par Baumgarten) et l'allie à une critique du goût. Cet auteur peut être considéré comme une forme d'exception qui confirme la règle puisque sa métaphysique de l'Art laisse une place prépondérante à une critique du goût. Mais le cumul de ces deux caractéristiques opposées un peu schématiquement pour les besoins de la démonstration n'invalide pas l'hypothèse de départ qui consiste à dire que la saisie philosophique de la question du goût et l'invention conjointe de l'esthétique au 18e siècle sont deux tentatives de trouver une issue au problème du dualisme des substances.Cette recherche doit être prise comme une forme de propédeutique à la fois absolument nécessaire et parfaitement insuffisante. Après Baumgarten et le siècle du goût philosophique, les propositions de dépassement des apories constitutives d'une tradition qui pense l'art à partir de couples d'oppositions métaphysiques tels qu'âme et corps, forme et matière, ainsi que leurs traductions dans les arts visuels (dessin et couleur ou encore figuration et abstraction), n'ont pas manqué. Il aurait fallu in fine s'effacer pour laisser la place aux plasticiens eux-mêmes, mais aussi aux poètes, non plus dans l'horizon de Y ut pictura, mais lorsqu'ils expriment, sans verser dans l'analyse conceptuelle, leurs rencontres avec telle ou telle oeuvre (je pense à Baudelaire lorsqu'il évoque Constantin Guys, à Charles Ferdinand Ramuz lorsqu'il rend hommage à Cézanne ou encore à Pascal Quignard lorsqu'il raconte les fresques de la maison des Dioscures à Pompéi, pour ne citer que trois noms qui affleurent immédiatement à ma mémoire tant leur souvenir est vivace et leur exemple un modèle). Et puis il s'agit, malgré tout, de ne pas renoncer pour autant au discours esthétique, c'est- à-dire à la philosophie, mais de réinterroger les catégories dont nous sommes les légataires et de penser avec et au-delà des limites qu'elles nous assignent. Mais cela ferait l'objet d'un autre ouvrage.
Resumo:
Tumor-host interaction is a key determinant during cancer progression, from primary tumor growth to metastatic dissemination. At each step, tumor cells have to adapt to and subvert different types of microenvironment, leading to major phenotypic and genotypic alterations that affect both tumor and surrounding stromal compartments. Understanding the molecular mechanisms that govern tumor-host interplay may be essential for better comprehension of tumorigenesis in an effort to improve current anti-cancer therapies. The present work is composed of two projects that address tumor-host interactions from two different perspectives, the first focusing on the characterization of tumor-associated stroma and the second on membrane trafficking in tumor cells. Part 1. To selectively address stromal gene expression changes during cancer progression, oligonucleotide-based Affymetrix microarray technology was used to analyze the transcriptomes of laser-microdissected stromal cells derived from invasive human breast and prostate carcinoma. Comparison showed that invasive breast and prostate cancer elicit distinct, tumor-specific stromal responses, with a limited panel of shared induced and/or repressed genes. Both breast and prostate tumor-specific deregulated stromal gene sets displayed statistically significant survival-predictive ability for their respective tumor type. By contrast, a stromal gene signature common to both tumor types did not display prognostic value, although expression of two individual genes within this common signature was found to be associated with patient survival. Part 2. GLG1 is known as an E-selectin ligand and an intracellular FGF receptor, depending on cell type and context. Immunohistochemical and immunofluorescence analyses showed that GLG1 is primarily localized in the Golgi of human tumor cells, a central location in the biosynthetic/secretory pathways. GLG1 has been shown to interact with and to recruit the ARF GEF BIGI to the Golgi membrane. Depletion of GLG1 or BIGI markedly reduced ARF3 membrane localization and activation, and altered the Golgi structure. Interestingly, these perturbations did not impair constitutive secretion in general, but rather seemed to impair secretion of a specific subset of proteins that includes MMP-9. Thus, GLG1 coordinates ARF3 activation by recruiting BIGI to the Golgi membrane, thereby affecting secretion of specific molecules. - Les interactions tumeur-hôte constituent un élément essentiel à la progression tumorale, de la croissance de la tumeur primaire à la dissémination des métastases. A chaque étape, les cellules tumorales doivent s'adapter à différents types de microenvironnement et les détourner à leur propre avantage, donnant lieu à des altérations phénotypiques et génotypiques majeures qui affectent aussi bien la tumeur elle-même que le compartiment stromal environnant. L'étude des mécanismes moléculaires qui régissent les interactions tumeur-hôte constitue une étape essentielle pour une meilleure compréhension du processus de tumorigenèse dans le but d'améliorer les thérapies anti cancer existantes. Le travail présenté ici est composé de deux projets qui abordent la problématique des interactions tumeur-hôte selon différentes perspectives, le premier se concentrant sur la caractérisation du stroma tumoral et le second sur le trafic intracellulaire des cellules tumorales. Partie 1. Pour examiner les changements d'expression des gènes dans le stroma en réponse à la progression du cancer, des puces à ADN Affymetrix ont été utilisées afin d'analyser les transcriptomes des cellules stromales issues de carcinomes invasifs du sein et de la prostate et collectées par microdissection au laser. L'analyse comparative a montré que les cancers invasifs du sein et de la prostate provoquent des réponses stromales spécifiques à chaque type de tumeur, et présentent peu de gènes induits ou réprimés de façon similaire. L'ensemble des gènes dérégulés dans le stroma associé au cancer du sein, ou à celui de la prostate, présente une valeur pronostique pour les patients atteints d'un cancer du sein, respectivement de la prostate. En revanche, la signature stromale commune aux deux types de cancer n'a aucune valeur prédictive, malgré le fait que l'expression de deux gènes présents dans cette liste soit liée à la survie des patients. Partie 2. GLG1 est connu comme un ligand des sélectines E ainsi que comme récepteur intracellulaire pour des facteurs de croissances FGFs selon le type de cellule dans lequel il est exprimé. Des analyses immunohistochimiques et d'immunofluorescence ont montré que dans les cellules tumorales, GLG1 est principalement localisé au niveau de l'appareil de Golgi, une place centrale dans la voie biosynthétique et sécrétoire. Nous avons montré que GLG1 interagit avec la protéine BIGI et participe à son recrutement à la membrane du Golgi. L'absence de GLG1 ou de BIGI réduit drastiquement le pool d'ARF3 associé aux membranes ainsi que la quantité d'ARF3 activés, et modifie la structure de l'appareil de Golgi. Il est particulièrement intéressant de constater que ces perturbations n'ont pas d'effet sur la sécrétion constitutive en général, mais semblent plutôt affecter la sécrétion spécifique d'un sous-groupe défini de protéines comprenant MMP-9. GLG1 coordonne donc l'activation de ARF3 en recrutant BIGI à la membrane du Golgi, agissant par ce moyen sur la sécrétion de molécules spécifiques.
Resumo:
Les concepts de processus primaire chez Freud et du Réel chez Lacan sont des notions difficiles à appréhender. La difficulté devient même insurmontable lorsqu'on cherche à les relier aux phénomènes cliniques qu'ils sont censés représenter. Rebondissant sur des articles d'un numéro récent de Psychothérapies, il sera question d'apporter un éclairage différent sur ces notions, en les rapprochant des analyses de M. de Certeau sur un phénomène de possession au XVIIe siècle. Cette échappée historique permettrait également de réinterroger une clinique difficile, celle du traumatisme.
Resumo:
Avant-propos: Selon les données disponibles, le Cameroun, à l'instar de nombreux pays en développement, ne constitue qu'une destination marginale de l'investissement direct étranger (IDE), à l'exception de ceux destinés aux secteurs minier et pétrolier. Déterminer les causes de cette situation peu satisfaisante n'aurait en soi qu'un intérêt théorique si ce pays n'avait pas adopté une réglementation visant à encadrer et à promouvoir ce type d'investissements et n'avait pas, par ailleurs, signé et ratifié divers instruments bilatéraux et multilatéraux se rapportant à cet objet. Ce sont donc des considérations très pratiques qui l'emportent et rendent nécessaire une étude plus détaillée sur le sujet. Ce travail a pour objet l'étude du régime juridique des investissements directs étrangers analysé comme facteur pouvant Favoriser le développement économique et social du Cameroun. Dans ces conditions, il eût été impossible de s'en tenir à l'analyse des seules dispositions ayant trait spécifiquement au régime juridique des investissements d'origine étrangère. L'examen des obstacles et des contraintes ayant un impact aussi bien sur les politiques d'incitation que sur les effets attendus de ce type d'investissement s'est avéré indispensable pour appréhender la question dans sa globalité. Au risque de sacrifier quelque peu l'exigence de concision nécessaire à la rédaction d'une thèse, nous avons donc opté pour un exposé aussi complet que possible des questions avant tout juridiques, mais aussi politiques et économiques, auxquelles peuvent être confrontés, non seulement le juriste averti, mais aussi le praticien ou tout simplement l'étranger désireux d'investir au Cameroun. Pour ce faire, nous avons divisé notre étude en deux parties. Dans la première partie, nous nous efforçons de présenter et d'analyser les normes coutumières, conventionnelles, légales ou contractuelles constitutives du régime juridique des investissements au Cameroun. Et parce que le système juridique camerounais est complexe, et aussi méconnu ou inconnu, il nous a paru indispensable, à chaque fois, d'en rappeler les spécificités de manière à familiariser le lecteur avec les réalités institutionnelles et juridiques du pays qui illustre notre étude. Dans la deuxième partie, nous avons tenté de démontrer la nécessité d'adopter des politiques complémentaires visant à améliorer l'incidence de l'IDE sur le développement en proposant des mesures d'ordre politique et juridique pouvant contribuer à l'amélioration de la compétitivité de l'économie camerounaise, d'une part, et, d'autre part, viser à atténuer les effets néfastes des IDE et des politiques d'incitation. En élargissant ainsi le champ de notre analyse, nous espérons rendre service à la fois aux juristes et aux praticiens, plus sensibles aux solutions concrètes qu'à leur explication doctrinale. C'est ainsi que nous avons mis en commun les connaissances juridiques théoriques et les analyses et opinions émises par différents observateurs des faits économiques et sociaux du Cameroun, conscient qu'en Afrique plus qu'ailleurs, les juristes désireux de faire oeuvre utile ne sauraient s'enfermer dans la tour d'ivoire des Facultés. Nos conclusions, loin de faire l'inventaire de tous les résultats auxquels nous sommes parvenu, se limitent aux enseignements majeurs que nous tirons de notre recherche et aux propositions que nous formulons.
Resumo:
Nous assistons actuellement à une diffusion, à l'échelle planétaire, des Technologies de l'Information et de la Communication (TIC) même si elle se fait à des rythmes différents selon les nations (voire entre les régions d'un même pays) créant ainsi un fossé dit « numérique », en sus des multiples inégalités déjà présentes. Cette révolution informatique et technologique engendre de nombreux changements dans les rapports sociaux et permet de nombreuses applications destinées à simplifier la vie quotidienne de tout un chacun. Amine Bekkouche se penche sur la problématique de la cyberadministration comme conséquence importante des TIC, à l'instar du commerce électronique. Il présente, d'abord, une synthèse des principaux concepts de la cyberadministration ainsi qu'un panorama de la situation mondiale en ce domaine. Par la suite, il appréhende la cyberadministration dans la perspective des pays émergents, notamment, à travers l'illustration d'un pays en développement représentatif. Il propose alors des solutions concrètes qui prennent comme point de départ le secteur éducatif pour permettre une « alphabétisation informatique » de la société afin de contribuer justement à réduire le fossé numérique. Il élargit, ensuite, ces propositions à d'autres domaines et formule des recommandations facilitant leur mise en oeuvre. Il conclut, enfin, sur des perspectives qui pourraient constituer autant de pistes de recherches futures et permettre l'élaboration de projets de développement, à travers l'appropriation de ces TIC, pour améliorer la condition de l'administré, et plus globalement, du citoyen. - We are currently witnessing a distribution of Information and Communication Technologies (ICT) on a global scale. Yet, this distribution is carried out in different rhythms within each nation (and even among regions in a given country), which creates a "digital" gap, in addition to multiple inequalities already present. This computing and technological revolution engenders many changes in social relationships and permits numerous applications that are destined to simplify our lives. Amine Bekkouche takes a closer look at the issue of e-government as an important consequence of ICTs, following the example of electronic commerce. First, he presents a synthesis of the main concepts in e- government as well as a panoramic view of the global situation in this domain. Subsequently, he studies e-government in view of emerging countries, in particular through the illustration of a country in representative development. Then, he offers concrete solutions, which take the education sector as their starting point, to allow for a "computed digitalisation" of society that contribute to reduce the digital gap. Thereafter, he broadens these proposals to other domains and formulates recommendations that help their implementation. Finally, he concludes with perspectives that may constitute further research tracks and enable the elaboration of development projects, through the appropriation of ICTs, in order to improve the condition of the administered, and more generally, that of the citizen.
Resumo:
Seit den 1990er Jahren werden zunehmend nachhaltige Quartiere realisiert. Dabei besteht häufig eine beachtliche Diskrepanz zwischen den Zielen, die von den beteiligten Akteuren angestrebt werden, deren Umsetzung (Realisierungsphase) und deren Erhalt auf Dauer (Nutzungsphase). Es stellt sich folglich die Frage, auf welche Weise die Projektqualität im Sinne einer nachhaltigen Quartiersentwicklung verbessert werden kann. Diese Projekte sind jedoch enorm komplex aufgrund der großen Interdisziplinarität und Interdependenz ihrer Ziele sowie der vielschichtigen Akteursstrukturen. Sie stellen daher be-sonders hohe Anforderungen an die Projektsteuerung. Das konkrete Ziel dieser Arbeit besteht darin, die Bedeutung einer Prozesssteuerung im Sinne von Urban Governance zur Realisierung und zum Erhalt nachhaltiger Quartiere zu untersuchen. Damit soll einen Beitrag zur Förderung einer nachhalti-gen Stadtentwicklung geleistet werden. Die Arbeit stützt sich auf ein umfassendes theoretisches Fundament zum Thema Governance, wobei die relevanten Elemente für den Kontext nachhaltiger Quartiere herausgearbeitet werden. Die Hypothesen prüfen die Bedeutung der Schlüsselcharakteristika von Urban Governance (Kooperation, Partizipation, Verhandlungen) für die Projektqualität während der Realisierungs- und Nutzungsphase. Eine erste empirische Untersuchung wurde an zwanzig europäischen nachhaltigen Modellquartieren vorgenommen. Stärken und Schwächen aus der Perspektive der Nachhaltigkeit werden analysiert, deren Ursachen identifiziert und Handlungsoptio-nen aufgezeigt. Die Erkenntnisse zeigen die Notwendigkeit einer Verbesserung der Projektsteuerung während der Realisierungs- und der Nutzungsphase. Auf der Grundlage dieser Erkenntnisse wird ein umfassender Ansatz zur empirischen Untersuchung von Urban Governance im Kontext nachhaltiger Quartiere entwickelt. Dieser beruht auf dem akteurzentrierten Institutionalismus und den Merkmalen der Urban Governance. Anhand dieses Ansatzes wird mithilfe von Experteninterviews der Realisierungsprozess des nach-haltigen Quartiers Kronsberg (Hannover) analysiert. Betrachtet werden dabei die beteiligten Akteure und ihre Handlungso-rientierungen, die verwendeten Schlüsselinstrumente sowie aufgetretene Divergenzen zwischen Akteuren und deren Auswirkungen auf die Projekt- und Prozessqualität. Eine Vertiefung relevanter Themenfelder wird anhand der Fallstudie Neu-Oerlikon (Zürich) vorgenommen. Diese empirische Arbeit zeigt, dass eine Prozesssteuerung im Sinne von Urban Governance im Vergleich zu einer klassis-chen hierarchischen Steuerung eine notwendige aber nicht hinreichende Bedingung zur Verbesserung der Projektqualität nachhaltiger Quartiere darstellt. An konkreten Beispielen wird herausgearbeitet, dass der Mehrwert einer solchen Steuerung nur unter bestimmten Voraussetzungen erzielt werden kann: In manchen Situationen ist die Steuerungsform Kooperation und die Interaktionsform Verhandlung in ihrer Wirksamkeit zur Sicherung der Projektqualität begrenzt und hierarchische Interventionen sind notwendig. Nicht ein bestimmtes Steuerungsmodell per se ist geeignet, sondern es kommt auf den Ein-zelfall an: auf die Akteursstruktur, die individuellen und institutionellen Handlungsorientierungen der Akteure und deren Ver-haltensweisen, die Rahmenbedingungen und die Ausgestaltung des Urban Governance-Prozesses. Wenn die Spielregeln dieses Prozesses von den Akteuren nicht wirklich angenommen und gelebt werden, dominieren individuelle und institutio-nelle Akteursinteressen zu Lasten der Projektqualität. Ferner zeigen die Untersuchungen, dass die Partizipation der zukünftigen Quartiersnutzer in der Praxis häufig unzureichend ist. Dies führt zu Einbußen in der Projektqualität. Entscheidend ist auf jeden Fall, dass mindestens ein Akteur, in der Regel die öffentliche Hand, präsent ist, der die Definition anspruchsvoller Nachhaltigkeitsstandards, deren Umsetzung und deren Erhalt sichert sowie die notwendigen Rahmenbedingungen dafür schafft. Diese Arbeit belegt darüber hinaus, dass der Erhalt der Projektqualität während der Nutzungsphase (Faktor Zeit) bisher un-zureichend beachtet und in die Projektplanung einbezogen wird. Gerade dieser Aspekt bestimmt aber, ob das Quartier auch auf Dauer dem Nachhaltigkeitsanspruch gerecht werden kann! Tatsächlich handelt es sich um einen fortlaufenden Prozess, der nicht mit der Einweihung des Quartiers abgeschlossen ist. Vor diesem Hintergrund werden relevante Handlungsfelder beschrieben und die Notwendigkeit der langfristigen Fortsetzung einer Steuerung im Sinne von Urban Governance bzw. der Herausbildung einer Urban Governance-Kultur aufgezeigt. Aus den empirischen Erhebungen werden Erfolgs- und Risikofaktoren für Urban Governance-Prozesse während der Realisierungs- und der Nutzungsphase abgeleitet. Ferner werden bisher vernachlässigte Handlungsfelder (langfristiges Umwelt-management, ökologische Finanzierungsformen, urbane Landwirtschaft, Umweltkommunikation, etc.) eruiert. Die Berücksichtigung dieser Erkenntnisse ist unerlässlich für eine Verbesserung der Projektqualität nachhaltiger Quartiere. ---------------------------------------------- Gouvernance urbaine et quartiers durables: Entre intensions et mise en oeuvre --- Résumé --- Depuis les années 90, la thématique des quartiers durables a gagné en importance, même si leur développement s'est avéré difficile. Le décalage entre les objectifs, leur mise en oeuvre et le projet tel qu'il est vécu par ses habitants est souvent important et nécessite d'être réduit. Un quartier durable est par nature un projet complexe, aux objectifs ambitieux situé à la croisée de multiples champs disciplinaires, mobilisant de nombreux acteurs aux intérêts divergents. De plus, chaque projet, du fait des ses spécificités, requiert un pilotage adapté. L'objectif principal de la recherche vise à analyser la nature du pilotage du processus de conception, de réalisation et d'exploitation des quartiers durables. Ses résultats ont pour ambition de contribuer à optimiser et promouvoir le développement urbain durable. Le fondement théorique de la recherche se base sur le concept de gouvernance urbaine, adapté au contexte particulier de la gouvernance des quartiers durables. La gouvernance urbaine, au sens où nous l'entendons, est un mode de pilotage basé sur la coopération entre les acteurs publics et privés. Les hypothèses centrales du travail testent la portée et les limites des caractéristiques-clefs de la gouvernance urbaine (coopération, participation, négociation), ainsi que l'importance de la notion de pérennité pour la qualité du projet. Dans un premier temps, nous avons analysé vingt quartiers durables modèles européens et identifié leurs atouts et leurs faiblesses en termes de durabilité, ainsi que leurs divers modes de pilotage. Les enseignements tirés de ces exemples révèlent la nécessité d'améliorer le pilotage des projets. Dans un deuxième temps, nous avons élaboré une grille d'analyse fine fondée sur l'approche institutionnelle des acteurs et les caractéristiques-clefs de la gouvernance urbaine. En nous appuyant sur cette grille, nous avons analysé le processus de conception et de réalisation du quartier durable de « Kronsberg » (Hanovre) à l'aide des éléments suivants : les acteurs (avec leurs intérêts et objectifs propres), les instruments d'aménagement du territoire, les modes de pilotage, les zones de divergence et de convergence entre les acteurs, ainsi que leurs impacts sur le processus et le projet. Dans un troisième temps, les hypothèses centrales ont été testées sur le quartier de « Neu-Oerlikon » (Zurich) afin d'approfondir et d'élargir les enseignements tirés de celui de « Kronsberg ». Les résultats des analyses mettent en évidence le fait qu'un pilotage de projet selon le modèle de la gouvernance urbaine est certes une condition nécessaire mais non suffisante pour améliorer la qualité du projet. De plus, la valeur ajoutée de la gouvernance urbaine n'est valable qu'à certaines conditions. En effet, la coopération et la négociation peuvent même, dans certaines situations, réduire la qualité du projet ! Le principal enseignement de la recherche révèle qu'il n'y a pas de mode de pilotage idéal, mais que la qualité d'un projet dépend d'une multitude de facteurs, tels que les constellations d'acteurs, leurs intérêts personnels et institutionnels, les conditions cadres et les « règles du jeu » de la gouvernance urbaine. Si les « règles du jeu » en particulier ne sont pas réellement appropriées par l'ensemble des acteurs, les intérêts et les comportements personnels ou institutionnels prédominent au détriment de la qualité du projet. De même, si la participation des futurs usagers à l'élaboration du projet de quartier durable n'est pas assurée, tant la qualité du projet que sa pérennité en pâtissent. Nous avons également constaté que la présence d'un acteur (en règle générale les autorités publiques) qui veille à la définition d'objectifs ambitieux en matière de développement durable et à leur application constitue un apport essentiel à la qualité du projet. En outre, la recherche met en évidence les carences dans le suivi et le maintien à long terme des qualités de durabilité de la phase d'exploitation des projets de quartiers durables analysés. Dans la phase d'exploitation, le degré de coopération diminue généralement et les modes de fonctionnement et de pilotage sectoriels se mettent en place au détriment de la qualité du projet. Cela confirme la nécessité de poursuivre le processus de pilotage selon le modèle de la gouvernance urbaine au-delà de la phase de réalisation des projets. La recherche précise les enjeux des champs d'action de la phase d'exploitation (domaine encore peu étudié) et démontre la pertinence du mode de pilotage préconisé. Enfin, les analyses permettent d'identifier des facteurs de réussite et de risque susceptibles d'influencer les systèmes de gouvernance urbaine, ainsi que les enjeux des domaines de la durabilité encore négligés (agriculture urbaine, gestion environnementale dans la durée, comportement des usagers, financement équitable, etc.). La prise en compte de ces enseignements est essentielle à l'amélioration de la gestion de futurs projets de quartiers durables. ---------------------------------------------- Urban Governance and Sustainable Neighbourhoods: A Contribution to a Lasting Sustainable Development --- Abstract --- Since the 1990s, sustainable neighbourhoods have become an increasingly important topic. However, their development has proven to be difficult. There is an often considerable gap, which must be reduced, between the initial goals, the way they are implemented and how the project is finally inhabited. A sustainable neighbourhood is inherently a complex project, with ambitious goals that lie at the intersection of multiple disciplines, involving numerous stakeholders with diverging interests. Moreover, each project, due to its specific characteristics, requires an adapted steering. The main goal of this research is to analyse the nature of the steering process during the planning, realisation and use of sustainable neighbourhoods. The results aim to contribute to the promotion of sustainable urban development. The theoretical foundation of this research is based on the concept of urban governance, adapted to the particular context of sustainable neighbourhoods. Urban governance is understood in this work, as a mode of project steering based on the cooperation between public and private stakeholders. The central hypotheses of this work test the importance and the limits of the key characteristics of urban governance (cooperation, participation, negotiation) as well as the importance of continuity for the project quality. To begin with, we surveyed and analysed twenty exemplary European sustainable neighbourhoods and identified their strengths and weaknesses in terms of sustainability, as well as their diverse steering modes. The lessons learned from these examples reveal the need to improve the projects' steering. Secondly we elaborated a detailed framework for analysis founded on stakeholder-centred institutionalism and the key characteristics of urban governance. By systematically applying this framework, we analysed the planning and implementation process of the sustainable neighbourhood "Kronsberg" (Hannover). Our focus was on the following dimensions: the stakeholders (with their particular interests and goals), the instruments of spatial planning, the steering modes, the points of divergence and convergence amongst the stakeholders, as well as their impacts on the process and on the project. The final step was to test the core hypotheses on the neighbourhood "Neu-Oerlikon" (Zürich) in order to broaden the lessons learned from "Kronsberg". The results of the analysis highlight the fact that an urban governance type project steering is certainly a necessary but insufficient condition to improve the project quality. Moreover, the added value of urban governance is only valid under certain conditions. In fact, cooperation and negotiation can even in certain situations reduce the project's quality! The main lesson of this research is that there is not an ideal steering mode, but rather that the quality of the project depends on numerous factors, such as the stakeholder constellation, their individual and institutional interests, the general conditions and the "rules of the game" of urban governance. If these "rules of the game" are not really appropriated by all stakeholders, individual and institutional interests and behaviours predominate at the expense of the project's quality. Likewise, if the future users' participation in the project development is insufficient, both the project's quality and its continuity suffer. We have also observed that the presence of a stakeholder (in general the public authorities) who ensures the definition of ambitious goals in terms of sustainable development and their implementation is crucial for the project's quality. Furthermore, this research highlights the deficiencies in the follow-up and long-term preservation of the sustainability qualities in the neighbourhood projects which we have analysed. In the use phase, the degree of cooperation generally diminishes. Attitudes and project management become more sectorial at the expense of the project's quality. This confirms the need to continue the steering process according to the principles of urban governance beyond the project's implementation phase. This research specifies the challenges that affect the use phase (a still neglected area) and shows the relevance of the recommended steering mode. Finally, the analyses also identify the success and risk factors that may influence urban-governance systems, as well as the challenges of still neglected fields of sustainability (urban agriculture, long-term environmental management, user behaviour, fair funding, etc.). Taking into account these outcomes is essential to improve the management of future sustainable-neighbourhood projects.
Resumo:
Immigration, intégration, précarité, échec scolaire, ignorance du français, délinquance sont des thèmes qui animent régulièrement les débats publics, médiatiques et politiques. Bien que les migrations ont toujours fait partie de l'histoire humaine, elles sont souvent décrites comme un trouble aux identités nationales, elles-mêmes mises à mal par la mondialisation. Cependant, les mécanismes sous-tendant les difficultés rencontrées par certains enfants de migrants demeurent bien moins débattus et considérés que leurs conséquences bruyantes et visibles. Après une réflexion sur l'impact de la migration elle-même sur le sujet et un bref aperçu de l'ethnopsychiatrie, nous allons décrire les difficultés que peut rencontrer l'enfant de migrants, leurs origines et leurs conséquences. Nous nous intéresserons ensuite à la manière dont notre société, nos institutions en tiennent compte ou pas. Nous terminerons notre propos par la mise en relief des besoins thérapeutiques et éducatifs spéciaux de ces enfants et la manière dont ceux-ci sont comblés (ou non). Immigration, social integration, precariousness, language barrier, delinquency are constantly stimulating public, political and media debate. Migrations always were part of the human history but they are often described like a disorder of the national identities, themselves put at evil by globalization. However, the origin of the difficulties that certain children of migrants encounter is often overlooked. Only their disturbing implications are frequently studied. After a brief comment on the impact of the migration and the ethnopsychiatry, we will outline the difficulties sometimes faced by the children of migrants, their origins and consequences. Then we will describe how the society and the institutions take them in account (or not). We finally will delineate the specific needs of those children and how they are meeting (or not).
Resumo:
INTRODUCTION Le pays s'étendant entre le Strymon et le Nestos, c'est-à-dire la Thrace du sud-ouest, est une région montagneuse riche en mines d'or, d'argent, de fer, de cuivre et de plomb, qui dispose en outre de plusieurs vastes plaines fertiles. Un grand nombre de peuples indigènes habitaient dans ce pays et tiraient profit de ses richesses durant les époques archaïque et classique. Ces richesses sont également à l`origine de l'intérêt que portèrent plusieurs colons grecs à cette région. Le but de cet ouvrage n'est pas d'analyser de manière exhaustive l'histoire de la Thrace du sud-ouest. Ce sujet fait d'ailleurs l'objet de nombreuses investigations savantes internationales. En revanche, nous souhaitons approfondir certains aspects des relations que les peuples indigènes de cette région entretinrent avec les pouvoirs limitrophes, notamment avec l'île de Thasos et les autres cités grecques de la région, avec le royaume de Macédoine et, en dernier lieu, avec Athènes. Pour ce faire, nous étudierons dans un premier temps la topographie et les ressources naturelles de la région. Nous examinerons des problèmes portant sur l'identification des montagnes, des lacs et des rivières ainsi que sur la localisation de toponymes et de villes. Cet exposé, accompagné d'une carte, vise non seulement à rapprocher les toponymes actuels des toponymes transmis par les auteurs anciens mais aussi à enrichir nos connaissances relatives aux ressources naturelles de ces territoires. Où se trouvaient les zones minières principales et à quelles peuplades étaient-elles associées ? A quelle époque remontait leur exploitation ? On suppose souvent que ces mines cessèrent de fonctionner avant l'époque impériale. Cette hypothèse est-elle correcte ? Le but principal du premier chapitre de cette étude est de rassembler les données de nature archéologique et géologique relatives à l'exploitation des mines de la région concernée en les associant aux nombreux témoignages fournis par les auteurs antiques. Le deuxième chapitre concerne le peuplement du pays étudié. Nous nous efforcerons d'apporter des précisions sur l'origine des populations indigènes et sur la date approximative de leur installation dans la région. En se fondant sur les nombreuses informations que nous avons réunies, nous nous pencherons en particulier sur les questions relatives à la situation géographique de ces populations. Les richesses et la position stratégique de la Thrace du sud-ouest attirèrent de nombreux prétendants d`origines différentes. La vision que l`on a de la Thrace du sud-ouest aux époques archaïque et classique est le plus souvent celle d'un pays habité par des populations thraces hostiles envers les Grecs, et plus particulièrement envers les Athéniens. Est-ce qu'est cette image exacte ? En s'appuyant sur les sources littéraires et archéologiques, le troisième chapitre propose une discussion sur les premiers contacts que les divers peuples établis dans cette région établirent avec les Grecs venant de Thasos, d'Andros et d'Asie Mineure durant les VIIe et VIe siècles. Nous nous pencherons ensuite sur le rôle que jouèrent Macédoniens et Athéniens dans l'évolution du peuplement de cette région au cours du VIe siècle et au début du Ve siècle. Cette question, qui constitue le sujet du quatrième chapitre, a rendu nécessaire le réexamen du processus de l'expansion macédonienne vers l'est jusqu'au pays du Strymon. A quelle époque remonte cette expansion et quelles furent ses conséquences pour les peuples concernés? Nous allons aussi examiner le contexte historique du séjour de Pisistrate dans la région du Pangée et des rapports qu'entretint Miltiade Il avec les peuples indigènes et la Macédoine. Pour ce faire, nous nous fonderons sur l'apport des sources littéraires, épigraphiques et archéologiques. Les réponses à ces questions nous permettront ensuite, dans le cinquième chapitre, de nous interroger sur la nature des relations politiques et économiques des peuples indigènes avec Thasos, Athènes et la Macédoine dans le cadre de l'occupation perse en Thrace. Le sixième chapitre, quant à lui, se propose d`étudier l'équilibre politique et économique entre Athènes, Thasos et la Macédoine dans le territoire édonien et bisalte durant le Ve siècle. Nous nous proposons d`examiner les données témoignant de l'influence et du contrôle exercés par chacun de ces pouvoirs dans la région. Cette discussion soulève un certain nombre de questions historiques importantes. Quel rôle jouèrent les rois macédoniens dans le pays du Strymon ? Est-ce que l'entrée des cités grecques de Bisaltie dans la Ligue de Délos témoigne de l'affaiblissement du pouvoir du royaume de Macédoine, comme on le pense d'habitude ? Dans quelles zones furent actifs les Athéniens ? De quels appuis disposaient les Thasiens sur le continent avant et après la perte de leurs mines et emporia au profit des Athéniens (465-463) ? Cette discussion nous permettra aussi de faire une distinction claire entre les peuples indigènes annexés au royaume macédonien et ceux qui demeurèrent autonomes à partir de la fin du VIe siècle avant J.-C. En quoi consistait l'autonomie de ces Thraces et comment l'expliquer? L'histoire et l'organisation des ethnè thraces de la région suite à leur annexion au royaume macédonien durant le IVe siècle constituent le sujet du septième chapitre. La question de la présence athénienne dans cette région a provoqué de nombreux débats. Les savants modernes affirment souvent que les sources ne se réfèrent pas à l'existence d'une ville athénienne dans la région. Dans le huitième chapitre, nous réexaminerons les éléments de ce débat, qui touche directement au problème de la localisation de la cité prospère de Datos et des conditions historiques de la fondation de Philippes (357 avant J -C.). Enfin, nous traiterons la question du statut juridique des Athéniens présents dans la région. Bien que notre documentation sur ces sujets soit riche, elle demeure très fragmentaire. En effet, de nombreux ouvrages antiques qui traitaient de ce pays ne nous sont pas parvenus. Hormis les poèmes d"Eschyle Lycourgeia, d'[Euripide] Rhèsos et les histoires invraisemblables d'Asclepiades de Tragilos intitulées Tragodoumena, nous avons perdu des dizaines de livres historiques et géographiques rédigées par Hécatée, Hellanicos, Ephore, Eudoxe, Théopompe, Marsyas le Philippien, Armenidas, Hégisippos de Mekybema, Balakros, ainsi que Strabon, qui nous auraient certainement donné une image plus précise de l'histoire de la Thrace du sud-ouest au VIe siècle et à l'époque classique. La documentation relative à l'histoire politique, économique, sociale et géographique de la région nous fait défaut. Une autre difficulté majeure de notre travail consiste dans la nature complexe de l'histoire de la région elle-même. Enfin, une foule de questions de géographie historique et de topographie ne sont pas encore résolues. Toutes ces difficultés sont accentuées malheureusement par le manque de données archéologiques. Seul un petit nombre de sites, repérés grâce à des prospections de surface, ont fait l'objet de fouilles systématiques et de publications complètes. Il ne fait aucun doute que des recherches archéologiques nous fourniraient des indices permettant de répondre aux nombreuses questions historiques et géographiques encore en suspens. Pour tenter de pallier ces lacunes, nous avons réexaminé toutes les sources, repris l"inte1-prétation des passages litigieux et mis en valeur les résultats des nouvelles recherches.