455 resultados para Modèle transactionnel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: L'évaluation de l'exposition aux nuisances professionnelles représente une étape importante dans l'analyse de poste de travail. Les mesures directes sont rarement utilisées sur les lieux même du travail et l'exposition est souvent estimée sur base de jugements d'experts. Il y a donc un besoin important de développer des outils simples et transparents, qui puissent aider les spécialistes en hygiène industrielle dans leur prise de décision quant aux niveaux d'exposition. L'objectif de cette recherche est de développer et d'améliorer les outils de modélisation destinés à prévoir l'exposition. Dans un premier temps, une enquête a été entreprise en Suisse parmi les hygiénistes du travail afin d'identifier les besoins (types des résultats, de modèles et de paramètres observables potentiels). Il a été constaté que les modèles d'exposition ne sont guère employés dans la pratique en Suisse, l'exposition étant principalement estimée sur la base de l'expérience de l'expert. De plus, l'émissions de polluants ainsi que leur dispersion autour de la source ont été considérés comme des paramètres fondamentaux. Pour tester la flexibilité et la précision des modèles d'exposition classiques, des expériences de modélisations ont été effectuées dans des situations concrètes. En particulier, des modèles prédictifs ont été utilisés pour évaluer l'exposition professionnelle au monoxyde de carbone et la comparer aux niveaux d'exposition répertoriés dans la littérature pour des situations similaires. De même, l'exposition aux sprays imperméabilisants a été appréciée dans le contexte d'une étude épidémiologique sur une cohorte suisse. Dans ce cas, certains expériences ont été entreprises pour caractériser le taux de d'émission des sprays imperméabilisants. Ensuite un modèle classique à deux-zone a été employé pour évaluer la dispersion d'aérosol dans le champ proche et lointain pendant l'activité de sprayage. D'autres expériences ont également été effectuées pour acquérir une meilleure compréhension des processus d'émission et de dispersion d'un traceur, en se concentrant sur la caractérisation de l'exposition du champ proche. Un design expérimental a été développé pour effectuer des mesures simultanées dans plusieurs points d'une cabine d'exposition, par des instruments à lecture directe. Il a été constaté que d'un point de vue statistique, la théorie basée sur les compartiments est sensée, bien que l'attribution à un compartiment donné ne pourrait pas se faire sur la base des simples considérations géométriques. Dans une étape suivante, des données expérimentales ont été collectées sur la base des observations faites dans environ 100 lieux de travail différents: des informations sur les déterminants observés ont été associées aux mesures d'exposition des informations sur les déterminants observés ont été associé. Ces différentes données ont été employées pour améliorer le modèle d'exposition à deux zones. Un outil a donc été développé pour inclure des déterminants spécifiques dans le choix du compartiment, renforçant ainsi la fiabilité des prévisions. Toutes ces investigations ont servi à améliorer notre compréhension des outils des modélisations ainsi que leurs limitations. L'intégration de déterminants mieux adaptés aux besoins des experts devrait les inciter à employer cet outil dans leur pratique. D'ailleurs, en augmentant la qualité des outils des modélisations, cette recherche permettra non seulement d'encourager leur utilisation systématique, mais elle pourra également améliorer l'évaluation de l'exposition basée sur les jugements d'experts et, par conséquent, la protection de la santé des travailleurs. Abstract Occupational exposure assessment is an important stage in the management of chemical exposures. Few direct measurements are carried out in workplaces, and exposures are often estimated based on expert judgements. There is therefore a major requirement for simple transparent tools to help occupational health specialists to define exposure levels. The aim of the present research is to develop and improve modelling tools in order to predict exposure levels. In a first step a survey was made among professionals to define their expectations about modelling tools (what types of results, models and potential observable parameters). It was found that models are rarely used in Switzerland and that exposures are mainly estimated from past experiences of the expert. Moreover chemical emissions and their dispersion near the source have also been considered as key parameters. Experimental and modelling studies were also performed in some specific cases in order to test the flexibility and drawbacks of existing tools. In particular, models were applied to assess professional exposure to CO for different situations and compared with the exposure levels found in the literature for similar situations. Further, exposure to waterproofing sprays was studied as part of an epidemiological study on a Swiss cohort. In this case, some laboratory investigation have been undertaken to characterize the waterproofing overspray emission rate. A classical two-zone model was used to assess the aerosol dispersion in the near and far field during spraying. Experiments were also carried out to better understand the processes of emission and dispersion for tracer compounds, focusing on the characterization of near field exposure. An experimental set-up has been developed to perform simultaneous measurements through direct reading instruments in several points. It was mainly found that from a statistical point of view, the compartmental theory makes sense but the attribution to a given compartment could ñó~be done by simple geometric consideration. In a further step the experimental data were completed by observations made in about 100 different workplaces, including exposure measurements and observation of predefined determinants. The various data obtained have been used to improve an existing twocompartment exposure model. A tool was developed to include specific determinants in the choice of the compartment, thus largely improving the reliability of the predictions. All these investigations helped improving our understanding of modelling tools and identify their limitations. The integration of more accessible determinants, which are in accordance with experts needs, may indeed enhance model application for field practice. Moreover, while increasing the quality of modelling tool, this research will not only encourage their systematic use, but might also improve the conditions in which the expert judgments take place, and therefore the workers `health protection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Selon la tradition orientale, les représentations de Jésus trouveraient toutes leur origine dans les images acheiropoïètes, c'est-à-dire dans des figurations de la "Sainte Face" du Christ non faites de main d'homme, mais survenues par apparition divine -sur le voile de Véronique, le Saint Suaire, le mandylion d'Edesse, etc. Ces images qui, pour des théologiens de l'icône tels que Léonide Ouspensky, ne sont rien moins que "la manifestation du miracle fondamental : la venue du Créateur dans sa création" (in L'Image du Christ non faite de main d'homme, 1989), ont toujours été le ferment d'expérimentations multiples chez les peintres et les sculpteurs.Mais la réflexion artistique s'est cristallisée au moment où ces images sont devenues l'apanage de médiums issus de "l'ère de la reproductibilité technique" chère à Benjamin. En effet, les images "théographes" auraient pour spécificité d'être engendrées et de se multiplier par empreinte immédiate: une toile quelconque n'aurait qu'à être touchée par le visage du Christ pour devenir instantanément le support du divin portrait, et acquérir dès lors le "pouvoir reconnu aux acheiropoïètes de créer des doubles de même valeur, par simple contact" (François Boespflug, Dieu et ses images. Une histoire de l'Eternel dans l'art, 2008). Comment mieux faire écho aux principes mêmes de l'image (ciné)photographique, générée par indicialité et reproductibilité? André Bazin a eu l'intuition de cette parenté dans le cadre de sa théorisation sur le pouvoir "révélateur" de l'image (ciné)photographique qui selon lui procéderait "par sa genèse" de "l'ontologie du modèle" et "serait" le modèle; il a évoqué le Saint Suaire de Turin comme rejouant, voire emblématisant cette même "ontologie de l'image photographique" (dans l'article homonyme de 1945). Si Bazin ne développe pas plus avant ses considérations, la corrélation des dispositifs (ciné)photographique et acheiropoïète a connu un questionnement « en actes », au sein des films cherchant à représenter Jésus.Valentine Robert s'intéresse à ces expérimentations, à commencer par un projet de film d'Abel Gance de 1947, resté inachevé, où le suaire de Turin devait se transformer en écran de cinéma. Plusieurs autres productions seront abordées, telles que Civilization ou The Robe, qui explorent les effets visuels permis par la pellicule pour montrer le Christ en surimpression, dans une sorte d'"apparition technologique", ou telles que The Jesus Film ou The Passion of the Christ, dont la projection a été reçue par certains publics comme une apparition sacrée réactualisant l'Incarnation. Les modalités de la représentation des images acheiropoïètes et plus généralement de l'apparition de Jésus à l'écran seront enfin évoquées - de la tradition hollywoodiennes qui consistait à refuser l'accès de la "Sainte Face" à la pellicule et de la rejeter hors-champ jusqu'aux séquences d'Ecce Homo de Scorsese et Zeffirelli, en passant par la révélation visuelle inaugurant The King of Kings, qui pousse à son paroxysme la collusion entre apparition divine et apparition cinématographique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il y a environ 125 millions d'années, au Crétacé inférieur, la position des continents et le climat terrestre étaient bien différents de ce que l'on connait aujourd'hui. Le Sud-Est de la France, secteur de cette étude, était alors recouvert d'eau, sous un climat chaud et humide. Sur la bordure de cette étendue d'eau (appelée bassin Vocontien), qui correspond aujourd'hui aux régions de la Provence, du Vaucluse, du Gard, de l'Ardèche et du Vercors, des plateformes carbonatées, (telles que les Bahamas), se développaient. Le calcaire, formé à partir des sédiments accumulés sur ces plateformes, est appelé Urgonien. L'objectif de cette étude est de définir les facteurs qui ont influencé le développement de cette plateforme carbonatée dite « urgonienne » et dans quelle mesure. Plusieurs missions de terrain ont permis de récolter de nombreux échantillons de roche en 52 lieux répartis sur l'ensemble du Sud-Est de la France. Les observations réalisées sur le terrain ainsi que les données acquises en laboratoire (microfaune, microfacies et données géo-chimiques) ont permis, de subdiviser chacune des 52 séries urgoniennes en séquences stratigraphiques et cortèges sédimentaires. La comparaison des épaisseurs et des faciès de chaque cortège sédimentaire permet de concevoir la géométrie et l'évolution paléogéographique de la plateforme urgonienne. Les résultats de cette étude démontrent que son organisation est principalement dirigée par des failles qui ont jouées pendant le dépôt des sédiments. Sur la bordure nord du bassin Vocontien, trois failles subméridiennes contrôlent la géométrie et la répartition des environnements de dépôt. Sur sa bordure sud, ces failles synsédimentaires d'orientation N30° et N110° délimitent des blocs basculés. En tête de bloc, des séries d'épaisseurs réduites à faciès de lagon interne se sont déposées alors que les pieds de blocs sont caractérisés par des épaisseurs importantes et la présence de faciès plus externes. Ces concepts ont ensuite été testés en construisant un modèle numérique en trois dimensions de l'Urgonien du Sud-Est de la France. Sa cohérence avec les données acquises tout au long de cette étude d'une part, et sa cohérence géométrique d'autre part, valide les théories avancées. Des formations équivalentes à l'Urgonien sont réparties dans le monde entier et notamment au Moyen-Orient où elles constituent les réservoirs pétroliers les plus importants. Etre capable de caractériser les facteurs ayant influencé son architecture permet par la suite une meilleure exploitation de ses ressources énergétiques. -- Au Crétacé inférieur, l'intense activité magmatique due à la dislocation du super-continent Pangée influence fortement les conditions environnementales globales. Au Barrémien terminal et Aptien basal, période géologique dont fait l'objet cette étude, le bassin Vocontien, puis Bédoulien, recouvre le Sud-Est de la France, sous un climat chaud et humide. Sur les bordures de ces bassins, des plateformes carbonatées se mettent en place. Les sédiments qui se déposent sur ces plateformes sont à l'origine de la formation urgonienne. Afin d'étudier cette formation, une charte biostratigraphique, principalement basée sur les Orbitolinidés, et un modèle de faciès ont été développés. Les assemblages faunistiques, la succession des faciès, les observations de terrain ainsi que l'étude de signaux géochimiques ont permis le découpage séquentiel de la série urgonienne le long de 54 coupes et puis, répartis sur l'ensemble du Sud-Est de la France. Les corrélations induites par cette étude stratigraphique ont mis en évidence d'importantes variations d'épaisseur et d'environnements de dépôt au sein même de la plateforme urgonienne. Ces variations sont expliquées par le jeu de failles syn-sédimentaires qui ont compartimentées la plateforme urgonienne en blocs. Sur la bordure sud du bassin Vocontien, ces failles d'orientation N30° et N110° délimitent six blocs basculés. Au sommet du Barrémien terminal, la subsidence des blocs situés le plus au sud s'amplifie jusqu'à provoquer l'ouverture du bassin de la Bédoule au sud du secteur d'étude. Cette théorie d'évolution a ensuite été testée par l'élaboration d'un modèle numérique en trois dimensions de l'Urgonien du Sud-Est de la France. Sa cohérence avec les données acquises tout au long de cette étude d'une part, et sa cohérence géométrique d'autre part, valide les théories avancées. Des analogues de l'Urgonien sont répartis dans le monde entier et notamment au Moyen-Orient où ils représentent d'importants réservoirs pétroliers. Être capable de caractériser les facteurs ayant influencé l'architecture de l'Urgonien du Sud-Est de la France permet par la suite une meilleure exploitation de ses ressources énergétiques. -- During the Early Cretaceous epoch, intensive magmatic activity due to the dislocation of the super-continent Pangaea, highly influenced global environmental conditions, which were characterized by a warm and generally humic climate. In this context, carbonate platforms were important in tropical and subtropical shallow-water regions, and especially during the late Barremian and early Aptian, platform carbonates of so-called Urgonian affinity are widespread. In southeastern France, the Urgonian platform was part of the northern Tethyan margin and bordered the Vocontian and the Bedoulian basins. The goal of this thesis was the systematic study of the Urgonian Formation in this region, and in order to achieve this goal, a biostratigraphic chart and a facies model were developed. The faunistic assemblages, the facies succession, the field observations and the study of geochemical signals lead to a sequential subdivision of the Urgonian series along 54 sections and wells allocated in five different regions in southeastern France (Gard, Ardèche, Vercors, Vaucluse and Provence). Correlations from this stratigraphic study highlight important variations in thickness and depositional environments of the Urgonian series. These variations are explained by relative movements induced by syn-sedimentary faults, which divided the Urgonian platforms into blocks. On the southern border of the Vocontian basin, these faults, oriented N30° and N110°, delineate six tilted blocks. At the top of the upper Barremian carbonates, subsidence of the two southern blocks accelerated leading to the opening of the Bedoulian basin. The reconstruction of the sequence-stratigraphic and paleoenvironmental evolution of the Urgonian platforms was then tested by the construction of a 3D numerical model of the Urgonian formation of southeastern France. Firstly, its consistency with the data collected during this study, and secondly, its geometrical coherence validate the proposed theory. Urgonian analogs exist all over the world and particularly in Middle East where they constitute important oil reservoirs. The exact reconstruction of the major factors, which influenced the architecture of these formations, will allow for a better exploitation of these energy resources.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'accompagnement spirituel dans les prisons suisses est dominé par un modèle monoculturel d'inspiration chrétienne. Or, la présence importante de détenus de confession musulmane dans les établissements pénitentiaires incitent ceux-ci à organiser un soutien spirituel adapté à cette catégorie de leur population. Dans quel cadre légal cet accompagnement spirituel se déroule-t-il? Quelle forme prend-il ? Quels sont ceux (et plus rarement celles) qui assistent spirituellement les détenus musulmans ? Cet article propose de répondre à ces questions en énonçant les principes juridiques relatifs à l'exercice de la religion en contexte carcéral. Puis, sur la base de matériaux qualitatifs et quantitatif, il présente cinq profils d'intervenants musulmans de prison : l'imam, l'aumônier, le grand-frère, le médiateur et le visiteur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SUMMARYSpecies distribution models (SDMs) represent nowadays an essential tool in the research fields of ecology and conservation biology. By combining observations of species occurrence or abundance with information on the environmental characteristic of the observation sites, they can provide information on the ecology of species, predict their distributions across the landscape or extrapolate them to other spatial or time frames. The advent of SDMs, supported by geographic information systems (GIS), new developments in statistical models and constantly increasing computational capacities, has revolutionized the way ecologists can comprehend species distributions in their environment. SDMs have brought the tool that allows describing species realized niches across a multivariate environmental space and predict their spatial distribution. Predictions, in the form of probabilistic maps showing the potential distribution of the species, are an irreplaceable mean to inform every single unit of a territory about its biodiversity potential. SDMs and the corresponding spatial predictions can be used to plan conservation actions for particular species, to design field surveys, to assess the risks related to the spread of invasive species, to select reserve locations and design reserve networks, and ultimately, to forecast distributional changes according to scenarios of climate and/or land use change.By assessing the effect of several factors on model performance and on the accuracy of spatial predictions, this thesis aims at improving techniques and data available for distribution modelling and at providing the best possible information to conservation managers to support their decisions and action plans for the conservation of biodiversity in Switzerland and beyond. Several monitoring programs have been put in place from the national to the global scale, and different sources of data now exist and start to be available to researchers who want to model species distribution. However, because of the lack of means, data are often not gathered at an appropriate resolution, are sampled only over limited areas, are not spatially explicit or do not provide a sound biological information. A typical example of this is data on 'habitat' (sensu biota). Even though this is essential information for an effective conservation planning, it often has to be approximated from land use, the closest available information. Moreover, data are often not sampled according to an established sampling design, which can lead to biased samples and consequently to spurious modelling results. Understanding the sources of variability linked to the different phases of the modelling process and their importance is crucial in order to evaluate the final distribution maps that are to be used for conservation purposes.The research presented in this thesis was essentially conducted within the framework of the Landspot Project, a project supported by the Swiss National Science Foundation. The main goal of the project was to assess the possible contribution of pre-modelled 'habitat' units to model the distribution of animal species, in particular butterfly species, across Switzerland. While pursuing this goal, different aspects of data quality, sampling design and modelling process were addressed and improved, and implications for conservation discussed. The main 'habitat' units considered in this thesis are grassland and forest communities of natural and anthropogenic origin as defined in the typology of habitats for Switzerland. These communities are mainly defined at the phytosociological level of the alliance. For the time being, no comprehensive map of such communities is available at the national scale and at fine resolution. As a first step, it was therefore necessary to create distribution models and maps for these communities across Switzerland and thus to gather and collect the necessary data. In order to reach this first objective, several new developments were necessary such as the definition of expert models, the classification of the Swiss territory in environmental domains, the design of an environmentally stratified sampling of the target vegetation units across Switzerland, the development of a database integrating a decision-support system assisting in the classification of the relevés, and the downscaling of the land use/cover data from 100 m to 25 m resolution.The main contributions of this thesis to the discipline of species distribution modelling (SDM) are assembled in four main scientific papers. In the first, published in Journal of Riogeography different issues related to the modelling process itself are investigated. First is assessed the effect of five different stepwise selection methods on model performance, stability and parsimony, using data of the forest inventory of State of Vaud. In the same paper are also assessed: the effect of weighting absences to ensure a prevalence of 0.5 prior to model calibration; the effect of limiting absences beyond the environmental envelope defined by presences; four different methods for incorporating spatial autocorrelation; and finally, the effect of integrating predictor interactions. Results allowed to specifically enhance the GRASP tool (Generalized Regression Analysis and Spatial Predictions) that now incorporates new selection methods and the possibility of dealing with interactions among predictors as well as spatial autocorrelation. The contribution of different sources of remotely sensed information to species distribution models was also assessed. The second paper (to be submitted) explores the combined effects of sample size and data post-stratification on the accuracy of models using data on grassland distribution across Switzerland collected within the framework of the Landspot project and supplemented with other important vegetation databases. For the stratification of the data, different spatial frameworks were compared. In particular, environmental stratification by Swiss Environmental Domains was compared to geographical stratification either by biogeographic regions or political states (cantons). The third paper (to be submitted) assesses the contribution of pre- modelled vegetation communities to the modelling of fauna. It is a two-steps approach that combines the disciplines of community ecology and spatial ecology and integrates their corresponding concepts of habitat. First are modelled vegetation communities per se and then these 'habitat' units are used in order to model animal species habitat. A case study is presented with grassland communities and butterfly species. Different ways of integrating vegetation information in the models of butterfly distribution were also evaluated. Finally, a glimpse to climate change is given in the fourth paper, recently published in Ecological Modelling. This paper proposes a conceptual framework for analysing range shifts, namely a catalogue of the possible patterns of change in the distribution of a species along elevational or other environmental gradients and an improved quantitative methodology to identify and objectively describe these patterns. The methodology was developed using data from the Swiss national common breeding bird survey and the article presents results concerning the observed shifts in the elevational distribution of breeding birds in Switzerland.The overall objective of this thesis is to improve species distribution models as potential inputs for different conservation tools (e.g. red lists, ecological networks, risk assessment of the spread of invasive species, vulnerability assessment in the context of climate change). While no conservation issues or tools are directly tested in this thesis, the importance of the proposed improvements made in species distribution modelling is discussed in the context of the selection of reserve networks.RESUMELes modèles de distribution d'espèces (SDMs) représentent aujourd'hui un outil essentiel dans les domaines de recherche de l'écologie et de la biologie de la conservation. En combinant les observations de la présence des espèces ou de leur abondance avec des informations sur les caractéristiques environnementales des sites d'observation, ces modèles peuvent fournir des informations sur l'écologie des espèces, prédire leur distribution à travers le paysage ou l'extrapoler dans l'espace et le temps. Le déploiement des SDMs, soutenu par les systèmes d'information géographique (SIG), les nouveaux développements dans les modèles statistiques, ainsi que la constante augmentation des capacités de calcul, a révolutionné la façon dont les écologistes peuvent comprendre la distribution des espèces dans leur environnement. Les SDMs ont apporté l'outil qui permet de décrire la niche réalisée des espèces dans un espace environnemental multivarié et prédire leur distribution spatiale. Les prédictions, sous forme de carte probabilistes montrant la distribution potentielle de l'espèce, sont un moyen irremplaçable d'informer chaque unité du territoire de sa biodiversité potentielle. Les SDMs et les prédictions spatiales correspondantes peuvent être utilisés pour planifier des mesures de conservation pour des espèces particulières, pour concevoir des plans d'échantillonnage, pour évaluer les risques liés à la propagation d'espèces envahissantes, pour choisir l'emplacement de réserves et les mettre en réseau, et finalement, pour prévoir les changements de répartition en fonction de scénarios de changement climatique et/ou d'utilisation du sol. En évaluant l'effet de plusieurs facteurs sur la performance des modèles et sur la précision des prédictions spatiales, cette thèse vise à améliorer les techniques et les données disponibles pour la modélisation de la distribution des espèces et à fournir la meilleure information possible aux gestionnaires pour appuyer leurs décisions et leurs plans d'action pour la conservation de la biodiversité en Suisse et au-delà. Plusieurs programmes de surveillance ont été mis en place de l'échelle nationale à l'échelle globale, et différentes sources de données sont désormais disponibles pour les chercheurs qui veulent modéliser la distribution des espèces. Toutefois, en raison du manque de moyens, les données sont souvent collectées à une résolution inappropriée, sont échantillonnées sur des zones limitées, ne sont pas spatialement explicites ou ne fournissent pas une information écologique suffisante. Un exemple typique est fourni par les données sur 'l'habitat' (sensu biota). Même s'il s'agit d'une information essentielle pour des mesures de conservation efficaces, elle est souvent approximée par l'utilisation du sol, l'information qui s'en approche le plus. En outre, les données ne sont souvent pas échantillonnées selon un plan d'échantillonnage établi, ce qui biaise les échantillons et par conséquent les résultats de la modélisation. Comprendre les sources de variabilité liées aux différentes phases du processus de modélisation s'avère crucial afin d'évaluer l'utilisation des cartes de distribution prédites à des fins de conservation.La recherche présentée dans cette thèse a été essentiellement menée dans le cadre du projet Landspot, un projet soutenu par le Fond National Suisse pour la Recherche. L'objectif principal de ce projet était d'évaluer la contribution d'unités 'd'habitat' pré-modélisées pour modéliser la répartition des espèces animales, notamment de papillons, à travers la Suisse. Tout en poursuivant cet objectif, différents aspects touchant à la qualité des données, au plan d'échantillonnage et au processus de modélisation sont abordés et améliorés, et leurs implications pour la conservation des espèces discutées. Les principaux 'habitats' considérés dans cette thèse sont des communautés de prairie et de forêt d'origine naturelle et anthropique telles que définies dans la typologie des habitats de Suisse. Ces communautés sont principalement définies au niveau phytosociologique de l'alliance. Pour l'instant aucune carte de la distribution de ces communautés n'est disponible à l'échelle nationale et à résolution fine. Dans un premier temps, il a donc été nécessaire de créer des modèles de distribution de ces communautés à travers la Suisse et par conséquent de recueillir les données nécessaires. Afin d'atteindre ce premier objectif, plusieurs nouveaux développements ont été nécessaires, tels que la définition de modèles experts, la classification du territoire suisse en domaines environnementaux, la conception d'un échantillonnage environnementalement stratifié des unités de végétation cibles dans toute la Suisse, la création d'une base de données intégrant un système d'aide à la décision pour la classification des relevés, et le « downscaling » des données de couverture du sol de 100 m à 25 m de résolution. Les principales contributions de cette thèse à la discipline de la modélisation de la distribution d'espèces (SDM) sont rassemblées dans quatre articles scientifiques. Dans le premier article, publié dans le Journal of Biogeography, différentes questions liées au processus de modélisation sont étudiées en utilisant les données de l'inventaire forestier de l'Etat de Vaud. Tout d'abord sont évalués les effets de cinq méthodes de sélection pas-à-pas sur la performance, la stabilité et la parcimonie des modèles. Dans le même article sont également évalués: l'effet de la pondération des absences afin d'assurer une prévalence de 0.5 lors de la calibration du modèle; l'effet de limiter les absences au-delà de l'enveloppe définie par les présences; quatre méthodes différentes pour l'intégration de l'autocorrélation spatiale; et enfin, l'effet de l'intégration d'interactions entre facteurs. Les résultats présentés dans cet article ont permis d'améliorer l'outil GRASP qui intègre désonnais de nouvelles méthodes de sélection et la possibilité de traiter les interactions entre variables explicatives, ainsi que l'autocorrélation spatiale. La contribution de différentes sources de données issues de la télédétection a également été évaluée. Le deuxième article (en voie de soumission) explore les effets combinés de la taille de l'échantillon et de la post-stratification sur le la précision des modèles. Les données utilisées ici sont celles concernant la répartition des prairies de Suisse recueillies dans le cadre du projet Landspot et complétées par d'autres sources. Pour la stratification des données, différents cadres spatiaux ont été comparés. En particulier, la stratification environnementale par les domaines environnementaux de Suisse a été comparée à la stratification géographique par les régions biogéographiques ou par les cantons. Le troisième article (en voie de soumission) évalue la contribution de communautés végétales pré-modélisées à la modélisation de la faune. C'est une approche en deux étapes qui combine les disciplines de l'écologie des communautés et de l'écologie spatiale en intégrant leurs concepts de 'habitat' respectifs. Les communautés végétales sont modélisées d'abord, puis ces unités de 'habitat' sont utilisées pour modéliser les espèces animales. Une étude de cas est présentée avec des communautés prairiales et des espèces de papillons. Différentes façons d'intégrer l'information sur la végétation dans les modèles de répartition des papillons sont évaluées. Enfin, un clin d'oeil aux changements climatiques dans le dernier article, publié dans Ecological Modelling. Cet article propose un cadre conceptuel pour l'analyse des changements dans la distribution des espèces qui comprend notamment un catalogue des différentes formes possibles de changement le long d'un gradient d'élévation ou autre gradient environnemental, et une méthode quantitative améliorée pour identifier et décrire ces déplacements. Cette méthodologie a été développée en utilisant des données issues du monitoring des oiseaux nicheurs répandus et l'article présente les résultats concernant les déplacements observés dans la distribution altitudinale des oiseaux nicheurs en Suisse.L'objectif général de cette thèse est d'améliorer les modèles de distribution des espèces en tant que source d'information possible pour les différents outils de conservation (par exemple, listes rouges, réseaux écologiques, évaluation des risques de propagation d'espèces envahissantes, évaluation de la vulnérabilité des espèces dans le contexte de changement climatique). Bien que ces questions de conservation ne soient pas directement testées dans cette thèse, l'importance des améliorations proposées pour la modélisation de la distribution des espèces est discutée à la fin de ce travail dans le contexte de la sélection de réseaux de réserves.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article présente un nouveau type de modèle hydrologique distribué à maille très fine intégrant le calcul de la distribution spatio-temporelle d'une PMP (Précipitation Maximale Probable). Le but est de déterminer les hydrogrammes de crue extrêmes correspondent à la PMF (Probable Maximum Flood) d'un bassin versant alpin. Un modèle de type distribué est indispensable pour transférer la distribution de la pluie dans l'espace et dans le temps, ainsi que pour tenir compte des caractéristiques très variables de ces bassins versants. Le modèle développé comprend trois parties importantes. Dans la première partie une distribution de la précipitation extrême, calculée a méso-échelle (1 à 2 km), est répartie dans l'espace et dans le temps à l'échelle de la maille (environ 30 m). La deuxième partie concerne la modélisation de l'écoulement de l'eau en surface et dans le sous-sol en incluant l'infiltration et l'exfiltration. La troisième partie inclut la modélisation de la fonte des neiges, basée sur un calcul de transfert de chaleur. Les débits simulés montrent une bonne corrélation avec ceux mesurés, validé à l'aide du critère de Nash.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Cette étude décrit un modèle expérimental de bronchoconstriction précoce induite par aérosolisation d'un extrait d'Ascaris suum chez des moutons anesthésiés par de l'isoflurane et ventilés mécaniquement. Dix moutons adultes ont été anesthésiés et ventilés mécaniquement puis ont été exposés à un stimulus bronchoconstrictif sous forme d'un aérosol d'extrait d'Ascaris suum durant 25 minutes. Tous les moutons ont été exposés deux fois à huit semaines d'intervalle à ce même stimulus. Les échanges gazeux ainsi que les paramètres respiratoires ont été mesurés régulièrement durant la période d'aérosolisation ainsi que durant les 60 minutes suivantes. A la fin de la période d'aérosolisation, une augmentation significative (p<0.05) des pressions de crête (+114%) et de plateau (+148%), de la résistance expiratoire (+93%) et de la pression partielle artérielle de gaz carbonique PaCO2 (+25%) a été constatée, de même qu'une diminution significative (p<0.05) de la compliance respiratoire (-41 %) et de la pression partielle artérielle d'oxygène PaO2 (-49%). Ces modifications sont restées stables durant toute la période d'observation. Ce modèle expérimental animal de bronchoconstriction offre de nombreux avantages : la stabilité hémodynamique et le confort de l'animal sont améliorés et la réaction de stress est inhibée. Il permet de plus une distribution optimale de l'antigène respiratoire et finalement évite l'utilisation d'un pléthysmographe corporel. Abstract This study describes a simplified experimental model of early bronchoconstriction induced by aerosolization of Ascaris suum extract in isoflurane-anesthetized and mechanically ventilated sheep. Ten adult sheep were anesthetized, mechanically ventilated and then challenged with an aerosol of Ascaris suum extract during 25 minutes. All of them were challenged twice at eight weeks intervals. During the bronchoconstrictive challenges and the following sixty minutes, gas exchange was measured and respiratory mechanics parameters computed from a lung mechanics calculator. At the end of the challenge, a significant increase (p<0.05) was observed in peak (+114%) and plateau (+148%) pressures, expiratory resistance (+93%) and PaCO2 (+25%) along with a significant decrease (p<0.05) in respiratory compliance (-41 %) and PaO2 (-49%). These changes remained stable throughout the 60 minutes study period. This model offers several advantages: hemodynamic stability and animal welfare are improved and the stress response is blunted. It allows an optimal distribution of the antigen and finally avoids the need of a body plethysmograph.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La performance diagnostic des signes et symptômes de la grippe a principalement été étudiée dans le cadre d'études contrôlées avec des critères d'inclusion stricts. Il apparaît nécessaire d'évaluer ces prédicteurs dans le cadre d'une consultation ambulatoire habituelle en tenant compte du délai écoulé entre le début des symptômes et la première consultation ainsi que la situation épidémiologique. Cette étude prospective a été menée à la Policlinique Médicale Universitaire durant l'hiver 1999-2000. Les patients étaient inclus s'ils présentaient un syndrome grippal et si le praticien suspectait une infection à Influenza. Le médecin administrait un questionnaire puis une culture d'un frottis de gorge était réalisée afin de documenter l'infection. 201 patients ont été inclus dans l'étude. 52% avaient une culture positive pour Influenza. En analyse univariée, une température > 37.8° (OR 4.2; 95% CI 2.3-7.7), une durée des symptômes < 48h (OR 3.2; 1.8-5.7), une toux (OR 3.2; 1-10.4) et des myalgies (OR 2.8; 1.0-7.5) étaient associés au diagnostic de grippe. En analyse de régression logistique, le modèle le plus performant qui prédisait la grippe était l'association d'une durée des symptômes <48h, une consultation en début d'épidémie, une température > 37.8° et une toux (sensibilité 79%, spécificité 69%, valeur prédictive positive 67%, une valeur prédictive négative de 73% et aire sous la courbe (ROC) de 0.74). En plus des signes et symptômes prédicteurs de la grippe, le médecin de premier recours devrait prendre en compte dans son jugement la durée des symptômes avant la première consultation et le contexte épidémiologique (début, pic, fin de l'épidémie), car ces deux paramètres modifient considérablement la valeurs des prédicteurs lors de l'évaluation de la probabilité clinique d'un patient d'avoir une infection à Influenza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les membres de l'ordre des Chlamydiales peuvent infecter un choix étendu d'animaux, insectes, et protistes. Comme toutes bactéries intracellulaires obligatoires, les Chlamydiales ont besoin d'une cellule hôte pour se répliquer. Chaque fois qu'une cellule est infectée une lutte commence entre les mécanismes de défense de la cellule et l'arsenal de facteurs de virulence de la bactérie. Dans cette thèse nous nous sommes intéressés à déterminer le rôle de deux mécanismes de l'immunité innée de l'hôte. En premier, nous avons étudié les NADPH oxidases, une source de molécules superoxydantes (MSO). Leur rôle dans la restriction de la réplication de Waddlia chondrophila et Estrella iausannensis a été étudié dans l'organisme modèle Dictyostelium discoideum et les macrophages humains. Différentes protéines Nox étaient nécessaires pour contrôler la réplication de W. chondrophila ou E. Iausannensis. De plus, nous avons déterminé que parmi les Chlamydiales, cinq espèces possédaient une catalase. Cette enzyme peut dégrader l'eau oxygénée, une MSO. L'activité de la catalase a été démontrée in vitro et dans les corps élémentaires. Avant de pouvoir étudier le rôle de NOX2 dans des macrophages infectés avec E. Iausannensis, nous avons dû établir la capacité de la bactérie à se répliquer clans les macrophages avec son trafic intracellulaire. Le deuxième mécanisme d'immunité innée que nous avons étudié est l'autophagie. Dans les cellules infectées l'autophagie permet de digérer les bactéries envahissantes. Deux protéines de la voie autophagique (Atg1 et Atg8) jouent un rôle dans la restriction de la croissance de W. chondrophila dans D. discoideum. D'avantage d'études sur l'immunité innée et les bactéries apparentés aux Chlamydia sont indispensables, car les réponses paraissent être spécifiques pour chaque espèce. - Members of the Chlamydiales order are able to infect a large variety of animals, insects, and protists. These obligate intracellular bacteria require a host cell for replication. Each time a cell is infected a struggle begins between the virulence arsenal of the bacteria and the defense mechanisms activated by the host. Each bacterial species will exhibit a selection of virulence factors that will allow it to overcome the defense of the host in some species, but not others. In this thesis we were interested in dissecting the role of two host innate immunity mechanisms. First we determined the role of NADPH oxidases, a source of reactive oxygen species (ROS), in restricting replication of Waddlia chondrophila and EstreHa lausannensis in the model organism Dictyostelium discoideum and human macrophages. Different Nox proteins were required to restrict growth of W. chondrophila and E. lausannensis. Additionally, we determined that five Chlamydia- related bacterial species encode for catalase, an enzyme that is able to degrade hydrogen peroxide, a ROS. The activity of the catalase was demonstrated in vitro and in elementary bodies. To study the role of NOX2 in macrophages for E. lausannensis we first had to determine the ability of E. lausannensis to grow in macrophages. Besides demonstrating its replication we also determined the intracellular trafficking of E. lausannensis. The second innate immunity mechanism studied was autophagy. Through autophagy bacteria can be targeted to degradation. Atg1 and Atg8, two autophagic proteins appeared restrict W. chondrophila replication in D. discoideum. More studies on innate immunity and Chlamydia-related bacteria are required. It appears that the responses to innate immunity are species specific and it will be difficult to generalize data obtained for W. chondrophila to the Chlamydiales order.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

(Résumé de l'ouvrage) En Europe occidentale on hésite entre le fin des héros, saints et martyrs comme points d'ancrage et guide de collectivités (religieuses ou politiques), et les quêtes d'identité et d'identification. Scepticisme humaniste et individualisme dévaluent des héros nationaux au profit d'emballements médiatiques éphémères pour des vedettes du sport, de l'humanitaire (mère Teresa), des familles royales (la princesse Diana). Se raréfient des modèles stables, inspirant des conduites privées et sociales raisonnablement gérées, et une adhésion durable et fervente. L'ouvrage offre l'analyse de nouveaux contextes où s'effectuent la promotion et l'exaltation de la sainteté, de l'exemplarité ou du martyre, dans des sociétés extra-européennes (Maroc, Inde, Afghanistan) et apparemment laïcisées (France, Bulgarie).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ : Chez l'homme, le manque de sélectivité des agents thérapeutiques représente souvent une limitation pour le traitement des maladies. Le ciblage de ces agents pour un tissu défini pourrait augmenter leur sélectivité et ainsi diminuer les effets secondaires en comparaison d'agents qui s'accumuleraient dans tout le corps. Cela pourrait aussi améliorer l'efficacité des traitements en permettant d'avoir une concentration localisée plus importante. Le ciblage d'agents thérapeutiques est un champ de recherche très actif. Les stratégies sont généralement basées sur les différences entre cellules normales et malades. Ces différences peuvent porter soit sur l'expression des molécules à leurs surfaces comme des récepteurs ou des transporteurs, soit sur les activités enzymatiques exprimées. Le traitement thérapeutique choisi ici est la thérapie photodynamique et est déjà utilisé pour le traitement de certains cancers. Cette thérapie repose sur l'utilisation de molécules qui réagissent à la lumière, les photosensibilisants. Elles absorbent l'énergie lumineuse et réagissent avec l'oxygène pour former des radicaux toxiques pour les cellules. Les photosensibilisants utilisés ici sont de deux natures : (i) soit ils sont tétrapyroliques (comme les porphyrines et chlorines), c'est à dire qu'ils sont directement activables par la lumière ; (ii) soit ce sont des prodrogues de photosensibilisants comme l'acide 5aminolévulinique (ALA) qui est transformé dans la cellule en protoporphyrine IX photosensibilisante. Dans le but d'augmenter la sélectivité des photosensibilisants, nous avons utilisé deux stratégies différentes : (i) le photosensibilisant est modifié par le greffage d'un agent de ciblage ; (ii) le photosensibilisant est incorporé dans des structures moléculaires de quelques centaines de nanomètres. Les sucres et l'acide folique sont des agents de ciblage largement établis et ont été utilisés ici car leurs récepteurs sont surexprimés à la surface de nombreuses cellules malades. Ainsi, des dérivés sucres ou acide folique de l'ALA ont été synthétisés et évalués in vitro sur de nombreuses lignées cellulaires cancéreuses. La stratégie utilisant l'acide folique est apparue incompatible avec l'utilisation de l'ALA puisque aucune photosensibilité n'a été induite par le composé. La stratégie utilisant les sucres a, par ailleurs, provoquée de bonnes photosensibilités mais pas d'augmentation de sélectivité. En parallèle, la combinaison entre les propriétés anticancéreuses des complexes métalliques au ruthénium avec les propriétés photosensibilisantes des porphyrines, a été évaluée. En effet, les thérapies combinées ont émergé il y a une dizaine d'années et représentent aujourd'hui de bonnes alternatives aux monothérapies classiques. Des ruthenium(I1)-arènes complexés avec la tetrapyridylporphyrine ont ainsi présenté de bonnes cytotoxicités et de bonnes phototoxicités pour des cellules de mélanomes. Des porphyrines ont aussi été compléxées avec des noyaux de diruthénium et ce type de dérivé a présenté de bonnes phototoxicités et une bonne sélectivité pour les cellules cancéreuses de l'appareil reproducteur féminin. L'incorporation de photosensibilisants tétrapyroliques a finalement été effectuée en utilisant des nanoparticules (NP) biocompatibles composées de chitosan et de hyaluronate. L'effet de ces NP a été évalué pour le traitement de la polyarthrite rhumatoïde (PR). Les NP ont d'abord été testées in vitro avec des macrophages de souris et les résultats ont mis en évidence de bonnes sélectivités et photosensibilités pour ces cellules. In vivo chez un modèle marin de la PR, l'utilisation de ces NP a révélé un plus grand temps de résidence des NP dans le genou de la souris en comparaison du temps obtenu avec le photosensibilisant seul. Le traitement par PDT a aussi démontré une bonne efficacité par ailleurs égale à celle obtenue avec les corticoïdes utilisés en clinique. Pour finir, les NP ont aussi démontré une bonne efficacité sur les myelomonocytes phagocytaires humains et sur les cellules contenues dans le liquide synovial de patients présentant une PR. Tous ces résultats suggèrent que les deux stratégies de ciblage peuvent être efficaces pour les agents thérapeutiques. Afm d'obtenir de bons résultats, il est toutefois nécessaire de réaliser une analyse minutieuse de la cible et du mode d'action de l'agent thérapeutique. Concernant les perspectives, la combinaison des deux stratégies c'est à dire incorporer des agents thérapeutiques dans des nanostructures porteuses d'agents de ciblage, représente probablement une solution très prometteuse. SUMMARY : In humans, the lack of selectivity of drugs and their high effective concentrations often represent limitations for the treatment of diseases. Targeting the therapeutical agents to a defined tissue could enhance their selectivity and then diminish their side effects when compared to drugs that accumulate in the entire body and could also improve treatment efûciency by allowing a localized high concentration of the agents. Targeting therapeutics to defined cells in human pathologies is a main challenge and a very active field of research. Strategies are generally based on the different behaviors and patterns of expression of diseased cells compared to normal cells such as receptors, proteases or trans-membrane carriers. The therapeutic treatment chosen here is the photodynamic therapy and is already used in the treatment of many cancers. This therapy relies on the administration of a photosensitizer (PS) which will under light, react with oxygen and induce formation of reactive oxygen species which are toxic for cells. The PSs used here are either tetrapyrolic (i. e. porphyries and chlorins) or prodrugs of PS (5-aminolevulinic acid precursor of the endogenous protoporphyrin Imo. In order to improve PS internalization and selectivity, we have used two different strategies: the modification of the PSs with diseased cell-targeting agents as well as their encapsulation into nanostructures. Sugars and folic acid are well established as targeting entities for diseased cells and were used here since their transporters are overexpressed on the surface of many cancer cells. Therefore sugar- and folic acid-derivatives of 5-aminolevulinic acid (ALA) were synthesized and evaluated in vitro in several cancer cell lines. The folic acid strategy appeared to be incompatible with ALA since no photosensitivity was induced while the strategy with sugars induced good photosensitivites but no increase of selectivity. Alternatively, the feasibility of combining the antineoplastic properties of ruthenium complexes with the porphyrin's photosensitizing properties, was evaluated since combined therapies have emerged as good alternatives to classical treatments. Tetrapyridylporphyrins complexed to ruthenium (I17 arenes presented good cytotoxicities and good phototoxicities toward melanoma cells. Porphyries were also complexed to diruthenium cores and this type of compound presented good phototoxicities and good selectivity for female reproductive cancer cells. The encapsulation of tetrapyrolic PSs was finally investigated using biocompatible nanogels composed of chitosan and hyaluronate. The behavior of these nanoparticles was evaluated for the treatment of rheumatoid arthritis (RA). They were first tested in vitro in mouse macrophages and results revealed good selectivities and phototoxicities toward these cells. In vivo in mice model of RA, the use of such nanoparticles instead of free PS showed longer time of residence in mice knees. Photodynamic protocols also demonstrated good efficiency of the treatment comparable to the corticoid injection used in the clinic. Finally our system was also efficient in human cells using phagocytic myelomonocytes or using cells of synovial fluids taken from patients with RA. Altogether, these results revealed that both strategies of modification or encapsulation of drugs can be successful in the targeting of diseased cells. However, a careful analysis of the target and of the mode of action of the drug, are needed in order to obtain good results. Looking ahead to the future, the combination of the two strategies (i.e. drugs loaded into nanostructures bearing the targeting agents) would represent probably the best solution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail examine les nouveaux objectifs et critères de qualité définis dans le processus de Bologne - et essentiels à sa réalisation - sous l'angle du plurilinguisme. Il s'interroge d'une part sur le rôle du plurilinguisme pour l'ensemble des disciplines dans le contexte d'internationalisation engendré par la création de l'Espace européen d'enseignement supérieur (EEES), et de l'autre sur ce que ces nouvelles exigences signifient en termes de compétences spécifiques à développer à travers les formations en langues universitaires. L'application des critères de Bologne et l'internationalisation qui s'ensuit renforcent l'importance fondamentale du plurilinguisme pour l'ensemble des disciplines, et fait du développement du plurilinguisme dans tous les cursus un facteur de réussite de ce processus. En effet, il s'agit d'une compétence transversale clé pour répondre aux nouveaux défis sociaux, économiques et académiques. Par ailleurs, cette application implique une réorientation substantielle dans les formations en langues universitaires elles-mêmes par rapport aux pratiques actuelles. Des innovations majeures s'imposent quant aux acquis de formation visés. Les nouveaux profils plurilingues et pluriculturels à développer doivent être plus larges et différents, dans la mesure où ils exigent une contextualisation accrue par rapport aux situations d'utilisation auxquelles sont confrontés les étudiants et diplômés dans un monde globalisé multilingue et multiculturel. Dans ce contexte, il s'agit plus particulièrement de contextualiser et de spécifier, en rapport avec le contexte universitaire actuel, un modèle transsectoriel existant, le Cadre européen commun de référence pour les langues (CECRL) du Conseil de l'Europe. Dans cette optique, cette thèse a comme objectif principal d'identifier et de fonder des points de référence spécifiques au domaine des langues et au contexte universitaire européen actuel, qui puissent être constitutifs d'un futur cadre européen commun de référence pour les langues dans l'EEES. Ces points de repère tiennent compte aussi bien des nouveaux besoins et exigences nés du processus de Bologne, que des principes de la politique éducative européenne ainsi que du contexte sociopolitique et économique spécifique, en transformation rapide, qui est à l'origine de la réforme actuelle. De plus, ils incluent les concepts théoriques en relation avec le plurilinguisme que ce travail cherche à contextualiser par diverses analyses et des recherches empiriques afin de spécifier des compétences plurilingues et pluriculturelles génériques pertinentes au secteur universitaire en relation avec les besoins professionnels et académiques. Cette thèse vise à soutenir des stratégies d'application et tente d'instaurer une nouvelle manière d'envisager le lien entre les fondements théoriques et la recherche, la politique éducative européenne et la pratique institutionnelle, pour favoriser le développement d'une compétence plurilingue adéquate des étudiants. Dans ce but elle propose, à partir de points de référence définis au préalable, des outils qui ont pour objectif aussi bien de favoriser une meilleure compréhension des enjeux du plurilinguisme dans Bologne. Elle veut donner un appui systématique et scientifiquement fondé à un processus de prise de conscience et de réflexion nécessaire pour garantir une mise en oeuvre informée des changements requis. Ceci concerne plus particulièrement les choix relatifs aux acquis de formation appropriés, la nature des compétences plurilingues et pluriculturelles à développer dans différentes disciplines linguistiques et non linguistiques, ainsi que les profils à spécifier qui s'articulent aussi bien autour des points de référence européens - eux-mêmes dynamiques et évolutifs grâce à une interaction continue entre théorie et pratique - qu'autour d'une situation locale spécifique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Après avoir proposé une définition opératoire du mythe littéraire, et suggéré, sous l'étiquette de « mytholectures », un mode d'approche de cet objet, le travail se subdivise en deux grandes parties.La première, diachronique, cherche à sonder le devenir historique du mythe de Perceval, de Chrétien de Troyes à nos jours ; il s'agit essentiellement d'observer comment la valeur et le sens du mythe se sont élaborés progressivement au fil de ses reprises - comment chaque période, chaque auteur a rencontré le mythe sous un rapport singulier, susceptible de lui fournir un « miroir » qui reflète certaines de ses préoccupations et lui permette, parallèlement, de configurer son expérience du monde. Les principales étapes de ce parcours (qui touche à environ quatre-vingts auteurs) sont Richard Wagner et Julien Gracq.La seconde partie propose deux approches thématiques du mythe de Perceval : l'une d'elles est centrée sur la problématique familiale et les enjeux relationnels qui, de reprise en reprise, ne cessent d'être réinterprétés sous divers angles (dont Oedipe, cet « anti-Perceval », n'est jamais très loin). L'autre axe thématique s'intéresse à la propension marquée du mythe de Perceval à fonctionner comme modèle des deux pôles de l'activité littéraire que sont la lecture (quête de sens) et l'écriture (quête poétique) : divers « arts poétiques percevaliens » (de Wagner à Perec, en passant par Proust ou Handke) closent ainsi le parcours.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Ce travail a pour objectif de concevoir une variable permettant d'appréhender la qualité du paysage, afin de l'utiliser dans un modèle de prix hédonistes pour en définir le prix implicite. La qualité des paysages naturel et construit des six stations constituant notre échantillon de 402 appartements loués par des touristes dans les stations valaisannes d'Anzère, Champéry, Grimentz, Haute-Nendaz, Ovronnaz et Verbier, a été évaluée par plusieurs groupes. Les résultats de ces séances d'évaluation ont été traités par l'algorithme MACBETH, permettant ainsi de bénéficier d'une mesure cardinale de la qualité esthétique visuelle de ces paysages. Mises à part un certain nombre de caractéristiques «conventionnelles »exerçant un influence sur la variation des loyers payés par les touristes, les résultats de l'analyse économétrique montrent que sur la seule base de la qualité du paysage naturel, le loyer peut varier entre 20 et 30% durant les fêtes de fin d'année selon le groupe d'évaluation pris en considération. Le prix implicite de la qualité du paysage naturel varie également entre les saisons touristiques analysées. En effet, la qualité esthétique visuelle du paysage naturel peut faire varier le loyer estimé de 15% durant la saison d'été à plus de 50% durant le reste de la saison d'hiver. La variation du loyer estimé peut aller de 13% à plus de 40% durant le reste de la saison d'hiver sur la seule base de la qualité du paysage construit. Le prix implicite de la qualité esthétique visuelle du paysage construit varie également entre les saisons touristiques analysées, puisque les coefficients associés à cette variable peuvent passer du simple à plus du double.