151 resultados para stabilité temporelle
Resumo:
De nombreux travailleurs utilisent le captan et le folpet comme fongicides en agriculture, mais leur exposition n'est pas toujours mesurée de manière spécifique et précise. La surveillance biologique est un excellent outil à cet effet puisqu'elle permet de quantifier l'exposition réelle. Toutefois, la majorité des connaissances toxicologiques pour ces fongicides proviennent d'études sur les animaux, et les données chez l'humain sont limitées.Le but du présent projet est donc de développer des outils de surveillance biologique pour évaluer l'exposition de travailleurs au captan et au folpet. Dans cette perspective, le projet a été subdivisé en trois parties complémentaires, soit i) de développer des méthodes analytiques spécifiques pour quantifier les biomarqueurs d'intérêt du captan, à savoir le tétrahydrophtalimide (THPI), et du folpet, à savoir le phtalimide (PI) et l'acide phtalique, dans le plasma et l'urine; ii) de déterminer la toxicocinétique des deux fongicides en exposant desvolontaires de façon aigüe à de faibles doses de captan ou de folpet par voie orale et cutanée dans des conditions semi-contrôlées et en quantifiant les biomarqueurs dans chacune des deux matrices, excepté l'acide phtalique qui a été mesuré seulement dans l'urine; iii) de valider les biomarqueurs d'exposition sélectionnés et d'évaluer l'exposition réelle des travailleurs et les voies prédominantes d'exposition au captan et au folpet en collectant des données biologiques chez des travailleurs en arboriculture et en viticulture lors d'activités de traitement et d'effeuillage pendant sept jours consécutifs.Selon ces travaux, le THPI et le PI sont deux biomarqueurs valides et spécifiques pour quantifier l'exposition au captan et au folpet, respectivement, chez l'humain. En effet, les méthodes développées pour ces deux métabolites sont robustes avec des limites de détection plus sensibles que celles rapportées dans la littérature, un taux de recouvrement de 90% pour le THPI et de 75% pour le PI, une très bonne linéarité (R2>0,99) et une bonne stabilité avec des variations intra- et inter-journalières faibles (RSD<15%). Elles ont permis de déterminer les profils cinétiques des deux métabolites chez les volontaires et chez les travailleurs. Ces derniers indiquent d'ailleurs une élimination rapide, avec une demi-vie d'élimination dans l'urine de 11,7 h et 18,7 h pour le THPI et de 27,3 h et 28,8 h pour le PI, respectivement après une absorption par voie orale et cutanée, ainsi qu'une faible absorption cutanée lorsque les valeurs sont comparées pour les deux voies d'exposition. Des profils parallèles sont aussi observés entre le PI et l'acide phtalique pour les volontaires et les agriculteurs, mais le folpet se retrouve davantage métabolisé sous forme d'acide phtalique que de PI. Quant à l'étude des agriculteurs, elle montre que la voie principale d'exposition de ces travailleurs est la voiecutanée. Il est aussi souligné qu'il est important 1) de favoriser les collectes d'urines complètes sur 24 h au urines ponctuelles, 2) de mesurer plusieurs métabolites, et 3) d'associer les données de surveillance biologique à la toxicocinétique. Ainsi, les connaissances acquises par cette étude peuvent s'appliquer à d'autres fongicides, voire d'autres substances.
Resumo:
La prima parte della ricerca è un approfondito studio dell'endecasillabo della Gerusalemme Liberata: in particolar modo, analizzo con un metodo statistico-quantitativo morfologia prosodica e tipologie del verso epico tassiano e distribuzione dei diversi tipi ritmici all'interno dell'ottava, tenendo naturalmente conto della necessaria connessione tra fisionomia ritmico-prosodica del verso e le strutture retoriche e sintattiche. Tale analisi, condotta con una prospettiva comparativa nei confronti di altre opere tassiane (Rinaldo, Conquistata) e della precedente tradizione in ottave, porta a riscontrare delle linee evolutive coerenti nella direzione di un progressivo innalzamento verso il modello lirico petrarchesco e dellacasiano e di un complessivo 'aggravamento' delle strutture stilistiche. I risultati permettono di mettere in discussione la vulgata critica che considererebbe monotono l'endecasillabo della Liberata: questo è negato, oltre che dall'evidenza delle statistiche, dal piano melodico e intonativo del verso, dato che diversi fattori stilistici interagenti (inarcature; struttura prevalentemente paratattica; dispositio molto mossa; moltiplicazione delle pause interne al verso) contribuiscono a minare la stabilità intonativa dell'endecasillabo, nella direzione del contrappunto tra movimento della frase e cadenze del verso. Analogamente, lo studio della fisionomia dell'ottava (seconda parte della ricerca) mostra da un lato il mantenimento di un modello di stanza 'pari', sostanzialmente affine al modello ariostesco, dall'altro una disposizione dei materiali verbali tesa a sommuovere internamente l'incedere per distici. Questo è legato alla strategia narrativa, di disposizione delle sequenze diegetiche: si possono infatti notare sovente aggregazioni di distici la cui continuità logico-argomentativa travalica la misura dell'ottava, rinnovando il rapporto dinamico e contrappuntistico tra forme metriche e fluire della narrazione. Ciò ha una funzione solidale proprio con lo sviluppo narrativo, dato che diversi espedienti stilistici paiono concorrere alla realizzazione di quella varietà nell'unità aristotelicamente centrale nell'elaborazione teorica tardocinquecentesca e tassiana in particolare. Nella terza parte del lavoro, infine, provo ad allontanare la lente dalla microscopia metrica e cerco di porre in relazione i dati metrico-stilistici con quelli sintattico-retorici già studiati dalla critica, provando a verificare nella concreta prassi poetica la teoria della commistione degli stili, così come viene progressivamente definendosi nella ricca produzione teorica del Tasso: centrale è la questione del dosaggio di artifici simmetrici, tipici del genere lirico, e asimmetrici, caratteristici dello stile grave, dosaggio coerente che si rivela in grado di illuminare da una prospettiva appunto stilistica le oscillazioni e le screziature del più grande poema tardorinascimentale.
Resumo:
Contexte et but de l'étude: Les fractures du triquetrum sont les deuxièmes fractures des os du carpe en fréquence, après celles du scaphoïde. Elles représentent environ 3.5% de toutes les lésions traumatiques du poignet, et résultent le plus souvent d'une chute de sa hauteur avec réception sur le poignet en hyper-extension. Leur mécanisme physiopathologique reste débattu. La première théorie fut celle de l'avulsion ligamentaire d'un fragment osseux dorsal. Puis, Levy et coll. ainsi que Garcia-Elias ont successivement suggéré que ces fractures résultaient plutôt d'une impaction ulno-carpienne. De nombreux ligaments (intrinsèques et extrinsèques du carpe) s'insèrent sur les versants palmaires et dorsaux du triquetrum. Ces ligaments jouent un rôle essentiel dans le maintien de la stabilité du carpe. Bien que l'arthro-IRM du poignet soit l'examen de référence pour évaluer ces ligaments, Shahabpour et coll. ont récemment démontré leur visibilité en IRM tridimensionnelle (volumique) après injection iv. de produit de contraste (Gadolinium). L'atteinte ligamentaire associée aux fractures dorsales du triquetrum n'a jusqu'à présent jamais été évalué. Ces lésions pourraient avoir un impact sur l'évolution et la prise en charge de ces fractures. Les objectifs de l'étude étaient donc les suivants: premièrement, déterminer l'ensemble des caractéristiques des fractures dorsales du triquetrum en IRM, en mettant l'accent sur les lésions ligamentaires extrinsèques associées; secondairement, discuter les différents mécanismes physiopathologiques (i.e. avulsion ligamentaire ou impaction ulno-carpienne) de ces fractures d'après nos résultats en IRM. Patients et méthodes: Ceci est une étude rétrospective multicentrique (CHUV, Lausanne; Hôpital Cochin, AP-HP, Paris) d'examens IRM et radiographies conventionnelles du poignet. A partir de janvier 2008, nous avons recherché dans les bases de données institutionnelles les patients présentant une fracture du triquetrum et ayant bénéficié d'une IRM volumique du poignet dans un délai de six semaines entre le traumatisme et l'IRM. Les examens IRM ont été effectués sur deux machines à haut champ magnétique (3 Tesla) avec une antenne dédiée et un protocole d'acquisition incluant une séquence tridimensionnelle isotropique (« 3D VIBE ») après injection iv. de produit de contraste (Gadolinium). Ces examens ont été analysés par deux radiologues ostéo-articulaires expérimentés. Les mesures ont été effectuées par un troisième radiologue ostéo-articulaire. En ce qui concerne l'analyse qualitative, le type de fracture du triquetrum (selon la classification de Garcia-Elias), la distribution de l'oedème osseux post- traumatique, ainsi que le nombre et la distribution des lésions ligamentaires extrinsèques associées ont été évalués. Pour l'analyse quantitative, l'index du processus de la styloïde ulnaire (selon la formule de Garcia-Elias), le volume du fragment osseux détaché du triquetrum, et la distance séparant ce fragment osseux du triquetrum ont été mesurés.
Resumo:
L'Institut de Police Scientifique (IPS) de Lausanne a développé et emploie une méthode de profilage de l'héroïne qui permet d'établir des liens entre les saisies de différentes affaires. La comparaison s'appuie sur des caractéristiques chimiques. Au cours du trafic, les spécimens sont transportés, stockés et dilués. Leurs caractéristiques chimiques sont alors susceptibles de varier. L'objectif de ce travail consiste à évaluer les conséquences d'une dilution importante sur l'évolution des liens chimiques établis, puis d'observer l'influence de la température et de l'humidité sur le profil chimique d'échantillons d'héroïne placés dans des conditions de vieillissement accéléré. On remarque que la dilution n'influence pas directement le profilage, mais l'inférence d'une source commune entre les spécimens dépend de la différence entre les concentrations des échantillons comparés. Dans le cadre de l'étude de vieillissement, tous les échantillons ont pu être liés et aucune variation significative du profil n'a été constatée. Cependant, les quantités de certains composés ont plus tendance à varier et pourraient être à l'origine d'une modification du profil à long terme.
Resumo:
Avant - Propos Le feu et la protection incendie Quel que soit l'usage d'un bâtiment, chaque étape de la construction est soumise à l'application de normes. Certaines, utilisées par les architectes et les ingénieurs, concernent le gros oeuvre ; en simplifiant leur rôle, elles assurent la solidité et la stabilité de l'immeuble. Si celui-ci est ouvert au public, des aménagements particuliers concernant la sécurité des personnes sont imposés. D'autres comme les prescriptions sur les installations électriques intérieures, précisent la manière de construire une alimentation, le type de matériel utilisable en fonction du courant et de la tension, les sécurités destinées à éviter toute détérioration des circuits et tout risque d'électrocution, etc. Enfin, les prescriptions en matière de protection incendie jouent évidemment un rôle préventif et, dans le domaine judiciaire, servent de références pour qualifier une éventuelle infraction ; elles évitent qu'une source de chaleur installée dans un bâtiment - tel qu'un appareil de chauffage ou des plaques de cuisson - ou susceptible d'apparaître consécutivement à l'usure d'un matériau ou à son vieillissement - disparition d'un isolant thermique, défaut d'étanchéité d'un conduit transportant les gaz chauds de combustion, par exemple - ne communiquent une partie de l'énergie calorifique dégagée à un combustible et ne l'enflamme. Le concept de protection incendie implique d'exposer et de développer les principales notions relatives à l'inflammation d'un matériau, à sa combustion ainsi qu'au transport de l'énergie calorifique. Fréquemment, le milieu dans lequel le générateur de chaleur est installé joue un rôle dans la phase d'allumage de l'incendie. Il est évident que les prescriptions de protection incendie s'appliquent à chaque élément de construction et, par conséquent, doivent être respectées par toute personne participant à la réalisation d'un ouvrage : le chauffagiste, l'électricien, l'installateur sanitaire, le constructeur de cuisine, mais également le maçon qui construit la cheminée, le peintre et le décorateur qui posent des revêtements ou des garnitures inflammables, le menuisier qui utilise le bois pour dissimuler des conduites de fumée, etc. Dès lors, tout sinistre, hormis celui qui est perpétré délibérément, ne peut s'expliquer que par : - le non-respect ou le défaut d'application d'une prescription de protection incendie; - une lacune de la norme qui ignore une source d'échauffement et/ou un mode de transfert de l'énergie calorifique. Le but premier de ce travail consiste à : - analyser les sinistres survenus durant les années 1999 à 2005 dans plusieurs cantons suisses qui ont fait l'objet d'une investigation de la part d'un service technique de la police ou d'un expert ; - examiner les éléments retenus pour expliquer la cause de l'incendie à la norme afin de répondre à la question : « l'application d'une ou de plusieurs directives lors de l'installation ou de l'utilisation du générateur d'énergie calorifique aurait-elle évité à ce dernier de communiquer une partie de la chaleur dégagée à un combustible et à l'enflammer ? » Le second objectif visé est d'apporter une solution à la question précédente : - si la norme existe, c'est un défaut d'installation ou d'utilisation de la source de chaleur qui est à l'origine de l'incendie. Il importe donc de connaître la raison pour laquelle la prescription a été ignorée ou appliquée de manière erronée ou lacunaire; - si la norme n'existe pas, ce sont les prescriptions en matière de protection incendie qui doivent être complétées. Le chapitre suivant abordera ces thèmes en proposant divers postulats destinés à évaluer l'efficacité actuelle du concept de protection incendie en Suisse.
Resumo:
On the efficiency of recursive evaluations with applications to risk theoryCette thèse est composée de trois essais qui portent sur l'efficacité des évaluations récursives de la distribution du montant total des sinistres d'un portefeuille de polices d'assurance au cours d'un période donnée. Le calcul de sa fonction de probabilité ou de quantités liées à cette distribution apparaît fréquemment dans la plupart des domaines de la pratique actuarielle.C'est le cas notamment pour le calcul du capital de solvabilité en Suisse ou pour modéliser la perte d'une assurance vie au cours d'une année. Le principal problème des évaluations récursives est que la propagation des erreurs provenant de la représentation des nombres réels par l'ordinateur peut être désastreuse. Mais, le gain de temps qu'elles procurent en réduisant le nombre d'opérations arithmétiques est substantiel par rapport à d'autres méthodes.Dans le premier essai, nous utilisons certaines propriétés d'un outil informatique performant afin d'optimiser le temps de calcul tout en garantissant une certaine qualité dans les résultats par rapport à la propagation de ces erreurs au cours de l'évaluation.Dans le second essai, nous dérivons des expressions exactes et des bornes pour les erreurs qui se produisent dans les fonctions de distribution cumulatives d'un ordre donné lorsque celles-ci sont évaluées récursivement à partir d'une approximation de la transformée de De Pril associée. Ces fonctions cumulatives permettent de calculer directement certaines quantités essentielles comme les primes stop-loss.Finalement, dans le troisième essai, nous étudions la stabilité des évaluations récursives de ces fonctions cumulatives par rapport à la propagation des erreurs citées ci-dessus et déterminons la précision nécessaire dans la représentation des nombres réels afin de garantir des résultats satisfaisants. Cette précision dépend en grande partie de la transformée de De Pril associée.
Resumo:
Contexte et objectifs:¦L'anatomie et la biomécanique de coude en font l'une des articulations les plus complexes du corps humain mais également une articulation mobile et stable.¦De ce fait, une maladie ou un traumatisme même mineurs peuvent résulter en de mouvements réduits et douloureux.¦Ainsi de nombreuses stratégies chirurgicales ont été mise en place pour gérer les affections du coude tel que les maladies inflammatoires, l'arthrose, les traumatismes et les infections.¦L'une de ces stratégies est la prothèse de coude.¦L'arthroplastie du coude est une technique qui permet de diminuer la douleur, restaurer la mobilité et la stabilité et la reprise opératoire est possible.¦Mon Travail de Maîtrise se portera sur une analyse rétrospective de dossiers de patients implantés de prothèse de coude dans le service de OTR du CHUV.¦L'objectif de ce travail sera de connaître les résultats cliniques et radiologiques des patients¦implantés de prothèse de coude dans le service de OTR et de comparer les résultats obtenus à ceux de la revue de littérature.¦Méthode:¦L'analyse de la littérature sera la base de la recherche d'informations.¦La population cible sera les patients implantés de prothèse de coudes dans le service de OTR du CHUV.¦Plan de l'étude :¦1. Étude de la série¦2. Analyse des dossiers¦3. Analyse des résultats à l'aide de :¦- classification diagnostique¦- systèmes d'évaluation de résultats de prothèse de coude¦- échelle de la douleur¦- classification de la mobilité¦- classification de la stabilité¦- classification radiologique¦Résultats et limites:¦Les résultats attendus sont doubles, d'une part les patients sont satisfaits de l'opération, ont moins de douleur, une meilleur mobilité, une bonne stabilité, de faibles complications et de bons résultats radiologiques. D'autre part, l'arthroplastie du coude est une opération intéressante et utile pour un traitement global¦La limite est le nombre réduit de dossier de patient implantés de prothèse de coude. Les conclusions ne pourront pas être totalement représentatives.
Resumo:
Molecular shape has long been known to be an important property for the process of molecular recognition. Previous studies postulated the existence of a drug-like shape space that could be used to artificially bias the composition of screening libraries, with the aim to increase the chance of success in Hit Identification. In this work, it was analysed to which extend this assumption holds true. Normalized Principal Moments of Inertia Ratios (NPRs) have been used to describe the molecular shape of small molecules. It was investigated, whether active molecules of diverse targets are located in preferred subspaces of the NPR shape space. Results illustrated a significantly stronger clustering than could be expected by chance, with parts of the space unlikely to be occupied by active compounds. Furthermore, a strong enrichment of elongated, rather flat shapes could be observed, while globular compounds were highly underrepresented. This was confirmed for a wide range of small molecule datasets from different origins. Active compounds exhibited a high overlap in their shape distributions across different targets, making a purely shape based discrimination very difficult. An additional perspective was provided by comparing the shapes of protein binding pockets with those of their respective ligands. Although more globular than their ligands, it was observed that binding sites shapes exhibited a similarly skewed distribution in shape space: spherical shapes were highly underrepresented. This was different for unoccupied binding pockets of smaller size. These were on the contrary identified to possess a more globular shape. The relation between shape complementarity and exhibited bioactivity was analysed; a moderate correlation between bioactivity and parameters including pocket coverage, distance in shape space, and others could be identified, which reflects the importance of shape complementarity. However, this also suggests that other aspects are of relevance for molecular recognition. A subsequent analysis assessed if and how shape and volume information retrieved from pocket or respective reference ligands could be used as a pre-filter in a virtual screening approach. ln Lead Optimization compounds need to get optimized with respect to a variety of pararneters. Here, the availability of past success stories is very valuable, as they can guide medicinal chemists during their analogue synthesis plans. However, although of tremendous interest for the public domain, so far only large corporations had the ability to mine historical knowledge in their proprietary databases. With the aim to provide such information, the SwissBioisostere database was developed and released during this thesis. This database contains information on 21,293,355 performed substructural exchanges, corresponding to 5,586,462 unique replacements that have been measured in 35,039 assays against 1,948 molecular targets representing 30 target classes, and on their impact on bioactivity . A user-friendly interface was developed that provides facile access to these data and is accessible at http//www.swissbioisostere.ch. The ChEMBL database was used as primary data source of bioactivity information. Matched molecular pairs have been identified in the extracted and cleaned data. Success-based scores were developed and integrated into the database to allow re-ranking of proposed replacements by their past outcomes. It was analysed to which degree these scores correlate with chemical similarity of the underlying fragments. An unexpectedly weak relationship was detected and further investigated. Use cases of this database were envisioned, and functionalities implemented accordingly: replacement outcomes are aggregatable at the assay level, and it was shawn that an aggregation at the target or target class level could also be performed, but should be accompanied by a careful case-by-case assessment. It was furthermore observed that replacement success depends on the activity of the starting compound A within a matched molecular pair A-B. With increasing potency the probability to lose bioactivity through any substructural exchange was significantly higher than in low affine binders. A potential existence of a publication bias could be refuted. Furthermore, often performed medicinal chemistry strategies for structure-activity-relationship exploration were analysed using the acquired data. Finally, data originating from pharmaceutical companies were compared with those reported in the literature. It could be seen that industrial medicinal chemistry can access replacement information not available in the public domain. In contrast, a large amount of often-performed replacements within companies could also be identified in literature data. Preferences for particular replacements differed between these two sources. The value of combining different endpoints in an evaluation of molecular replacements was investigated. The performed studies highlighted furthermore that there seem to exist no universal substructural replacement that always retains bioactivity irrespective of the biological environment. A generalization of bioisosteric replacements seems therefore not possible. - La forme tridimensionnelle des molécules a depuis longtemps été reconnue comme une propriété importante pour le processus de reconnaissance moléculaire. Des études antérieures ont postulé que les médicaments occupent préférentiellement un sous-ensemble de l'espace des formes des molécules. Ce sous-ensemble pourrait être utilisé pour biaiser la composition de chimiothèques à cribler, dans le but d'augmenter les chances d'identifier des Hits. L'analyse et la validation de cette assertion fait l'objet de cette première partie. Les Ratios de Moments Principaux d'Inertie Normalisés (RPN) ont été utilisés pour décrire la forme tridimensionnelle de petites molécules de type médicament. Il a été étudié si les molécules actives sur des cibles différentes se co-localisaient dans des sous-espaces privilégiés de l'espace des formes. Les résultats montrent des regroupements de molécules incompatibles avec une répartition aléatoire, avec certaines parties de l'espace peu susceptibles d'être occupées par des composés actifs. Par ailleurs, un fort enrichissement en formes allongées et plutôt plates a pu être observé, tandis que les composés globulaires étaient fortement sous-représentés. Cela a été confirmé pour un large ensemble de compilations de molécules d'origines différentes. Les distributions de forme des molécules actives sur des cibles différentes se recoupent largement, rendant une discrimination fondée uniquement sur la forme très difficile. Une perspective supplémentaire a été ajoutée par la comparaison des formes des ligands avec celles de leurs sites de liaison (poches) dans leurs protéines respectives. Bien que plus globulaires que leurs ligands, il a été observé que les formes des poches présentent une distribution dans l'espace des formes avec le même type d'asymétrie que celle observée pour les ligands: les formes sphériques sont fortement sous représentées. Un résultat différent a été obtenu pour les poches de plus petite taille et cristallisées sans ligand: elles possédaient une forme plus globulaire. La relation entre complémentarité de forme et bioactivité a été également analysée; une corrélation modérée entre bioactivité et des paramètres tels que remplissage de poche, distance dans l'espace des formes, ainsi que d'autres, a pu être identifiée. Ceci reflète l'importance de la complémentarité des formes, mais aussi l'implication d'autres facteurs. Une analyse ultérieure a évalué si et comment la forme et le volume d'une poche ou de ses ligands de référence pouvaient être utilisés comme un pré-filtre dans une approche de criblage virtuel. Durant l'optimisation d'un Lead, de nombreux paramètres doivent être optimisés simultanément. Dans ce contexte, la disponibilité d'exemples d'optimisations réussies est précieuse, car ils peuvent orienter les chimistes médicinaux dans leurs plans de synthèse par analogie. Cependant, bien que d'un extrême intérêt pour les chercheurs dans le domaine public, seules les grandes sociétés pharmaceutiques avaient jusqu'à présent la capacité d'exploiter de telles connaissances au sein de leurs bases de données internes. Dans le but de remédier à cette limitation, la base de données SwissBioisostere a été élaborée et publiée dans le domaine public au cours de cette thèse. Cette base de données contient des informations sur 21 293 355 échanges sous-structuraux observés, correspondant à 5 586 462 remplacements uniques mesurés dans 35 039 tests contre 1948 cibles représentant 30 familles, ainsi que sur leur impact sur la bioactivité. Une interface a été développée pour permettre un accès facile à ces données, accessible à http:/ /www.swissbioisostere.ch. La base de données ChEMBL a été utilisée comme source de données de bioactivité. Une version modifiée de l'algorithme de Hussain et Rea a été implémentée pour identifier les Matched Molecular Pairs (MMP) dans les données préparées au préalable. Des scores de succès ont été développés et intégrés dans la base de données pour permettre un reclassement des remplacements proposés selon leurs résultats précédemment observés. La corrélation entre ces scores et la similarité chimique des fragments correspondants a été étudiée. Une corrélation plus faible qu'attendue a été détectée et analysée. Différents cas d'utilisation de cette base de données ont été envisagés, et les fonctionnalités correspondantes implémentées: l'agrégation des résultats de remplacement est effectuée au niveau de chaque test, et il a été montré qu'elle pourrait également être effectuée au niveau de la cible ou de la classe de cible, sous réserve d'une analyse au cas par cas. Il a en outre été constaté que le succès d'un remplacement dépend de l'activité du composé A au sein d'une paire A-B. Il a été montré que la probabilité de perdre la bioactivité à la suite d'un remplacement moléculaire quelconque est plus importante au sein des molécules les plus actives que chez les molécules de plus faible activité. L'existence potentielle d'un biais lié au processus de publication par articles a pu être réfutée. En outre, les stratégies fréquentes de chimie médicinale pour l'exploration des relations structure-activité ont été analysées à l'aide des données acquises. Enfin, les données provenant des compagnies pharmaceutiques ont été comparées à celles reportées dans la littérature. Il a pu être constaté que les chimistes médicinaux dans l'industrie peuvent accéder à des remplacements qui ne sont pas disponibles dans le domaine public. Par contre, un grand nombre de remplacements fréquemment observés dans les données de l'industrie ont également pu être identifiés dans les données de la littérature. Les préférences pour certains remplacements particuliers diffèrent entre ces deux sources. L'intérêt d'évaluer les remplacements moléculaires simultanément selon plusieurs paramètres (bioactivité et stabilité métabolique par ex.) a aussi été étudié. Les études réalisées ont souligné qu'il semble n'exister aucun remplacement sous-structural universel qui conserve toujours la bioactivité quel que soit le contexte biologique. Une généralisation des remplacements bioisostériques ne semble donc pas possible.
Resumo:
The proportion of population living in or around cites is more important than ever. Urban sprawl and car dependence have taken over the pedestrian-friendly compact city. Environmental problems like air pollution, land waste or noise, and health problems are the result of this still continuing process. The urban planners have to find solutions to these complex problems, and at the same time insure the economic performance of the city and its surroundings. At the same time, an increasing quantity of socio-economic and environmental data is acquired. In order to get a better understanding of the processes and phenomena taking place in the complex urban environment, these data should be analysed. Numerous methods for modelling and simulating such a system exist and are still under development and can be exploited by the urban geographers for improving our understanding of the urban metabolism. Modern and innovative visualisation techniques help in communicating the results of such models and simulations. This thesis covers several methods for analysis, modelling, simulation and visualisation of problems related to urban geography. The analysis of high dimensional socio-economic data using artificial neural network techniques, especially self-organising maps, is showed using two examples at different scales. The problem of spatiotemporal modelling and data representation is treated and some possible solutions are shown. The simulation of urban dynamics and more specifically the traffic due to commuting to work is illustrated using multi-agent micro-simulation techniques. A section on visualisation methods presents cartograms for transforming the geographic space into a feature space, and the distance circle map, a centre-based map representation particularly useful for urban agglomerations. Some issues on the importance of scale in urban analysis and clustering of urban phenomena are exposed. A new approach on how to define urban areas at different scales is developed, and the link with percolation theory established. Fractal statistics, especially the lacunarity measure, and scale laws are used for characterising urban clusters. In a last section, the population evolution is modelled using a model close to the well-established gravity model. The work covers quite a wide range of methods useful in urban geography. Methods should still be developed further and at the same time find their way into the daily work and decision process of urban planners. La part de personnes vivant dans une région urbaine est plus élevé que jamais et continue à croître. L'étalement urbain et la dépendance automobile ont supplanté la ville compacte adaptée aux piétons. La pollution de l'air, le gaspillage du sol, le bruit, et des problèmes de santé pour les habitants en sont la conséquence. Les urbanistes doivent trouver, ensemble avec toute la société, des solutions à ces problèmes complexes. En même temps, il faut assurer la performance économique de la ville et de sa région. Actuellement, une quantité grandissante de données socio-économiques et environnementales est récoltée. Pour mieux comprendre les processus et phénomènes du système complexe "ville", ces données doivent être traitées et analysées. Des nombreuses méthodes pour modéliser et simuler un tel système existent et sont continuellement en développement. Elles peuvent être exploitées par le géographe urbain pour améliorer sa connaissance du métabolisme urbain. Des techniques modernes et innovatrices de visualisation aident dans la communication des résultats de tels modèles et simulations. Cette thèse décrit plusieurs méthodes permettant d'analyser, de modéliser, de simuler et de visualiser des phénomènes urbains. L'analyse de données socio-économiques à très haute dimension à l'aide de réseaux de neurones artificiels, notamment des cartes auto-organisatrices, est montré à travers deux exemples aux échelles différentes. Le problème de modélisation spatio-temporelle et de représentation des données est discuté et quelques ébauches de solutions esquissées. La simulation de la dynamique urbaine, et plus spécifiquement du trafic automobile engendré par les pendulaires est illustrée à l'aide d'une simulation multi-agents. Une section sur les méthodes de visualisation montre des cartes en anamorphoses permettant de transformer l'espace géographique en espace fonctionnel. Un autre type de carte, les cartes circulaires, est présenté. Ce type de carte est particulièrement utile pour les agglomérations urbaines. Quelques questions liées à l'importance de l'échelle dans l'analyse urbaine sont également discutées. Une nouvelle approche pour définir des clusters urbains à des échelles différentes est développée, et le lien avec la théorie de la percolation est établi. Des statistiques fractales, notamment la lacunarité, sont utilisées pour caractériser ces clusters urbains. L'évolution de la population est modélisée à l'aide d'un modèle proche du modèle gravitaire bien connu. Le travail couvre une large panoplie de méthodes utiles en géographie urbaine. Toutefois, il est toujours nécessaire de développer plus loin ces méthodes et en même temps, elles doivent trouver leur chemin dans la vie quotidienne des urbanistes et planificateurs.
Resumo:
Pendant la grossesse, la pression artérielle reste stable malgré une nette augmentation du volume d'éjection systolique et du débit cardiaque. Cette stabilité vient d'un côté d'une vasodilatation périphérique entraînant une diminution des résistances périphériques et d'un autre côté d'une moindre rigidité des principales artères notamment l'aorte. En conséquence, l'amplitude des ondes de pouls est atténuée, de même que leur vitesse de propagation dans le sens tant antérogade que rétrograde (ondes réfléchies). Les ondes réfléchies tendent ainsi à atteindre l'aorte ascendante plus tard durant la systole, voire durant la diastole, ce qui peut contribuer à diminuer la pression puisée. La prééclampsie perturbe massivement ce processus d'adaptation. Il s'agit d'une maladie hypertensive de la grossesse engendrant une importante morbidité et mortalité néonatale et maternelle. Il est à remarquer que la diminution de la rigidité artérielle n'est pas observée chez les patientes atteintes avec pour conséquence une forte augmentation de la pression systolique centrale (aortique) par les ondes réfléchies. Ce fait a été établi grâce à l'existence de la tonométrie d'aplanation, une méthode permettant l'évaluation non invasive de l'onde de pouls centrale. Dans cette méthode, un senseur de pression piézo-électrique permet de capter l'onde de pouls périphérique, le plus souvent sur l'artère radiale. Par la suite, un algorithme validé permet d'en déduire la forme de l'onde de pouls centrale et de visualiser à quel moment du cycle cardiaque s'y ajoutent les ondes réfléchies. Plusieurs études font état d'une forte augmentation de la pression systolique centrale par les ondes réfléchies chez les patientes atteintes de prééclampsie, suggérant l'utilisation de cette méthode pour le diagnostic et le monitoring voire pour le dépistage de ces patientes. Pour atteindre ce but, il est nécessaire d'établir des normes en rapport notamment avec l'âge gestationnel. Dans la littérature, les données pertinentes actuellement disponibles sont variables, voire contradictoires. Par exemple, les ondes réfléchies proéminentes dans la partie diastolique de l'onde de pouls centrale disparaissaient chez des patientes enceintes au 3eme trimestre comparées à des contrôles non enceintes dans une étude lausannoise, alors que deux autres études présentent l'observation contraire. Autre exemple, certains auteurs décrivent une diminution progressive de l'augmentation systolique jusqu'à l'accouchement alors que d'autres rapportent un nadir aux environs du 6ème mois, suivi d'un retour à des valeurs plus élevées en fin de grossesse. Les mesures effectuées dans toutes ces études différaient dans leur exécution, les patientes étant notamment dans des postions corporelles différentes (couchées, semi-couchées, assises, en décubitus latéral). Or nous savons que le status hémodynamique est très sensible aux changements de position, particulièrement durant la grossesse où l'utérus gravide est susceptible d'avoir des interactions mécaniques avec les veines et possiblement les artères abdominales. Ces différences méthodologiques pourraient donc expliquer, au moins en partie, l'hétérogénéité des résultats concernant l'onde de pouls chez la femme enceinte, ce qui à notre connaissance n'a jamais été exploré. Nous avons mesuré l'onde de pouls dans les positions assise et couchée chez des femmes enceintes, au 3eme trimestre d'une grossesse non compliquée, et nous avons effectué une comparaison avec des données similaire obtenues chez des femmes non enceintes en bonne santé habituelle. Les résultats montrent que la position du corps a un impact majeur sur la forme de l'onde de pouls centrale. Comparée à la position assise, la position couchée se caractérise par une moindre augmentation systolique et, par contraste, une augmentation diastolique plus marquée. De manière inattendue, cet effet s'observe aussi bien en présence qu'en l'absence de grossesse, suggérant que la cause première n'en réside pas dans les interactions mécaniques de l'utérus gravide avec les vaisseaux sanguins abdominaux. Nos observations pourraient par contre être expliquées par l'influence de la position du corps, via un phénomène hydrostatique simple, sur la pression transmurale des artères éloignées du coeur, tout particulièrement celles des membres inférieurs et de l'étage abdominal. En position verticale, ces vaisseaux augmenteraient leur rigidité pour résister à la distension de leur paroi, ce qui y accroîtrait la vitesse de propagation des ondes de pression. En l'état, cette explication reste hypothétique. Mais quoi qu'il en soit, nos résultats expliquent certaines discordances entre les études conduites à ce jour pour caractériser l'influence de la grossesse physiologique sur la forme de l'onde de pouls central. De plus, ils indiquent que la position du corps doit être prise en compte lors de toute investigation utilisant la tonométrie d'applanation pour déterminer la rigidité des artères chez les jeunes femmes enceintes ou non. Il sera aussi nécessaire d'en tenir compte pour établir des normes en vue d'une utilisation de la tonométrie d'aplanation pour dépister ou suivre les patientes atteintes de prééclampsie. Il serait enfin intéressant d'évaluer si l'effet de la position sur la forme de l'onde de pouls central existe également dans l'autre sexe et chez des personnes plus âgées.
Resumo:
Abstract: The AU-rich elements (AREs) consisting of repeated AUUUA motifs confer rapid degradation to many cellular mRNAs when present in the 3' untranslated region (3'UTR). We have studied the instability of interleukin-6 mRNA by grafting its 3' untranslated region to a stable green fluorescent protein mRNA. Subsequent scanning mutagenesis identified two conserved elements, which taken together account for most of the instability. The first corresponds to a short non-canonical AU-rich element. The other comprises a sequence predicted to form astern-loop structure. Both elements need to be present in order to confer full instability (Paschoud et al. 2006). Destabilization of ARE-containing mRNAs is thought to involve ARE-binding proteins such as AUF1. We tested whether AUF1 binding to interleukin-6 mRNA correlates with decreased mRNA stability. Overexpression of myc-tagged p37AUFl and p42AUF1 as well as suppression of all four AUF1 isoforms by RNA interference stabilized the interleukin-6 mRNA. Furthermore, the interleukin-6 mRNA co-immunoprecipitated specifically with myc-tagged p37AUF1 and p42AUF1 in cell extracts. Both the stabilization and AUF1-binding required the non-canonical AU-rich sequence. These results indicate that AUF1 binds to the AU-rich element in vivo and promotes interleukin6 mRNA degradation. The combination of mRNA co-immunoprecipitation with microarray technology revealed that at least 500 cellular mRNAs associate with AUF1. Résumé: "La présence d'éléments riches en A et U (ARE), en particulier les motifs répétés d'AUUUA dans la région 3' non traduite, confère une dégradation rapide à beaucoup d'ARN cellulaires. Nous avons étudié l'instabilité de l'ARN codant pour l'interleukine 6 en greffant sa région 3' non traduite à un ARN stable codant pour la protéine fluorescente verte. La mutagenèse systématique des séquences non traduites a permis l'identification de deux éléments conservés qui confèrent l'instabilité à l'ARN. Le premier correspond à un élément AU-riche non canonique court. Le second comporte une structure en 'épingle à cheveux'. Tous les deux éléments doivent être présents afin de conférer une instabilité complète (Paschoud et al. 2006). On pense que des protéines telles que AUF1, pouvant se lier aux éléments ARE, sont impliquées dans la dégradation des ARN messagers. Nous avons examiné si la liaison de AUFl sur l'ARN de l'interleukine 6 corrèle avec une stabilité diminuée. La surexpression des protéines p37AUF1 et de p42AUF1 myc-étiquetées ainsi que la suppression de chacun des quatre isoformes de AUF1 par interférence d'ARN a stabilisé l'ARN messager d'interleukine 6. En outre, cet ARN co-immunoprécipite spécifiquement avec p37AUF1 et p42AUF1 dans des extraits cellulaires. La présence de l'élément AUriche non canonique est nécessaire pour la stabilisation de l'ARN et sa liaison avec AUFI. Ces résultats indiquent qu'AUF1 se lie à l'élément AU-riche in vivo et favorise la dégradation de l'ARN messager d'interleukine 6. La combinaison des techniques de coimmunoprécipitation des ARN messagers et des analyses par `microarray' indique qu'au moins 500 ARN cellulaires s'associent à AUF1.
Resumo:
The aquatic environment is exposed continuously and increasingly to chemical substances such as pharmaceuticals. These medical compounds are released into the environment after having being consumed and body-excreted by patients. Pharmaceutical residues are synthetic molecules that are not always removed by traditional sewage treatment processes and thus escape degradation. Among pharmaceuticals that escape sewage treatment plants (STPs), the anticancer drugs were measured in STP effluents and natural waters. In the aquatic environment, their long-term effects at low concentrations are sparsely known on non-target species. Tamoxifen is an anticancer drug that is widely prescribed worldwide for the prevention and treatment of hormone receptor-positive breast cancers. Two of its metabolites, i.e., endoxifen and 4-hydroxy- tamoxifen (4OHTam), have high pharmacological potency in vivo and such as tamoxifen, they are excreted via faeces by patients. Tamoxifen was measured in STP effluents and natural waters but, to the best of our knowledge, its metabolites concentrations in waters have never been reported. Imatinib is another and recent anticancer compound that targets specific tumour cells. This pharmaceutical is also body excreted and because of its increasing use in cancer treatment, imatinib may reach the natural water. The effects of tamoxifen and imatinib are unknown upon more than one generation of aquatic species. And the effects of 4OHTam, endoxifen have never been studied in ecotoxicology so far. The aims of this thesis were threefold. First, the sensitivity of D. pulex exposed to tamoxifen, 4OHTam, endoxifen or imatinib was assessed using ecotoxicological experiments. Ecotoxicology is the science that considers the toxic effects of natural or synthetic substances, such as pharmaceuticals, on organisms, populations, community and ecosystem. Acute and multigenerational (2-4 generations) tests were performed on daphnids considering several studied endpoints, such as immobilisation, size, reproduction, viability and intrinsic rate of natural increase. Additional prospective assays were designed to evaluate whether 1) low concentrations of tamoxifen and 4OHTam were able to induce toxic effects when used in combination, and 2) daphnids were able to recover when offspring were withdrawn from solutions carrying the pharmaceutical. Second, the stability of tamoxifen, 4OHTam and endoxifen in incubation medium was evaluated in solution exempted from daphnids. Because the nominal concentrations of tamoxifen, 4OHTam and endoxifen did not correspond to the measured, we provide a predictive method to estimate the concentrations of these chemicals during long-term ecotoxicological tests. Finally, changes in protein expressions were analysed in D. pulex exposed 2 or 7 seven days to tamoxifen using ecotoxicoproteomic experiments with a shot-gun approach inducing a peptide fractionation step. Our results show that tamoxifen, 4OHTam and endoxifen induced adverse effects in D. pulex at environmentally relevant concentrations. At very low concentrations, these molecules displayed unusual and teratogenic effects because morphological abnormalities were observed in offspring, such as thick and short antennas, curved spines, premature neonates and aborted eggs. Tamoxifen was the most toxic compound among the test chemicals, followed by 4OHTam, endoxifen and imatinib. Tamoxifen no-observed effect concentrations (NOECs) that were calculated for size, reproduction and intrinsic rate were below or in the range of the concentrations measured in natural waters, i.e., between 0.12 µg/L and 0.67 µg/L. For instance, the tamoxifen NOECs that were calculated for reproduction were between 0.67 and 0.72 µg/L, whereas the NOEC was < 0.15 µg/L when based on morphological abnormalities. The NOECs of 4OHTam were higher but still in the same order of magnitude as tamoxifen environmental concentrations, with a value of 1.48 µg/L. Endoxifen NOEC for the intrinsic rate of natural increase (r) and the reproduction were 0.4 and 4.3 µg/L, respectively. Daphnids that were withdrawn from tamoxifen and 4OHTam were not able to recover. Also, the reproduction of D. pulex was reduced when the treated animals were exposed to the combination of tamoxifen and 4OHTam while no effects were observed when these chemicals were tested individually at the same concentration. Among the anticancer drugs that were tested during this thesis, imatinib was the less toxic molecule towards D. pulex. No effects on size and reproduction were observed within two generations, except for the first whose reproduction decreased at the highest test concentration, i.e., 626 µg/L. Our results also underline the need to use measured or predicted concentrations instead of the nominal during aquatic experiments, particularly when lipophilic molecules are tested. Indeed, notable differences between nominal (i.e., theoretical) and measured concentrations were found with tamoxifen, 4OHTam and endoxifen at all test concentrations. A cost and time sustainable method was proposed to predict the test exposure levels of these chemicals during long-term experiments. This predictive method was efficient particularly for low concentrations, which corresponded to the test concentrations in multigenerational tests. In the ecotoxicoproteomic experiments a total of 3940 proteins were identified and quantified in D. pulex exposed to tamoxifen. These results are currently the largest dataset from D. pulex that is published and the results of proteomic analyses are available for the scientific community. Among these 3940 proteins, 189 were significantly different from controls. After protein annotation, we assumed that treated daphnids with tamoxifen had shifted cost-energy functions, such as reproduction, to maintain their basic metabolism necessary to survive. This metabolic cost hypothesis was supported by the presence of proteins involved in oxidative stress. Biomarkers for early detection of tamoxifen harmful effects on D. pulex were not discovered but the proteins of the vitellogenin-2 family (E9H8K5) and the ryanodine receptor (E9FTU9) are promising potential biomarkers because their expression was already modified after 2 days of treatment. In this thesis, the effects of tamoxifen, 4OHTam and endoxifen on daphnids raise questions about the potential impact of tamoxifen and 4OHTam in other aquatic ecosystems, and therefore, about metabolites in ecotoxicology. Because the NOECs were environmentally relevant, these results suggest that tamoxifen and 4OHTam may be interesting pharmaceuticals to consider in risk assessment. Our findings also emphasize the importance of performing long-term experiments and of considering multi-endpoints instead of the standard reproductive endpoint. Finally, we open the discussion about the importance to measure test exposures or not, during ecotoxicological studies. -- Les milieux aquatiques sont exposés continuellement à un nombre croissant de substances chimiques, notamment les médicaments issus de la médecine vétérinaire et humaine. Chez les patients, les substances administrées sont utilisées par le corps avant d'être éliminées par l'intermédiaire des excrétas dans le système d'eaux usées de la ville. Ces eaux rejoignent ensuite une station de traitement afin d'y éliminer les déchets. Dans le cas des molécules chimiques, il arrive que les processus de traitement d'eaux usées ne soient pas suffisamment efficaces et que ces molécules ne soient pas dégradées. Elles sont alors libérées dans le milieu aquatique avec les effluents de la station d'épuration. Une fois dans l'environnement, ces résidus de médicaments sont susceptibles d'induire des effets sur la faune et la flore aquatique, dont les conséquences à long terme et à faibles concentrations sont peu connues. Les anticancéreux sont une famille de médicaments qui peuvent échapper aux traitements des stations d'épuration et qui sont retrouvées dans le milieu aquatique naturel. Parmi ces substances, le tamoxifen est une molécule utilisée dans le monde entier pour prévenir et traiter les cancers hormonaux dépendant du sein, notamment. Une fois ingéré, le tamoxifen est transformé par le foie en métabolites dont deux d'entre eux, le 4-hydroxy-tamoxifen (4OHTam) et l'endoxifen, possèdent un affinité pour les récepteurs aux estrogènes et une efficacité sur les cellules tumorales supérieure au tamoxifen lui- même. Tout comme la molécule mère, ces métabolites sont principalement éliminés par l'intermédiaire des fèces. Le tamoxifen a déjà été mesuré dans les effluents de stations d'épuration et dans les eaux naturelles, mais aucune valeur n'a été reportée pour ses métabolites jusqu'à présent. Un autre anticancéreux, également éliminé par voie biliaire et susceptible d'atteindre l'environnement, est l'imatinib. Cette récente molécule a révolutionné le traitement et la survie des patients souffrant de leucémie myéloïde chronique et de tumeur stromales gastrointestinales. Les effets du tamoxifen et de l'imatinib sur plusieurs générations d'organismes aquatiques, tels que les microcrustacés Daphnia, sont inconnus et le 4OHTam et l'endoxifen n'ont même jamais été testés en écotoxicologie. Cette thèse s'est articulée autour de trois objectifs principaux. Premièrement, la sensibilité des D. pulex exposés au tamoxifen, 4OHTam, endoxifen et imatinib a été évaluée par l'intermédiaire de tests aigus et de tests sur deux à quatre générations. La mobilité, la taille, la reproduction, la viabilité et la croissance potentielle de la population ont été relevées au cours de ces expériences. Des tests supplémentaires, à but prospectifs, ont également été réalisés afin d'évaluer 1) la capacité de récupération des daphnies, lorsque leurs descendants ont été placés dans un milieu exempté de tamoxifen ou de 4OHTam, 2) les effets chez les daphnies exposées à une solution contenant de faibles concentration de tamoxifen et de 4OHTam mélangés. Le deuxième objectif a été d'évaluer la stabilité du tamoxifen, 4OHTam et endoxifen dilué dans le milieu des daphnies. Après analyses, les concentrations mesurées ne correspondaient pas aux concentrations nominales (c.-à-d., théoriques) et il a été nécessaire de développer une méthode efficace de prédiction des niveaux d'exposition lors de tests de longue durée réalisés avec ces trois molécules. Finalement, des changements dans l'expression des protéines chez des daphnies exposées au tamoxifen ont été investigués par l'intermédiaire d'expériences écotoxicoprotéomiques avec une approche dite de shot-gun avec une étape de fractionnement des protéines. Les résultats obtenus dans cette thèse montrent que le tamoxifen, le 4OHTam et l'endoxifen induisent des effets indésirables chez les daphnies à des niveaux d'exposition proches ou identiques aux concentrations du tamoxifen mesurées dans l'environnement, c'est-à-dire 0.12 et 0.67 µg/L de tamoxifen. Ces molécules ont induit des effets inhabituels tels que la production de : nouveau-nés anormaux, avec des antennes et des queues déformées, des prématurés et des oeufs avortés. Le tamoxifen fut la molécule la plus toxique pour les D. pulex suivie du 4OHTam, de l'endoxifen et enfin de l'imatinib. Lors des expériences sur plusieurs générations, les concentrations n'ayant statistiquement pas d'effet (c.à.d. NOEC en anglais) sur la taille, la reproduction et la croissance intrinsèque de la population étaient du même ordre de grandeur que les concentrations environnementales du tamoxifen. Par exemple, les NOECs du tamoxifen calculées pour la reproduction étaient de 0.67 et 0.72 µg/L, tandis que celle calculée sur la base des anomalies chez les nouveau-nés était < 0.15 µg/L. Les NOECs du 4OHTam se situaient entre 0.16 et 1.48 µg/L et celles de l'endoxifen pour la croissance intrinsèque de la population, ainsi que pour la reproduction, étaient de 0.4 et 4.3 µg/L, respectivement. Dans l'expérience basée sur la récupération des daphnies, la taille et la reproduction ont diminué bien que la descendance fût placée dans un milieu sans substances chimiques. Les daphnies exposées au mélange de tamoxifen et de 4OHTam ont produit moins de nouveau-nés que les contrôles, alors que ces concentrations n'ont pas induit d'effets lorsque testées individuellement. Finalement, l'imatinib n'a pas montré d'effets sur les deux générations testées. Seule la première génération exposée à la plus haute concentration (626 µg/L) a montré une diminution de la reproduction. Les résultats obtenus lors de l'évaluation de la stabilité du tamoxifen, 4OHTam et endoxifen dans le milieu des daphnies ont souligné l'importance d'utiliser des concentrations mesurées ou prédites en écotoxicologie. En effet, des différences notables entre concentrations nominales et mesurées ont été observées à toutes les concentrations et l'hypothèse d'un phénomène d'adsorption sur le verre des récipients a été posée. De ce fait, il a été nécessaire d'élaborer une méthode prédictive efficace et acceptable, en terme de temps et de coûts. Une régression polynomiale basée sur des concentrations mesurées et nominales a permis de prédire avec efficacité les faibles niveaux d'exposition utilisés lors d'expériences écotoxicologiques à long terme, sur plusieurs générations. Suite aux expériences d'écotoxicoprotéomiques, un total de 3940 protéines ont été identifiées et quantifiées chez des daphnies exposées au tamoxifen. Ce nombre est actuellement la plus large série de données publiées et mises à disposition pour la communauté scientifique. Parmi ces protéines, 189 sont significatives et possiblement reliées à des processus de reproduction et de stress. Sur cette base, nous avons émis l'hypothèse que les individus subissant un stress, lié à l'exposition au tamoxifen, ont utilisé leur énergie de base pour favoriser leur survie plutôt que la reproduction. Enfin, la détermination de bio-marqueurs exprimant des dommages précoces des daphnies exposées au tamoxifen n'a pas abouti en tant que telle, mais des protéines prometteuses, telle que la famille de viellogenin-2 (E9H8K5) et le récepteur à la ryanodine (E9FTU9), ont été exprimées après deux jours d'exposition déjà. Ces protéines pourraient faire l'objet d'investigations écotoxicoprotéomiques futures. Les résultats de cette thèse posent certaines questions quant au risque du tamoxifen, du 4OHTam et de l'endoxifen sur la faune et la flore aquatique et plus particulièrement sur les anticancéreux présents dans l'environnement. Les effets toxiques de ces molécules ont été observés à des concentrations environnementales et sur plusieurs générations. La question de considérer les métabolites, et ainsi les pro-médicaments, en écotoxicologie est soulevée, notamment parce que ces molécules peuvent être plus actives et efficaces que la molécule mère. Les expériences chroniques, sur plusieurs générations sont également à favoriser car elles offrent un meilleur reflet de la réalité environnementale que des essais aigus ou d'une génération. L'utilisation de la protéomique permet d'agrandir les connaissances sur les effets des médicaments à un niveau inférieur de l'organisation biologique et ainsi, de mieux comprendre de potentiels mécanismes d'action ou de déterminer de potentiels biomarqueurs. Finalement, il semble important de discuter de l'opportunité de mesurer les concentrations qui sont testées en écotoxicologie afin de ne pas sous-estimer le risque pour la faune et la flore aquatique.
Resumo:
Contexte: L'intervention "Break The Chains" 2012 de l'OFSP a l'intention des gays visait à informer sur la primo-infection et a inciter a un test de dépistage VIH. Design: L'évaluation a recouru a un design Pre-Post avec 2 dispositifs: A) enquête par questionnaire Internet avec une vague avant la campagne et une après (transversal repete); B) 1) relevé centré sur le canton de Zurich du nombre de test effectues par des gays durant le premier semestre 2012 utilisant des données récoltées par Sentinella, par les centres de test utilisant l'application BerDa et auprès des praticiens de HIV-Prakt; et 2) recueil d'information par le questionnaire internet post-intervention des intentions d'effectuer un test VIH. Résultats: 366 HSH ont répondu au questionnaire de la phase pré-, et 964 à la phase post-intervention. 69.8% ont entendu parler de la campagne. Parmi les répondants ayant identifie le message, 48.6% se sont sentis concernes. Avant la campagne, 34.2% des répondants identifiaient les 4 symptômes de la primo-infection, 46.4% se sentaient bien informes et 79.2% connaissaient le délai minimum pour qu'un test informe sur une absence d'infection; après la campagne, ces proportions étaient 39.6%, 62.0% et 85.2%. 17.1% des répondants ont déclaré avoir fait/avoir l'intention de faire, un test VIH suite à la campagne. Le nombre de tests effectues par les répondants Internet montre effectivement un pic dans le 2e trimestre 2012; les données BerDa montrent une stabilité du nombre total de tests. Les données épidémiologiques montrent une augmentation de la proportion et du nombre d'infections récentes détectées durant ce 2e trimestre, mais une diminution des infections anciennes. Conclusions: L'intervention BTC a amélioré légèrement les connaissances relatives à la phase de primo-infection du VIH et a la nécessité d'effectuer un test VIH. Elle semble avoir incite le public cible à effectuer un test VIH qui n'aurait pas été réalisé autrement et a peut-être ainsi contribuer a la détection d'infections récentes.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
This thesis is a compilation of projects to study sediment processes recharging debris flow channels. These works, conducted during my stay at the University of Lausanne, focus in the geological and morphological implications of torrent catchments to characterize debris supply, a fundamental element to predict debris flows. Other aspects of sediment dynamics are considered, e.g. the coupling headwaters - torrent, as well as the development of a modeling software that simulates sediment transfer in torrent systems. The sediment activity at Manival, an active torrent system of the northern French Alps, was investigated using terrestrial laser scanning and supplemented with geostructural investigations and a survey of sediment transferred in the main torrent. A full year of sediment flux could be observed, which coincided with two debris flows and several bedload transport events. This study revealed that both debris flows generated in the torrent and were preceded in time by recharge of material from the headwaters. Debris production occurred mostly during winter - early spring time and was caused by large slope failures. Sediment transfers were more puzzling, occurring almost exclusively in early spring subordinated to runoffconditions and in autumn during long rainfall. Intense rainstorms in summer did not affect debris storage that seems to rely on the stability of debris deposits. The morpho-geological implication in debris supply was evaluated using DEM and field surveys. A slope angle-based classification of topography could characterize the mode of debris production and transfer. A slope stability analysis derived from the structures in rock mass could assess susceptibility to failure. The modeled rockfall source areas included more than 97% of the recorded events and the sediment budgets appeared to be correlated to the density of potential slope failure. This work showed that the analysis of process-related terrain morphology and of susceptibility to slope failure document the sediment dynamics to quantitatively assess erosion zones leading to debris flow activity. The development of erosional landforms was evaluated by analyzing their geometry with the orientations of potential rock slope failure and with the direction of the maximum joint frequency. Structure in rock mass, but in particular wedge failure and the dominant discontinuities, appear as a first-order control of erosional mechanisms affecting bedrock- dominated catchment. They represent some weaknesses that are exploited primarily by mass wasting processes and erosion, promoting not only the initiation of rock couloirs and gullies, but also their propagation. Incorporating the geological control in geomorphic processes contributes to better understand the landscape evolution of active catchments. A sediment flux algorithm was implemented in a sediment cascade model that discretizes the torrent catchment in channel reaches and individual process-response systems. Each conceptual element includes in simple manner geomorphological and sediment flux information derived from GIS complemented with field mapping. This tool enables to simulate sediment transfers in channels considering evolving debris supply and conveyance, and helps reducing the uncertainty inherent to sediment budget prediction in torrent systems. Cette thèse est un recueil de projets d'études des processus de recharges sédimentaires des chenaux torrentiels. Ces travaux, réalisés lorsque j'étais employé à l'Université de Lausanne, se concentrent sur les implications géologiques et morphologiques des bassins dans l'apport de sédiments, élément fondamental dans la prédiction de laves torrentielles. D'autres aspects de dynamique sédimentaire ont été abordés, p. ex. le couplage torrent - bassin, ainsi qu'un modèle de simulation du transfert sédimentaire en milieu torrentiel. L'activité sédimentaire du Manival, un système torrentiel actif des Alpes françaises, a été étudiée par relevés au laser scanner terrestre et complétée par une étude géostructurale ainsi qu'un suivi du transfert en sédiments du torrent. Une année de flux sédimentaire a pu être observée, coïncidant avec deux laves torrentielles et plusieurs phénomènes de charriages. Cette étude a révélé que les laves s'étaient générées dans le torrent et étaient précédées par une recharge de débris depuis les versants. La production de débris s'est passée principalement en l'hiver - début du printemps, causée par de grandes ruptures de pentes. Le transfert était plus étrange, se produisant presque exclusivement au début du printemps subordonné aux conditions d'écoulement et en automne lors de longues pluies. Les orages d'été n'affectèrent guère les dépôts, qui semblent dépendre de leur stabilité. Les implications morpho-géologiques dans l'apport sédimentaire ont été évaluées à l'aide de MNT et études de terrain. Une classification de la topographie basée sur la pente a permis de charactériser le mode de production et transfert. Une analyse de stabilité de pente à partir des structures de roches a permis d'estimer la susceptibilité à la rupture. Les zones sources modélisées comprennent plus de 97% des chutes de blocs observées et les bilans sédimentaires sont corrélés à la densité de ruptures potentielles. Ce travail d'analyses des morphologies du terrain et de susceptibilité à la rupture documente la dynamique sédimentaire pour l'estimation quantitative des zones érosives induisant l'activité torrentielle. Le développement des formes d'érosion a été évalué par l'analyse de leur géométrie avec celle des ruptures potentielles et avec la direction de la fréquence maximale des joints. Les structures de roches, mais en particulier les dièdres et les discontinuités dominantes, semblent être très influents dans les mécanismes d'érosion affectant les bassins rocheux. Ils représentent des zones de faiblesse exploitées en priorité par les processus de démantèlement et d'érosion, encourageant l'initiation de ravines et couloirs, mais aussi leur propagation. L'incorporation du control géologique dans les processus de surface contribue à une meilleure compréhension de l'évolution topographique de bassins actifs. Un algorithme de flux sédimentaire a été implémenté dans un modèle en cascade, lequel divise le bassin en biefs et en systèmes individuels répondant aux processus. Chaque unité inclut de façon simple les informations géomorpologiques et celles du flux sédimentaire dérivées à partir de SIG et de cartographie de terrain. Cet outil permet la simulation des transferts de masse dans les chenaux, considérants la variabilité de l'apport et son transport, et aide à réduire l'incertitude liée à la prédiction de bilans sédimentaires torrentiels. Ce travail vise très humblement d'éclairer quelques aspects de la dynamique sédimentaire en milieu torrentiel.