999 resultados para Base de données
Resumo:
El projecte d'incidències faunística està emmarcat a la 10 edició del Màster en Tecnologies de la Informació Geogràfica. Aquest projecte està realitzat pel consorci del Parc de Collserola i té dos objectius: el primer és muntar una base de dades en PostgreSQL amb arxius que es trobaven en format shapefile i van ser exportats a Postgis pel maneig de la cartografia i les seves taules que són les que constituïxen la base de dades. El segon objectiu va ser crear una eina on l'usuari del parc pogués reportar incidències faunístiques mitjançant la web i aquesta així mateix poder ser representada al mapa. Dins del projecte s’han fet servir eines de programació per a generar la interfície amb els mapes, emprant els llenguatges Javascript, php, html.
Resumo:
SUMMARY Genomic imprinting is an epigenetic mechanism of transcriptional regulation that ensures restriction of expression of a subset of mammalian genes to a single parental allele. The best studied example of imprinted gene regulation is the Igf2/H19 locus, which is also the most commonly altered by loss of imprinting (LOT) in cancer. LOT is associated with numerous hereditary diseases and several childhood, and adult cancers. Differential expression of reciprocal H19 and 1gf2 alleles in somatic cells depends on the methylation status of the imprinting control region (ICR) which regulates binding of CTCF, an ubiquitously expressed 11-zinc finger protein that binds specifically to non-methylated maternal ICR and thereby attenuates expression of Igf2, while it does not bind to methylated paternal ICR, which enables Igf2 expression. Initial ICR methylation occurs during gametogenesis by an as yet unknown mechanism. The accepted hypothesis is that the event of differential maternal and paternal DNA methylation depends on germ-line specific proteins. Our Laboratory identified a novel 11-zinc-finger protein CTCF-T (also known as CTCFL and BORIS) that is uniquely expressed in the male germ-line and is highly homologous within its zinc-finger region with CTCF. The amino-acid sequences flanking the zinc-finger regions of CTCF and CTCF-T have widely diverged, suggesting that though they could bind to the same DNA targets (ICRs) they are likely to have different functions. Interestingly, expression of CTCF-T and CTCF is mutually exclusive; CTCF-T-positive (CTCF-negative) cells occur in the stage of spermatogenesis that coincides with epigenetic reprogramming, including de novo DNA methylation. In our study we demonstrate the role that CTCF-T plays in genomic imprinting. Here we show that CTCF-T binds in vivo to the ICRs of Igf2/H19 and Dlk/Gt12 imprinted genes. In addition, we identified two novel proteins interacting with CTCF-T: a protein arginine methyltransferase PRMT7 and an arginine-rich histone H2A variant that we named trH2A. These interactions were confirmed and show that the two proteins interact with the amino-teiminal region of CTCF-T. Additionally, we show interaction of the amino- terminal region of CTCF-T with histones H1, H2A and H3. These results suggest that CTCF-T is a sequence-specific DNA (ICR) binding protein that associates with histones and recruits PRMT7. Interestingly, PRMT7 has a histone-methyltransferase activity. It has been shown that histone methylation can mark chromatin regions thereby directing DNA-methylation; thus, our hypothesis is that the CTCF-T protein-scaffold directs PRMT7 to methylate histone(s) assembled on ICRs, which marks chromatin for the recruitment of the de novo DNA methyltransferases to methylate DNA. To test this hypothesis, we developed an in vivo DNA-methylation assay using Xenopus laevis' oocytes, where H19 ICR and different expression cDNAs, including CTCF-T, PRMT7 and the de novo DNA methyltransferases (Dnmt3a, Dnmt3b and Dnmt3L) are microinjected into the nucleus. The methylation status of CpGs within the H19 ICR was analysed 48 or 72 hours after injection. Here we demonstrate that CpGs in the ICR are methylated in the presence of both CTCF-T and PRMT7, while control oocytes injected only with ICR did not show any methylation. Additionally, we showed for the first time that Dnmt3L is crucial for the establishment of the imprinting marks on H19 ICR. Moreover, we confirmed that Dnmt3a and Dnmt3b activities are complementary. Our data indicate that all three Dnmt3s are important for efficient de novo DNA methylation. In conclusion, we propose a mechanism for the establishment of de novo imprinting marks during spermatogenesis: the CTCF-T/PRMT7 protein complex directs histone methylation leading to sequence-specific de novo DNA methylation of H19 ICR. RESUME L'empreinte génomique parentale est un mécanisme épigénétique de régulation transcriptionelle qui se traduit par une expression différentielle des deux allèles de certains gènes, en fonction de leur origine parentale. L'exemple le mieux caractérisé de gènes soumis à l'empreinte génomique parentale est le locus Igf2/H19, qui est aussi le plus fréquemment altéré par relaxation d'empreinte (en anglais: loss of imprinting, LOI) dans les cancers. Cette relaxation d'empreinte est aussi associée à de nombreuses maladies héréditaires, ainsi qu'à de nombreux cancers chez l'enfant et l'adulte. Dans les cellules somatiques, les différences d'expression des allèles réciproques H19 et Ig12 est sous le contrôle d'une région ICR (Imprinting Control Region). La méthylation de cette région ICR régule l'ancrage de la protéine à douze doigts de zinc CTCF, qui se lie spécifiquement à l'ICR maternel non-méthylé, atténuant ainsi l'expression de Igf2, alors qu'elle ne s'ancre pas à l'ICR paternel méthyle. Le mécanisme qui accompagne la méthylation initiale de la région ICR durant la gamétogenèse n'a toujours pas été élucidé. L'hypothèse actuelle propose que la différence de méthylation entre l'ADN maternel et paternel résulte de l'expression de protéines propres aux zones germinales. Notre laboratoire a récemment identifié une nouvelle protéine à douze doigts de zinc, CTCF-T (aussi dénommée CTCFL et BORRIS), qui est exprimée uniquement dans les cellules germinales mâles, dont la partie à douze doigts de zinc est fortement homologue à la protéine CTCF. La séquence d'acides aminés de part et d'autre de cette région est quant à elle très divergente, ce qui implique que CTCF-T se lie sans doute au même ADN cible que CTCF, mais possède des fonctions différentes. De plus, l'expression de CTCF-T et de CTCF s'oppose mutuellement; l'expression de la protéine CTCF-T (cellules CTCF-T positives, CTCF negatives) qui a lieu pendant la spermatogenèse coïncide avec la reprogrammation épigénétique, notamment la méthylation de novo de l'ADN. La présente étude démontre le rôle essentiel joué par la protéine CTCF-T dans l'acquisition de l'empreinte génomique parentale. Nous montrons ici que CTCF-T s'associe in vivo avec les régions ICR des loci Igf2/H19 et Dlk/Gt12. Nous avons également identifié deux nouvelles protéines qui interagissent avec CTCF-T : une protéine arginine méthyl transférase PRMT7, et un variant de l'histone H2A, riche en arginine, que nous avons dénommé trH2A. Ces interactions ont été analysées plus en détail, et confinnent que ces deux protéines s'associent avec la région N-terminale de CTCF-T. Aussi, nous présentons une interaction de la région N-terminale de CTCF-T avec les histones H1, H2, et H3. Ces résultats suggèrent que CTCF-T est une protéine qui se lie spécifiquement aux régions ICR, qui s'associe avec différents histones et qui recrute PRMT7. PRMT7 possède une activité méthyl-tansférase envers les histones. Il a été montré que la méthylation des histones marque certains endroits de la chromatine, dirigeant ainsi la méthylation de l'ADN. Notre hypothèse est donc la suivante : la protéine CTCF-T sert de base qui dirige la méthylation des histones par PRMT7 dans les régions ICR, ce qui contribue à marquer la chromatine pour le recrutement de nouvelles méthyl transférases pour méthyler l'ADN. Afin de valider cette hypothèse, nous avons développé un système de méthylation de l'ADN in vivo, dans des oeufs de Xenopus laevis, dans le noyau desquels nous avons mico-injecté la région ICR du locus H19, ainsi que différents vecteurs d'expression pour CTCF-T, PRMT7, et les de novo méthyl transférases (Dnmt3a, Dnmt3b et Dnmt3L). Les CpGs méthyles de la région ICR du locus H19 ont été analysé 48 et 72 heures après l'injection. Cette technique nous a permis de démontrer que les CpGs de la région ICR sont méthyles en présence de CTCF-T et de PRMT7, tandis que les contrôles injectés seulement avec la région ICR ne présentent aucun signe de méthylation. De plus, nous démontrons pour la première fois que la protéine méthyl transférase Dnmt3L est déterminant pour l'établissement de l'empreinte génomique parentale au niveau de la région ICR du locus H19. Aussi, nous confirmons que les activités méthyl transférases de Dnmt3a et Dnmt3b sont complémentaires. Nos données indiquent que les trois protéines Dnmt3 sont impliquées dans la méthylation de l'ADN. En conclusion, nous proposons un mécanisme responsable de la mise en place de nouvelles empreintes génomiques pendant la spermatogenèse : le complexe protéique CTCF-T/PRMT7 dirige la méthylation des histones aboutissant à la méthylation de novo de l'ADN au locus H19.
Resumo:
La ponència fa una introducció sobre la teoria, els objectius i els problemes de la detecció i l'eliminació de registres duplicats en bases de dades bibliogràfiques. A continuació, s'explica el procés de creació del Catàleg Col.lectiu de les Universitats de Catalunya (CCUC) amb una breu introducció històrica. Finalment s'analitza i es descriu el procés d'elaboració i el funcionament del programa de detecció de duplicats del CCUC.
Resumo:
Le tabagisme est responsable de plus de 5 million de décès par an à travers le monde. En Suisse (2010), la prévalence de fumeurs chez les 14-19 ans était de 22% et la prévalence d'ex-fumeurs de 3%, taux qui reste relativement stable au fil des dernières années. La plupart des jeunes fumeurs désirant arrêter de fumer rencontrent des difficultés pour y parvenir. Les revues empiriques ont conclu que les programmes ayant pour but l'arrêt du tabagisme chez les jeunes ont une efficacité limitée. Afin de fournir une base solide de connaissances pour les programmes d'interventions contre le tabagisme, les déterminants de l'auto-cessation ont besoin d'être compris. Nous avons systématiquement recherché dans PUBMED et EMBASE des études longitudinales, basées sur la population, portant sur les déterminants de l'auto-cessation chez des adolescents et des jeunes adultes fumeurs. Nous avons passé en revue 4'502 titres et 871 abstracts, tous examinés indépendamment par deux et trois examinateurs, respectivement. Les critères d'inclusion étant : articles publiés entre janvier 1984 et août 2010, concernant les jeunes entre 10 et 29 ans et avoir une définition de cessation de fumer d'au moins 6 mois. Neuf articles ont été retenus pour une analyse détaillée. Les données suivantes ont été extraites de chaque article : le lieu de l'étude, la période étudiée, la durée du suivi, le nombre de collecte de données, la taille de l'échantillon, l'âge ou l'année scolaire des participants, le nombre de participants qui arrêtent de fumer, le status tabagique lors de la première collecte, la définition de cessation, les co-variantes et la méthode analytique. Le nombre d'études qui montrent une association significativement significative entre un déterminant et l'arrêt du tabagisme a été tabulé à partir de toutes les études qui ont évalués ce déterminant. Trois des neufs articles retenus ont défini l'arrêt du tabagisme comme une abstinence de plus de 6 mois et les six autres comme 12 mois d'abstinence. Malgré l'hétérogénéité des méthodes utilisées, cinq facteurs principaux ressortent comme prédicteur de l'arrêt du tabagisme : 1) ne pas avoir d'amis qui fument, 2) ne pas avoir l'intention de continuer de fumer dans le futur, 3) résister à la pression sociale, 4) être âgé de plus de 18 ans lors de la première cigarette, et 5) avoir un avis négatif au sujet du tabagisme. D'autres facteurs sont significatifs mais ne sont évalués que dans peu d'articles. La littérature au sujet des prédicteurs de cessation chez les adolescents et les jeunes adultes est peu développée. Cependant, nous remarquons que les facteurs que nous avons mis en évidence ne dépendent pas que de l'individu, mais aussi de l'environnement. La prévention du tabagisme peut se centrer sur les bienfaits de l'arrêt (p.ex., par rapport à l'asthme ou les performances sportives) et ainsi motiver les jeunes gens à songer d'arrêter de fumer. Une taxation plus lourde sur le prix des cigarettes peut être envisagée afin de retarder l'âge de la première cigarette. Les publicités anti-tabagiques (non sponsorisées par les entreprises de tabac) peuvent influencer la perception des jeunes par rapport au tabagisme, renforçant ou créant une attitude anti-tabagique. Les prochaines campagnes anti- tabac devraient donc tenir compte de ces différents aspects.
Resumo:
SUMMARY : Eukaryotic DNA interacts with the nuclear proteins using non-covalent ionic interactions. Proteins can recognize specific nucleotide sequences based on the sterical interactions with the DNA and these specific protein-DNA interactions are the basis for many nuclear processes, e.g. gene transcription, chromosomal replication, and recombination. New technology termed ChIP-Seq has been recently developed for the analysis of protein-DNA interactions on a whole genome scale and it is based on immunoprecipitation of chromatin and high-throughput DNA sequencing procedure. ChIP-Seq is a novel technique with a great potential to replace older techniques for mapping of protein-DNA interactions. In this thesis, we bring some new insights into the ChIP-Seq data analysis. First, we point out to some common and so far unknown artifacts of the method. Sequence tag distribution in the genome does not follow uniform distribution and we have found extreme hot-spots of tag accumulation over specific loci in the human and mouse genomes. These artifactual sequence tags accumulations will create false peaks in every ChIP-Seq dataset and we propose different filtering methods to reduce the number of false positives. Next, we propose random sampling as a powerful analytical tool in the ChIP-Seq data analysis that could be used to infer biological knowledge from the massive ChIP-Seq datasets. We created unbiased random sampling algorithm and we used this methodology to reveal some of the important biological properties of Nuclear Factor I DNA binding proteins. Finally, by analyzing the ChIP-Seq data in detail, we revealed that Nuclear Factor I transcription factors mainly act as activators of transcription, and that they are associated with specific chromatin modifications that are markers of open chromatin. We speculate that NFI factors only interact with the DNA wrapped around the nucleosome. We also found multiple loci that indicate possible chromatin barrier activity of NFI proteins, which could suggest the use of NFI binding sequences as chromatin insulators in biotechnology applications. RESUME : L'ADN des eucaryotes interagit avec les protéines nucléaires par des interactions noncovalentes ioniques. Les protéines peuvent reconnaître les séquences nucléotidiques spécifiques basées sur l'interaction stérique avec l'ADN, et des interactions spécifiques contrôlent de nombreux processus nucléaire, p.ex. transcription du gène, la réplication chromosomique, et la recombinaison. Une nouvelle technologie appelée ChIP-Seq a été récemment développée pour l'analyse des interactions protéine-ADN à l'échelle du génome entier et cette approche est basée sur l'immuno-précipitation de la chromatine et sur la procédure de séquençage de l'ADN à haut débit. La nouvelle approche ChIP-Seq a donc un fort potentiel pour remplacer les anciennes techniques de cartographie des interactions protéine-ADN. Dans cette thèse, nous apportons de nouvelles perspectives dans l'analyse des données ChIP-Seq. Tout d'abord, nous avons identifié des artefacts très communs associés à cette méthode qui étaient jusqu'à présent insoupçonnés. La distribution des séquences dans le génome ne suit pas une distribution uniforme et nous avons constaté des positions extrêmes d'accumulation de séquence à des régions spécifiques, des génomes humains et de la souris. Ces accumulations des séquences artéfactuelles créera de faux pics dans toutes les données ChIP-Seq, et nous proposons différentes méthodes de filtrage pour réduire le nombre de faux positifs. Ensuite, nous proposons un nouvel échantillonnage aléatoire comme un outil puissant d'analyse des données ChIP-Seq, ce qui pourraient augmenter l'acquisition de connaissances biologiques à partir des données ChIP-Seq. Nous avons créé un algorithme d'échantillonnage aléatoire et nous avons utilisé cette méthode pour révéler certaines des propriétés biologiques importantes de protéines liant à l'ADN nommés Facteur Nucléaire I (NFI). Enfin, en analysant en détail les données de ChIP-Seq pour la famille de facteurs de transcription nommés Facteur Nucléaire I, nous avons révélé que ces protéines agissent principalement comme des activateurs de transcription, et qu'elles sont associées à des modifications de la chromatine spécifiques qui sont des marqueurs de la chromatine ouverte. Nous pensons que lés facteurs NFI interagir uniquement avec l'ADN enroulé autour du nucléosome. Nous avons également constaté plusieurs régions génomiques qui indiquent une éventuelle activité de barrière chromatinienne des protéines NFI, ce qui pourrait suggérer l'utilisation de séquences de liaison NFI comme séquences isolatrices dans des applications de la biotechnologie.
Resumo:
En parallèle à l'avènement des modèles policiers guidés par le renseignement, les méthodes d'analyse criminelle et de renseignement forensique ont connu des développements importants ces dernières années. Des applications ont été proposées dans divers domaines des sciences forensiques afin d'exploiter et de gérer différents types de traces matérielles de façon systématique et plus performante. A cet égard, le domaine des faux documents d'identité n'a été l'objet que de peu d'attention bien qu'il s'agisse d'une criminalité grave dans laquelle le crime organisé est impliqué.La présente étude cherche à combler cette lacune en proposant une méthode de profilage des fausses pièces d'identité simple et généralisable qui vise à découvrir des liens existants sur la base des caractéristiques matérielles analysables visuellement. Ces caractéristiques sont considérées comme constituant la marque de fabrique particulière du faussaire et elle peuvent ainsi être exploitées pour inférer des liens entre fausses pièces d'identité provenant d'une même source.Un collectif de plus de 200 fausses pièces d'identité composé de trois types de faux documents a été récolté auprès des polices de neuf cantons suisses et a été intégré dans une banque de données ad hoc. Les liens détectés de façon systématique et automatique par cette banque de données ont été exploités et analysés afin de produire des renseignements d'ordre stratégique et opérationnel utiles à la lutte contre la fraude documentaire.Les démarches de profilage et de renseignement mises en place pour les trois types de fausses pièces d'identité étudiées se sont révélées efficaces, un fort pourcentage des documents s'avérant liés (de 30 % à 50 %). La fraude documentaire apparaît comme une criminalité structurée et interrégionale, pour laquelle les liens établis entre fausses pièces d'identité peuvent servir d'aide à l'enquête et de soutien aux décisions stratégiques. Les résultats suggèrent le développement d'approches préventives et répressives pour lutter contre la fraude documentaire.
Resumo:
L'office fédéral de la santé publique (OFSP) a lancé le Monitorage suisse des addictions en 2011 (en anglais : Addiction Monitoring in Switzerland- AMIS). A intervalles réguliers, des données représentatives de la population suisse sont recensées, notamment en ce qui concerne la consommation d'alcool, de tabac, de drogues illégales et de médicaments ainsi que les risques qui lui sont liés. A cet effet, 11'000 personnes âgées de 15 ans et plus sont contactées annuellement pour répondre à un questionnaire. A ce jour, les données de 2011 et 2012 sont disponibles. Dans le cadre du Programme national migration et santé (2008-2013), l'OFSP désire compléter les données disponibles sur la santé des migrants. Ce rapport présente une analyse secondaire des données portant sur les migrants dans le cadre de l'enquête téléphonique continue mentionnée ci-dessus qui a été effectuée auprès de plus de 22'000 personnes de 15 ans et plus, résidant en Suisse en 2011 et 2012.
Resumo:
Depuis les années 1980, la sociologie a connu une résurgence des thèses du déclin des classes sociales qui a provoqué d'importants débats. En matière d'évolution de la structure de classe plus particulièrement, le débat se focalise sur les thèses dites de la « moyennisation » de la société et de l'« aspiration vers le haut ». Dans ce cadre, la société (postindustrielle) serait désormais constituée d'une vaste classe moyenne tendant à provoquer une dissolution générale des frontières de classes. Cet article est une contribution empirique à ce débat et porte, plus précisément, sur l'évolution de la société suisse contemporaine. A priori, le cas suisse peut sembler favorable aux thèses du déclin des classes sociales. En effet, en comparaison européenne, la Suisse connaît un secteur des services supérieur à la moyenne, un chômage inférieur à celle-ci ou encore un niveau de rémunération supérieur à la moyenne ; tous phénomènes souvent mis en avant pour expliquer le déclin affirmé des classes sociales. Afin d'évaluer les thèses sous revue, une série d'hypothèses ont été formulées au sujet de l'évolution de la division du travail (mesurée selon la classification internationale des professions) d'une part, de la structure de classe (approchée par les catégories socioprofessionnelles helvétiques) d'autre part. L'analyse se base sur des données secondaires, ce qui implique une dépendance vis-à-vis des pratiques des institutions « productrices ». Malgré ces limitations méthodologiques, l'analyse montre que - au moins prises comme un tout cohérent - les thèses du déclin des classes sociales sont réfutées dans le cas, pourtant favorable en principe, de la société suisse contemporaine. Ainsi, entre autres, cette dernière s'avère n'être pas plus une société de classes moyennes que de classes populaires ; ce qui la rapproche d'ailleurs de nombreuses sociétés européennes.
Resumo:
AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.
Resumo:
Résumé: L'évaluation de l'exposition aux nuisances professionnelles représente une étape importante dans l'analyse de poste de travail. Les mesures directes sont rarement utilisées sur les lieux même du travail et l'exposition est souvent estimée sur base de jugements d'experts. Il y a donc un besoin important de développer des outils simples et transparents, qui puissent aider les spécialistes en hygiène industrielle dans leur prise de décision quant aux niveaux d'exposition. L'objectif de cette recherche est de développer et d'améliorer les outils de modélisation destinés à prévoir l'exposition. Dans un premier temps, une enquête a été entreprise en Suisse parmi les hygiénistes du travail afin d'identifier les besoins (types des résultats, de modèles et de paramètres observables potentiels). Il a été constaté que les modèles d'exposition ne sont guère employés dans la pratique en Suisse, l'exposition étant principalement estimée sur la base de l'expérience de l'expert. De plus, l'émissions de polluants ainsi que leur dispersion autour de la source ont été considérés comme des paramètres fondamentaux. Pour tester la flexibilité et la précision des modèles d'exposition classiques, des expériences de modélisations ont été effectuées dans des situations concrètes. En particulier, des modèles prédictifs ont été utilisés pour évaluer l'exposition professionnelle au monoxyde de carbone et la comparer aux niveaux d'exposition répertoriés dans la littérature pour des situations similaires. De même, l'exposition aux sprays imperméabilisants a été appréciée dans le contexte d'une étude épidémiologique sur une cohorte suisse. Dans ce cas, certains expériences ont été entreprises pour caractériser le taux de d'émission des sprays imperméabilisants. Ensuite un modèle classique à deux-zone a été employé pour évaluer la dispersion d'aérosol dans le champ proche et lointain pendant l'activité de sprayage. D'autres expériences ont également été effectuées pour acquérir une meilleure compréhension des processus d'émission et de dispersion d'un traceur, en se concentrant sur la caractérisation de l'exposition du champ proche. Un design expérimental a été développé pour effectuer des mesures simultanées dans plusieurs points d'une cabine d'exposition, par des instruments à lecture directe. Il a été constaté que d'un point de vue statistique, la théorie basée sur les compartiments est sensée, bien que l'attribution à un compartiment donné ne pourrait pas se faire sur la base des simples considérations géométriques. Dans une étape suivante, des données expérimentales ont été collectées sur la base des observations faites dans environ 100 lieux de travail différents: des informations sur les déterminants observés ont été associées aux mesures d'exposition des informations sur les déterminants observés ont été associé. Ces différentes données ont été employées pour améliorer le modèle d'exposition à deux zones. Un outil a donc été développé pour inclure des déterminants spécifiques dans le choix du compartiment, renforçant ainsi la fiabilité des prévisions. Toutes ces investigations ont servi à améliorer notre compréhension des outils des modélisations ainsi que leurs limitations. L'intégration de déterminants mieux adaptés aux besoins des experts devrait les inciter à employer cet outil dans leur pratique. D'ailleurs, en augmentant la qualité des outils des modélisations, cette recherche permettra non seulement d'encourager leur utilisation systématique, mais elle pourra également améliorer l'évaluation de l'exposition basée sur les jugements d'experts et, par conséquent, la protection de la santé des travailleurs. Abstract Occupational exposure assessment is an important stage in the management of chemical exposures. Few direct measurements are carried out in workplaces, and exposures are often estimated based on expert judgements. There is therefore a major requirement for simple transparent tools to help occupational health specialists to define exposure levels. The aim of the present research is to develop and improve modelling tools in order to predict exposure levels. In a first step a survey was made among professionals to define their expectations about modelling tools (what types of results, models and potential observable parameters). It was found that models are rarely used in Switzerland and that exposures are mainly estimated from past experiences of the expert. Moreover chemical emissions and their dispersion near the source have also been considered as key parameters. Experimental and modelling studies were also performed in some specific cases in order to test the flexibility and drawbacks of existing tools. In particular, models were applied to assess professional exposure to CO for different situations and compared with the exposure levels found in the literature for similar situations. Further, exposure to waterproofing sprays was studied as part of an epidemiological study on a Swiss cohort. In this case, some laboratory investigation have been undertaken to characterize the waterproofing overspray emission rate. A classical two-zone model was used to assess the aerosol dispersion in the near and far field during spraying. Experiments were also carried out to better understand the processes of emission and dispersion for tracer compounds, focusing on the characterization of near field exposure. An experimental set-up has been developed to perform simultaneous measurements through direct reading instruments in several points. It was mainly found that from a statistical point of view, the compartmental theory makes sense but the attribution to a given compartment could ñó~be done by simple geometric consideration. In a further step the experimental data were completed by observations made in about 100 different workplaces, including exposure measurements and observation of predefined determinants. The various data obtained have been used to improve an existing twocompartment exposure model. A tool was developed to include specific determinants in the choice of the compartment, thus largely improving the reliability of the predictions. All these investigations helped improving our understanding of modelling tools and identify their limitations. The integration of more accessible determinants, which are in accordance with experts needs, may indeed enhance model application for field practice. Moreover, while increasing the quality of modelling tool, this research will not only encourage their systematic use, but might also improve the conditions in which the expert judgments take place, and therefore the workers `health protection.
Resumo:
En aquest projecte s’han unificat les dades de l’empresa Solmania i s’han generat estadístiques i informes a diferents formats mitjançant una aplicació RIA implementada amb Adobe Flex. D’aquesta manera es pot fer un control dels paràmetres clau del negoci per ajudar a la companyia a aconseguir els objectius marcats d’una manera eficient. L’aplicatiu permet analitzar des de diversos punts de vista qualsevol tipus d’informació que genera el negoci i fer-ne comparatives de rendiment.