161 resultados para Nature inspired algorithms


Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUME En faisant référence à la notion de préjugé idéologique, ce travail s'intéresse à la manifestation d'une croyance qui oppose la culture à la nature lors de la classification et l'évaluation des individus. Nous proposons que cette croyance se manifeste par l'attribution de traits spécifiques aux groupes (traits culturels et naturels) et que sa fonction est de justifier la suprématie de l'homme bourgeois blanc occidental sur autrui. Ainsi, nous abordons la perception de plusieurs groupes ethniques de la part d'individus suisses. Notre travail est organisé en trois parties. La première partie présente une étude exploratoire dont l'objectif est de cerner les phénomènes étudiés. Les résultats mettent en évidence que l'attribution de traits culturels .positifs aux groupes ethniques est relativement indépendante de l'attribution de traits naturels positifs àceux-ci: les groupes perçus comme les plus culturels sont également perçus comme les plus naturels. De plus, l'attribution de traits naturels positifs semble sous-tendre une attitude favorable envers les groupes. La deuxième partie reprend les critères qu'identifient les notions de culture et de nature. Les études 2, 3 et 4 ont mis en évidence qu'il y au continuum dans la signification des traits par rapport à .l'être humain et à l'animal. Cela nous a amené sélectionner des traits attribués uniquement à l' être humain (culture) et des traits attribués davantage à l' animal qu'à l'être humain (nature). Les études 5 et 6 de la troisième partie montrent que, lorsqu'il est question de groupes ethniques, l'endogroupe dominant et ses alliés sont associés à la culture positive, alors que des exogroupes spécifiques sont associés à la nature positive (des exogroupes sujets au paternalisme). L'étude 7 confirme les résultats concernant l'endogroupe dominant et ses alliés avec des groupes fictifs et il met en évidence que les membres du groupe dominant utilisent la notion de culture positive pour hiérarchiser les groupes. L'attribution de nature positive n'est pas prise en compte pour hiérarchiser des groupes fictifs. Pour conclure, les études montrent qu'il n'y a pas d'opposition entre la culture et la nature (positives): les membres du groupe ethnique dominant utilisent la notion de culture pour classifier et évaluer les individus sur une hiérarchie de valeurs. La notion de nature n'est pas utilisée pour hiérarchiser les groupes, mais elle identifie des exogroupes spécifiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In vivo dosimetry is a way to verify the radiation dose delivered to the patient in measuring the dose generally during the first fraction of the treatment. It is the only dose delivery control based on a measurement performed during the treatment. In today's radiotherapy practice, the dose delivered to the patient is planned using 3D dose calculation algorithms and volumetric images representing the patient. Due to the high accuracy and precision necessary in radiation treatments, national and international organisations like ICRU and AAPM recommend the use of in vivo dosimetry. It is also mandatory in some countries like France. Various in vivo dosimetry methods have been developed during the past years. These methods are point-, line-, plane- or 3D dose controls. A 3D in vivo dosimetry provides the most information about the dose delivered to the patient, with respect to ID and 2D methods. However, to our knowledge, it is generally not routinely applied to patient treatments yet. The aim of this PhD thesis was to determine whether it is possible to reconstruct the 3D delivered dose using transmitted beam measurements in the context of narrow beams. An iterative dose reconstruction method has been described and implemented. The iterative algorithm includes a simple 3D dose calculation algorithm based on the convolution/superposition principle. The methodology was applied to narrow beams produced by a conventional 6 MV linac. The transmitted dose was measured using an array of ion chambers, as to simulate the linear nature of a tomotherapy detector. We showed that the iterative algorithm converges quickly and reconstructs the dose within a good agreement (at least 3% / 3 mm locally), which is inside the 5% recommended by the ICRU. Moreover it was demonstrated on phantom measurements that the proposed method allows us detecting some set-up errors and interfraction geometry modifications. We also have discussed the limitations of the 3D dose reconstruction for dose delivery error detection. Afterwards, stability tests of the tomotherapy MVCT built-in onboard detector was performed in order to evaluate if such a detector is suitable for 3D in-vivo dosimetry. The detector showed stability on short and long terms comparable to other imaging devices as the EPIDs, also used for in vivo dosimetry. Subsequently, a methodology for the dose reconstruction using the tomotherapy MVCT detector is proposed in the context of static irradiations. This manuscript is composed of two articles and a script providing further information related to this work. In the latter, the first chapter introduces the state-of-the-art of in vivo dosimetry and adaptive radiotherapy, and explains why we are interested in performing 3D dose reconstructions. In chapter 2 a dose calculation algorithm implemented for this work is reviewed with a detailed description of the physical parameters needed for calculating 3D absorbed dose distributions. The tomotherapy MVCT detector used for transit measurements and its characteristics are described in chapter 3. Chapter 4 contains a first article entitled '3D dose reconstruction for narrow beams using ion chamber array measurements', which describes the dose reconstruction method and presents tests of the methodology on phantoms irradiated with 6 MV narrow photon beams. Chapter 5 contains a second article 'Stability of the Helical TomoTherapy HiArt II detector for treatment beam irradiations. A dose reconstruction process specific to the use of the tomotherapy MVCT detector is presented in chapter 6. A discussion and perspectives of the PhD thesis are presented in chapter 7, followed by a conclusion in chapter 8. The tomotherapy treatment device is described in appendix 1 and an overview of 3D conformai- and intensity modulated radiotherapy is presented in appendix 2. - La dosimétrie in vivo est une technique utilisée pour vérifier la dose délivrée au patient en faisant une mesure, généralement pendant la première séance du traitement. Il s'agit de la seule technique de contrôle de la dose délivrée basée sur une mesure réalisée durant l'irradiation du patient. La dose au patient est calculée au moyen d'algorithmes 3D utilisant des images volumétriques du patient. En raison de la haute précision nécessaire lors des traitements de radiothérapie, des organismes nationaux et internationaux tels que l'ICRU et l'AAPM recommandent l'utilisation de la dosimétrie in vivo, qui est devenue obligatoire dans certains pays dont la France. Diverses méthodes de dosimétrie in vivo existent. Elles peuvent être classées en dosimétrie ponctuelle, planaire ou tridimensionnelle. La dosimétrie 3D est celle qui fournit le plus d'information sur la dose délivrée. Cependant, à notre connaissance, elle n'est généralement pas appliquée dans la routine clinique. Le but de cette recherche était de déterminer s'il est possible de reconstruire la dose 3D délivrée en se basant sur des mesures de la dose transmise, dans le contexte des faisceaux étroits. Une méthode itérative de reconstruction de la dose a été décrite et implémentée. L'algorithme itératif contient un algorithme simple basé sur le principe de convolution/superposition pour le calcul de la dose. La dose transmise a été mesurée à l'aide d'une série de chambres à ionisations alignées afin de simuler la nature linéaire du détecteur de la tomothérapie. Nous avons montré que l'algorithme itératif converge rapidement et qu'il permet de reconstruire la dose délivrée avec une bonne précision (au moins 3 % localement / 3 mm). De plus, nous avons démontré que cette méthode permet de détecter certaines erreurs de positionnement du patient, ainsi que des modifications géométriques qui peuvent subvenir entre les séances de traitement. Nous avons discuté les limites de cette méthode pour la détection de certaines erreurs d'irradiation. Par la suite, des tests de stabilité du détecteur MVCT intégré à la tomothérapie ont été effectués, dans le but de déterminer si ce dernier peut être utilisé pour la dosimétrie in vivo. Ce détecteur a démontré une stabilité à court et à long terme comparable à d'autres détecteurs tels que les EPIDs également utilisés pour l'imagerie et la dosimétrie in vivo. Pour finir, une adaptation de la méthode de reconstruction de la dose a été proposée afin de pouvoir l'implémenter sur une installation de tomothérapie. Ce manuscrit est composé de deux articles et d'un script contenant des informations supplémentaires sur ce travail. Dans ce dernier, le premier chapitre introduit l'état de l'art de la dosimétrie in vivo et de la radiothérapie adaptative, et explique pourquoi nous nous intéressons à la reconstruction 3D de la dose délivrée. Dans le chapitre 2, l'algorithme 3D de calcul de dose implémenté pour ce travail est décrit, ainsi que les paramètres physiques principaux nécessaires pour le calcul de dose. Les caractéristiques du détecteur MVCT de la tomothérapie utilisé pour les mesures de transit sont décrites dans le chapitre 3. Le chapitre 4 contient un premier article intitulé '3D dose reconstruction for narrow beams using ion chamber array measurements', qui décrit la méthode de reconstruction et présente des tests de la méthodologie sur des fantômes irradiés avec des faisceaux étroits. Le chapitre 5 contient un second article intitulé 'Stability of the Helical TomoTherapy HiArt II detector for treatment beam irradiations'. Un procédé de reconstruction de la dose spécifique pour l'utilisation du détecteur MVCT de la tomothérapie est présenté au chapitre 6. Une discussion et les perspectives de la thèse de doctorat sont présentées au chapitre 7, suivies par une conclusion au chapitre 8. Le concept de la tomothérapie est exposé dans l'annexe 1. Pour finir, la radiothérapie «informationnelle 3D et la radiothérapie par modulation d'intensité sont présentées dans l'annexe 2.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

BACKGROUND: Thyroid ectopy results from the failure of the thyroid precursor cells to migrate from the primordial pharynx to the anterior part of the neck. Most ectopic thyroids are revealed by congenital hypothyroidism and present as a single round mass at the base of the tongue, with no other thyroid tissue. However, some cases have dual ectopy, with part of the tissue having partially migrated. We hypothesized that this occurs more frequently than previously reported.¦METHODS: To determine the prevalence of dual ectopy, we reviewed the pertechnetate scintigraphies of 81 patients with congenital hypothyroidism from thyroid ectopy diagnosed between 2002 and 2011 at our institution.¦RESULTS: We report a series of seven cases (9%) of dual ectopy, representing an incidence ranging from 1:50,000 to 1:70,000.¦CONCLUSIONS: Almost one in 10 cases with congenital hypothyroidism due to thyroid ectopy has dual ectopy. This suggests that two populations of cells diverged at an early stage of development, which may arise from insufficient signaling gradients in surrounding tissues during early organogenesis or may indirectly support the polyclonal nature of the thyroid.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The development of susceptibility maps for debris flows is of primary importance due to population pressure in hazardous zones. However, hazard assessment by processbased modelling at a regional scale is difficult due to the complex nature of the phenomenon, the variability of local controlling factors, and the uncertainty in modelling parameters. A regional assessment must consider a simplified approach that is not highly parameter dependant and that can provide zonation with minimum data requirements. A distributed empirical model has thus been developed for regional susceptibility assessments using essentially a digital elevation model (DEM). The model is called Flow-R for Flow path assessment of gravitational hazards at a Regional scale (available free of charge under www.flow-r.org) and has been successfully applied to different case studies in various countries with variable data quality. It provides a substantial basis for a preliminary susceptibility assessment at a regional scale. The model was also found relevant to assess other natural hazards such as rockfall, snow avalanches and floods. The model allows for automatic source area delineation, given user criteria, and for the assessment of the propagation extent based on various spreading algorithms and simple frictional laws.We developed a new spreading algorithm, an improved version of Holmgren's direction algorithm, that is less sensitive to small variations of the DEM and that is avoiding over-channelization, and so produces more realistic extents. The choices of the datasets and the algorithms are open to the user, which makes it compliant for various applications and dataset availability. Amongst the possible datasets, the DEM is the only one that is really needed for both the source area delineation and the propagation assessment; its quality is of major importance for the results accuracy. We consider a 10m DEM resolution as a good compromise between processing time and quality of results. However, valuable results have still been obtained on the basis of lower quality DEMs with 25m resolution.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We evaluated 25 protocol variants of 14 independent computational methods for exon identification, transcript reconstruction and expression-level quantification from RNA-seq data. Our results show that most algorithms are able to identify discrete transcript components with high success rates but that assembly of complete isoform structures poses a major challenge even when all constituent elements are identified. Expression-level estimates also varied widely across methods, even when based on similar transcript models. Consequently, the complexity of higher eukaryotic genomes imposes severe limitations on transcript recall and splice product discrimination that are likely to remain limiting factors for the analysis of current-generation RNA-seq data.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

BACKGROUND: Tests for recent infections (TRIs) are important for HIV surveillance. We have shown that a patient's antibody pattern in a confirmatory line immunoassay (Inno-Lia) also yields information on time since infection. We have published algorithms which, with a certain sensitivity and specificity, distinguish between incident (< = 12 months) and older infection. In order to use these algorithms like other TRIs, i.e., based on their windows, we now determined their window periods. METHODS: We classified Inno-Lia results of 527 treatment-naïve patients with HIV-1 infection < = 12 months according to incidence by 25 algorithms. The time after which all infections were ruled older, i.e. the algorithm's window, was determined by linear regression of the proportion ruled incident in dependence of time since infection. Window-based incident infection rates (IIR) were determined utilizing the relationship 'Prevalence = Incidence x Duration' in four annual cohorts of HIV-1 notifications. Results were compared to performance-based IIR also derived from Inno-Lia results, but utilizing the relationship 'incident = true incident + false incident' and also to the IIR derived from the BED incidence assay. RESULTS: Window periods varied between 45.8 and 130.1 days and correlated well with the algorithms' diagnostic sensitivity (R(2) = 0.962; P<0.0001). Among the 25 algorithms, the mean window-based IIR among the 748 notifications of 2005/06 was 0.457 compared to 0.453 obtained for performance-based IIR with a model not correcting for selection bias. Evaluation of BED results using a window of 153 days yielded an IIR of 0.669. Window-based IIR and performance-based IIR increased by 22.4% and respectively 30.6% in 2008, while 2009 and 2010 showed a return to baseline for both methods. CONCLUSIONS: IIR estimations by window- and performance-based evaluations of Inno-Lia algorithm results were similar and can be used together to assess IIR changes between annual HIV notification cohorts.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coherent regulation of landscape as a resource is a major challenge. How can the development interests of some actors (eg cable car operators and property developers) be reconciled with those of others (agriculture, forestry) and with conservation of biodiversity and scenic value? To help understand how the newly introduced Regional Nature Parks (RNPs) can improve the coherence of the regulation regime in Switzerland, we highlight current direct mechanisms for regulation of landscape as a resource (bans, inventories, subsidies) as well as indirect mechanisms (taking place through the regulation of the physical basis of landscapes, eg forest, land, and water planning policies). We show that RNPs are fundamentally innovative because they make it possible to manage and coordinate indirect strategies for appropriate regulation of resources at a landscape scale. In other words, RNPs enable organization of governance of landscape as a resource in a perimeter that is not necessarily restricted to administrative boundaries.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Enterprise-wide architecture has become a necessity for organizations to (re)align information technology (IT) to changing business requirements. Since a city planning metaphor inspired enterprise-wide architecture, this dissertation's research axes can be outlined by similarities between cities and enterprises. Both are characterized as dynamic super-systems that need to address the evolving interest of various architecture stakeholders. Further, both should simultaneously adhere to a set of principles to guide the evolution of architecture towards the expected benefits. The extant literature on enterprise-wide architecture not only disregards architecture adoption's complexities but also remains vague about how principles guide architecture evolution. To bridge this gap, this dissertation contains three interrelated research streams examining the principles and adoption of enterprise-wide architecture. The first research stream investigates organizational intricacies inherent in architecture adoption. It characterizes architecture adoption as an ongoing organizational adaptation process. By analyzing organizational response behaviors in this adaptation process, it also identifies four archetypes that represent very diverse architecture approaches. The second research stream ontologically clarifies the nature of architecture principles along with outlining new avenues for theoretical contributions. This research stream also provides an empirically validated set of principles and proposes a research model illustrating how principles can be applied to generate expected architecture benefits. The third research stream examines architecture adoption in multinational corporations (MNCs). MNCs are Specified by unique organizational characteristics that constantly strive for balancing global integration and local responsiveness. This research stream characterizes MNCs' architecture adoption as a continuous endeavor. This endeavor tries to constantly synchron ize architecture with stakeholders' beliefs about how to balance global integration and local responsiveness. To conclude, this dissertation provides a thorough explanation of a long-term journey in Which organizations learn over time to adopt an effective architecture approach. It also clarifies the role of principles to purposefully guide the aforementioned learning process. - L'Architecture d'Entreprise (AE) est devenue une nécessité pour permettre aux organisations de (ré)aligner les technologies de l'information (TI) avec les changements en termes de besoins métiers. En se basant sur la métaphore de la planification urbaine dont l'AE s'est inspirée, cette dissertation peut être présentée comme une comparaison entre les villes et les entreprises; les deux sont des super-systèmes dynamiques ayant besoin de répondre aux intérêts d'acteurs divers et variés en constants évolution. De plus, les deux devraient souscrire simultanément à un ensemble de principes afin de faire converger l'évolution de l'architecture vers les bénéfices attendus. La littérature sur l'AE, non seulement ne prend pas en considération les complexités de l'adoption d'architecture, mais aussi reste vague sur la manière dont les principes guident l'évolution de l'architecture. Pour pallier ce manque, cette dissertation est composée de trois volets de recherche étroitement liés examinant les principes et l'adoption de l'AE. Le premier volet examine la complexité organisationnelle inhérente à l'adoption de l'architecture. Il caractérise l'adoption de l'architecture en tant que processus d'adaptation continu. En analysant le comportement organisationnel en réponse à ce processus d'adaptation, ce volet distingue quatre archétypes représentant la diversité des approches de l'architecture. Le deuxième volet de recherche clarifie de manière ontologique la nature des principes d'architecture et envisage les contributions théoriques futures possibles. Cet axe de recherche fournit aussi un ensemble de principes, validés de manière empirique, et propose un modèle de recherche illustrant la manière dont ces principes peuvent être appliqués afin de générer les bénéfices attendus de l'architecture. Le troisième volet examine l'adoption de l'architecture dans les entreprises multinationales. Ces dernières possèdent des caractéristiques organisationnelles uniques et sont constamment à la recherche d'un équilibre entre une intégration globale et une flexibilité locale tout en prenant en compte les convictions des divers acteurs sur la manière d'atteindre cet équilibre. Pour conclure, cette dissertation fournit une explication sur le long voyage au cours duquel les entreprises apprennent à adopter une approche d'architecture efficace. Elle clarifie aussi le rôle des principes dans l'accompagnement de ce processus d'apprentissage.