67 resultados para Associative classifier


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Deep brain stimulation (DBS) for Parkinson's disease often alleviates the motor symptoms, but causes cognitive and emotional side effects in a substantial number of cases. Identification of the motor part of the subthalamic nucleus (STN) as part of the presurgical workup could minimize these adverse effects. In this study, we assessed the STN's connectivity to motor, associative, and limbic brain areas, based on structural and functional connectivity analysis of volunteer data. For the structural connectivity, we used streamline counts derived from HARDI fiber tracking. The resulting tracks supported the existence of the so-called "hyperdirect" pathway in humans. Furthermore, we determined the connectivity of each STN voxel with the motor cortical areas. Functional connectivity was calculated based on functional MRI, as the correlation of the signal within a given brain voxel with the signal in the STN. Also, the signal per STN voxel was explained in terms of the correlation with motor or limbic brain seed ROI areas. Both right and left STN ROIs appeared to be structurally and functionally connected to brain areas that are part of the motor, associative, and limbic circuit. Furthermore, this study enabled us to assess the level of segregation of the STN motor part, which is relevant for the planning of STN DBS procedures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary [résumé français voir ci-dessous] From the beginning of the 20th century the world population has been confronted with the human immune deficiency virus 1 (HIV-1). This virus has the particularity to mutate fast, and could thus evade and adapt to the human host. Our closest evolutionary related organisms, the non-human primates, are less susceptible to HIV-1. In a broader sense, primates are differentially susceptible to various retrovirus. Species specificity may be due to genetic differences among primates. In the present study we applied evolutionary and comparative genetic techniques to characterize the evolutionary pattern of host cellular determinants of HIV-1 pathogenesis. The study of the evolution of genes coding for proteins participating to the restriction or pathogenesis of HIV-1 may help understanding the genetic basis of modern human susceptibility to infection. To perform comparative genetics analysis, we constituted a collection of primate DNA and RNA to allow generation of de novo sequence of gene orthologs. More recently, release to the public domain of two new primate complete genomes (bornean orang-utan and common marmoset) in addition of the three previously available genomes (human, chimpanzee and Rhesus monkey) help scaling up the evolutionary and comparative genome analysis. Sequence analysis used phylogenetic and statistical methods for detecting molecular adaptation. We identified different selective pressures acting on host proteins involved in HIV-1 pathogenesis. Proteins with HIV-1 restriction properties in non-human primates were under strong positive selection, in particular in regions of interaction with viral proteins. These regions carried key residues for the antiviral activity. Proteins of the innate immunity presented an evolutionary pattern of conservation (purifying selection) but with signals of relaxed constrain if we compared them to the average profile of purifying selection of the primate genomes. Large scale analysis resulted in patterns of evolutionary pressures according to molecular function, biological process and cellular distribution. The data generated by various analyses served to guide the ancestral reconstruction of TRIM5a a potent antiviral host factor. The resurrected TRIM5a from the common ancestor of Old world monkeys was effective against HIV-1 and the recent resurrected hominoid variants were more effective against other retrovirus. Thus, as the result of trade-offs in the ability to restrict different retrovirus, human might have been exposed to HIV-1 at a time when TRIM5a lacked the appropriate specific restriction activity. The application of evolutionary and comparative genetic tools should be considered for the systematical assessment of host proteins relevant in viral pathogenesis, and to guide biological and functional studies. Résumé La population mondiale est confrontée depuis le début du vingtième siècle au virus de l'immunodéficience humaine 1 (VIH-1). Ce virus a un taux de mutation particulièrement élevé, il peut donc s'évader et s'adapter très efficacement à son hôte. Les organismes évolutivement le plus proches de l'homme les primates nonhumains sont moins susceptibles au VIH-1. De façon générale, les primates répondent différemment aux rétrovirus. Cette spécificité entre espèces doit résider dans les différences génétiques entre primates. Dans cette étude nous avons appliqué des techniques d'évolution et de génétique comparative pour caractériser le modèle évolutif des déterminants cellulaires impliqués dans la pathogenèse du VIH- 1. L'étude de l'évolution des gènes, codant pour des protéines impliquées dans la restriction ou la pathogenèse du VIH-1, aidera à la compréhension des bases génétiques ayant récemment rendu l'homme susceptible. Pour les analyses de génétique comparative, nous avons constitué une collection d'ADN et d'ARN de primates dans le but d'obtenir des nouvelles séquences de gènes orthologues. Récemment deux nouveaux génomes complets ont été publiés (l'orang-outan du Bornéo et Marmoset commun) en plus des trois génomes déjà disponibles (humain, chimpanzé, macaque rhésus). Ceci a permis d'améliorer considérablement l'étendue de l'analyse. Pour détecter l'adaptation moléculaire nous avons analysé les séquences à l'aide de méthodes phylogénétiques et statistiques. Nous avons identifié différentes pressions de sélection agissant sur les protéines impliquées dans la pathogenèse du VIH-1. Des protéines avec des propriétés de restriction du VIH-1 dans les primates non-humains présentent un taux particulièrement haut de remplacement d'acides aminés (sélection positive). En particulier dans les régions d'interaction avec les protéines virales. Ces régions incluent des acides aminés clé pour l'activité de restriction. Les protéines appartenant à l'immunité inné présentent un modèle d'évolution de conservation (sélection purifiante) mais avec des traces de "relaxation" comparé au profil général de sélection purifiante du génome des primates. Une analyse à grande échelle a permis de classifier les modèles de pression évolutive selon leur fonction moléculaire, processus biologique et distribution cellulaire. Les données générées par les différentes analyses ont permis la reconstruction ancestrale de TRIM5a, un puissant facteur antiretroviral. Le TRIM5a ressuscité, correspondant à l'ancêtre commun entre les grands singes et les groupe des catarrhiniens, est efficace contre le VIH-1 moderne. Les TRIM5a ressuscités plus récents, correspondant aux ancêtres des grands singes, sont plus efficaces contre d'autres rétrovirus. Ainsi, trouver un compromis dans la capacité de restreindre différents rétrovirus, l'homme aurait été exposé au VIH-1 à une période où TRIM5a manquait d'activité de restriction spécifique contre celui-ci. L'application de techniques d'évolution et de génétique comparative devraient être considérées pour l'évaluation systématique de protéines impliquées dans la pathogenèse virale, ainsi que pour guider des études biologiques et fonctionnelles

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUCTION La loi peut-elle conduire à l'injustice ? Depuis l'antiquité, les rapports entre la loi et la justice constituent un thème fondamental de la pensée occidentale. En témoigne notamment la récurrence, à travers les siècles, du débat entre jusnaturalistes -qui postulent l'existence et la prééminence d'un droit naturel, toujours conforme à l'équité - et positivistes - pour lesquels la question du caractère juste ou injuste d'une loi valablement édictée n'est d'aucune pertinence. Cette préoccupation n'atteint toutefois pas aux seules réflexions spéculatives des théoriciens du droit. La plupart des législateurs ont cherché à fonder leurs normes sur l'équité, et à les conformer ainsi à l'idée de justice qui prévalait lors de leur adoption. La question peut se poser toutefois de l'existence possible d'une «loi juste dans l'abstrait, antérieurement à toute concrétisation. N'est-ce pas au contraire le sort de toute norme que d'échapper à son auteur et de voir son sens précisé, complété, voire modifié au travers des multiples cas qu'elle est appelée à régler? Aristote avait déjà mis en évidence l'imperfection inhérente à toute norme générale. Aucun législateur ne peut en effet envisager la multiplicité des hypothèses dans lesquelles les particuliers invoqueront la norme par lui édictée. Il arrive dès lors que le juge soit confronté à une prétention qui paraît régulièrement fondée en droit, mais dont la mise en oeuvre en l'espèce aboutit à une injustice. Pour cette raison, la plupart des systèmes juridiques ont développé des moyens destinés à éviter que l'application du droit conduise à un résultat injuste que ri avait pas envisagé l'auteur de la norme. Cette étude se propose tout d'abord d'examiner la solution du droit romain. Celui-ci a en effet développé, à travers l'exceptio doli, une institution qui permet au magistrat de paralyser les effets d'une prétention, pourtant parfaitement fondée en droit civil. Après un examen du contexte de son apparition (titre I), il s'agira d'en étudier - en tentant de les classifier - les nombreux cas d'application (titre II), avant de proposer une définition générale de l'institution (titre III). Seront ensuite décrites les principales étapes de l'évolution de l'exceptio doli, à partir de la fin de l'Empire romain d'Occident, jusqu'au XXe siècle de notre ère (titre IV). Codifié au début du XXe siècle, le droit privé suisse a certes concrétisé, par nombre de dispositions particulières, les divers cas d'application de l'exceptio doli ; il connaît cependant une institution - l'interdiction de l'abus de droit (art. 2 al. 2 CC) - dont la fonction paraît très analogue à celle de l'antique exception de dol (titre V). Il conviendra d'examiner les hypothèses d'abus de droit qui correspondent aux cas d'application de l'exceptio doli (titre VI) et celles qui doivent leur origine à d'autres institutions (titre VII). On aura ainsi mis en évidence l'étendue du lien de filiation entre l'antique exceptio doli et l'interdiction de l'abus de droit en droit suisse, deux institutions vouées à la concrétisation de l'idée de justice lors de la mise en oeuvre des normes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Purpose of review: An overview of recent advances in structural neuroimaging and their impact on movement disorders research is presented. Recent findings: Novel developments in computational neuroanatomy and improvements in magnetic resonance image quality have brought further insight into the pathophysiology of movement disorders. Sophisticated automated techniques allow for sensitive and reliable in-vivo differentiation of phenotype/genotype related traits and their interaction even at presymptomatic stages of disease. Summary: Voxel-based morphometry consistently demonstrates well defined patterns of brain structure changes in movement disorders. Advanced stages of idiopathic Parkinson's disease are characterized by grey matter volume decreases in basal ganglia. Depending on the presence of cognitive impairment, volume changes are reported in widespread cortical and limbic areas. Atypical Parkinsonian syndromes still pose a challenge for accurate morphometry-based classification, especially in early stages of disease progression. Essential tremor has been mainly associated with thalamic and cerebellar changes. Studies on preclinical Huntington's disease show progressive loss of tissue in the caudate and cortical thinning related to distinct motor and cognitive phenotypes. Basal ganglia volume in primary dystonia reveals an interaction between genotype and phenotype such that brain structure changes are modulated by the presence of symptoms under the influence of genetic factors. Tics in Tourette's syndrome correlate with brain structure changes in limbic, motor and associative fronto-striato-parietal circuits. Computational neuroanatomy provides useful tools for in-vivo assessment of brain structure in movement disorders, allowing for accurate classification in early clinical stages as well as for monitoring therapy effects and/or disease progression.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Many classifiers achieve high levels of accuracy but have limited applicability in real world situations because they do not lead to a greater understanding or insight into the^way features influence the classification. In areas such as health informatics a classifier that clearly identifies the influences on classification can be used to direct research and formulate interventions. This research investigates the practical applications of Automated Weighted Sum, (AWSum), a classifier that provides accuracy comparable to other techniques whilst providing insight into the data. This is achieved by calculating a weight for each feature value that represents its influence on the class value. The merits of this approach in classification and insight are evaluated on a Cystic Fibrosis and Diabetes datasets with positive results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we propose two active learning algorithms for semiautomatic definition of training samples in remote sensing image classification. Based on predefined heuristics, the classifier ranks the unlabeled pixels and automatically chooses those that are considered the most valuable for its improvement. Once the pixels have been selected, the analyst labels them manually and the process is iterated. Starting with a small and nonoptimal training set, the model itself builds the optimal set of samples which minimizes the classification error. We have applied the proposed algorithms to a variety of remote sensing data, including very high resolution and hyperspectral images, using support vector machines. Experimental results confirm the consistency of the methods. The required number of training samples can be reduced to 10% using the methods proposed, reaching the same level of accuracy as larger data sets. A comparison with a state-of-the-art active learning method, margin sampling, is provided, highlighting advantages of the methods proposed. The effect of spatial resolution and separability of the classes on the quality of the selection of pixels is also discussed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les questions de mal-être au travail et de risques psychosociaux sont centrales dans le monde du travail actuel. L'ergonomie nous enseigne qu'une analyse des formes d'organisation du travail est nécessaire pour comprendre les origines des plaintes des travailleurs. Dans cette recherche, nous avons étudié une population spécifique, les employés du siège d'une organisation non gouvernementale humanitaire en Suisse (150 personnes environ). Partant du constat de l'expression de nombreuses plaintes de fatigue et de mal-être au travail par ces employés, nous avons cherché à objectiver ces plaintes et avons étudié les éléments d'organisation susceptibles d'y être liés.Dans le cadre d'une démarche inductive, nous avons utilisé conjointement des méthodes qualitatives (entretiens semi-directifs, observation non participante) et quantitatives (questionnaires) et avons appliqué le principe de triangulation méthodologique pour l'analyse des données.Trois thématiques relatives au mode de fonctionnement de l'organisation ont émergé des analyses : le fonctionnement dans l'urgence en permanence, la professionnalisation de l'organisation et le fort engagement des employés dans leur activité.L'organisation fonctionne selon une logique d'urgence en permanence. La nature de ses interventions, qui sont considérées de la plus haute importance, et la forte valorisation des activités « de terrain » conduisent à l'enfermement de l'activité dans la gestion des tâches urgentes, ce qui ne laisse pas de place à l'anticipation et à la planification. Ensuite, cette organisation a connu une forte croissance au cours des dernières décennies : d'une petite association, elle est devenue une véritable institution. La logique de fonctionnement institutionnelle n'est cependant pas venue remplacer totalement la logique associative, mais toutes deux cohabitent. L'organisation continue à demander à ses employés un engagement associatif et militant total mais applique parallèlement un management de type entrepreneurial, ce qui génère des messages paradoxaux pour les employés. Finalement, le fonctionnement de l'organisation dans son ensemble repose sur l'engagement de toute la chaîne des acteurs. Ceci est clairement intégré et repris par les employés du siège : ils relèvent que ce qu'ils font représente bien plus qu'un travail et qu'il est nécessaire de « tout donner », car les besoins sont immenses et la charge de travail énorme. Cependant, la limite entre engagement et surengagement conduisant à l'épuisement est très facilement franchie.Ces éléments participent à générer un environnement de travail potentiellement pathogène, où il est peu légitime pour l'employé de se préoccuper de sa propre santé, et où la charge de travail et le rythme ne lui laissent pas le temps de mettre en place des stratégies de préservation de sa santé. Ce mode de fonctionnement spécifique véhicule des messages paradoxaux et soumet les employés à des exigences contradictoires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

BACKGROUND: With the large amount of biological data that is currently publicly available, many investigators combine multiple data sets to increase the sample size and potentially also the power of their analyses. However, technical differences ("batch effects") as well as differences in sample composition between the data sets may significantly affect the ability to draw generalizable conclusions from such studies. FOCUS: The current study focuses on the construction of classifiers, and the use of cross-validation to estimate their performance. In particular, we investigate the impact of batch effects and differences in sample composition between batches on the accuracy of the classification performance estimate obtained via cross-validation. The focus on estimation bias is a main difference compared to previous studies, which have mostly focused on the predictive performance and how it relates to the presence of batch effects. DATA: We work on simulated data sets. To have realistic intensity distributions, we use real gene expression data as the basis for our simulation. Random samples from this expression matrix are selected and assigned to group 1 (e.g., 'control') or group 2 (e.g., 'treated'). We introduce batch effects and select some features to be differentially expressed between the two groups. We consider several scenarios for our study, most importantly different levels of confounding between groups and batch effects. METHODS: We focus on well-known classifiers: logistic regression, Support Vector Machines (SVM), k-nearest neighbors (kNN) and Random Forests (RF). Feature selection is performed with the Wilcoxon test or the lasso. Parameter tuning and feature selection, as well as the estimation of the prediction performance of each classifier, is performed within a nested cross-validation scheme. The estimated classification performance is then compared to what is obtained when applying the classifier to independent data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Among the types of remote sensing acquisitions, optical images are certainly one of the most widely relied upon data sources for Earth observation. They provide detailed measurements of the electromagnetic radiation reflected or emitted by each pixel in the scene. Through a process termed supervised land-cover classification, this allows to automatically yet accurately distinguish objects at the surface of our planet. In this respect, when producing a land-cover map of the surveyed area, the availability of training examples representative of each thematic class is crucial for the success of the classification procedure. However, in real applications, due to several constraints on the sample collection process, labeled pixels are usually scarce. When analyzing an image for which those key samples are unavailable, a viable solution consists in resorting to the ground truth data of other previously acquired images. This option is attractive but several factors such as atmospheric, ground and acquisition conditions can cause radiometric differences between the images, hindering therefore the transfer of knowledge from one image to another. The goal of this Thesis is to supply remote sensing image analysts with suitable processing techniques to ensure a robust portability of the classification models across different images. The ultimate purpose is to map the land-cover classes over large spatial and temporal extents with minimal ground information. To overcome, or simply quantify, the observed shifts in the statistical distribution of the spectra of the materials, we study four approaches issued from the field of machine learning. First, we propose a strategy to intelligently sample the image of interest to collect the labels only in correspondence of the most useful pixels. This iterative routine is based on a constant evaluation of the pertinence to the new image of the initial training data actually belonging to a different image. Second, an approach to reduce the radiometric differences among the images by projecting the respective pixels in a common new data space is presented. We analyze a kernel-based feature extraction framework suited for such problems, showing that, after this relative normalization, the cross-image generalization abilities of a classifier are highly increased. Third, we test a new data-driven measure of distance between probability distributions to assess the distortions caused by differences in the acquisition geometry affecting series of multi-angle images. Also, we gauge the portability of classification models through the sequences. In both exercises, the efficacy of classic physically- and statistically-based normalization methods is discussed. Finally, we explore a new family of approaches based on sparse representations of the samples to reciprocally convert the data space of two images. The projection function bridging the images allows a synthesis of new pixels with more similar characteristics ultimately facilitating the land-cover mapping across images.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : The occupational health risk involved with handling nanoparticles is the probability that a worker will experience an adverse health effect: this is calculated as a function of the worker's exposure relative to the potential biological hazard of the material. Addressing the risks of nanoparticles requires therefore knowledge on occupational exposure and the release of nanoparticles into the environment as well as toxicological data. However, information on exposure is currently not systematically collected; therefore this risk assessment lacks quantitative data. This thesis aimed at, first creating the fundamental data necessary for a quantitative assessment and, second, evaluating methods to measure the occupational nanoparticle exposure. The first goal was to determine what is being used where in Swiss industries. This was followed by an evaluation of the adequacy of existing measurement methods to assess workplace nanopaiticle exposure to complex size distributions and concentration gradients. The study was conceived as a series of methodological evaluations aimed at better understanding nanoparticle measurement devices and methods. lt focused on inhalation exposure to airborne particles, as respiration is considered to be the most important entrance pathway for nanoparticles in the body in terms of risk. The targeted survey (pilot study) was conducted as a feasibility study for a later nationwide survey on the handling of nanoparticles and the applications of specific protection means in industry. The study consisted of targeted phone interviews with health and safety officers of Swiss companies that were believed to use or produce nanoparticles. This was followed by a representative survey on the level of nanoparticle usage in Switzerland. lt was designed based on the results of the pilot study. The study was conducted among a representative selection of clients of the Swiss National Accident Insurance Fund (SUVA), covering about 85% of Swiss production companies. The third part of this thesis focused on the methods to measure nanoparticles. Several pre- studies were conducted studying the limits of commonly used measurement devices in the presence of nanoparticle agglomerates, This focus was chosen, because several discussions with users and producers of the measurement devices raised questions about their accuracy measuring nanoparticle agglomerates and because, at the same time, the two survey studies revealed that such powders are frequently used in industry. The first preparatory experiment focused on the accuracy of the scanning mobility particle sizer (SMPS), which showed an improbable size distribution when measuring powders of nanoparticle agglomerates. Furthermore, the thesis includes a series of smaller experiments that took a closer look at problems encountered with other measurement devices in the presence of nanoparticle agglomerates: condensation particle counters (CPC), portable aerosol spectrometer (PAS) a device to estimate the aerodynamic diameter, as well as diffusion size classifiers. Some initial feasibility tests for the efficiency of filter based sampling and subsequent counting of carbon nanotubes (CNT) were conducted last. The pilot study provided a detailed picture of the types and amounts of nanoparticles used and the knowledge of the health and safety experts in the companies. Considerable maximal quantities (> l'000 kg/year per company) of Ag, Al-Ox, Fe-Ox, SiO2, TiO2, and ZnO (mainly first generation particles) were declared by the contacted Swiss companies, The median quantity of handled nanoparticles, however, was 100 kg/year. The representative survey was conducted by contacting by post mail a representative selection of l '626 SUVA-clients (Swiss Accident Insurance Fund). It allowed estimation of the number of companies and workers dealing with nanoparticles in Switzerland. The extrapolation from the surveyed companies to all companies of the Swiss production sector suggested that l'309 workers (95%-confidence interval l'073 to l'545) of the Swiss production sector are potentially exposed to nanoparticles in 586 companies (145 to l'027). These numbers correspond to 0.08% (0.06% to 0.09%) of all workers and to 0.6% (0.2% to 1.1%) of companies in the Swiss production sector. To measure airborne concentrations of sub micrometre-sized particles, a few well known methods exist. However, it was unclear how well the different instruments perform in the presence of the often quite large agglomerates of nanostructured materials. The evaluation of devices and methods focused on nanoparticle agglomerate powders. lt allowed the identification of the following potential sources of inaccurate measurements at workplaces with considerable high concentrations of airborne agglomerates: - A standard SMPS showed bi-modal particle size distributions when measuring large nanoparticle agglomerates. - Differences in the range of a factor of a thousand were shown between diffusion size classifiers and CPC/SMPS. - The comparison between CPC/SMPS and portable aerosol Spectrometer (PAS) was much better, but depending on the concentration, size or type of the powders measured, the differences were still of a high order of magnitude - Specific difficulties and uncertainties in the assessment of workplaces were identified: the background particles can interact with particles created by a process, which make the handling of background concentration difficult. - Electric motors produce high numbers of nanoparticles and confound the measurement of the process-related exposure. Conclusion: The surveys showed that nanoparticles applications exist in many industrial sectors in Switzerland and that some companies already use high quantities of them. The representative survey demonstrated a low prevalence of nanoparticle usage in most branches of the Swiss industry and led to the conclusion that the introduction of applications using nanoparticles (especially outside industrial chemistry) is only beginning. Even though the number of potentially exposed workers was reportedly rather small, it nevertheless underscores the need for exposure assessments. Understanding exposure and how to measure it correctly is very important because the potential health effects of nanornaterials are not yet fully understood. The evaluation showed that many devices and methods of measuring nanoparticles need to be validated for nanoparticles agglomerates before large exposure assessment studies can begin. Zusammenfassung : Das Gesundheitsrisiko von Nanopartikel am Arbeitsplatz ist die Wahrscheinlichkeit dass ein Arbeitnehmer einen möglichen Gesundheitsschaden erleidet wenn er diesem Stoff ausgesetzt ist: sie wird gewöhnlich als Produkt von Schaden mal Exposition gerechnet. Für eine gründliche Abklärung möglicher Risiken von Nanomaterialien müssen also auf der einen Seite Informationen über die Freisetzung von solchen Materialien in die Umwelt vorhanden sein und auf der anderen Seite solche über die Exposition von Arbeitnehmenden. Viele dieser Informationen werden heute noch nicht systematisch gesarnmelt und felilen daher für Risikoanalysen, Die Doktorarbeit hatte als Ziel, die Grundlagen zu schaffen für eine quantitative Schatzung der Exposition gegenüber Nanopartikel am Arbeitsplatz und die Methoden zu evaluieren die zur Messung einer solchen Exposition nötig sind. Die Studie sollte untersuchen, in welchem Ausmass Nanopartikel bereits in der Schweizer Industrie eingesetzt werden, wie viele Arbeitnehrner damit potentiel] in Kontakt komrrien ob die Messtechnologie für die nötigen Arbeitsplatzbelastungsmessungen bereits genügt, Die Studie folcussierte dabei auf Exposition gegenüber luftgetragenen Partikel, weil die Atmung als Haupteintrittspforte iïlr Partikel in den Körper angesehen wird. Die Doktorarbeit besteht baut auf drei Phasen auf eine qualitative Umfrage (Pilotstudie), eine repräsentative, schweizerische Umfrage und mehrere technische Stndien welche dem spezitischen Verständnis der Mëglichkeiten und Grenzen einzelner Messgeräte und - teclmikeri dienen. Die qualitative Telephonumfrage wurde durchgeführt als Vorstudie zu einer nationalen und repräsentativen Umfrage in der Schweizer Industrie. Sie zielte auf Informationen ab zum Vorkommen von Nanopartikeln, und den angewendeten Schutzmassnahmen. Die Studie bestand aus gezielten Telefoninterviews mit Arbeit- und Gesundheitsfachpersonen von Schweizer Unternehmen. Die Untemehmen wurden aufgrund von offentlich zugànglichen lnformationen ausgewählt die darauf hinwiesen, dass sie mit Nanopartikeln umgehen. Der zweite Teil der Dolctorarbeit war die repräsentative Studie zur Evalniernng der Verbreitnng von Nanopaitikelanwendungen in der Schweizer lndustrie. Die Studie baute auf lnformationen der Pilotstudie auf und wurde mit einer repräsentativen Selektion von Firmen der Schweizerischen Unfall Versicherungsanstalt (SUVA) durchgeüihxt. Die Mehrheit der Schweizerischen Unternehmen im lndustrieselctor wurde damit abgedeckt. Der dritte Teil der Doktorarbeit fokussierte auf die Methodik zur Messung von Nanopartikeln. Mehrere Vorstudien wurden dnrchgefîihrt, um die Grenzen von oft eingesetzten Nanopartikelmessgeräten auszuloten, wenn sie grösseren Mengen von Nanopartikel Agglomeraten ausgesetzt messen sollen. Dieser F okns wurde ans zwei Gründen gewählt: weil mehrere Dislcussionen rnit Anwendem und auch dem Produzent der Messgeràte dort eine Schwachstelle vermuten liessen, welche Zweifel an der Genauigkeit der Messgeräte aufkommen liessen und weil in den zwei Umfragestudien ein häufiges Vorkommen von solchen Nanopartikel-Agglomeraten aufgezeigt wurde. i Als erstes widmete sich eine Vorstndie der Genauigkeit des Scanning Mobility Particle Sizer (SMPS). Dieses Messgerät zeigte in Präsenz von Nanopartikel Agglorneraten unsinnige bimodale Partikelgrössenverteilung an. Eine Serie von kurzen Experimenten folgte, welche sich auf andere Messgeräte und deren Probleme beim Messen von Nanopartikel-Agglomeraten konzentrierten. Der Condensation Particle Counter (CPC), der portable aerosol spectrometer (PAS), ein Gerät zur Schàtzung des aerodynamischen Durchniessers von Teilchen, sowie der Diffusion Size Classifier wurden getestet. Einige erste Machbarkeitstests zur Ermittlnng der Effizienz von tilterbasierter Messung von luftgetragenen Carbon Nanotubes (CNT) wnrden als letztes durchgeiührt. Die Pilotstudie hat ein detailliiertes Bild der Typen und Mengen von genutzten Nanopartikel in Schweizer Unternehmen geliefert, und hat den Stand des Wissens der interviewten Gesundheitsschntz und Sicherheitsfachleute aufgezeigt. Folgende Typen von Nanopaitikeln wurden von den kontaktierten Firmen als Maximalmengen angegeben (> 1'000 kg pro Jahr / Unternehrnen): Ag, Al-Ox, Fe-Ox, SiO2, TiO2, und ZnO (hauptsächlich Nanopartikel der ersten Generation). Die Quantitäten von eingesetzten Nanopartikeln waren stark verschieden mit einem ein Median von 100 kg pro Jahr. ln der quantitativen Fragebogenstudie wurden l'626 Unternehmen brieflich kontaktiert; allesamt Klienten der Schweizerischen Unfallversicherringsanstalt (SUVA). Die Resultate der Umfrage erlaubten eine Abschätzung der Anzahl von Unternehmen und Arbeiter, welche Nanopartikel in der Schweiz anwenden. Die Hochrechnung auf den Schweizer lndnstriesektor hat folgendes Bild ergeben: ln 586 Unternehmen (95% Vertrauensintervallz 145 bis 1'027 Unternehmen) sind 1'309 Arbeiter potentiell gegenüber Nanopartikel exponiert (95%-Vl: l'073 bis l'545). Diese Zahlen stehen für 0.6% der Schweizer Unternehmen (95%-Vl: 0.2% bis 1.1%) und 0.08% der Arbeiternehmerschaft (95%-V1: 0.06% bis 0.09%). Es gibt einige gut etablierte Technologien um die Luftkonzentration von Submikrometerpartikel zu messen. Es besteht jedoch Zweifel daran, inwiefern sich diese Technologien auch für die Messurrg von künstlich hergestellten Nanopartikeln verwenden lassen. Aus diesem Grund folcussierten die vorbereitenden Studien für die Arbeitsplatzbeurteilnngen auf die Messung von Pulverri, welche Nan0partike1-Agg10merate enthalten. Sie erlaubten die ldentifikation folgender rnöglicher Quellen von fehlerhaften Messungen an Arbeitsplätzen mit erhöhter Luft-K0nzentrati0n von Nanopartikel Agglomeratenz - Ein Standard SMPS zeigte eine unglaubwürdige bimodale Partikelgrössenverteilung wenn er grössere Nan0par'til<e1Agg10merate gemessen hat. - Grosse Unterschiede im Bereich von Faktor tausend wurden festgestellt zwischen einem Diffusion Size Classiîier und einigen CPC (beziehungsweise dem SMPS). - Die Unterschiede zwischen CPC/SMPS und dem PAS waren geringer, aber abhängig von Grosse oder Typ des gemessenen Pulvers waren sie dennoch in der Grössenordnung von einer guten Grössenordnung. - Spezifische Schwierigkeiten und Unsicherheiten im Bereich von Arbeitsplatzmessungen wurden identitiziert: Hintergrundpartikel können mit Partikeln interagieren die während einem Arbeitsprozess freigesetzt werden. Solche Interaktionen erschweren eine korrekte Einbettung der Hintergrunds-Partikel-Konzentration in die Messdaten. - Elektromotoren produzieren grosse Mengen von Nanopartikeln und können so die Messung der prozessbezogenen Exposition stören. Fazit: Die Umfragen zeigten, dass Nanopartikel bereits Realitàt sind in der Schweizer Industrie und dass einige Unternehmen bereits grosse Mengen davon einsetzen. Die repräsentative Umfrage hat diese explosive Nachricht jedoch etwas moderiert, indem sie aufgezeigt hat, dass die Zahl der Unternehmen in der gesamtschweizerischen Industrie relativ gering ist. In den meisten Branchen (vor allem ausserhalb der Chemischen Industrie) wurden wenig oder keine Anwendungen gefunden, was schliessen last, dass die Einführung dieser neuen Technologie erst am Anfang einer Entwicklung steht. Auch wenn die Zahl der potentiell exponierten Arbeiter immer noch relativ gering ist, so unterstreicht die Studie dennoch die Notwendigkeit von Expositionsmessungen an diesen Arbeitsplätzen. Kenntnisse um die Exposition und das Wissen, wie solche Exposition korrekt zu messen, sind sehr wichtig, vor allem weil die möglichen Auswirkungen auf die Gesundheit noch nicht völlig verstanden sind. Die Evaluation einiger Geräte und Methoden zeigte jedoch, dass hier noch Nachholbedarf herrscht. Bevor grössere Mess-Studien durgefîihrt werden können, müssen die Geräte und Methodem für den Einsatz mit Nanopartikel-Agglomeraten validiert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Discriminating complex sounds relies on multiple stages of differential brain activity. The specific roles of these stages and their links to perception were the focus of the present study. We presented 250ms duration sounds of living and man-made objects while recording 160-channel electroencephalography (EEG). Subjects categorized each sound as that of a living, man-made or unknown item. We tested whether/when the brain discriminates between sound categories even when not transpiring behaviorally. We applied a single-trial classifier that identified voltage topographies and latencies at which brain responses are most discriminative. For sounds that the subjects could not categorize, we could successfully decode the semantic category based on differences in voltage topographies during the 116-174ms post-stimulus period. Sounds that were correctly categorized as that of a living or man-made item by the same subjects exhibited two periods of differences in voltage topographies at the single-trial level. Subjects exhibited differential activity before the sound ended (starting at 112ms) and on a separate period at ~270ms post-stimulus onset. Because each of these periods could be used to reliably decode semantic categories, we interpreted the first as being related to an implicit tuning for sound representations and the second as being linked to perceptual decision-making processes. Collectively, our results show that the brain discriminates environmental sounds during early stages and independently of behavioral proficiency and that explicit sound categorization requires a subsequent processing stage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SUMMARY: A top scoring pair (TSP) classifier consists of a pair of variables whose relative ordering can be used for accurately predicting the class label of a sample. This classification rule has the advantage of being easily interpretable and more robust against technical variations in data, as those due to different microarray platforms. Here we describe a parallel implementation of this classifier which significantly reduces the training time, and a number of extensions, including a multi-class approach, which has the potential of improving the classification performance. AVAILABILITY AND IMPLEMENTATION: Full C++ source code and R package Rgtsp are freely available from http://lausanne.isb-sib.ch/~vpopovic/research/. The implementation relies on existing OpenMP libraries.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : This work is concerned with the development and application of novel unsupervised learning methods, having in mind two target applications: the analysis of forensic case data and the classification of remote sensing images. First, a method based on a symbolic optimization of the inter-sample distance measure is proposed to improve the flexibility of spectral clustering algorithms, and applied to the problem of forensic case data. This distance is optimized using a loss function related to the preservation of neighborhood structure between the input space and the space of principal components, and solutions are found using genetic programming. Results are compared to a variety of state-of--the-art clustering algorithms. Subsequently, a new large-scale clustering method based on a joint optimization of feature extraction and classification is proposed and applied to various databases, including two hyperspectral remote sensing images. The algorithm makes uses of a functional model (e.g., a neural network) for clustering which is trained by stochastic gradient descent. Results indicate that such a technique can easily scale to huge databases, can avoid the so-called out-of-sample problem, and can compete with or even outperform existing clustering algorithms on both artificial data and real remote sensing images. This is verified on small databases as well as very large problems. Résumé : Ce travail de recherche porte sur le développement et l'application de méthodes d'apprentissage dites non supervisées. Les applications visées par ces méthodes sont l'analyse de données forensiques et la classification d'images hyperspectrales en télédétection. Dans un premier temps, une méthodologie de classification non supervisée fondée sur l'optimisation symbolique d'une mesure de distance inter-échantillons est proposée. Cette mesure est obtenue en optimisant une fonction de coût reliée à la préservation de la structure de voisinage d'un point entre l'espace des variables initiales et l'espace des composantes principales. Cette méthode est appliquée à l'analyse de données forensiques et comparée à un éventail de méthodes déjà existantes. En second lieu, une méthode fondée sur une optimisation conjointe des tâches de sélection de variables et de classification est implémentée dans un réseau de neurones et appliquée à diverses bases de données, dont deux images hyperspectrales. Le réseau de neurones est entraîné à l'aide d'un algorithme de gradient stochastique, ce qui rend cette technique applicable à des images de très haute résolution. Les résultats de l'application de cette dernière montrent que l'utilisation d'une telle technique permet de classifier de très grandes bases de données sans difficulté et donne des résultats avantageusement comparables aux méthodes existantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Learning is the ability of an organism to adapt to the changes of its environment in response to its past experience. It is a widespread ability in the animal kingdom, but its evolutionary aspects are poorly known. Learning ability is supposedly advantageous under some conditions, when environmental conditions are not too stable - because in this case there is no need to learn to predict any event in the environment - and not changing too fast - otherwise environmental cues cannot be used because they are not reliable. Nevertheless, learning ability is also known to be costly in terms of energy needed for neuronal synthesis, memory formation, initial mistakes. During my PhD, I focused on the study of genetic variability of learning ability in natural populations. Genetic variability is the basis on which natural selection and genetic drift can act. How does learning ability vary in nature? What are the roles of additive genetic variation or maternal effects in this variation? Is it involved in evolutionary trade-offs with other fitness-related traits?¦I investigated a natural population of fruit fly, Drosophila melanogaster, as a model organism. Its learning ability is easy to measure with associative memory tests. I used two research tools: multiple inbred and isofemale lines derived from a natural population as a representative sample. My work was divided into three parts.¦First, I investigated the effects of inbreeding on aversive learning (avoidance of an odor previously associated with mechanical shock). While the inbred lines consistently showed reduced egg-to-adult viability by 28 %, the effects of inbreeding on learning performance was 18 % and varied among assays, with a trend to be most pronounced for intermediate conditioning intensity. Variation among inbred lines indicates that ample genetic variance for learning was segregating in the base population, and suggests that the inbreeding depression observed in learning performance was mostly due to dominance rather than overdominance. Across the inbred lines, learning performance was positively correlated with the egg-to-adult viability. This positive genetic correlation contradicts previous studies which observed a trade-off between learning ability and lifespan or larval competitive ability. It suggests that much of the genetic variation for learning is due to pleiotropic effects of genes affecting other functions related to survival. Together with the overall mild effects of inbreeding on learning performance, this suggests that genetic variation specifically affecting learning is either very low, or is due to alleles with mostly additive (semi-dominant) effects. It also suggests that alleles reducing learning performance are on average partially recessive, because their effect does not appear in the outbred base population. Moreover, overdominance seems unlikely as major cause of the inbreeding depression, because even if the overall mean of the inbred line is smaller than the outbred base population, some of the inbred lines show the same learning score as the outbred base population. If overdominance played an important part in inbreeding depression, then all the homozygous lines should show lower learning ability than¦outbred base population.¦In the second part of my project, I sampled the same natural population again and derived isofemale lines (F=0.25) which are less adapted to laboratory conditions and therefore are more representative of the variance of the natural population. They also showed some genetic variability for learning, and for three other fitness-related traits possibly related with learning: resistance to bacterial infection, egg-to-adult viability and developmental time. Nevertheless, the genetic variance of learning ability did not appear to be smaller than the variance of the other traits. The positive correlation previously observed between learning ability and egg- to-adult viability did not appear in isofemale lines (nor a negative correlation). It suggests that there was still genetic variability within isofemale lines and that they did not fix the highly deleterious pleiotropic alleles possibly responsible for the previous correlation.¦In order to investigate the relative amount of nuclear (additive and non-additive effects) and extra-nuclear (maternal and paternal effect) components of variance in learning ability and other fitness-related traits among the inbred lines tested in part one, I performed a diallel cross between them. The nuclear additive genetic variance was higher than other components for learning ability and survival to learning ability, but in contrast, maternal effects were more variable than other effects for developmental traits. This suggests that maternal effects, which reflects effects from mitochondrial DNA, epigenetic effects, or the amount of nutrients that are invested by the mother in the egg, are more important in the early stage of life, and less at the adult stage. There was no additive genetic correlation between learning ability and other traits, indicating that the correlation between learning ability and egg-to-adult viability observed in the first pat of my project was mostly due to recessive genes.¦Finally, my results showed that learning ability is genetically variable. The diallel experiment showed additive genetic variance was the most important component of the total variance. Moreover, every inbred or isofemale line showed some learning ability. This suggested that alleles impairing learning ability are eliminated by selection, and therefore that learning ability is under strong selection in natural populations of Drosophila. My results cannot alone explain the maintenance of the observed genetic variation. Even if I cannot eliminate the hypothesis of pleiotropy between learning ability and the other fitness-related traits I measured, there is no evidence for any trade-off between these traits and learning ability. This contradicts what has been observed between learning ability and other traits like lifespan and larval competitivity.¦L'apprentissage représente la capacité d'un organisme à s'adapter aux changement de son environnement au cours de sa vie, en réponse à son expérience passée. C'est une capacité très répandue dans le règne animal, y compris pour les animaux les plus petits et les plus simples, mais les aspects évolutifs de l'apprentissage sont encore mal connus. L'apprentissage est supposé avantageux dans certaines conditions, quand l'environnement n'est ni trop stable - dans ce cas, il n'y a rien à apprendre - ni trop variable - dans ce cas, les indices sur lesquels se reposer changent trop vite pour apprendre. D'un autre côté, l'apprentissage a aussi des coûts, en terme de synthèse neuronale, pour la formation de la mémoire, ou de coûts d'erreur initiale d'apprentissage. Pendant ma thèse, j'ai étudié la variabilité génétique naturelle des capacités d'apprentissage. Comment varient les capacités d'apprentissage dans la nature ? Quelle est la part de variation additive, l'impact des effets maternel ? Est-ce que l'apprentissage est impliqué dans des interactions, de type compromis évolutifs, avec d'autres traits liés à la fitness ?¦Afin de répondre à ces questions, je me suis intéressée à la mouche du vinaigre, ou drosophile, un organisme modèle. Ses capacités d'apprentissage sont facile à étudier avec un test de mémoire reposant sur l'association entre un choc mécanique et une odeur. Pour étudier ses capacités naturelles, j'ai dérivé de types de lignées d'une population naturelle: des lignées consanguines et des lignées isofemelles.¦Dans une première partie, je me suis intéressée aux effets de la consanguinité sur les capacités d'apprentissage, qui sont peu connues. Alors que les lignées consanguines ont montré une réduction de 28% de leur viabilité (proportion d'adultes émergeants d'un nombre d'oeufs donnés), leurs capacités d'apprentissage n'ont été réduites que de 18%, la plus forte diminution étant obtenue pour un conditionnement modéré. En outre, j'ai également observé que les capacités d'apprentissage était positivement corrélée à la viabilité entre les lignées. Cette corrélation est surprenante car elle est en contradiction avec les résultats obtenus par d'autres études, qui montrent l'existence de compromis évolutifs entre les capacités d'apprentissage et d'autres traits comme le vieillissement ou la compétitivité larvaire. Elle suggère que la variation génétique des capacités d'apprentissage est due aux effets pleiotropes de gènes récessifs affectant d'autres fonctions liées à la survie. Ces résultats indiquent que la variation pour les capacités d'apprentissage est réduite comparée à celle d'autres traits ou est due à des allèles principalement récessifs. L'hypothèse de superdominance semble peu vraisemblable, car certaines des lignées consanguines ont obtenu des scores d'apprentissage égaux à ceux de la population non consanguine, alors qu'en cas de superdominance, elles auraient toutes dû obtenir des scores inférieurs.¦Dans la deuxième partie de mon projet, j'ai mesuré les capacités d'apprentissage de lignées isofemelles issues de la même population initiale que les lignées consanguines. Ces lignées sont issues chacune d'un seul couple, ce qui leur donne un taux d'hétérozygosité supérieur et évite l'élimination de lignées par fixation d'allèles délétères rares. Elles sont ainsi plus représentatives de la variabilité naturelle. Leur variabilité génétique est significative pour les capacités d'apprentissage, et trois traits liés à la fois à la fitness et à l'apprentissage: la viabilité, la résistance à l'infection bactérienne et la vitesse de développement. Cependant, la variabilité des capacités d'apprentissage n'apparaît cette fois pas inférieure à celle des autres traits et aucune corrélation n'est constatée entre les capacité d'apprentissage et les autres traits. Ceci suggère que la corrélation observée auparavant était surtout due à la fixation d'allèles récessifs délétères également responsables de la dépression de consanguinité.¦Durant la troisième partie de mon projet, je me suis penchée sur la décomposition de la variance observée entre les lignées consanguines observée en partie 1. Quatre composants ont été examinés: la variance due à des effets nucléaires (additifs et non additifs), et due à des effets parentaux (maternels et paternels). J'ai réalisé un croisement diallèle de toutes les lignées. La variance additive nucléaire s'est révélée supérieure aux autres composants pour les capacités d'apprentissage et la résistance à l'infection bactérienne. Par contre, les effets maternels étaient plus importants que les autres composants pour les traits développementaux (viabilité et vitesse de développement). Ceci suggère que les effets maternels, dus à G ADN mitochondrial, à l'épistasie ou à la quantité de nutriments investis dans l'oeuf par la mère, sont plus importants dans les premiers stades de développement et que leur effet s'estompe à l'âge adulte. Il n'y a en revanche pas de corrélation statistiquement significative entre les effets additifs des capacités d'apprentissage et des autres traits, ce qui indique encore une fois que la corrélation observée entre les capacités d'apprentissage et la viabilité dans la première partie du projet était due à des effets d'allèles partiellement récessifs.¦Au, final, mes résultats montrent bien l'existence d'une variabilité génétique pour les capacités d'apprentissage, et l'expérience du diallèle montre que la variance additive de cette capacité est importante, ce qui permet une réponse à la sélection naturelle. Toutes les lignées, consanguines ou isofemelles, ont obtenu des scores d'apprentissage supérieurs à zéro. Ceci suggère que les allèles supprimant les capacités d'apprentissage sont fortement contre-sélectionnés dans la nature Néanmoins, mes résultats ne peuvent pas expliquer le maintien de cette variabilité génétique par eux-même. Même si l'hypothèse de pléiotropie entre les capacités d'apprentissage et l'un des traits liés à la fitness que j'ai mesuré ne peut être éliminée, il n'y a aucune preuve d'un compromis évolutif pouvant contribuer au maintien de la variabilité.