744 resultados para bass
Resumo:
Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.
Resumo:
RESUME Les évidences montrant que les changements globaux affectent la biodiversité s'accumulent. Les facteurs les plus influant dans ce processus sont les changements et destructions d'habitat, l'expansion des espèces envahissantes et l'impact des changements climatiques. Une évaluation pertinente de la réponse des espèces face à ces changements est essentielle pour proposer des mesures permettant de réduire le déclin actuel de la biodiversité. La modélisation de la répartition d'espèces basée sur la niche (NBM) est l'un des rares outils permettant cette évaluation. Néanmoins, leur application dans le contexte des changements globaux repose sur des hypothèses restrictives et demande une interprétation critique. Ce travail présente une série d'études de cas investiguant les possibilités et limitations de cette approche pour prédire l'impact des changements globaux. Deux études traitant des menaces sur les espèces rares et en danger d'extinction sont présentées. Les caractéristiques éco-géographiques de 118 plantes avec un haut degré de priorité de conservation sont revues. La prévalence des types de rareté sont analysées en relation avec leur risque d'extinction UICN. La revue souligne l'importance de la conservation à l'échelle régionale. Une évaluation de la rareté à échelle globale peut être trompeuse pour certaine espèces car elle ne tient pas en compte des différents degrés de rareté que présente une espèce à différentes échelles spatiales. La deuxième étude test une approche pour améliorer l'échantillonnage d'espèces rares en incluant des phases itératives de modélisation et d'échantillonnage sur le terrain. L'application de l'approche en biologie de la conservation (illustrée ici par le cas du chardon bleu, Eryngium alpinum), permettrait de réduire le temps et les coûts d'échantillonnage. Deux études sur l'impact des changements climatiques sur la faune et la flore africaine sont présentées. La première étude évalue la sensibilité de 227 mammifères africains face aux climatiques d'ici 2050. Elle montre qu'un nombre important d'espèces pourrait être bientôt en danger d'extinction et que les parcs nationaux africains (principalement ceux situé en milieux xériques) pourraient ne pas remplir leur mandat de protection de la biodiversité dans le futur. La seconde étude modélise l'aire de répartition en 2050 de 975 espèces de plantes endémiques du sud de l'Afrique. L'étude propose l'inclusion de méthodes améliorant la prédiction des risques liés aux changements climatiques. Elle propose également une méthode pour estimer a priori la sensibilité d'une espèce aux changements climatiques à partir de ses propriétés écologiques et des caractéristiques de son aire de répartition. Trois études illustrent l'utilisation des modèles dans l'étude des invasions biologiques. Une première étude relate l'expansion de la laitue sáuvage (Lactuca serriola) vers le nord de l'Europe en lien avec les changements du climat depuis 250 ans. La deuxième étude analyse le potentiel d'invasion de la centaurée tachetée (Centaures maculosa), une mauvaise herbe importée en Amérique du nord vers 1890. L'étude apporte la preuve qu'une espèce envahissante peut occuper une niche climatique différente après introduction sur un autre continent. Les modèles basés sur l'aire native prédisent de manière incorrecte l'entier de l'aire envahie mais permettent de prévoir les aires d'introductions potentielles. Une méthode alternative, incluant la calibration du modèle à partir des deux aires où l'espèce est présente, est proposée pour améliorer les prédictions de l'invasion en Amérique du nord. Je présente finalement une revue de la littérature sur la dynamique de la niche écologique dans le temps et l'espace. Elle synthétise les récents développements théoriques concernant le conservatisme de la niche et propose des solutions pour améliorer la pertinence des prédictions d'impact des changements climatiques et des invasions biologiques. SUMMARY Evidences are accumulating that biodiversity is facing the effects of global change. The most influential drivers of change in ecosystems are land-use change, alien species invasions and climate change impacts. Accurate projections of species' responses to these changes are needed to propose mitigation measures to slow down the on-going erosion of biodiversity. Niche-based models (NBM) currently represent one of the only tools for such projections. However, their application in the context of global changes relies on restrictive assumptions, calling for cautious interpretations. In this thesis I aim to assess the effectiveness and shortcomings of niche-based models for the study of global change impacts on biodiversity through the investigation of specific, unsolved limitations and suggestion of new approaches. Two studies investigating threats to rare and endangered plants are presented. I review the ecogeographic characteristic of 118 endangered plants with high conservation priority in Switzerland. The prevalence of rarity types among plant species is analyzed in relation to IUCN extinction risks. The review underlines the importance of regional vs. global conservation and shows that a global assessment of rarity might be misleading for some species because it can fail to account for different degrees of rarity at a variety of spatial scales. The second study tests a modeling framework including iterative steps of modeling and field surveys to improve the sampling of rare species. The approach is illustrated with a rare alpine plant, Eryngium alpinum and shows promise for complementing conservation practices and reducing sampling costs. Two studies illustrate the impacts of climate change on African taxa. The first one assesses the sensitivity of 277 mammals at African scale to climate change by 2050 in terms of species richness and turnover. It shows that a substantial number of species could be critically endangered in the future. National parks situated in xeric ecosystems are not expected to meet their mandate of protecting current species diversity in the future. The second study model the distribution in 2050 of 975 endemic plant species in southern Africa. The study proposes the inclusion of new methodological insights improving the accuracy and ecological realism of predictions of global changes studies. It also investigates the possibility to estimate a priori the sensitivity of a species to climate change from the geographical distribution and ecological proprieties of the species. Three studies illustrate the application of NBM in the study of biological invasions. The first one investigates the Northwards expansion of Lactuca serriola L. in Europe during the last 250 years in relation with climate changes. In the last two decades, the species could not track climate change due to non climatic influences. A second study analyses the potential invasion extent of spotted knapweed, a European weed first introduced into North America in the 1890s. The study provides one of the first empirical evidence that an invasive species can occupy climatically distinct niche spaces following its introduction into a new area. Models fail to predict the current full extent of the invasion, but correctly predict areas of introduction. An alternative approach, involving the calibration of models with pooled data from both ranges, is proposed to improve predictions of the extent of invasion on models based solely on the native range. I finally present a review on the dynamic nature of ecological niches in space and time. It synthesizes the recent theoretical developments to the niche conservatism issues and proposes solutions to improve confidence in NBM predictions of the impacts of climate change and species invasions on species distributions.
Resumo:
The good news with regard to this (or any) chapter on the future of leadership is that there is one. There was a time when researchers called for a moratorium on new leadership theory and research (e.g., Miner, 1975) citing the uncertain future of the field. Then for a time there was a popular academic perspective that leadership did not really matter when it came to shaping organizational outcomes (Meindl & Ehrlich, 1987; Meindl, Ehrlich, & Dukerich, 1985; Pfeffer, 1977). That perspective was laid to rest by "realists" in the field (Day & Antonakis, 2012a) by means of empirical re-interpretation of the results used to support the position that leadership does not matter (Lieberson & O'Connor, 1972; Salancik & Pfeffer, 1977). Specifically, Day and Lord (1988) showed that when proper methodological concerns were addressed (e.g., controlling for industry and company size effects; incorporating appropriate time lags) that the impact of top-level leadership was considerable - explaining as much as 45% of the variance in measures of organizational performance. Despite some recent pessimistic sentiments about the "curiously unformed" state of leadership research and theory (Hackman & Wageman, 2007), others have argued that the field has continued to evolve and is potentially on the threshold of some significant breakthroughs (Day & Antonakis, 2012a). Leadership scholars have been re-energized by new directions in the field and research efforts have revitalized areas previously abandoned for apparent lack of consistency in findings (e.g., leadership trait theory). Our accumulated knowledge now allows us to explain the nature of leadership including its biological bases and other antecedents, and consequences with some degree of confidence. There are other comprehensive sources that review the extensive theoretical and empirical foundation of leadership (Bass, 2008; Day & Antonakis, 2012b) so that will not be the focus of the present chapter. Instead, we will take a future-oriented perspective in identifying particular areas within the leadership field that we believe offer promising perspectives on the future of leadership. Nonetheless, it is worthwhile as background to first provide an overview of how we see the leadership field changing over the past decade or so. This short chronicle will set the stage for a keener understanding of where the future contributions are likely to emerge. Overall, across nine major schools of leadership - trait, behavioural, contingency, contextual, relational, sceptics, information processing, New Leadership, biological and evolutionary - researchers have seen a resurgence in interest in one area, a high level of activity in at least four other areas, inactivity in three areas, and one that was modestly active in the previous decade but we think holds strong promise for the future (Gardner, Lowe, Moss, Mahoney, & Cogliser, 2010). We will next provide brief overviews of these nine schools and their respective levels of research activity (see Figure 1).
Resumo:
La syncope est un symptôme clinique fréquent mais son origine demeure indéterminée jusque dans 60% des cas de patients admis dans un centre d'urgences. Le développement de consultations spécialisées de la syncope a considérablement modifié l'évaluation des patients avec une syncope inexpliquée en les orientant vers des stratégies d'investigations non-invasives, tels que le tilt-test, le massage du sinus carotidien et le test ^hyperventilation. Cependant, il existe peu de données dans 10 la littérature concernant dans la performance diagnostique réelle de ces tests fonctionnels.Notre travail de recherche porte sur l'analyse des données des 939 premiers patients adressés à la consultation ambulatoire de la syncope du CHUV pour l'investigation d'une syncope d'origine indéterminée. L'objectif de notre travail de thèse est 1) d'évaluer la performance diagnostique de l'algorithme de prise en charge standardisé et de ses différents tests pratiqués dans le cadre de notre 15 consultation et 2) de déterminer les caractéristiques cliniques communes des patients avec un diagnostic final de syncope d'origine rythmique ou vaso-vagale.Notre travail de thèse démontre qu'un algorithme de prise en charge standardisé basé sur des tests non-invasifs permet de déterminer 2/3 des causes de syncope initialement d'origine indéterminée. Par ailleurs, notre travail montre que des étiologies bénignes, telles que la syncope d'origine vaso- 20 vagale ou psychogène, représentent la moitié des causes syncopales alors que les arythmies cardiaques demeurent peu fréquentes. Finalement, notre travail démontre que l'absence de symptomatologie prodromique, en particulier chez les patients âgés avec une limitation fonctionnelle ou un allongement de la durée de l'onde Ρ à l'électrocardiogramme, suggère une syncope d'origine rythmique. Ce travail de thèse contribuera à optimaliser notre algorithme de prise 25 en charge standardisée de la syncope d'origine indéterminée et ouvre de nouvelles perspectives de recherche dans le développement de modèles basés sur des facteurs cliniques permettant de prédire les principales causes syncopales.
Resumo:
Introduction Quatre génotypes pathogènes de l'hépatite E (HEV) sont actuellement connus. Ils présentent des caractéristiques épidémiologiques différentes. Les génotypes 1 et 2 infectent uniquement l'homme et sont à l'origine d'épidémies dans des pays en voie de développement. Les génotypes 3 et 4 se présentent sous forme de zoonose, endémiques chez des cochons et autres mammifères dans des pays industrialisés. Ces derniers génotypes sont à l'origine de cas sporadiques d'hépatite E autochtones. La majorité des tests de sérologie actuellement commercialisés se basent sur des virus de génotype 1 et 2. Le bénéfice de l'utilisation d'un test sérologique basé sur le génotype 3 dans des pays industrialisés n'a pas été étudié jusqu'à présent. Dans cette étude, les performances de tests sérologiques basés sur des antigènes de plusieurs génotypes de l'HEV ont été comparées. Méthode Les tests ont été appliqués à deux populations distinctes: une population de 20 patients, chez qui une infection aiguë d'hépatite E, génotype 3, a été documentée par PCR sanguine, et une population de 550 donneurs de sang de la région de Lausanne. Le dépistage des IgGs anti-HEV a été effectué dans le sérum des deux populations par trois «Enzyme Immuno Assays» (EIA) à savoir MP Diagnostics, Dia.Pro et Fortress. Les échantillons positifs avec au moins un des EIA ont été testés par un «Immunodot Assay», le recomLine HEV IgG/IgM. Tous les EIA sont basés sur des antigènes des génotypes 1 et 2, alors que l'immunodot se base sur des antigènes des génotypes 1 et 3. Résultats Tous les échantillons des cas d'hépatite E documentés et 124 sur 550 échantillons des donneurs de sang étaient positifs avec au moins un des tests sérologique. Parmi les cas confirmés par PCR, 45 %, 65 %, 95 % et 55 % étaient respectivement positifs avec le test de MP Diagnostics, Dia.Pro, Fortress et recomLine. Parmi les échantillons positifs des donneurs de sang avec au moins un des tests, 120/124 (97 %) étaient positifs avec le test Fortress, 19/124 (15 %) étaient positifs avec tous les EIA et 51/124 (41 %) étaient positifs avec le recomLine. Parmi les cas d'hépatite E confirmés, 11/20 (55 %) étaient positifs avec le recomLine et parmi ceux-ci, une réactivité plus forte pour le génotype 3 était observée dans 1/11 (9 %) et une réactivité identique dans 5/11 (45.5 %) cas. Conclusions Même si le recomLine contient des protéines dérivées de l'HEV génotype 3, sa sensibilité est inférieure à l'EIA de Fortress dans les cas d'hépatite E aiguë de génotype 3. De plus, chez environ 45 % des patients, le recomLine ne parvient pas à identifier une infection comme étant causé par un virus du génotype 3. Dans la population de donneurs de sang, nous avons observe de grandes variations dans les séroprévalences mesurées, allant de 4.2 % à 21.8 % selon les tests sérologiques employés.
Resumo:
Astract: The aim of this thesis was to investigate how the presence of multiple queens (polygyny) affects social organization in colonies of the ant Formica exsecta. This is important because polygyny results in reduced relatedness among colony members and therefore reflects a potential paradox for altruistic cooperation being explained by inclusive fitness theory. The reason for this is that workers in polygynous colonies rear no longer only their siblings (high inclusive fitness gain) but also more distantly ox even unrelated brood (low or no inclusive fitness gain). All research projects conducted in this thesis are novel and significant contributions to the understanding of the social evolution of insect societies. We used a mixture of experimental and observational methodologies in laboratory and field colonies of F. exsecta to examine four important aspects of social life that are impacted by polygyny. First, we investigated the influence of queen number on colony sex allocation and found that the number of queens present in a colony significantly affects colony sex ratio investment. The data were consistent with the queen-replenishment hypothesis, which is based on the observation that newly mated queens are often recruited back to their parental nest. According to this theory, colonies containing many queens should only produce males due to local resource competition (i.e. related queens compete for common resources), whereas colonies hosting few queens benefit most from producing new queens to ensure colony survival. Second, we examined how reproduction is partitioned among nestmate queens. We detected a novel pattern of reproductive partitioning whereby a high proportion of queens were completely specialized in the production of only a subset of offspring classes produced within a colony, which might translate into great differences in reproductive success between queens. Third, we could demonstrate that F. exsecta workers indiscriminately reared highly related and unrelated brood although such nepotistic behaviour (preferential rearing of relatives) would be predicted by inclusive fitness theory. The absence of nepotism is probably best explained by its negative effects on overall colony efficiency. Finally, we conducted a detailed population genetic analysis, which revealed that the genetic population structure is different for queens and workers. Our data were best explained with queens forming family-based groups (multicolonial population structure), whereas workers from several nests seemed to be grouped into larger unites (unicolonial population structure) with workers moving freely between neighbouring nests. Altogether, the presented work significantly increased our understanding of the complex organization of polygynous social insect colonies and shows how an important life history trait such as queen number affects social organization at various levels. Résumé: Le but de cette thèse était d'étudier comment la présence de plusieurs reines par colonie (polygynie) influence la vie sociale chez la fourmi Formica exsecta. Ce sujet est important parce que la polygynie chez les insectes sociaux présente un passible paradoxe au niveau de la théorie du "fitness inclusive". Ce paradoxe est basé sur le fait que les ouvrières n'élèvent plus uniquement leurs frères et soeurs (gain de "fitness inclusive" maximale), mais également des individus moins ou pas du tout apparentés (gain de "fitness inclusive" réduit ou absent). Tous les projets de recherche présentés au cours de cette thèse apportent une meilleure compréhension et connaissance au niveau de l'organisation des colonies chez les insectes sociaux. Nous avons employé des méthodes d'observation et de laboratoire afin de mettre en évidence des aspects importants de la vie sociale chez les fourmis influencés par la polygynie. Quatre aspects ont été caractérisés : (1) l'influence du nombre de reines sur le sexe ratio produit par la colonie. Nous avons démontré que les colonies contenant beaucoup de reines produisaient rarement des reines tandis que les colonies contenant peu de reines souvent investissaient beaucoup de ressources dans la production des reines. Ces résultats sont en accord avec la "queen-replenishment hypothesis" qui est basé sur l'observation que les nouvelles reines sont recrutées dans la colonie où elles étaient nées. Cette hypothèse postule que la production des reines est défavorable dans les colonies contenant beaucoup de reines, parce que ces reines apparentées, rentrent en compétition pour des ressources communes. Au contraire, la production des reines est favorable dans des colonies contenant peu de reines afin d'assurer la survie de la colonie ; (2) comment les reines dans une colonie répartissent leur reproduction. Nous avons mis en évidence un nouveau pattern de cette répartition où une grande proportion de reines est complètement spécialisée dans la production d'un seul type de couvain ce qui probablement aboutit à des différences significatives entre reines dans le succès reproducteur ; (3) la capacité des ouvrières à discriminer un couvain de soeur d'un couvain non apparenté. Les résultats ont montré que les ouvrières ne font pas de discrimination entre le couvain de soeur et le couvain non apparenté ce qui n'est pas en accord avec la théorie de la "fitness inclusive". Cette absence de discrimination est probablement due à des effets négatifs comme par exemple la diminution de la production du couvain; (4) la structure génétique d'une population de F. exsecta. Nous avons mis en évidence que la structure génétique entre des groupes de reines est significativement différente de la structure génétique entre des groupes d'ouvrières. Les données suggèrent que les reines forment des groupes basés sur une structure familiale tandis que les ouvrières sont groupées dans des unités plus grandes.
Resumo:
Two investigations are included in this document: 1) An Evaluation of Largemouth Bass Populations in the Upper Mississippi River and 2) An Evaluation of the Effects of a Change in Commercial Harvest Regulations on the Channel Catfish Population Inhabiting the Upper Mississippi River
Resumo:
RESUMELes modèles classiques sur l'évolution des chromosomes sexuels supposent que des gènes sexe- antagonistes s'accumulent sur les chromosomes sexuels, entraînant ainsi l'apparition d'une région non- recombinante, qui se répand progressivement en favorisant l'accumulation de mutations délétères. En accord avec cette théorie, les chromosomes sexuels que l'on observe aujourd'hui chez les mammifères et les oiseaux sont considérablement différenciés. En revanche, chez la plupart des vertébrés ectothermes, les chromosomes sexuels sont indifférenciés et il existe une impressionnante diversité de mécanismes de détermination du sexe. Au cours de cette thèse, j'ai étudié l'évolution des chromosomes sexuels chez les vertébrés ectothermes, en outre pour mieux comprendre ce contraste avec les vertébrés endothermes. L'hypothèse « high-turnover » postule que les chromosomes sexuels sont remplacés régulièrement à partir d'autosomes afin d'éviter leur dégénérescence. L'hypothèse « fountain-of-youth » propose que la recombinaison entre le chromosome X et le chromosome Y au sein de femelles XY empêche la dégénérescence. Les résultats de ma thèse, basés sur des études théoriques et empiriques, suggèrent que les deux processus peuvent être entraînés par l'environnement et ainsi jouent un rôle important dans l'évolution des chromosomes sexuels chez les vertébrés ectothermes.SUMMARYClassical models of sex-chromosome evolution assume that sexually antagonistic genes accumulate on sex chromosomes leading to a non-recombining region, which progressively expands and favors the accumulation of deleterious mutations. Concordant with this theory, sex chromosomes in extant mammals and birds are considerably differentiated. In most ectothermic vertebrates, such as frogs, however, sex chromosomes are undifferentiated and a striking diversity of sex determination systems is observed. This thesis was aimed to investigate this apparent contrast of sex chromosome evolution between endothermic and ectothermic vertebrates. The "high-turnover" hypothesis holds that sex chromosomes arose regularly from autosomes preventing decay. The "fountain-of-youth" hypothesis posits that sex chromosomes undergo episodic X-Y recombination in sex-reversed XY females, thereby purging ("rejuvenating") the Y chromosome. We suggest that both processes likely played an important role in sex chromosome evolution of ectothermic vertebrates. The literature largely views sex determination as a dichotomous process: individual sex is assumed to be determined either by genetic (genotypic sex determination, GSD) or by environmental factors (environmental sex determination, ESD), most often temperature (temperature sex determination, TSD). We endorsed an alternative view, which sees GSD and TSD as the ends of a continuum. The conservatism of molecular processes among different systems of sex determination strongly supports the continuum view. We proposed to define sex as a threshold trait underlain by a liability factor, and reaction norms allowing modeling interactions between genotypic and temperature effects. We showed that temperature changes (due to e.g., climatic changes or range expansions) are expected to provoke turnovers in sex-determination mechanisms maintaining homomorphic sex chromosomes. The balanced lethal system of crested newts might be the result of such a sex determination turnover, originating from two variants of ancient Y-chromosomes. Observations from a group of tree frogs, on the other hand, supported the 'fountain of youth' hypothesis. We then showed that low rates of sex- reversals in species with GSD might actually be adaptive considering joint effects of deleterious mutation purging and sexually antagonistic selection. Ongoing climatic changes are expected to threaten species with TSD by biasing population sex ratios. In contrast, species with GSD are implicitly assumed immune against such changes, because genetic systems are thought to necessarily produce even sex ratios. We showed that this assumption may be wrong and that sex-ratio biases by climatic changes may represent a previously unrecognized extinction threat for some GSD species.
Resumo:
An overall effort has been initiated to improve the quality of the Yellow River in Northeast Iowa by reducing the amount of sediment and bacteria entering the stream. Funding for this project will be utilized to improve stream quality to the level of fully supporting game fish such as brown, rainbow and brook trout, walleye, northern pike and smallmouth bass. The Yellow River has the potential to be one of the top trout streams, not only in Iowa, but in the entire Upper Midwest. This project will greatly enhance recreational activities such as fishing, canoeing and inner tubing and will greatly increase tourism dollars to the state. The project will specifically address two sources of impairment: stream bank erosion and coliform bacteria from both livestock and inadequate human septic systems.
Resumo:
Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.
Resumo:
Rapport de synthèse : Description : ce travail de thèse évalue de façon systématique les études sur l'association entre les dysfonctions thyroïdiennes infracliniques d'une part, et la maladie coronarienne et la mortalité d'autre part. Les hypothyroïdies infracliniques affectent environ 4-5% de la population adulte alors que la prévalence de l'hyperthyroïdie infraclinique est inférieure (environ 1%). L'éventuelle association entre elles pourrait justifier un dépistage systématique des dysfonctions thyroïdiennes infracliniques. Les précédentes études sur l'association entre l'hypothyroïdie infraclinique et la maladie coronarienne ont donné des résultats conflictuels. La parution de nouveaux articles récents basés sur de grandes cohortes prospectives nous a permis d'effectuer une méta-analyse basée uniquement sur des études de cohorte prospectives, augmentant ainsi la validité des résultats. Résultats: 10 des 12 études identifiées pour notre revue systématique sont basées sur des cohortes issues de la population générale («population-based »), regroupant en tout 14 449 participants. Ces 10 études examinent toutes le risque associé à l'hypothyroïdie infraclinique (avec 2134 événements coronariens et 2822 décès), alors que 5 étudient également le risque associé à l'hyperthyroïdie infraclinique (avec 1392 événements coronariens et 1993 décès). En utilisant un modèle statistique de type random-effect model, le risque relatif [RR] lié à l'hypothyroïdie infraclinique pour la maladie coronarienne est de 1.20 (intervalle de confiance [IC] de 95%, 0.97 à 1.49). Le risque diminue lorsque l'on regroupe uniquement les études de meilleure qualité (RR compris entre 1.02 et 1.08). Il est plus élevé parmi les participants de moins de 65 ans (RR, 1.51 [IC, 1.09 à 2.09] et 1.05 [IC, 0.90 à 1.22] pour les études dont l'âge moyen des participants est >_ 65 ans). Le RR de la mortalité cardiovasculaire est de 1.18 (IC, 0.98 à 1.42) et de 1.12 (IC, 0.99 à 1.26) pour la mortalité totale. En cas d'hyperthyroïdie infraclinique, les RR de la maladie coronarienne sont de 1.21 (IC, 0.88 à 1.68), de 1.19 (IC, 0.81 à 1.76) pour la mortalité cardiovasculaire, et de 1.12 (IC, 0.89 à 1.42) pour la mortalité totale. Conclusions et perspectives : nos résultats montrent que les dysfonctions thyroïdiennes infracliniques (hypothyroïdie et hyperthyroïdie infracliniques) représentent un facteur de risque modifiable, bien que modéré, de la maladie coronarienne et de la mortalité. L'efficacité du traitement de ces dysfonctions thyroïdiennes infracliniques doit encore être prouvée du point de vue cardiovasculaire et de la mortalité. Il est nécessaire d'effectuer des études contrôlées contre placebo avec le risque cardiovasculaire et la mortalité comme critères d'efficacité, avant de pouvoir proposer des recommandations sur le dépistage des ces dysfonctions thyroïdiennes dans la population adulte.
Resumo:
Les restes esquelètiques analitzades corresponen tant al nivell neolític (n=26) com a l"època del bronze (n=2), encara que aquí es presenten tan sols els resultats de la població neolítica (taula 1). En tots els casos les sepultures són individuals, amb l"única excepció de la sepultura 20, on s"han recuperat les restes corresponents a un individu femení adult (CSP201) i un fetus (CSP202) (taula 1). Per tal de caracteritzar biomètricament la població s"ha emprat la metodologia proposada per Martin i Saller (1959), Brothwell (1981) i Bass (1971). La determinació del sexe s"ha realitzat a través dels caràcters sexuals secundaris del crani i de la pelvis, i se"n pot trobar una descripció més detallada a Estebaranz et alii (2007). En el cas específic de les paleopatologies es van seguir les recomanacions de Campillo (Campillo, 1977).
Resumo:
Contexte : L'insuffisance cardiaque touche environ 150 personnes sur 100'000 habitants en Suisse, avec une¦prévalence évaluée à 1.45 %, et cause 42.3 décès par 100'000 habitants. Globalement, la prévalence de¦l'insuffisance cardiaque augmente, d'une part à cause du vieillissement de la population, d'autre part par¦l'amélioration de la prise en charge de pathologies cardiaques. La transplantation reste actuellement le gold¦standard pour l'insuffisance cardiaque réfractaire au traitement pharmacologique, mais les organes sont¦rares. Une alternative a donc été développée, celle des systèmes d'assistance ventriculaire (ventricular assist¦device, VAD). Les appareils existants actuellement sur le marché fonctionnent en déviant le sang du¦ventricule vers un système de projection à flux pulsatile ou continu placé dans la cage thoracique, avant de le¦renvoyer vers l'artère. Ils comportent certains défauts, en particulier la nécessité de léser le coeur pour les¦implanter et les risques hémorragique et thrombo-embolique importants. Pour remédier à ces défauts, des¦VAD externes sont en cours de développement. Fixés autour du coeur, ils permettent de l'assister dans la¦contraction, sans contact direct avec le sang ni lésion du coeur. Dans cette étude, nous avons créé deux¦prototypes de VAD externes basés sur la technique du muscle artificiel. Ils sont faits de fils de Nitinol, un¦alliage à mémoire de forme qui raccourcit lorsqu'il est chauffé. Placés autour du coeur, ils lui impriment un¦mouvement de contraction, tel un muscle artificiel.¦Méthode : deux VAD externes ont été créés en utilisant du Nitinol. Les fibres de Nitinol du VAD N°1¦passent à travers des charnières qui augmentent son pouvoir de contraction. Celles du VAD N°2 sont¦orientées dans un maillage de fibres de Kevlar de manière à reproduire la direction des fibres musculaires du¦ventricule humain. Ils ont été testés sur un banc d'essai avec un coeur en silicone. Nous avons mesuré la¦fraction d'éjection, le débit et la pression générée, à différentes valeurs de précharge et post-charge. Les¦VAD étaient alimentés par une génératrice ou par une unité de contrôle, qui permettait de fournir l'énergie¦précisément dans chaque fil de Nitinol et d'imposer une certaine fréquence cardiaque.¦Résultats : Tant avec la génératrice que l'unité de contrôle, le ventricule gauche du VAD N°1 fournit une¦fraction d'éjection maximale de 16.09 %. Le débit maximal est de 191.42 ml/min. La génératrice permet au¦VAD N°2 de fournir une fraction d'éjection de 6.18 %, contre 2.48 % avec l'unité de contrôle. Le débit¦maximal est de 27.37 ml/min. La pression générée atteint 75 mmHg pour le VAD N°1 et 6 mmHg pour le¦VAD N°2.¦Discussion/conclusion : Le VAD N°1 est le plus performant, il permet une augmentation significative de la¦fraction d'éjection et pourrait avoir un impact sur la qualité de vie des patients. L'unité de contrôle apporte¦un avantage sur la génératrice pour le VAD N°1, en dirigeant plus précisément l'énergie dans les fils de¦Nitinol et en limitant les pertes. Le VAD N°2, lui, est peu performant et l'unité de contrôle n'améliore pas¦ses performances. Cela est probablement dû à sa configuration initiale, la taille du VAD n'étant pas adaptée¦au coeur en silicone. Cette étude prouve qu'il est possible d'assister un coeur depuis l'extérieur, sans l'altérer,¦et que la position des fibres de Nitinol a plus d'importance que leur nombre.
Resumo:
Introduction: En Suisse, toute hospitalisation pour un séjour de¦réadaptation doit être soumise à l'accord préalable du service du¦médecin-conseil de l'assurance du patient. Les assureurs fixent ensuite¦le nombre de jours d'hospitalisation qu'ils s'engagent à financer¦(délai de garantie initial). Dans le canton de Vaud, ces délais sont¦hétérogènes entre assureurs et souvent trop courts, ce qui nécessite¦fréquemment une demande de prolongation de garantie (jusqu'à 80%¦des hospitalisations dans certains services de réadaptation). Un travail¦précédent a montré la validité d'un groupage, basé principalement sur¦l'état fonctionnel du patient à l'admission (score d'activités de la vie¦quotidienne de base [AVQ]), pour prédire les durées de séjour en¦réadaptation. L'objectif de cette étude est d'évaluer si les scores AVQ¦communiqués aux assureurs permettraient d'établir un délai de garantie¦correspondant au plus près à la durée de séjour effective des patients¦en réadaptation, afin de diminuer le nombre de demandes de¦prolongation sans induire une augmentation artificielle des durées de¦séjour.¦Méthode: Les données de 2335 patients admis consécutivement sur¦une durée de trois ans au Centre de Traitement et de Réadaptation¦gériatrique du Centre Hospitalier Universitaire Vaudois (CUTR) ont été¦analysées rétrospectivement. Des délais de garantie fictifs ont été¦calculés à partir de plusieurs algorithmes utilisant des groupages de¦patients basés uniquement sur leurs AVQ à l'admission, et comparés¦aux durées de séjour effectives ainsi qu'aux délais de garantie initiaux¦fournis par les assureurs.¦Résultats: Une règle d'allocation de délais de garantie initiaux proches¦des durées réelles de séjour a pu être produite. Son application au¦CUTR réduirait la proportion estimée de séjours pour lesquels une¦demande de prolongation est nécessaire de 69% à 46% (0,1 EPT¦économisé). La proportion globale de jours en excès accordés par¦l'assureur passerait de 7% à 11%.¦Conclusion: L'utilisation systématique d'une règle d'allocation utilisant¦l'état fonctionnel du patient pour définir le délai de garantie initial¦accordé par les assureurs permettrait de diminuer de façon importante¦le nombre de demandes de prolongation. Cette mesure contribuerait à¦alléger les charges administratives, aussi bien pour les assureurs que¦pour les services de réadaptation. La proportion de jours accordés en¦excès resterait faible, limitant le risque d'augmentation artificielle de la¦durée de séjour.
Resumo:
Résumé L'arrivée en force de l'imagerie numérique de bonne qualité à un prix abordable m'a fait réfléchir à la meilleure manière de l'intégrer dans la pratique courante de l'enseignement de la dermatologie, spécialité très visuelle. Comment mettre à profit la richesse des images et les nombreuses possibilités pédagogiques que l'informatique offre. J'ai étudié quelques produits existant sur le marché; je constate que les possibilités offertes par l'informatique restent souvent sous exploitées. Les réalisations manquent de liens hypertextes et la facilité d'accès aux images que permet l'informatique n'est pas appliquée. Les images sont trop souvent présentées avec une légende trop brève, ne soulignant pas les points importants pour le diagnostic. Certains outils ne proposent même pas de diagnostics différentiels. Ma réflexion me pousse à croire que l'apprentissage doit se faire par l'image. L'étudiant doit y apprendre les bases du diagnostic morphologique, trouver ce qui lui permet de poser le diagnostic. Compte tenu de mes observations, j'ai développé à Lausanne mon propre atlas interactif de diagnostics différentiels, basé sur la comparaison d'images. Mon projet n'a donc pas pour but de remplacer un livre ou un atlas, mais je souhaite compléter les moyens d'apprentissage basés sur l'image. Sa particularité tient dans la manière dont on a sélectionné les diagnostics différentiels; mon critère principal n'a pas été un choix théorique, mais la ressemblance entre deux images de ma bibliothèque. Cette manière de procéder m'a forcé à résoudre quelques questions fondamentales à propos des diagnostics différentiels. J'ai prêté une attention particulière à ce que l'utilisateur replace aisément les 850 images dans une structure que j'ai voulue claire. Cela m'a poussé à réfléchir sur la manière dont on aborde la dermatologie: par localisation, d'après les lésions, selon l'âge ou d'après des critères de physiopathologie ? Chaque image est accessible par la table des matières originale, soit par un module de recherche multicritère. Mon produit est personnalisable grâce à la présence de plusieurs outils. "Le Petit Rouvé", première version, est maintenant disponible pour une phase de test. Dans un second temps, l'atlas sera distribué aux étudiants de 4ème et 6ème année de la Faculté de médecine de Lausanne pour la rentrée de 2004-2005.