479 resultados para lochleitende Nanostab-Ensembles


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The goal of most clustering algorithms is to find the optimal number of clusters (i.e. fewest number of clusters). However, analysis of molecular conformations of biological macromolecules obtained from computer simulations may benefit from a larger array of clusters. The Self-Organizing Map (SOM) clustering method has the advantage of generating large numbers of clusters, but often gives ambiguous results. In this work, SOMs have been shown to be reproducible when the same conformational dataset is independently clustered multiple times (~100), with the help of the Cramérs V-index (C_v). The ability of C_v to determine which SOMs are reproduced is generalizable across different SOM source codes. The conformational ensembles produced from MD (molecular dynamics) and REMD (replica exchange molecular dynamics) simulations of the penta peptide Met-enkephalin (MET) and the 34 amino acid protein human Parathyroid Hormone (hPTH) were used to evaluate SOM reproducibility. The training length for the SOM has a huge impact on the reproducibility. Analysis of MET conformational data definitively determined that toroidal SOMs cluster data better than bordered maps due to the fact that toroidal maps do not have an edge effect. For the source code from MATLAB, it was determined that the learning rate function should be LINEAR with an initial learning rate factor of 0.05 and the SOM should be trained by a sequential algorithm. The trained SOMs can be used as a supervised classification for another dataset. The toroidal 10×10 hexagonal SOMs produced from the MATLAB program for hPTH conformational data produced three sets of reproducible clusters (27%, 15%, and 13% of 100 independent runs) which find similar partitionings to those of smaller 6×6 SOMs. The χ^2 values produced as part of the C_v calculation were used to locate clusters with identical conformational memberships on independently trained SOMs, even those with different dimensions. The χ^2 values could relate the different SOM partitionings to each other.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We provide a survey of the literature on ranking sets of objects. The interpretations of those set rankings include those employed in the theory of choice under complete uncertainty, rankings of opportunity sets, set rankings that appear in matching theory, and the structure of assembly preferences. The survey is prepared for the Handbook of Utility Theory, vol. 2, edited by Salvador Barberà, Peter Hammond, and Christian Seidl, to be published by Kluwer Academic Publishers. The chapter number is provisional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We identify conditions under which preferences over sets of consumption opportunities can be reduced to preferences over bundles of \"commodities\". We distinguish ordinal bundles, whose coordinates are defined up to monotone transformations, from cardinal bundles, whose coordinates are defined up to positive linear transformations only.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper examines several families of population principles in the light of a set of axioms. In addition to the critical-level utilitarian, number-sensitive critical-level utilitarian and number-dampened families and their generalized counterparts, we consider the restricted number-dampened family (suggested by Hurka) and introduce two new families : the restricted critical-level and restricted number-dependent critical-level families. Subsets of the restricted families have nonnegative critical levels and avoid both the repugnant and sadistic conclusions but fail to satisfy an important independence condition. We defend the critical-level principles with positive critical levels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper analyzes the measurement of the diversity of sets based on the dissimilarity of the objects contained in the set. We discuss axiomatic approaches to diversity measurement and examine the considerations underlying the application of specific measures. Our focus is on descriptive issues: rather than assuming a specific ethical position or restricting attention to properties that are appealing in specific applications, we address the foundations of the measurement issue as such in the context of diversity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

FRANCAIS: L'observation d'une intense luminescence dans les super-réseaux de Si/SiO2 a ouvert de nouvelles avenues en recherche théorique des matériaux à base de silicium, pour des applications éventuelles en optoélectronique. Le silicium dans sa phase cristalline possède un gap indirect, le rendant ainsi moins intéressant vis-à-vis d'autres matériaux luminescents. Concevoir des matériaux luminescents à base de silicium ouvrira donc la voie sur de multiples applications. Ce travail fait état de trois contributions au domaine. Premièrement, différents modèles de super-réseaux de Si/SiO2 ont été conçus et étudiés à l'aide de calculs ab initio afin d'en évaluer les propriétés structurales, électroniques et optiques. Les deux premiers modèles dérivés des structures cristallines du silicium et du dioxyde de silicium ont permis de démontrer l'importance du rôle de l'interface Si/SiO2 sur les propriétés optiques. De nouveaux modèles structurellement relaxés ont alors été construits afin de mieux caractériser les interfaces et ainsi mieux évaluer la portée du confinement sur les propriétés optiques. Deuxièmement, un gap direct dans les modèles structurellement relaxés a été obtenu. Le calcul de l'absorption (par l'application de la règle d'or de Fermi) a permis de confirmer que les propriétés d'absorption (et d'émission) du silicium cristallin sont améliorées lorsque celui-ci est confiné par le SiO2. Un décalage vers le bleu avec accroissement du confinement a aussi été observé. Une étude détaillée du rôle des atomes sous-oxydés aux interfaces a de plus été menée. Ces atomes ont le double effet d'accroître légèrement le gap d'énergie et d'aplanir la structure électronique près du niveau de Fermi. Troisièmement, une application directe de la théorique des transitions de Slater, une approche issue de la théorie de la fonctionnelle de la densité pour des ensembles, a été déterminée pour le silicium cristallin puis comparée aux mesures d'absorption par rayons X. Une très bonne correspondance entre cette théorie et l'expérience est observée. Ces calculs ont été appliqués aux super-réseaux afin d'estimer et caractériser leurs propriétés électroniques dans la zone de confinement, dans les bandes de conduction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis quelques années, l’urbanisme tend à considérer de plus en plus la question patrimoniale. Au Québec, c’est suite à l’adoption, en 1980, de la Loi sur l’aménagement et l’urbanisme que fut formellement introduite la donne patrimoniale dans la pratique urbanistique. Bien que cette pratique tente aujourd’hui de poser la conservation du patrimoine bâti comme l’une de ses préoccupations, elle ne parvient pas à l’assumer complètement. En nous basant sur la définition du patrimoine urbain telle que proposée par Gustavo Giovannoni, nous voulons, par cette étude, amorcer une réflexion sur les enjeux d’une approche urbanistique du patrimoine urbain. Nous proposons dans un premier temps un survol de l’évolution de la notion de patrimoine urbain. Cette évolution est mise en relation avec la constitution d’un regard sur le patrimoine bâti québécois. Nous analysons, par la suite, trois moments clés dans la constitution d’un tel regard. La mise en contexte de la naissance de l’urbanisme québécois constitue, quant à elle, le troisième et avant-dernier volet de notre réflexion. À la lumière de cette analyse, nous considérons que le regard de l’urbaniste, posé sur le patrimoine bâti, témoigne encore aujourd’hui d’un désintérêt pour la forme. L’abandon du domaine du physico-spatial au profit d’une gestion rationnelle de la ville a engendré une méconnaissance des processus de constitution des ensembles bâtis et du rôle des formes spécialisées polarisantes. Une véritable approche urbanistique du patrimoine bâti ne saurait passer que par la reconnaissance des processus morphogénétiques des ensembles urbains anciens et de leur inscription dans la ville contemporaine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Suite à une recension des écrits sur les soins d’hygiène des personnes atteintes de démence de type Alzheimer (DTA), force est de constater la rareté, voire l’absence de recherches sur la question des soins d’hygiène (SH) dispensés à domicile par les conjointes. Pourtant, la conjointe à domicile est confrontée aux mêmes difficultés que les intervenants des établissements de santé et doit ainsi faire face aux comportements, parfois difficiles de la personne atteinte. Dans la pratique, les infirmières questionnent peu les difficultés rencontrées par les aidantes au moment des soins d’hygiène, ce qui permet difficilement de prendre conscience de leurs sentiments d’isolement et de détresse et de les réduire, le cas échéant. Pour pallier cette lacune, la présente recherche vise à comprendre l’expérience que vivent des conjointes d’hommes atteints de DTA lorsqu’elles leur dispensent des SH à domicile. Un second objectif vise à identifier les dimensions qui sont associées à cette expérience. Une approche de recherche qualitative est utilisée. Les participantes ont été recrutées par l’entremise des Sociétés Alzheimer de Laval et des Laurentides. La stratégie de collecte des données a impliqué la réalisation de deux entrevues individuelles, face à face, de même que l’administration d’un court questionnaire portant sur les aspects sociodémographiques. La démarche retenue pour l’analyse de l’ensemble de données est inspirée de l’approche proposée par Miles et Huberman (2003). Les résultats permettent d’abord de mettre en évidence des profils de conjointes qui, tout en étant variables, présentent certaines similarités. Eu égard aux SH, toutes ont à consacrer des efforts soutenus, quotidiens et intenses. Elles doivent faire montre de patience et compter sur des capacités personnelles les amenant à ressentir des sentiments positifs malgré les situations difficiles. Les résultats montrent par ailleurs que la dispensation des SH provoque aussi des sentiments négatifs associés au fardeau que ces soins impliquent. Les conjointes mettent toutefois en œuvre une variété de stratégies d’adaptation au stress telles la résolution de problème, la recherche de soutien social et le recadrage. Cinq ensembles de dimensions personnelles et contextuelles sont associés à l’expérience des aidantes : 1) En ce qui a trait aux caractéristiques personnelles des conjointes, l’avancement en âge et l’état de santé physique ou psychologique influencent négativement l’expérience lors des SH. Par contre, les ressources personnelles intrinsèques (acceptation de la réalité, capacité de trouver un sens à l’évènement, habileté à improviser et sens de l’humour) sont utilisées de manière naturelle ou acquise; 2) Les caractéristiques personnelles du conjoint (année du diagnostic, pertes d’autonomie et troubles de comportement) affectent négativement l’expérience vécue; 3) La relation conjugale présente un intérêt important puisqu’il apparaît qu’une relation conjugale pré-diagnostic positive semble favoriser des sentiments positifs chez la conjointe en ce qui a trait aux SH; 4) Les dimensions familiales ont un impact favorable, étant donné le soutien psychologique reçu de la famille; 5) Les dimensions macro-environnementales, incluant l’aide reçue du réseau informel plus large de même que du réseau formel, ainsi que les divers aménagements matériels de l’environnement physique du couple, ressortent enfin comme ayant un impact positif. Au terme de l’analyse des résultats, l’auteure est en mesure de proposer une synthèse de l’expérience des conjointes. La discussion aborde quatre enjeux qui se dégagent des résultats observés : impacts des difficultés rencontrées lors des SH dans la décision d’hébergement, réticence des aidantes à faire appel aux ressources du réseau formel pour obtenir de l’aide eu égard aux SH, importance des ressources personnelles des aidantes et potentiel de l’approche relationnelle humaine (human caring) pour faire face aux défis que pose la dispensation des SH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse envisage un ensemble de méthodes permettant aux algorithmes d'apprentissage statistique de mieux traiter la nature séquentielle des problèmes de gestion de portefeuilles financiers. Nous débutons par une considération du problème général de la composition d'algorithmes d'apprentissage devant gérer des tâches séquentielles, en particulier celui de la mise-à-jour efficace des ensembles d'apprentissage dans un cadre de validation séquentielle. Nous énumérons les desiderata que des primitives de composition doivent satisfaire, et faisons ressortir la difficulté de les atteindre de façon rigoureuse et efficace. Nous poursuivons en présentant un ensemble d'algorithmes qui atteignent ces objectifs et présentons une étude de cas d'un système complexe de prise de décision financière utilisant ces techniques. Nous décrivons ensuite une méthode générale permettant de transformer un problème de décision séquentielle non-Markovien en un problème d'apprentissage supervisé en employant un algorithme de recherche basé sur les K meilleurs chemins. Nous traitons d'une application en gestion de portefeuille où nous entraînons un algorithme d'apprentissage à optimiser directement un ratio de Sharpe (ou autre critère non-additif incorporant une aversion au risque). Nous illustrons l'approche par une étude expérimentale approfondie, proposant une architecture de réseaux de neurones spécialisée à la gestion de portefeuille et la comparant à plusieurs alternatives. Finalement, nous introduisons une représentation fonctionnelle de séries chronologiques permettant à des prévisions d'être effectuées sur un horizon variable, tout en utilisant un ensemble informationnel révélé de manière progressive. L'approche est basée sur l'utilisation des processus Gaussiens, lesquels fournissent une matrice de covariance complète entre tous les points pour lesquels une prévision est demandée. Cette information est utilisée à bon escient par un algorithme qui transige activement des écarts de cours (price spreads) entre des contrats à terme sur commodités. L'approche proposée produit, hors échantillon, un rendement ajusté pour le risque significatif, après frais de transactions, sur un portefeuille de 30 actifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'administration fédérale canadienne et la Commission européenne ont construit, dans le courant des années 2000, deux réseaux de Systèmes d'informations géographiques (SIG) : le Système national d'information forestière au Canada, et l'Infrastructure d'information géographique dans la Communauté européenne. Ces SIG permettent le traitement géographique de données sociales et environnementales ainsi que leur représentation sur des cartes. Nous appréhendons ces deux réseaux de SIG sous l'angle de leur valeur heuristique : leur analyse nous permet d'étudier les configurations institutionnelles dans lesquelles ils ont été développés, c'est-à-dire, dans ces cas précis, ce qu'il est convenu d'appeler la « gouvernance ». Les SIG sont des instruments de mesure et de représentation de certains phénomènes : ils appartiennent à la classe des instruments d'objectivation. En tant qu'instruments d'objectivation, ils nous permettent de discuter deux éléments théoriques de la « gouvernance » : le rapport entre les administrations centrales et les administrations locales ; le rapport entre les administrations étatiques et les organisations non-étatiques. A travers cette discussion, nous montrons d'une part que la réarticulation de paliers de gouvernement différents ne signifie pas, comme cela a pu être écrit, un retrait de l'administration centrale au profit des administrations locales, mais au contraire une manière de contrôler plus étroitement celles-ci. Nous montrons d'autre part que cette renégociation des rapports entre les administrations centrales et locales ne s'accompagne pas, en pratique, d’une renégociation des rapports entre administrations étatiques et organisations non-étatiques. En révélant que les données non-étatiques ne sont pas intégrées dans les réseaux de SIG étatiques, nous relativisons les théories qui voient dans la « gouvernance » un mode de gouvernement ouvert aux organisations non-étatiques. Cela nous conduit à approfondir la piste qui envisage les instruments étatiques d'objectivation comme des moyens d'écarter de l'objectivation des phénomènes sociaux ou naturels les éléments qui contredisent l'action gouvernementale. Cette exégèse politique de deux ensembles de programmes informatiques particuliers – les SIG – nous amène, en conclusion, à proposer de considérer certains programmes informatiques comme des institutions politiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les usines récupérées par les ouvriers en Argentine sont devenues un mouvement social emblématique symbolisant l'un des aspects de la révolte sociale entourant la crise économique de 2001-2002. Les usines récupérées sont des entreprises abandonnées par leurs propriétaires originaux ou déclarées faillite, laissant derrières elles des salaires et des dettes impayés. Par conséquence, les ouvriers ont commencé à récupérer leurs usines; reprenant la production sans leurs anciens patrons, sous, et au profit de la gestion collective des ouvriers. Le mouvement est remarquable pour sa rémunération égalitaire et sa gestion horizontale. Ce travail examine la continuité des usines récupérées et ceci à travers l'évolution sociale, politique et économique du paysage de l'Argentine. Il évalue également l'impact du mouvement en tant que défi aux modes économiques de production hégémoniques et orientés vers le marché. En supposant que l'avenir du mouvement dépend de deux ensembles de facteurs, le rapport analyse les facteurs internes à travers le prisme de la théorie de mobilisation des ressources, ainsi que les facteurs externes à travers la perspective de la théorie de la structure de l'opportunité politique. Le travail conclut que la situation actuelle se trouve dans une impasse dans laquelle le mouvement a gagné l'acceptation institutionnelle, mais a échoué d'effectuer le changement structurel favorisant ses pratiques et garantissant la sécurité à long terme. Il argumente que le mouvement doit consolider certains aspects combatifs. Il doit consolider sa nouvelle identité en tant que mouvement social et forger des alliances stratégiques et tactiques tout en préservant son autonomie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une nouvelle notion d'enlacement pour les paires d'ensembles $A\subset B$, $P\subset Q$ dans un espace de Hilbert de type $X=Y\oplus Y^{\perp}$ avec $Y$ séparable, appellée $\tau$-enlacement, est définie. Le modèle pour cette définition est la généralisation de l'enlacement homotopique et de l'enlacement au sens de Benci-Rabinowitz faite par Frigon. En utilisant la théorie du degré développée dans un article de Kryszewski et Szulkin, plusieurs exemples de paires $\tau$-enlacées sont donnés. Un lemme de déformation est établi et utilisé conjointement à la notion de $\tau$-enlacement pour prouver un théorème d'existence de point critique pour une certaine classe de fonctionnelles sur $X$. De plus, une caractérisation de type minimax de la valeur critique correspondante est donnée. Comme corollaire de ce théorème, des conditions sont énoncées sous lesquelles l'existence de deux points critiques distincts est garantie. Deux autres théorèmes de point critiques sont démontrés dont l'un généralise le théorème principal de l'article de Kryszewski et Szulkin mentionné ci-haut.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une réconciliation entre un arbre de gènes et un arbre d’espèces décrit une histoire d’évolution des gènes homologues en termes de duplications et pertes de gènes. Pour inférer une réconciliation pour un arbre de gènes et un arbre d’espèces, la parcimonie est généralement utilisée selon le nombre de duplications et/ou de pertes. Les modèles de réconciliation sont basés sur des critères probabilistes ou combinatoires. Le premier article définit un modèle combinatoire simple et général où les duplications et les pertes sont clairement identifiées et la réconciliation parcimonieuse n’est pas la seule considérée. Une architecture de toutes les réconciliations est définie et des algorithmes efficaces (soit de dénombrement, de génération aléatoire et d’exploration) sont développés pour étudier les propriétés combinatoires de l’espace de toutes les réconciliations ou seulement les plus parcimonieuses. Basée sur le processus classique nommé naissance-et-mort, un algorithme qui calcule la vraisemblance d’une réconciliation a récemment été proposé. Le deuxième article utilise cet algorithme avec les outils combinatoires décrits ci-haut pour calculer efficacement (soit approximativement ou exactement) les probabilités postérieures des réconciliations localisées dans le sous-espace considéré. Basé sur des taux réalistes (selon un modèle probabiliste) de duplication et de perte et sur des données réelles/simulées de familles de champignons, nos résultats suggèrent que la masse probabiliste de toute l’espace des réconciliations est principalement localisée autour des réconciliations parcimonieuses. Dans un contexte d’approximation de la probabilité d’une réconciliation, notre approche est une alternative intéressante face aux méthodes MCMC et peut être meilleure qu’une approche sophistiquée, efficace et exacte pour calculer la probabilité d’une réconciliation donnée. Le problème nommé Gene Tree Parsimony (GTP) est d’inférer un arbre d’espèces qui minimise le nombre de duplications et/ou de pertes pour un ensemble d’arbres de gènes. Basé sur une approche qui explore tout l’espace des arbres d’espèces pour les génomes considérés et un calcul efficace des coûts de réconciliation, le troisième article décrit un algorithme de Branch-and-Bound pour résoudre de façon exacte le problème GTP. Lorsque le nombre de taxa est trop grand, notre algorithme peut facilement considérer des relations prédéfinies entre ensembles de taxa. Nous avons testé notre algorithme sur des familles de gènes de 29 eucaryotes.