969 resultados para Cation ordering


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Consistency, a natural weakening of transitivity introduced in a seminal contribution by Suzumura (1976b), has turned out to be an interesting and promising concept in a variety of areas within economic theory. This paper summarizes its recent applications and provides some new observations in welfarist social choice and in population ethics. In particular, it is shown that the conclusion of the welfarism theorem remains true if transitivity is replaced by consistency and that an impossibility result in variable-population social-choice theory turns into a possibility if transitivity is weakened to consistency.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We study the construction of a social ordering function for the case of a public good financed by contributions from the population, and we extend the analysis of Maniquet and Sprumont (2004) to the case when contributions cannot be negative, i.e. agents cannot receive subsidies from others.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A collective decision problem is described by a set of agents, a profile of single-peaked preferences over the real line and a number k of public facilities to be located. We consider public facilities that do not su¤er from congestion and are non-excludable. We provide a characterization of the class of rules satisfying Pareto-efficiency, object-population monotonicity and sovereignty. Each rule in the class is a priority rule that selects locations according to a predetermined priority ordering among interest groups. We characterize each of the subclasses of priority rules that respectively satisfy anonymity, hiding-proofness and strategy-proofness. In particular, we prove that a priority rule is strategy-proof if and only if it partitions the set of agents into a fixed hierarchy. Alternatively, any such rule can be viewed as a collection of fixed-populations generalized peak-selection median rules (Moulin, 1980), that are linked across populations, in a way that we describe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We reconsider the problem of aggregating individual preference orderings into a single social ordering when alternatives are lotteries and individual preferences are of the von Neumann-Morgenstern type. Relative egalitarianism ranks alternatives by applying the leximin ordering to the distributions of (0-1) normalized utilities they generate. We propose an axiomatic characterization of this aggregation rule and discuss related criteria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comprendre le mode d’existence de l’organisation est certainement l’un des plus grands défis que se sont donnés les chercheurs qui s’intéressent à ce domaine d’étude. La littérature nous présente ainsi plusieurs images, métaphores et perspectives qui, combinées, dressent un portrait hybride de ce type de collectif. Je propose, dans cette thèse, de reconnaître et exploiter ce caractère hybride de l’organisation en partant d’une réflexion centrée sur l'espace. En m’inspirant particulièrement des travaux de la géographe Doreen Massey (1999, 2005), le concept d'espace auquel je souscris est celui d’un espace ouvert et dynamique (qui incorpore le temps), basé sur une relationalité matérielle et hétérogène, supposant des acteurs humains et non humains en interaction. L'espace peut donc être compris comme la coexistence d’ontologies hétérogènes, ce que Massey (2005) nomme une coexistence de trajectoires comme stories-so-far. Il s’agit ici d’une vision performative de l’espace organisationnel qui est constitué dans la relation de trajectoires distinctes qui coexistent, se rencontrent, s’affectent, entrent en conflit ou coopèrent (Massey, 1999). Je postule que pour assurer une certaine continuité et cohérence dans la coexistence de trajectoires hétérogènes, un travail d’alignement et d’ordonnancement est mis à l’oeuvre, et ce, par le suivi d’une trajectoire principale — ce que je nomme une trajectoire scriptée. Suivre cette trajectoire permet ainsi à l’organisation de s’étendre, de se rendre présente dans le temps et dans l’espace, sans pour autant perdre son identité : to be here and there at the same time, now and then at the same place. À partir de cette définition de l’espace, je propose d’« espacer l’organisation », et plus particulièrement d’« espacer » Explora, un programme d’éducation non formelle du gouvernement du Chili visant la diffusion et la valorisation de la science et de la technologie. Cette proposition est double : elle renvoie aux pratiques d’espacements — des pratiques hybrides, collectives et situées — des agents organisationnels (dans ce cas, aux pratiques des agents d’Explora impliqués dans l’organisation d’un projet, celui de la Semaine de la science 2006),mais aussi à une pratique de recherche. « Espacer l’organisation » veut donc dire déployer ces espaces pleins, déplier l’organisation, accroître la série des simultanéités-successions pour ainsi créer plus d’espace-temps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche. Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images. Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation. Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les Rétinal déshydrogénases (RALDHs) catalysent irréversiblement la déshydrogénation du Rétinal en Acide Rétinoïque (AR) qui est impliqué dans l’embryogenèse et la différenciation tissulaire. Pour comprendre le rôle dans la biosynthèse de l’AR des RALDHs type 3 et 4 de souris, nous avons déterminé leurs propriétés cinétiques ainsi que leur comportement en présence de différents inhibiteurs. Les tests enzymatiques sont effectués avec une préparation d’enzyme recombinante, tagguée avec 6 histidines, purifiée sur colonne Ni-NTA (Qiagen). L’activité enzymatique est évaluée en quantifiant la production d’AR par chromatographie liquide à haute performance (HPLC) en phase inversée. Les constantes cinétiques ont été déterminées pour les isomères du rétinal tout-trans, 9-cis et 13-cis. La RALDH4 catalyse les isomères 9-cis et 13-cis de rétinal, elle présente un faible KM (3μM) pour les deux isomères et a une efficacité catalytique élevée pour le 9-cis rétinal 3.4 fois supérieure au 13-cis rétinal. La RALDH3 est spécifique au tout-trans rétinal avec un KM de 4 μM et une efficacité élevée. β-Ionone, inhibiteur possible pour la RALDH4, inhibe l’activité avec le rétinal 9-cis et 13-cis, mais n’influence pas l’activité de la RALDH3. Le para-hydroxymercuribenzoïque (p-HMB) inhibe l’activité de deux isoenzymes. Le cation MgCl2 augmente par 3 fois l’oxydation du rétinal 13-cis par la RALDH4, diminue l’oxydation du 9-cis rétinal et influence faiblement la RALDH3. Ces données enrichissent les connaissances sur les caractéristiques cinétiques des RALDHs recombinantes de souris de types 3 et 4 et fournissent des éclaircissements sur la biogenèse de l’acide rétinoïque in vivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs nouveaux complexes pinceurs de cobalt et de nickel ont été préparés avec le ligand pinceur de type POCOP : 2,6-(i-Pr2PO)2C6H4. Dans le cas du cobalt, une nouvelle voie de synthèse a été développée. Contrairement au cas du nickel, il s’agit ici de cobalt au degré d’oxydation +III. Les composés obtenus sont paramagnétiques. En outre, le dérivé bromé est instable à la lumière et se décompose en perdant un brome pour former le complexe pinceur de Co(II). La réactivité de ces complexes a été étudiée. Pour ce qui est du nickel, la catalyse de l’hydroamination a été élargie aux dérivés de l’acrylonitrile et aux amines aromatiques. En outre, la réaction d’hydroaryloxylation a été étudiée dans les mêmes conditions. Enfin, avec le 4-cyanostyrène et le cinnamonitrile, la formation d’amidines a été observée. Un complexe pinceur portant cette amidine a été isolé. Enfin, le cation réagit avec des anions fortement coordonnants tels le cyanure ou l’isocyanate. En outre, l’anion triflate peut être déplacé par l’eau, l’acrylonitrile et ses dérivés. Enfin, une réactivité particulière a été observée avec la morpholine, l’acétone et un mélange 1:1 aniline/triéthylamine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire nous allons présenter une méthode de diffusion d’erreur originale qui peut reconstruire des images en demi-ton qui plaisent à l’œil. Cette méthode préserve des détails fins et des structures visuellement identifiables présentes dans l’image originale. Nous allons tout d’abord présenter et analyser quelques travaux précédents afin de montrer certains problèmes principaux du rendu en demi-ton, et nous allons expliquer pourquoi nous avons décidé d’utiliser un algorithme de diffusion d’erreur pour résoudre ces problèmes. Puis nous allons présenter la méthode proposée qui est conceptuellement simple et efficace. L’image originale est analysée, et son contenu fréquentiel est détecté. Les composantes principales du contenu fréquentiel (la fréquence, l’orientation et le contraste) sont utilisées comme des indices dans un tableau de recherche afin de modifier la méthode de diffusion d’erreur standard. Le tableau de recherche est établi dans un étape de pré-calcul et la modification est composée par la modulation de seuil et la variation des coefficients de diffusion. Ensuite le système en entier est calibré de façon à ce que ces images reconstruites soient visuellement proches d’images originales (des aplats d’intensité constante, des aplats contenant des ondes sinusoïdales avec des fréquences, des orientations et des constrastes différents). Finalement nous allons comparer et analyser des résultats obtenus par la méthode proposée et des travaux précédents, et démontrer que la méthode proposée est capable de reconstruire des images en demi-ton de haute qualité (qui préservent des structures) avec un traitement de temps très faible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La protection de l’environnement est un enjeu capital de la société contemporaine. Suite à la révolution industrielle, la contamination de l’environnement a pris divers chemins pour se retrouver dans notre eau, notre atmosphère et, de manière parfois moins évidente, dans nos sols. Considérant le nombre de sites contaminés répertoriés par le ministère du Développement durable, de l’Environnement et des Parcs, on peut s’interroger sur l’efficacité des dispositions prévues à la section IV.2.1 de la Loi sur la qualité de l’environnement qui prévoit des pouvoirs d’ordonnance de caractérisation et de réhabilitation pouvant viser de manière rétroactive non seulement le pollueur et celui ayant permis la contamination, mais également, dans certains cas, le gardien, à quelque titre que ce soit, du terrain. En 2003, le cadre réglementaire en matière d’ordonnances de décontamination a fait l’objet d’une réforme majeure, dont les grandes lignes sont rapportées dans la première partie de cette étude. Toutefois, l’application de ces mesures relève d’un pouvoir de nature discrétionnaire pour le ministre, cette discrétion faisant l’objet de développements dans la deuxième partie de notre mémoire. Le nombre d’ordonnances rendues par le ministre en matière de décontamination des sites est si peu élevé qu’on ne peut éviter de traiter, dans la dernière partie de notre étude, de l’éventuelle responsabilité de l’État en lien avec la contamination des sols, considérant les principes de développement durable et surtout, d’équité intergénérationnelle qui, selon nous, devraient se refléter dans l’application des pouvoirs d’ordonnance du ministre de l’Environnement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une nouvelle méthode d'extraction en phase solide (SPE) couplée à une technique d'analyse ultrarapide a été développée pour la détermination simultanée de neuf contaminants émergents (l'atrazine, le déséthylatrazine, le 17(béta)-estradiol, l'éthynylestradiol, la noréthindrone, la caféine, la carbamazépine, le diclofénac et le sulfaméthoxazole) provenant de différentes classes thérapeutiques et présents dans les eaux usées. La pré-concentration et la purification des échantillons a été réalisée avec une cartouche SPE en mode mixte (Strata ABW) ayant à la fois des propriétés échangeuses de cations et d'anions suivie d'une analyse par une désorption thermique par diode laser/ionisation chimique à pression atmosphérique couplée à la spectrométrie de masse en tandem (LDTD-APCI-MS/MS). La LDTD est une nouvelle méthode d'introduction d'échantillon qui réduit le temps total d'analyse à moins de 15 secondes par rapport à plusieurs minutes avec la chromatographie liquide couplée à la spectrométrie de masse en tandem traditionnelle (LC-MS/MS). Plusieurs paramètres SPE ont été évalués dans le but d'optimiser l'efficacité de récupération lors de l'extraction des analytes provenant des eaux usées, tels que la nature de la phase stationnaire, le débit de chargement, le pH d'extraction, le volume et la composition de la solution de lavage et le volume de l'échantillon initial. Cette nouvelle méthode a été appliquée avec succès à de vrais échantillons d'eaux usées provenant d'un réservoir de décantation primaire. Le recouvrement des composés ciblés provenant des eaux usées a été de 78 à 106%, la limite de détection a été de 30 à 122 ng L-1, alors que la limite de quantification a été de 88 à 370 ng L-1. Les courbes d'étalonnage dans les matrices d'eaux usées ont montré une bonne linéarité (R2 > 0,991) pour les analytes cibles ainsi qu’une précision avec un coefficient de variance inférieure à 15%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Individual well-being is multidimensional and various aspects of the quality of life need to be jointly considered in its measurement. The axiomatic literature on the subject has proposed many indices of multidimensional poverty and deprivation and explored the properties that are at the basis of these measures. The purpose of this chapter is to add intertemporal considerations to the analysis of material deprivation. We employ the EU-SILC panel data set, which includes information on different aspects of well-being over time. EU countries are compared based on measures that take this additional intertemporal information into consideration. Journal of Economic Literature Classi cation No.: D63.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

An aggregation rule maps each profile of individual strict preference orderings over a set of alternatives into a social ordering over that set. We call such a rule strategyproof if misreporting one’s preference never produces a social ordering that is strictly between the original ordering and one’s own preference. After describing a few examples of manipulable rules, we study in some detail three classes of strategy-proof rules: (i)rules based on a monotonic alteration of the majority relation generated by the preference profile; (ii)rules improving upon a fixed status-quo; and (iii) rules generalizing the Condorcet-Kemeny aggregation method.