337 resultados para Procédure commerciale -- Dictionnaires
Resumo:
L'écologie urbaine est un nouveau champ de recherche qui cherche à comprendre les structures et les patrons des communautés et des écosystèmes situés dans des paysages urbains. Les petits plans d’eau sont connus comme des écosystèmes aquatiques qui peuvent contenir une biodiversité considérable pour plusieurs groupes taxonomiques (oiseaux, amphibiens, macroinvertébrés), ce qui en fait des écosystèmes intéressants pour les études de conservation. Cependant, la biodiversité du zooplancton, un élément central des réseaux trophiques aquatiques, n’est pas entièrement connue pour les plans d’eaux urbains et devrait être mieux décrite et comprise. Cette étude a évalué les patrons de biodiversité des communautés zooplanctoniques dans des plans d’eau urbains sur l’Ile de Montréal et leurs sources de variation. Des suggestions pour l’évaluation et la conservation de la biodiversité sont aussi discutées. La biodiversité zooplanctonique des plans d’eaux urbains s’est avérée être assez élevée, avec les cladocères et les rotifères montrant les contributions à la diversité gamma et bêta les plus élevées. Sur l’ensemble des plans d’eau, il y avait une corrélation négative entre les contributions à la bêta diversité des cladocères et des rotifères. Au niveau de chaque plan d'eau, la zone littorale colonisée par des macrophytes s'est avérée être un habitat important pour la biodiversité zooplactonique, contribuant considérablement à la richesse en taxons, souvent avec une différente composition en espèces. Les communautés zooplanctoniques répondaient aux facteurs ascendants et descendants, mais aussi aux pratiques d’entretien, car le fait de vider les plans d’eau en hiver affecte la composition des communautés zooplanctoniques. Les communautés de cladocères dans ces plans d’eau possédaient des quantités variables de diversité phylogénétique, ce qui permet de les classer afin de prioriser les sites à préserver par rapport à la diversité phylogénétique. Le choix des sites à préserver afin de maximiser la diversité phylogénétique devrait être correctement établi, afin d’eviter de faire des choix sous-optimaux. Cependant, pour des taxons tels que les cladocères, pour lesquels les relations phylogénétiques demeurent difficiles à établir, placer une confiance absolue dans un seul arbre est une procédure dangereuse. L’incorporation de l’incertitude phylogénétique a démontré que, lorsqu’elle est prise en compte, plusieurs différences potentielles entre la diversité phylogenétique ne sont plus supportées. Les patrons de composition des communautés différaient entre les plans d’eau, les mois et les zones d’échantillonnage. Etant donné les intéractions sont significatives entres ces facters; ceci indique que tous ces facteurs devraient êtres considérés. L’urbanisation ne semblait pas sélectionner pour un type unique de composition des groupes alimentaires, étant donné que les communautés pouvaient changer entres des assemblages de types alimentaires différents. Les variables environnementales, surtout la couverture du plan d’eau en macrophytes, étaient des facteurs importants pour la biodiversité zooplanctonique, affectant la richesse spécifique de divers groupes taxonomiques et alimentaires. Ces variables affectaient aussi la composition des communautés, mais dans une moindre mesure, étant des variables explicatives modestes, ce qui indiquerait le besoin de considérer d’autres processus.
Resumo:
Cette thèse comporte trois articles dont un est publié et deux en préparation. Le sujet central de la thèse porte sur le traitement des valeurs aberrantes représentatives dans deux aspects importants des enquêtes que sont : l’estimation des petits domaines et l’imputation en présence de non-réponse partielle. En ce qui concerne les petits domaines, les estimateurs robustes dans le cadre des modèles au niveau des unités ont été étudiés. Sinha & Rao (2009) proposent une version robuste du meilleur prédicteur linéaire sans biais empirique pour la moyenne des petits domaines. Leur estimateur robuste est de type «plugin», et à la lumière des travaux de Chambers (1986), cet estimateur peut être biaisé dans certaines situations. Chambers et al. (2014) proposent un estimateur corrigé du biais. En outre, un estimateur de l’erreur quadratique moyenne a été associé à ces estimateurs ponctuels. Sinha & Rao (2009) proposent une procédure bootstrap paramétrique pour estimer l’erreur quadratique moyenne. Des méthodes analytiques sont proposées dans Chambers et al. (2014). Cependant, leur validité théorique n’a pas été établie et leurs performances empiriques ne sont pas pleinement satisfaisantes. Ici, nous examinons deux nouvelles approches pour obtenir une version robuste du meilleur prédicteur linéaire sans biais empirique : la première est fondée sur les travaux de Chambers (1986), et la deuxième est basée sur le concept de biais conditionnel comme mesure de l’influence d’une unité de la population. Ces deux classes d’estimateurs robustes des petits domaines incluent également un terme de correction pour le biais. Cependant, ils utilisent tous les deux l’information disponible dans tous les domaines contrairement à celui de Chambers et al. (2014) qui utilise uniquement l’information disponible dans le domaine d’intérêt. Dans certaines situations, un biais non négligeable est possible pour l’estimateur de Sinha & Rao (2009), alors que les estimateurs proposés exhibent un faible biais pour un choix approprié de la fonction d’influence et de la constante de robustesse. Les simulations Monte Carlo sont effectuées, et les comparaisons sont faites entre les estimateurs proposés et ceux de Sinha & Rao (2009) et de Chambers et al. (2014). Les résultats montrent que les estimateurs de Sinha & Rao (2009) et de Chambers et al. (2014) peuvent avoir un biais important, alors que les estimateurs proposés ont une meilleure performance en termes de biais et d’erreur quadratique moyenne. En outre, nous proposons une nouvelle procédure bootstrap pour l’estimation de l’erreur quadratique moyenne des estimateurs robustes des petits domaines. Contrairement aux procédures existantes, nous montrons formellement la validité asymptotique de la méthode bootstrap proposée. Par ailleurs, la méthode proposée est semi-paramétrique, c’est-à-dire, elle n’est pas assujettie à une hypothèse sur les distributions des erreurs ou des effets aléatoires. Ainsi, elle est particulièrement attrayante et plus largement applicable. Nous examinons les performances de notre procédure bootstrap avec les simulations Monte Carlo. Les résultats montrent que notre procédure performe bien et surtout performe mieux que tous les compétiteurs étudiés. Une application de la méthode proposée est illustrée en analysant les données réelles contenant des valeurs aberrantes de Battese, Harter & Fuller (1988). S’agissant de l’imputation en présence de non-réponse partielle, certaines formes d’imputation simple ont été étudiées. L’imputation par la régression déterministe entre les classes, qui inclut l’imputation par le ratio et l’imputation par la moyenne sont souvent utilisées dans les enquêtes. Ces méthodes d’imputation peuvent conduire à des estimateurs imputés biaisés si le modèle d’imputation ou le modèle de non-réponse n’est pas correctement spécifié. Des estimateurs doublement robustes ont été développés dans les années récentes. Ces estimateurs sont sans biais si l’un au moins des modèles d’imputation ou de non-réponse est bien spécifié. Cependant, en présence des valeurs aberrantes, les estimateurs imputés doublement robustes peuvent être très instables. En utilisant le concept de biais conditionnel, nous proposons une version robuste aux valeurs aberrantes de l’estimateur doublement robuste. Les résultats des études par simulations montrent que l’estimateur proposé performe bien pour un choix approprié de la constante de robustesse.
Resumo:
La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.
Resumo:
Cette étude vise à dégager certaines des traces des discours antérieurs (cotextuels) qui sont la matière même du roman « Allah n’est pas obligé », à la fois sur le plan de l’écriture et sur celui d’une mémoire douloureuse. Il s’agit de montrer que la « poétique de l’explication » qui caractérise le roman constitue une stratégie de dévoilement des rhétoriques fallacieuses destinées à occulter l’inadmissible. En effet, le recours constant aux dictionnaires n’est que l’effet le plus visible d’une poétique englobante qui consiste à confronter les uns aux autres les discours sur le monde, discours en deçà des mots inscrits dans le texte comme une mémoire en palimpseste, afin de faire ressortir leur incapacité à expliquer des réalités aussi inhumaines que le sort que subissent les enfants-soldats. Le roman de Kourouma met ainsi en évidence deux attitudes possibles face aux atrocités indicibles des guerres oubliées des temps présents : soit on en nie le caractère insensé en multipliant les discours d’explication, soit l’on dénonce toute tentative de manipulation des discours visant à rendre sensé l’insensé. La première posture est illustrée par le « blablabla » du narrateur Birahima ; la deuxième est celle du roman lui-même.
Resumo:
La présente étude oscillera entre deux niveaux d’analyse : l’un que l’on pourrait qualifier d’intradoctrinal (section V) et l’autre qu’il conviendrait plutôt d’appeler métadoctrinal (sections III, IV et VI). Alors qu’il s’agira dans le premier cas de limiter notre analyse aux articulations explicites du discours cynique, en prenant soin de renouveler l’interprétation de certains problèmes inhérents au corpus proprement dit, il s’agira plutôt dans le deuxième cas de pénétrer l’arrière-scène de son dispositif conceptuel, en cherchant à mettre au jour ce qui surdétermine philosophiquement la fonction qu’occupe le concept de nature dans l’économie générale du cynisme. Tour à tour seront ainsi abordés les thèmes de l’âge d’or, du modèle infantile, en même temps que nous veillerons à questionner les ramifications pour ainsi dire souterraines qui relient l’élaboration du concept de nature à l’idéal moral d’autarcie.
Resumo:
David Hume, dans son Traité sur la nature humaine, utilise deux concepts qui semblent se rapporter à l’identité personnelle d’un individu : le moi (self) et le caractère personnel. Cependant, dans le Traité, il ne traite pas à la fois de l’un et de l’autre : dans le premier livre, « De l’entendement », il s’intéresse au moi, alors que dans les second et troisième livres, « Des passions » et « De la morale » il traite plutôt du caractère. On constate alors qu’il y a une nette différence chez Hume entre ce qui constitue le moi d’un individu et son caractère personnel. Ils ne se définissent absolument pas de la même manière et au final, ils ne se rapportent pas, tous deux, à l’identité personnelle. Le caractère qui permet d’aborder la question de la responsabilité morale d’un individu, ce que le moi ne peut pas faire, constitue la véritable identité d’un individu.
Resumo:
Carnap a eu une participation active dans les discussions entourant la crise des fondements avant de se lancer dans le projet d’établir les fondements logiques des probabilités, ce qu’il présente dans « Logical Foundations of Probability » (1950). Il a montré que les querelles entre l’interprétation des probabilités comme état du monde et comme état de connaissance de l’observateur étaient vaines puisqu’elles ne portaient pas sur le même concept. Pour lui, la logique des probabilités est la logique inductive : une probabilité décrit une relation logique, soit le degré de confirmation d’une hypothèse selon des données observées. Deux ans plus tard, dans « The Continuum of Inductive Methods » (1952), il enrichit son système et démontre qu’il existe une quantité infinie de méthodes inductives. Nous replacerons l’interprétation de Carnap parmi celles discutées à son époque et discuterons de certaines implications.
Resumo:
Portant sur le lien entre le traitement du Sollen dans la Science de la logique et la critique du normativisme menée par G. W. F. Hegel dans la Préface des Principes de la philosophie du droit, le texte recense, dans un premier temps, trois arguments contre l’usage du devoir-être dans la réflexion philosophique politique puis, dans un deuxième temps, nuance les deux sens du devoir-être dans la Science de la logique afin de, dans un troisième temps, spécifier le sens de la critique hégélienne du normativisme selon les deux points suivants : 1. dans la Préface des Principes de la philosophie du droit, cette critique ne s’applique qu’à l’activité spéculative ayant l’État pour objet et 2. l’opposition entre être et devoir-être a pour but de souligner la qualité spéculative de la pensée portant sur l’État, ces deux spécifications reposant, enfin, sur la difficulté d’établir une correspondance étroite entre l’usage critique du concept de Sollen dans les Principes de la philosophie du droit et les deux sens de ce concept dans la Science de la logique.
Resumo:
L'objectif du présent texte est de discuter de la portée épistémique de la méthode axiomatique. Tout d'abord, il sera question du contexte à partir duquel la méthode axiomatique a émergé, ce qui sera suivi d'une discussion des motivations du programme de Hilbert et de ses objectifs. Ensuite, nous exposerons la méthode axiomatique dans un cadre plus moderne afin de mettre en lumière son utilité et sa portée théorique. Finalement, il s'agira d'explorer l'influence de la méthode axiomatique en physique, surtout en ce qui a trait à l'application de la méthode par Hilbert. Nous discuterons de ses objectifs et de l'épistémologie qui accompagnait sa vision du 6 e problème, ce qui nous amènera à discuter des limites épistémiques de la méthode axiomatique et de l'entreprise scientifique en général.
Resumo:
The aim of this paper is to examine a particular substantive theory among others in the set of “revisionist” theories of moral responsibility, namely, Manuel Vargas’ version of the moral influence account of the justification of responsibility- specific practices. Moderate revisionism, which Vargas (2005) endorses, advocates a clear distinction between descriptive and normative questions, which enables a naturalistically plausible account of responsibility that does not jeopardize the normative aspect. However, while Vargas provides a useful framework for thinking about revisionism, I argue that despite its initial appeal, an actual revisionist theory does not seem to track as closely as we would like what I call the “meta-theory” of revisionism, viz. what Vargas defines as the features of moderate revisionism. Outlining these differences enables the formulation of observations about 1) the role of revisionist approaches for theorizing about moral responsibility and 2) how revisionism can be integrated with scientifically informed approaches.
Resumo:
La visée de ce texte est d’introduire le lecteur francophone à l’interprétation pragmatique de Hegel essentiellement présente dans le monde anglo-saxon. L’intérêt grandissant au sein de la francophonie pour ce genre de lecture nous porte à questionner le sens même du qualificatif « pragmatique » qui la caractérise. Cette précision faite, nous nous attarderons à la figure de la certitude sensible dans la Phénoménologie de l’esprit en y soulignant les thèmes pragmatiques, notamment dans le cas de ce que Wilfrid Sellars aurait appelé une critique du mythe du donné.
Resumo:
Vuillemin a toujours lu Descartes comme un intuitionniste avant la lettre, si l’on entend par « intuitionniste » un mathématicien qui adopte la philosophie de Brouwer et la logique de Heyting. On se propose dans l’Introduction et la première section de cet article de montrer que cette lecture que Vuillemin fait de Descartes est parfaitement justifiée en expliquant pourquoi les Méditations peuvent être lues comme une application de la logique intuitionniste. La seconde et la troisième section sont respectivement consacrées à l’analyse logique de la preuve du Cogito (Méditation seconde) et de la première preuve de l’existence de Dieu (Méditation troisième). On montre que les deux preuves fondamentales des Méditations métaphysiques de Descartes sont toutes les deux valides en logique intuitionniste. Du point de vue logique, la première preuve de l’existence de Dieu que donne Descartes pourrait être considérée comme un progrès par rapport à la preuve d’Anselme qui est concluante en logique classique mais qui échoue en logique intuitionniste. Cependant on nuance ce jugement en conclusion en insistant sur le fait que le concept de Dieu sur lequel Descartes fonde sa preuve est indiscutablement un élément réaliste et non constructif.
Resumo:
La pratique des droits de l'homme est souvent décrite comme une entreprise qui vise à établir des standards minimaux pour guider l'action des États et des individus. Dans cet article, je tente de remettre en question la position minimaliste défendue par deux auteurs, James Nickel et James Griffin, en défendant une thèse selon laquelle la philosophie et la morale ne devraient pas être limitées par la pratique et les circonstances du monde. Sans apporter une réponse précise à la question de la faisabilité des droits de l'homme tels qu'on les connaît, je soutiens que le minimalisme défendu par Griffin et Nickel n'est pas nécessaire, ni souhaitable, dans la lutte pour la défense des droits de l'homme, lutte dans laquelle la philosophie a un rôle de premier ordre à jouer.
Resumo:
Peut-on être blâmé pour ses croyances ? Bien qu’il s’agisse d’une pratique courante et en apparence légitime, le blâme doxastique entre en conflit avec deux thèses intuitivement plausibles. D’un côté, il semble que nous puissions seulement être blâmés pour ce qui est sous notre contrôle volontaire. Mais de l’autre, il est largement admis que la croyance est un état fondamentalement passif et involontaire (l’involontarisme doxastique). Il s’ensuit que nous ne pouvons jamais être blâmés pour nos croyances. Le présent article examine la réponse que propose Christoph Jäger à cet argument. Sa stratégie consiste à invoquer le rejet, par Harry Frankfurt, du principe des possibilités alternatives contre la thèse voulant que nous puissions seulement être blâmés pour nos croyances si elles sont sous notre contrôle volontaire. J’aimerais montrer que l’argument de Jäger n’est pas concluant et, plus généralement, que la stratégie qu’il adopte aboutit inévitablement à un dilemme.
Resumo:
Dans le Traité Théologico-politique, Spinoza formule plusieurs critiques à l’endroit de la prophétie hébraïque : celle-ci se serait avouée incapable de formuler clairement les règles morales, pourtant fort simples, nécessaires à l’obéissance et au salut. Ces reproches se doublent par ailleurs d’une relative apologie du christianisme ou plus exactement de son fondateur, Jésus-Christ. Le Christ aurait en effet réussi là où toute la tradition prophétique avait avant lui échoué, c’est-à- dire qu’il a conçu Dieu de manière intellectuelle et, de ce fait, est parvenu à énoncer la loi divine dans un langage simple, intelligible au vulgaire. Dans cet article, nous proposons une comparaison entre le Christ et les prophètes. Il s’agira d’abord de voir en quoi la connaissance christique supplante la connaissance prophétique, pour ensuite tâcher de préciser quelles sont, quant à la personne du Christ, les conséquences exactes de cet ascendant épistémologique.