928 resultados para Méthodologie
Resumo:
Contexte : Parmi les infections nosocomiales, le Staphylocoque méticilline résistant (MRSA) est le germe pathogène le plus couramment identifié dans les hôpitaux du monde entier. La stratégie de contrôle des MRSA au CHUV implique le dépistage des patients à risque. Avec la méthode de dépistage par culture, le temps d'attente est de plusieurs jours. Ceci occasionne des problèmes dans la gestion des flux des patients, principalement à cause des mesures d'isolement. Pour réduire le temps d'attente, l'hôpital envisage d'utiliser une méthode de diagnostic rapide par "polymerase chain reaction" (PCR). Méthodologie : Les données concernant les dépistages réalisés, dans trois services durant l'année 2007, ont été utilisées. Le nombre de jours d'isolement a d'abord été déterminé par patient et par service. Ensuite une analyse des coûts a été effectuée afin d'évaluer la différence des coûts entre les deux méthodes pour chaque service. Résultats : Le principal impact économique de la méthode par PCR dépend principalement du nombre de jours d'isolements évités par rapport à la méthode de culture. Aux services de soins, l'analyse a été menée sur 192 dépistages. Quand la différence de jours d'isolement est de deux jours, le coût des dépistages diminue de plus de 12kCHF et le nombre de jours d'isolement diminue de 384 jours. Au centre interdisciplinaire des urgences, sur 96 dépistages, le gain potentiel avec la méthode PCR est de 6kCHF avec une diminution de 192 jours d'isolement. Aux soins intensifs adultes, la méthode de dépistage par PCR est la méthode la plus rentable avec une diminution des coûts entre 4KCHF et 20K CHF et une diminution des jours d'isolement entre 170 et 310. Pour les trois services analysés, les résultats montrent un rapport coût-efficacité favorable pour la méthode PCR lorsque la diminution des jours d'isolement est supérieure à 1.3 jour. Quand la différence de jours d'isolement est inférieure à 1.3, il faut tenir compte d'autres paramètres, comme le coût de matériel qui doit être supérieur à 45.5 CHF, et du nombre d'analyses par dépistage, qui doit être inférieur à 3, pour que la PCR reste l'alternative la plus intéressante. Conclusions : La méthode par PCR montre des avantages potentiels importants, tant économiques qu'organisationnels qui limitent ou diminuent les contraintes liées à la stratégie de contrôle des MRSA au CHUV. [Auteure, p. 3]
Resumo:
This thesis develops a comprehensive and a flexible statistical framework for the analysis and detection of space, time and space-time clusters of environmental point data. The developed clustering methods were applied in both simulated datasets and real-world environmental phenomena; however, only the cases of forest fires in Canton of Ticino (Switzerland) and in Portugal are expounded in this document. Normally, environmental phenomena can be modelled as stochastic point processes where each event, e.g. the forest fire ignition point, is characterised by its spatial location and occurrence in time. Additionally, information such as burned area, ignition causes, landuse, topographic, climatic and meteorological features, etc., can also be used to characterise the studied phenomenon. Thereby, the space-time pattern characterisa- tion represents a powerful tool to understand the distribution and behaviour of the events and their correlation with underlying processes, for instance, socio-economic, environmental and meteorological factors. Consequently, we propose a methodology based on the adaptation and application of statistical and fractal point process measures for both global (e.g. the Morisita Index, the Box-counting fractal method, the multifractal formalism and the Ripley's K-function) and local (e.g. Scan Statistics) analysis. Many measures describing the space-time distribution of environmental phenomena have been proposed in a wide variety of disciplines; nevertheless, most of these measures are of global character and do not consider complex spatial constraints, high variability and multivariate nature of the events. Therefore, we proposed an statistical framework that takes into account the complexities of the geographical space, where phenomena take place, by introducing the Validity Domain concept and carrying out clustering analyses in data with different constrained geographical spaces, hence, assessing the relative degree of clustering of the real distribution. Moreover, exclusively to the forest fire case, this research proposes two new methodologies to defining and mapping both the Wildland-Urban Interface (WUI) described as the interaction zone between burnable vegetation and anthropogenic infrastructures, and the prediction of fire ignition susceptibility. In this regard, the main objective of this Thesis was to carry out a basic statistical/- geospatial research with a strong application part to analyse and to describe complex phenomena as well as to overcome unsolved methodological problems in the characterisation of space-time patterns, in particular, the forest fire occurrences. Thus, this Thesis provides a response to the increasing demand for both environmental monitoring and management tools for the assessment of natural and anthropogenic hazards and risks, sustainable development, retrospective success analysis, etc. The major contributions of this work were presented at national and international conferences and published in 5 scientific journals. National and international collaborations were also established and successfully accomplished. -- Cette thèse développe une méthodologie statistique complète et flexible pour l'analyse et la détection des structures spatiales, temporelles et spatio-temporelles de données environnementales représentées comme de semis de points. Les méthodes ici développées ont été appliquées aux jeux de données simulées autant qu'A des phénomènes environnementaux réels; nonobstant, seulement le cas des feux forestiers dans le Canton du Tessin (la Suisse) et celui de Portugal sont expliqués dans ce document. Normalement, les phénomènes environnementaux peuvent être modélisés comme des processus ponctuels stochastiques ou chaque événement, par ex. les point d'ignition des feux forestiers, est déterminé par son emplacement spatial et son occurrence dans le temps. De plus, des informations tels que la surface bru^lée, les causes d'ignition, l'utilisation du sol, les caractéristiques topographiques, climatiques et météorologiques, etc., peuvent aussi être utilisées pour caractériser le phénomène étudié. Par conséquent, la définition de la structure spatio-temporelle représente un outil puissant pour compren- dre la distribution du phénomène et sa corrélation avec des processus sous-jacents tels que les facteurs socio-économiques, environnementaux et météorologiques. De ce fait, nous proposons une méthodologie basée sur l'adaptation et l'application de mesures statistiques et fractales des processus ponctuels d'analyse global (par ex. l'indice de Morisita, la dimension fractale par comptage de boîtes, le formalisme multifractal et la fonction K de Ripley) et local (par ex. la statistique de scan). Des nombreuses mesures décrivant les structures spatio-temporelles de phénomènes environnementaux peuvent être trouvées dans la littérature. Néanmoins, la plupart de ces mesures sont de caractère global et ne considèrent pas de contraintes spatiales com- plexes, ainsi que la haute variabilité et la nature multivariée des événements. A cet effet, la méthodologie ici proposée prend en compte les complexités de l'espace géographique ou le phénomène a lieu, à travers de l'introduction du concept de Domaine de Validité et l'application des mesures d'analyse spatiale dans des données en présentant différentes contraintes géographiques. Cela permet l'évaluation du degré relatif d'agrégation spatiale/temporelle des structures du phénomène observé. En plus, exclusif au cas de feux forestiers, cette recherche propose aussi deux nouvelles méthodologies pour la définition et la cartographie des zones périurbaines, décrites comme des espaces anthropogéniques à proximité de la végétation sauvage ou de la forêt, et de la prédiction de la susceptibilité à l'ignition de feu. A cet égard, l'objectif principal de cette Thèse a été d'effectuer une recherche statistique/géospatiale avec une forte application dans des cas réels, pour analyser et décrire des phénomènes environnementaux complexes aussi bien que surmonter des problèmes méthodologiques non résolus relatifs à la caractérisation des structures spatio-temporelles, particulièrement, celles des occurrences de feux forestières. Ainsi, cette Thèse fournit une réponse à la demande croissante de la gestion et du monitoring environnemental pour le déploiement d'outils d'évaluation des risques et des dangers naturels et anthro- pogéniques. Les majeures contributions de ce travail ont été présentées aux conférences nationales et internationales, et ont été aussi publiées dans 5 revues internationales avec comité de lecture. Des collaborations nationales et internationales ont été aussi établies et accomplies avec succès.
Resumo:
Lorsque de l'essence est employée pour allumer et/ou propager un incendie, l'inférence de la source de l'essence peut permettre d'établir un lien entre le sinistre et une source potentielle. Cette inférence de la source constitue une alternative intéressante pour fournir des éléments de preuve dans ce type d'événements où les preuves matérielles laissées par l'auteur sont rares. Le but principal de cette recherche était le développement d'une méthode d'analyse de spécimens d'essence par GC-IRMS, méthode pas routinière et peu étudiée en science forensique, puis l'évaluation de son potentiel à inférer la source de traces d'essence en comparaison aux performances de la GC-MS. Un appareillage permettant d'analyser simultanément les échantillons par MS et par IRMS a été utilisé dans cette recherche. Une méthode d'analyse a été développée, optimisée et validée pour cet appareillage. Par la suite, des prélèvements d'essence provenant d'un échantillonnage conséquent et représentatif du marché de la région lausannoise ont été analysés. Finalement, les données obtenues ont été traitées et interprétées à l'aide de méthodes chimiométriques. Les analyses effectuées ont permis de montrer que la méthodologie mise en place, aussi bien pour la composante MS que pour l'IRMS, permet de différencier des échantillons d'essence non altérée provenant de différentes stations-service. Il a également pu être démontré qu'à chaque nouveau remplissage des cuves d'une station-service, la composition de l'essence distribuée par cette station est quasi unique. La GC-MS permet une meilleure différenciation d'échantillons prélevés dans différentes stations, alors que la GC-IRMS est plus performante lorsqu'il s'agit de comparer des échantillons collectés après chacun des remplissages d'une cuve. Ainsi, ces résultats indiquent que les deux composantes de la méthode peuvent être complémentaires pour l'analyse d'échantillons d'essence non altérée. Les résultats obtenus ont également permis de montrer que l'évaporation des échantillons d'essence ne compromet pas la possibilité de grouper des échantillons de même source par GC-MS. Il est toutefois nécessaire d'effectuer une sélection des variables afin d'éliminer celles qui sont influencées par le phénomène d'évaporation. Par contre, les analyses effectuées ont montré que l'évaporation des échantillons d'essence a une forte influence sur la composition isotopique des échantillons. Cette influence est telle qu'il n'est pas possible, même en effectuant une sélection des variables, de grouper correctement des échantillons évaporés par GC-IRMS. Par conséquent, seule la composante MS de la méthodologie mise en place permet d'inférer la source d'échantillons d'essence évaporée. _________________________________________________________________________________________________ When gasoline is used to start and / or propagate an arson, source inference of gasoline can allow to establish a link between the fire and a potential source. This source inference is an interesting alternative to provide evidence in this type of events where physical evidence left by the author are rare. The main purpose of this research was to develop a GC-IRMS method for the analysis of gasoline samples, a non-routine method and little investigated in forensic science, and to evaluate its potential to infer the source of gasoline traces compared to the GC-MS performances. An instrument allowing to analyze simultaneously samples by MS and IRMS was used in this research. An analytical method was developed, optimized and validated for this instrument. Thereafter, gasoline samples from a large sampling and representative of the Lausanne area market were analyzed. Finally, the obtained data were processed and interpreted using chemometric methods. The analyses have shown that the methodology, both for MS and for IRMS, allow to differentiate unweathered gasoline samples from different service stations. It has also been demonstrated that each new filling of the tanks of a station generates an almost unique composition of gasoline. GC-MS achieves a better differentiation of samples coming from different stations, while GC-IRMS is more efficient to distinguish samples collected after each filling of a tank. Thus, these results indicate that the two components of the method can be complementary to the analysis of unweathered gasoline samples. The results have also shown that the evaporation of gasoline samples does not compromise the possibility to group samples coming from the same source by GC-MS. It is however necessary to make a selection of variables in order to eliminate those which are influenced by the evaporation. On the other hand, the carried out analyses have shown that the evaporation of gasoline samples has such a strong influence on the isotopic composition of the samples that it is not possible, even by performing a selection of variables, to properly group evaporated samples by GC-IRMS. Therefore, only the MS allows to infer the source of evaporated gasoline samples.
Resumo:
Introduction Selon les recommandations internationales, l'angioplastie primaire est le traitement de choix de l'infarctus transmural aigu du myocarde (STEMI). L'évidence de ce constat reste peu claire en ce qui concerne certaines sous-‐populations. C'est le cas, par exemple, des personnes d'âge avancé. La problématique du traitement de l'infarctus du myocarde chez le sujet âgé semble essentielle à une époque de vieillissement démographique mondial, et ce car le patient type présentant un STEMI évolue parallèlement à ce phénomène. L'objectif de la présente étude était d'observer la survie à long terme des octogénaires résidant en Suisse après traitement d'un infarctus de type STEMI selon les recommandations internationales. Méthodologie Inclusion rétrospective de tous les patients âgés de ≥ 80 ans victimes d'un STEMI entre janvier 2008 et novembre 2011. Informations démographiques et pathologiques récoltées à partir des archives et dossiers informatisés du Centre hospitalier universitaire vaudois (CHUV). Critère d'évaluation principal : mortalité à 3 ans, toutes causes confondues. Données de mortalité obtenues par le dossier informatisé (si décès intra-‐hospitalier) ou par contact avec les autorités administratives de la Suisse romande. Critères d'évaluation secondaire : réussite de l'intervention et événements intra-‐hospitaliers (informations obtenues grâce au dossier informatisé). Ce\e recherche clinique a reçu l'aval de la Commission d'éthique cantonale vaudoise. Résultats 108 patients correspondaient à nos critères dans la période sélectionnée ; 5 ont été exclus car non domiciliés en Suisse. Collectif final (103 patients) âgé en moyenne de 84.3 ans. Une majorité de femmes (51.4%) et une plus faible proportion de tabagiques étaient les divergences par rapport à la population STEMI générale. À 3 ans, une mortalité supérieure à 32% fut enregistrée dont plus du tiers des décès survenant dans le premier mois suivant l'infarctus. Discussion et conclusion La mortalité objectivée chez l'octogénaire traité par angioplastie pour un STEMI est particulièrement élevée, inattendue et semble plus importante que celle d'un octogénaire non coronarien. Ce constat devra être confirmé par d'autres auteurs car les études concernant cette problématique sont encore rares.
Resumo:
Dans L'anthropologie du point de vue pragmatique Kant répond à la question « Qu'est-ce que l'homme ? » d'une manière descriptive et empirique en caractérisant le phénomène « homme » comme membre d'une communauté humaine sous des conditions sociales et culturelles. - Dans la deuxième partie de la Critique de la faculté de juger Kant cherche, au contraire, à démontrer la dimension nouménale de l'être humain par la « conclusion [...] à partir de la téléologie morale [...] à un but final de la création » (AA 05 : 455) dont un fondement de preuve « se trouvait déjà dans la faculté rationnelle de l'homme avant sa plus matinale germination, et il continuera à se développer davantage avec la culture de celle- ci » (AA 05 : 458). - La mise en relief du rapport entre la « Méthodologie du jugement téléologique » et la fonction didactique de l'Anthropologie pourrait servir d'illustrer l'idée de l'homme comme but final qui « est une fin qui n'a besoin d'aucune autre comme condition de sa possibilité » (AA 05 : 434) - qui est, par cela, l'expression de l'inconditionné dans les limites de la nature sensible.
Resumo:
Il existe une méthodologie de la recherche de l'information spécialisée au même titre que des méthodologies de recherche des différentes disciplines. Cette méthodologie implique d'identifier clairement son objet de recherche et le vocabulaire qui le caractérise, d'utiliser les sources adéquates de recherche dans un ordre logique, de connaître les critères d'évaluation critique de la qualité de l'information et de confronter ses résultats à l'expérience de la vie de tous les jours.
Resumo:
Dans ce texte, nous revoyons certains développements récents de l’économétrie qui peuvent être intéressants pour des chercheurs dans des domaines autres que l’économie et nous soulignons l’éclairage particulier que l’économétrie peut jeter sur certains thèmes généraux de méthodologie et de philosophie des sciences, tels la falsifiabilité comme critère du caractère scientifique d’une théorie (Popper), la sous-détermination des théories par les données (Quine) et l’instrumentalisme. En particulier, nous soulignons le contraste entre deux styles de modélisation - l’approche parcimonieuse et l’approche statistico-descriptive - et nous discutons les liens entre la théorie des tests statistiques et la philosophie des sciences.
Resumo:
This paper examines several families of population principles in the light of a set of axioms. In addition to the critical-level utilitarian, number-sensitive critical-level utilitarian and number-dampened families and their generalized counterparts, we consider the restricted number-dampened family (suggested by Hurka) and introduce two new families : the restricted critical-level and restricted number-dependent critical-level families. Subsets of the restricted families have nonnegative critical levels and avoid both the repugnant and sadistic conclusions but fail to satisfy an important independence condition. We defend the critical-level principles with positive critical levels.
Resumo:
Dans ce texte, nous analysons les développements récents de l’économétrie à la lumière de la théorie des tests statistiques. Nous revoyons d’abord quelques principes fondamentaux de philosophie des sciences et de théorie statistique, en mettant l’accent sur la parcimonie et la falsifiabilité comme critères d’évaluation des modèles, sur le rôle de la théorie des tests comme formalisation du principe de falsification de modèles probabilistes, ainsi que sur la justification logique des notions de base de la théorie des tests (tel le niveau d’un test). Nous montrons ensuite que certaines des méthodes statistiques et économétriques les plus utilisées sont fondamentalement inappropriées pour les problèmes et modèles considérés, tandis que de nombreuses hypothèses, pour lesquelles des procédures de test sont communément proposées, ne sont en fait pas du tout testables. De telles situations conduisent à des problèmes statistiques mal posés. Nous analysons quelques cas particuliers de tels problèmes : (1) la construction d’intervalles de confiance dans le cadre de modèles structurels qui posent des problèmes d’identification; (2) la construction de tests pour des hypothèses non paramétriques, incluant la construction de procédures robustes à l’hétéroscédasticité, à la non-normalité ou à la spécification dynamique. Nous indiquons que ces difficultés proviennent souvent de l’ambition d’affaiblir les conditions de régularité nécessaires à toute analyse statistique ainsi que d’une utilisation inappropriée de résultats de théorie distributionnelle asymptotique. Enfin, nous soulignons l’importance de formuler des hypothèses et modèles testables, et de proposer des techniques économétriques dont les propriétés sont démontrables dans les échantillons finis.
Resumo:
The aim of this paper is to demonstrate that, even if Marx's solution to the transformation problem can be modified, his basic conclusions remain valid. the proposed alternative solution which is presented hare is based on the constraint of a common general profit rate in both spaces and a money wage level which will be determined simultaneously with prices.
Resumo:
The aim of this paper is to demonstrate that, even if Marx's solution to the transformation problem can be modified, his basic concusions remain valid.
Resumo:
Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.
Resumo:
Considérant que le Canada aura perdu presque un million de travailleurs qualifiés en 2020 et qu’en 2005, déjà 40 à 60% des travailleurs de la génération des baby-boomers ont pris leur retraite, on peut anticiper que les capacités d’innovation des entreprises sont en train de devenir un enjeu de société. De plus, depuis quelques années déjà, on remarque que la valeur des connaissances et de la créativité au sein des économies capitalistes a augmenté, plaçant les industries créatives au premier plan. En fait, les activités de création artistique incarneraient l’expression la plus avancée des modes de production et des relations au sein du monde du travail engendrées par les mutations récentes du capitalisme. Apprendre à innover devient dès lors une priorité et, comme les pratiques exemplaires émergent généralement chez les leaders d’une industrie, le cirque le plus applaudi à travers le monde, le Cirque du Soleil, représente un terrain idéal de renouvellement des pratiques d’innovation. Centrée spécifiquement sur le cas de l’innovation artistique, cette recherche explore les interactions entre les artistes et les managers pendant les premières phases d’un projet d’architecture menant à la construction d’un centre d’art et de divertissement, un des secteurs d’affaires de l’entreprise. Cette thèse présente les résultats d’une étude de cas effectuée dans un champ de recherche en émergence au sein des recherches en management : le croisement entre l’art et le management. À partir d’une perspective interdisciplinaire incluant une méthodologie ethnographique et une approche esthétique des organisations, l’étude met l’accent sur la co-création de connaissances parmi les artistes et les managers participant à un projet de grande envergure. La problématique de l’innovation est étudiée par le biais des pratiques managériales et artistiques, à partir de l’étude des organisations, de l’anthropologie et de la sociologie. L’étude vise à comprendre comment ces deux groupes culturels distincts travaillent et apprennent dans l’action et comment leurs pratiques collectives sont créées, partagées et mises en œuvre. À partir du quotidien de 26 artistes et managers suivi sur une période de 9 mois, complété par l’analyse de plus de 5500 pages de documents et de 20 heures de vidéo, une ethnographie de type récit de fiction donne accès à la culture de ces maîtres bâtisseurs, à leur imaginaire, à leur mode de vie et à leurs pratiques. La cognition partagée entre ces acteurs de l’industrie créative des arts du cirque donne lieu à sept pratiques (tribu, dialogue, récits, innovation, action, rapports et mémoire) qui sont décrites selon une double perspective, le management et les sciencs humaines. Outre une méthodologie qui intègre l’approche esthétique des organisations, une nouvelle définition de la face cachée de l’innovation est proposée, ainsi qu’un modèle conceptuel dynamique développé à partir des pratiques novatrices du Cirque du Soleil. Créatives, celles-ci constituent une source d’inspiration pour le domaine du management. En ce sens, cette recherche contribue à l’étude des organisations et au développement de pratiques créatives de management.
Resumo:
Département de linguistique et de traduction
Resumo:
Overs the past millennium, each of the three centuries of most rapid demographic growth in the West Coincided with the diffusion of a new communications technology. This paper examines the hypothesis of Harold Innis (1894-1952) that there is two-way feeback between such innovations and economic growth.