890 resultados para theory-in-use
Resumo:
Les personnes âgées occupent une proportion importante des lits dans les centres hospitaliers de soins de courte durée québécois et leur présence est en augmentation. Parmi ces personnes, plusieurs présentent un état confusionnel aigu (ÉCA), voire un délirium, au cours de leur hospitalisation. Les soins infirmiers qu’elles requièrent sont complexes et les études portant sur la formation continue des infirmières tiennent peu compte de cette réalité. Les approches utilisées dans les études sont surtout centrées sur l’acquisition de connaissances et d’habiletés techniques et négligent les aspects créatifs, relationnels, critiques, réflexifs et éthiques essentiels à une prestation de soins infirmiers de qualité. On y retrouve également peu d’informations sur la conception de l’intervention éducative et sur son évaluation. C’est dans cette perspective que le but de l’étude était de mettre à l’essai et d’évaluer qualitativement le processus et les résultats d’une intervention éducative auprès d’infirmières soignant des personnes âgées hospitalisées en ÉCA. Plus particulièrement, ce sont les conditions facilitant et contraignant l’intervention, les aspects les plus utiles pour la pratique, les différents savoirs exprimés et les résultats de soins perçus par les participantes qui étaient recherchés. C’est en s’inspirant de la pédagogie narrative de Diekelmann (2001) et des savoirs infirmiers de Chinn et Kramer (2008) que l’intervention a été conçue et évaluée. La description d’expériences de soins vécues par les infirmières et la création d’un environnement d’apprentissage favorisant l’interprétation, en groupe, de ces expériences à l’aide d’informations théoriques et empiriques caractérisent la pédagogie narrative à la base de cette intervention. Pour atteindre le but, une étude de cas a été retenue. La stratégie d’échantillonnage par choix raisonné a permis de sélectionner des participantes travaillant sur les trois quarts de travail, ayant différents niveaux de formation et une expérience comme infirmière variant de huit mois à 36 ans, dont l’âge variait de 23 à 64 ans. L’échantillon, composé de 15 infirmières soignant fréquemment des personnes en ÉCA et travaillant sur des unités de soins chirurgicaux cardiologiques et orthopédiques, était réparti dans trois groupes égaux de cinq participantes. L’intervention éducative comprenait quatre journées de formation offertes à intervalle de trois semaines pour une durée totale de 12 semaines. Au cours de chacune de ces journées, les participantes devaient effectuer un travail écrit réflexif concernant une situation de soins vécue avec une personne en ÉCA et, par la suite, partager, interpréter et s'interroger sur ces situations en faisant des liens avec des informations théoriques et empiriques sur l’ÉCA dans le cadre d’un atelier de groupe. Une triangulation de méthodes de collecte de données, incluant des notes de terrain de l’investigatrice, les travaux réflexifs des participantes, des questionnaires complétés par les participantes après chaque journée de formation et une entrevue individuelle avec chaque participante réalisée par une intervieweuse externe à la fin de l’intervention, a permis de décrire la mise à l’essai de l’intervention et d’évaluer qualitativement son processus et ses résultats. Une analyse de contenu des données qualitatives intra et inter participante a été effectuée. La mise à l’essai de l’intervention a mis en évidence l’importance de tenir compte des besoins variés des participantes et d’ajuster l’intervention éducative d’un groupe à l’autre, notamment eu égard aux contenus théoriques et empiriques sur l’ECA. L’évaluation du processus souligne que l’intervention a été facilitée par les attitudes et la diversité des expériences des participantes, ainsi que par l’utilisation de situations de soins réelles permettant d’intégrer la théorie dans la pratique. L’accès à de nouveaux outils d’évaluation des personnes en ÉCA a été perçu particulièrement utile par les participantes. Quant à l’évaluation des résultats, elle a permis de rendre visibles de nombreux savoirs empiriques, éthiques et esthétiques et certains savoirs personnels et émancipatoires exprimés par les participantes. Les participantes ont, entre autres, réalisé des évaluations plus approfondies des personnes en ÉCA, ont réduit ou évité les mesures de contrôle physiques des personnes atteintes et ont impliqué davantage les familles dans les soins. L’évaluation a aussi permis de décrire certains résultats perçus par les participantes sur le bien-être physique et psychologique des personnes soignées et sur les familles. Les personnes en ECA étaient, entre autres, rassurées, plus calmes et soulagées et les familles moins inquiètes et davantage impliquées dans les soins. Les résultats de l’étude mettent en évidence l’applicabilité d’une intervention éducative narrative basée sur un cadre de référence en sciences infirmières et son utilité pour la formation continue dans les milieux de soins. L’étude ouvre la porte à des possibilités de transfert de l’intervention à d’autres populations d’infirmières soignant des clientèles ayant des besoins complexes, notamment en gériatrie, en oncologie ou en soins palliatifs. Des études visant à évaluer l’intervention auprès d’un échantillon plus important et à explorer ses effets sur les personnes soignées et leurs familles sont proposées.
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
Entre la fin du XXe siècle et le début du XXIe siècle, on assiste à une émergence et à une multiplication des conférences et sommets internationaux, nationaux et locaux sur l’environnement. Cette prise de conscience face à l’urgence de trouver des moyens et des solutions afin de préserver, restaurer ou mettre en valeur la Terre et ses écosystèmes, se reflète dans le milieu artistique. Cette étude a pour but de montrer que l’inclusion du thème écologiste dans le champ artistique opère des changements sur la configuration de l’art, c’est-à-dire sur les lieux (l’emplacement des oeuvres), sur les acteurs (les artistes et le public), sur les usages et la finalité des oeuvres. Le second objectif est d’indiquer qu’il existe une concordance entre la théorie pragmatiste et l’art écologique. L’observation de cette proximité permet de mettre à profit la théorie deweyenne afin de mieux comprendre le fonctionnement des projets artistiques écologistes. Le corpus est établi à partir d’oeuvres de l’artiste québécoise Francine Larivée, de l’artiste torontois Noel Harding et de l’artiste américaine Agnes Denes.
Resumo:
En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.
Resumo:
La pensée de Nietzsche a joué un rôle déterminant et récurrent dans les discours et les débats qui ont formé et continuent de façonner le domaine de l’histoire de l’art, mais aucune analyse systématique de cette question n’a encore vu le jour. L’influence de Nietzsche a été médiée par divers interlocuteurs, historiens de l’art et philosophes, qui ont encadré ces discussions, en utilisant les écrits du philosophe comme toile de fond de leurs propres idées. Ce mémoire souhaite démontrer que l’impact de Nietzsche dans le champ de l’histoire de l’art existe mais qu’il fut toujours immergé ou éclipsé, particulièrement dans le contexte anglo-américain, l’emphase étant placée sur les médiateurs de ses idées en n’avouant que très peu d’engagement direct avec son œuvre. En conséquence, son importance généalogique pour certains fondateurs de la discipline reste méconnue; sa présence réellement féconde se traduit plutôt comme une absence ou une présence masquée. En vue de démontrer ce propos, nous regardons donc le contexte nietzschéen qui travaille les écrits de certains historiens de l’art, comme Jacob Burckhardt et Aby Warburg, ou des philosophes et d’écrivains ayant marqué la discipline de l’histoire de l’art (plus particulièrement dans le cadre de l’influence de la « French Theory » sur l’histoire de l’art anglo-américaine depuis la fin des années 1970) : Martin Heidegger, Michel Foucault, Jacques Derrida, Gilles Deleuze et Georges Bataille. Nous examinons certaines voies par lesquelles ses idées ont acquis une pertinence pour l’histoire de l’art avant de proposer les raisons potentielles de leur occlusion ultérieure. Nous étudions donc l’évolution des discours multiples de l’histoire comme domaine d’étude afin de situer la contribution du philosophe et de cerner où et comment ses réflexions ont croisé celles des historiens de l’art qui ont soit élargi ou redéfini les méthodes et les structures d’analyse de leur discipline. Ensuite nous regardons « l’art » de Nietzsche en le comparant avec « l’art de l’histoire de l’art » (Preziosi 2009) afin d’évaluer si ces deux expressions peuvent se rejoindre ou s’il y a fondamentalement une incompatibilité entre les deux, laquelle pourrait justifier ou éclairer la distance entre la pensée nietzschéenne sur l’art et la discipline de l’histoire de l’art telle qu’elle s’institutionnalise au moment où le philosophe rédige son œuvre.
Resumo:
Cette thèse comporte trois essais en économie des ressources naturelles. Le Chapitre 2 analyse les effets du stockage d’une ressource naturelle sur le bien-être et sur le stock de celle-ci, dans le contexte de la rizipisciculture. La rizipisciculture consiste à élever des poissons dans une rizière en même temps que la culture du riz. Je développe un modèle d’équilibre général, qui contient trois composantes principales : une ressource renouvelable à accès libre, deux secteurs de production et le stockage du bien produit à partir de la ressource. Les consommateurs stockent la ressource lorsqu’ils spéculent que le prix de cette ressource sera plus élevé dans le futur. Le stockage a un effet ambigu sur le bien-être, négatif sur le stock de ressource au moment où le stockage a lieu et positive sur le stock de ressource dans le futur. Le Chapitre 3 étudie les effects de la migration de travailleurs qualifiés dans un modèle de commerce international lorsqu’il y a présence de pollution. Je développe un modèle de commerce à deux secteurs dans lequel j’introduis les questions de pollution et de migration dans l’objectif de montrer que le commerce interrégional peut affecter le niveau de pollution dans un pays composé de régions qui ont des structures industrielles différentes. La mobilité des travailleurs amplifie les effets du commerce sur le capital environnemental. Le capital environnemental de la région qui a la technologie la moins (plus) polluante est positivement (négativement) affecté par le commerce. De plus, je montre que le commerce interrégional est toujours bénéfique pour la région avec la technologie la moins polluante, ce qui n’est pas toujours le cas pour la région qui a la technologie la plus polluante. Finalement, le Chapitre 4 est coécrit avec Yves Richelle. Dans ce chapitre, nous étudions l’allocation efficace de l’eau d’un lac entre différents utilisateurs. Nous considérons dans le modèle deux types d’irréversibilités : l’irréversibilité d’un investissement qui crée un dommage à l’écosystème et l’irréversibilité dans l’allocation des droits d’usage de l’eau qui provient de la loi sur l’eau (irréversibilité légale). Nous déterminons d’abord la valeur de l’eau pour chacun des utilisateurs. Par la suite, nous caractérisons l’allocation optimale de l’eau entre les utilisateurs. Nous montrons que l’irréversibilité légale entraîne qu’il est parfois optimal de réduire la quantité d’eau allouée à la firme, même s’il n’y a pas de rivalité d’usage. De plus, nous montrons qu’il n’est pas toujours optimal de prévenir le dommage créé par un investissement. Dans l’ensemble, nous prouvons que les irréversibilités entraînent que l’égalité de la valeur entre les utilisateurs ne tient plus à l’allocation optimale. Nous montrons que lorsqu’il n’y a pas de rivalité d’usage, l’eau non utilisée ne doit pas être considérée comme une ressource sans limite qui doit être utilisée de n’importe quelle façon.
Resumo:
The fuzzy set theory has a wider scope of applicability than classical set theory in solving various problems. Fuzzy set theory in the last three decades as a formal theory which got formalized by generalizing the original ideas and concepts in classical mathematical areas and as a very powerful modeling language, that can cope with a large fraction of uncertainties of real life situations. In Intuitionistic Fuzzy sets a new component degree of non membership in addition to the degree of membership in the case of fuzzy sets with the requirement that their sum be less than or equal to one. The main objective of this thesis is to study frames in Fuzzy and Intuitionistic Fuzzy contexts. The thesis proved some results such as ifµ is a fuzzy subset of a frame F, then µ is a fuzzy frame of F iff each non-empty level subset µt of µ is a subframe of F, the category Fuzzfrm of fuzzy frames has products and the category Fuzzfrm of fuzzy frames is complete. It define a fuzzy-quotient frame of F to be a fuzzy partition of F, that is, a subset of IF and having a frame structure with respect to new operations and study the notion of intuitionistic fuzzy frames and obtain some results and introduce the concept of Intuitionistic fuzzy Quotient frames. Finally it establish the categorical link between frames and intuitionistic fuzzy topologies.
Resumo:
The main objective of this thesis was to extend some basic concepts and results in module theory in algebra to the fuzzy setting.The concepts like simple module, semisimple module and exact sequences of R-modules form an important area of study in crisp module theory. In this thesis generalising these concepts to the fuzzy setting we have introduced concepts of ‘simple and semisimple L-modules’ and proved some results which include results analogous to those in crisp case. Also we have defined and studied the concept of ‘exact sequences of L-modules’.Further extending the concepts in crisp theory, we have introduced the fuzzy analogues ‘projective and injective L-modules’. We have proved many results in this context. Further we have defined and explored notion of ‘essential L-submodules of an L-module’. Still there are results in crisp theory related to the topics covered in this thesis which are to be investigated in the fuzzy setting. There are a lot of ideas still left in algebra, related to the theory of modules, such as the ‘injective hull of a module’, ‘tensor product of modules’ etc. for which the fuzzy analogues are not defined and explored.
Resumo:
Quality related problems have become dominant in the seafood processing industry in Kerala. This has resulted in the rejection of seafood sent from India to many destinations. The latest being the total block listing of seafood companies from India from being exported to Europe and partial block listing by the US. The quality systems prevailed in the seafood industry in India were outdated and no longer in use in the developed world. According to EC Directive discussed above all the seafood factories exporting to European countries have to adopt HACCP. Based on this, EIA has now made HACCP system mandatory in all the seafood processing factories in India. This transformation from a traditional product based inspection system to a process control system requires thorough changes in the various stages of production and quality management. This study is conducted by the author with to study the status of the existing infrastructure and quality control system in the seafood industry in Kerala with reference to the recent developments in the quality concepts in international markets and study the drawbacks, if any, of the existing quality management systems in force in the seafood factories in Kerala for introducing the mandatory HACCP concept. To assess the possibilities of introducing Total Quality Management system in the seafood industry in Kerala in order to effectively adopt the HACCP concept. This is also aimed at improving the quality of the products and productivity of the industry by sustaining the world markets in the long run.
Resumo:
The electronic and magnetic structures of the LaMnO3 compound have been studied by means of periodic calculations within the framework of spin polarized hybrid density-functional theory. In order to quantify the role of approximations to electronic exchange and correlation three different hybrid functionals have been used which mix nonlocal Fock and local Dirac-Slater exchange. Periodic Hartree-Fock results are also reported for comparative purposes. The A-antiferromagnetic ground state is properly predicted by all methods including Hartree-Fock exchange. In general, the different hybrid methods provide a rather accurate description of the band gap and of the two magnetic coupling constants, strongly suggesting that the corresponding description of the electronic structure is also accurate. An important conclusion emerging from this study is that the nature of the occupied states near the Fermi level is intermediate between the Hartree-Fock and local density approximation descriptions with a comparable participation of both Mn and O states.
Resumo:
The development of new materials has been the hall mark of human civilization. The quest for making new devices and new materials has prompted humanity to pursue new methods and techniques that eventually has given birth to modern science and technology. With the advent of nanoscience and nanotechnology, scientists are trying hard to tailor materials by varying their size and shape rather than playing with the composition of the material. This, along with the discovery of new and sophisticated imaging tools, has led to the discovery of several new classes of materials like (3D) Graphite, (2D) graphene, (1D) carbon nanotubes, (0D) fullerenes etc. Magnetic materials are in the forefront of applications and have beencontributing their share to remove obsolescence and bring in new devices based on magnetism and magnetic materials. They find applications in various devices such as electromagnets, read heads, sensors, antennas, lubricants etc. Ferromagnetic as well as ferrimagnetic materials have been in use in the form of various devices. Among the ferromagnetic materials iron, cobalt and nickel occupy an important position while various ferrites finds applications in devices ranging from magnetic cores to sensors.
Resumo:
This thesis is a study of abstract fuzzy convexity spaces and fuzzy topology fuzzy convexity spaces No attempt seems to have been made to develop a fuzzy convexity theoryin abstract situations. The purpose of this thesis is to introduce fuzzy convexity theory in abstract situations
Resumo:
The present study is an attempt to highlight the problem of typographical errors in OPACS. The errors made while typing catalogue entries as well as importing bibliographical records from other libraries exist unnoticed by librarians resulting the non-retrieval of available records and affecting the quality of OPACs. This paper follows previous research on the topic mainly by Jeffrey Beall and Terry Ballard. The word “management” was chosen from the list of likely to be misspelled words identified by previous research. It was found that the word is wrongly entered in several forms in local, national and international OPACs justifying the observations of Ballard that typos occur in almost everywhere. Though there are lots of corrective measures proposed and are in use, the study asserts the fact that human effort is needed to get rid of the problem. The paper is also an invitation to the library professionals and system designers to construct a strategy to solve the issue
Resumo:
The present study is an attempt to highlight the problem of typographical errors in OPACS. The errors made while typing catalogue entries as well as importing bibliographical records from other libraries exist unnoticed by librarians resulting the non-retrieval of available records and affecting the quality of OPACs. This paper follows previous research on the topic mainly by Jeffrey Beall and Terry Ballard. The word “management” was chosen from the list of likely to be misspelled words identified by previous research. It was found that the word is wrongly entered in several forms in local, national and international OPACs justifying the observations of Ballard that typos occur in almost everywhere. Though there are lots of corrective measures proposed and are in use, the study asserts the fact that human effort is needed to get rid of the problem. The paper is also an invitation to the library professionals and system designers to construct a strategy to solve the issue
Resumo:
Refiners today operate their equipment for prolonged periods without shutdown. This is primarily due to the increased pressures of the market resulting in extended shutdown-to-shutdown intervals. This places extreme demands on the reliability of the plant equipment. The traditional methods of reliability assurance, like Preventive Maintenance, Predictive Maintenance and Condition Based Maintenance become inadequate in the face of such demands. The alternate approaches to reliability improvement, being adopted the world over are implementation of RCFA programs and Reliability Centered Maintenance. However refiners and process plants find it difficult to adopt this standardized methodology of RCM mainly due to the complexity and the large amount of analysis that needs to be done, resulting in a long drawn out implementation, requiring the services of a number of skilled people. These results in either an implementation restricted to only few equipment or alternately, one that is non-standard. The paper presents the current models in use, the core requirements of a standard RCM model, the alternatives to classical RCM, limitations in the existing model, classical RCM and available alternatives to RCM and will then go on to present an ‗Accelerated‘ approach to RCM implementation, that, while ensuring close conformance to the standard, does not place a large burden on the implementers