919 resultados para Mind the gap
Resumo:
Ce mémoire vise à documenter la variété des attentes et des retombées face à la participation aux Journées Mondiales de la Jeunesse chez des participants et des responsables de groupes du diocèse de Saint-Jean-Longueuil, de 1997 à 2013. Notre hypothèse de départ est que l’écart entre la vision des participants et celle des organisateurs contribue à dévaluer l’expérience vécue. Afin de vérifier notre hypothèse, nous avons interrogé 19 participants et organisateurs, et nous présentons ici les résultats des entrevues. Par la suite, l’interprétation des résultats se fait à l’aide de textes scientifiques reliés au sujet. Notre recherche nous permet de constater que les attentes et les retombées sont diverses, mais que des thèmes centraux concordent dans les deux groupes interrogés. La dévaluation de l’expérience ne vient pas des participants et des organisateurs, mais plutôt des autres diocésains qui souhaiteraient une implication plus grande des participants dans les communautés paroissiales.
Resumo:
Au cours des dernières années, le développement des connaissances au niveau de l’étiologie de la maladie ainsi que l’arrivée de nouveaux médicaments et de lignes directrices guidant la pratique clinique sont susceptibles d’avoir entraîné une meilleure gestion de la polyarthrite rhumatoïde (PAR) et de l’ostéoporose, une comorbidité fréquente chez ces patients. Dans cette thèse, trois questions de recherche sont étudiées à l’aide des banques de données administratives québécoises (RAMQ, MED-ÉCHO). Une première étude documente l’utilisation des médicaments pour la PAR au Québec. À ce jour, il s’agit de la seule étude canadienne à rapporter les tendances d’utilisation des DMARD (disease-modifying antirheumatic drug) biologiques depuis leur introduction dans la pratique clinique. Au cours de la période à l’étude (2002-2008), l’utilisation de DMARD (synthétiques et biologiques) a augmenté légèrement dans la population atteinte de PAR (1,9%, 95% CI : 1,1 - 2,8). Cependant, malgré la présence de recommandations cliniques soulignant l’importance de commencer un traitement rapidement, et la couverture de ces traitements par le régime général d’assurance médicaments, les résultats démontrent une initiation sous-optimale des DMARD chez les patients nouvellement diagnostiqués (probabilité d’initiation à 12 mois : 38,5%). L’initiation de DMARD était beaucoup plus fréquente lorsqu’un rhumatologue était impliqué dans la provision des soins (OR : 4,31, 95% CI : 3,73 - 4,97). Concernant les DMARD biologiques, le facteur le plus fortement associé avec leur initiation était l’année calendrier. Chez les sujets diagnostiqués en 2002, 1,2 sur 1 000 ont initié un DMARD biologique moins d’un an après leur diagnostic. Pour ceux qui ont été diagnostiqués en 2007, le taux était de 13 sur 1 000. Les résultats démontrent que si la gestion pharmacologique de la PAR s’est améliorée au cours de la période à l’étude, elle demeure tout de même sous-optimale. Assurer un meilleur accès aux rhumatologues pourrait, semble-t-il, être une stratégie efficace pour améliorer la qualité des soins chez les patients atteints de PAR. Dans une deuxième étude, l’association entre l’utilisation des DMARD biologiques et le risque de fractures ostéoporotiques non vertébrales chez des patients PAR âgés de 50 ans et plus a été rapportée. Puisque l’inflammation chronique résultant de la PAR interfère avec le remodelage osseux et que les DMARD biologiques, en plus de leur effet anti-inflammatoire et immunosuppresseur, sont des modulateurs de l’activité cellulaire des ostéoclastes et des ostéoblastes pouvant possiblement mener à la prévention des pertes de densité minérale osseuse (DMO), il était attendu que leur utilisation réduirait le risque de fracture. Une étude de cas-témoin intra-cohorte a été conduite. Bien qu’aucune réduction du risque de fracture suivant l’utilisation de DMARD biologiques n’ait pu être démontrée (OR : 1,03, 95% CI : 0,42 - 2,53), l’étude établit le taux d’incidence de fractures ostéoporotiques non vertébrales dans une population canadienne atteinte de PAR (11/1 000 personnes - années) et souligne le rôle d’importants facteurs de risque. La prévalence élevée de l’ostéoporose dans la population atteinte de PAR justifie que l’on accorde plus d’attention à la prévention des fractures. Finalement, une troisième étude explore l’impact de la dissémination massive, en 2002, des lignes directrices du traitement de l’ostéoporose au Canada sur la gestion pharmacologique de l’ostéoporose et sur les taux d’incidence de fractures ostéoporotiques non vertébrales chez une population de patients PAR âgés de 50 ans et plus entre 1998 et 2008. Étant donné la disponibilité des traitements efficaces pour l’ostéoporose depuis le milieu des années 1990 et l’évolution des lignes directrices de traitement, une réduction du taux de fractures était attendue. Quelques études canadiennes ont démontré une réduction des fractures suivant une utilisation étendue des médicaments contre l’ostéoporose et de l’ostéodensitométrie dans une population générale, mais aucune ne s’est attardée plus particulièrement sur une population adulte atteinte de PAR. Dans cette étude observationnelle utilisant une approche de série chronologique, aucune réduction du taux de fracture après 2002 (période suivant la dissémination des lignes directrices) n’a pu être démontrée. Cependant, l’utilisation des médicaments pour l’ostéoporose, le passage d’ostéodensitométrie, ainsi que la provision de soins pour l’ostéoporose en post-fracture ont augmenté. Cette étude démontre que malgré des années de disponibilité de traitements efficaces et d’investissement dans le développement et la promotion de lignes directrices de traitement, l’effet bénéfique au niveau de la réduction des fractures ne s’est toujours pas concrétisé dans la population atteinte de PAR, au cours de la période à l’étude. Ces travaux sont les premiers à examiner, à l’aide d’une banque de données administratives, des sujets atteints de PAR sur une période s’étalant sur 11 ans, permettant non seulement l’étude des changements de pratique clinique suivant l’apparition de nouveaux traitements ou bien de nouvelles lignes directrices, mais également de leur impact sur la santé. De plus, via l’étude des déterminants de traitement, les résultats offrent des pistes de solution afin de combler l’écart entre la pratique observée et les recommandations cliniques. Enfin, les résultats de ces études bonifient la littérature concernant la qualité des soins pharmacologiques chez les patients PAR et de la prévention des fractures.
Resumo:
Commentaire / Commentary
Resumo:
Ce mémoire a pour thèse que les fonctions devraient être transparentes lors de la phase de métaprogrammation. En effet, la métaprogrammation se veut une possibilité pour le programmeur d’étendre le compilateur. Or, dans un style de programmation fonctionnelle, la logique du programme se retrouve dans les définitions des diverses fonctions le composant. Puisque les fonctions sont généralement opaques, l’impossibilité d’accéder à cette logique limite les applications possibles de la phase de métaprogrammation. Nous allons illustrer les avantages que procurent les fonctions transparentes pour la métaprogrammation. Nous donnerons notamment l’exemple du calcul symbolique et un exemple de nouvelles optimisations désormais possibles. Nous illustrerons également que la transparence des fonctions permet de faire le pont entre les datatypes du programme et les fonctions. Nous allons également étudier ce qu'implique la présence de fonctions transparentes au sein d'un langage. Nous nous concentrerons sur les aspects reliés à l'implantation de ces dernières, aux performances et à la facilité d'utilisation. Nous illustrerons nos propos avec le langage Abitbol, un langage créé sur mesure pour la métaprogrammation.
Resumo:
Ce mémoire porte sur le problème de la légitimité de revendications émanant de multiples sources d’autorité (morales, politiques et légales). L’histoire conceptuelle du pluralisme montre que les significations qui lui sont attribuées sont à la fois contingentes et hétéroclites, leurs traductions en pratique étant loin d’être évidentes. Notre principal objectif est de remettre en question l’hypothèse selon laquelle l’approche de Charles Taylor est pluraliste. Si la reconnaissance d’une pluralité de biens joue un rôle fondamental dans la philosophie de Taylor, il est néanmoins nécessaire de montrer l’important clivage existant entre, d’une part, le fait d’accepter que nos conflits de valeurs soient souvent irréconciliables et, d’autre part, la volonté de trouver un moyen de mettre en harmonie des finalités concurrentes. Au terme de notre enquête, nous espérons mettre en lumière l’écart que nous constatons entre les questions reliées à la différence culturelle et les problèmes posés par des revendications d’autorité formulées par des associations formelles.
Resumo:
Série de l'Observatoire des fédérations
Resumo:
Les Méditations cartésiennes exposent sommairement le rôle de la phénoménologie dans le projet de refondation des sciences. Husserl y discutera, à partir du doute cartésien, une sortie du scepticisme vers une fondation de la connaissance. Pour cela, deux choses devront être exposées : premièrement, le principe central à la subjectivité nommé « l’ego transcendantal » qui permettra de comprendre ce qui constitue l’essence de la subjectivité. Deuxièmement, la communauté intersubjective elle-même qui, une fois atteinte, permettra la constitution d’une connaissance certaine. Ce mémoire retracera le développement fait entre la première réduction, qui semble restreindre le phénoménologue à sa propre subjectivité, à celle de l’atteinte d’une communauté intersubjective. En exposant méthodiquement l’avancée de Husserl, nous montrerons comment une réelle intersubjectivité est développée, tout en soulevant certaines objections qui limitent la portée de cette entreprise, afin de parvenir à deux choses : premièrement, une remise en contexte d’un argument complexe se laissant trop souvent réduire à une lecture idéaliste au sens classique du terme; deuxièmement, que le corps joue un rôle central dans le projet husserlien et que ce sera sur celui-ci, pris en un sens spécifique, que s’édifiera la communauté existant entre les différentes monades.
Resumo:
Objectif: Cette thèse avait pour objectif principal la mise en oeuvre et la validation de la faisabilité, chez l'humain, du paradigme de modulation du réflexe acoustique de sursaut par un court silence (GPIAS) afin de l'utiliser comme mesure objective de l'acouphène. Pour ce faire, trois expériences ont été réalisées. L'expérience 1 avait pour objectif de valider l'inhibition du réflexe de sursaut par un court silence chez des participants humains normo-entendants (sans acouphène) lors de la présentation d'un bruit de fond centré en hautes et en basses fréquences afin de déterminer les paramètres optimaux du paradigme. L'expérience 2 avait pour objectif de valider la précision et la fidélité d'une méthode de caractérisation psychoacoustique de l'acouphène (appariement en intensité et en fréquence). Finalement, l'expérience 3 avait pour objectif d'appliquer le paradigme d'objectivation de l'acouphène par le réflexe de sursaut à des participants atteints d'acouphènes chroniques en utilisant les techniques développées lors des expériences 1 et 2. Méthodologie : L'expérience 1 incluait 157 participants testés dans l'une des conditions de durée du court silence (5, 25, 50, 100, 200 ms) et dans l'un des deux paradigmes (court silence à l'intérieur du bruit de fond ou suivant celui-ci) à l'aide de bruits de fond en hautes et en basses fréquences. L'expérience 2 incluait deux groupes de participants avec acouphène, l'un musicien (n=16) et l'autre sans expérience musicale (n=16) ainsi qu'un groupe de simulateur sans acouphène (n=18). Ils tous ont été évalués sur leur capacité d'appariement en fréquence et en intensité de leur acouphène. Les mesures ont été reprises chez un sous-groupe de participants plusieurs semaines plus tard. L'expérience 3 incluait 15 participants avec acouphène et 17 contrôles évalués à l'aide du paradigme d'inhibition du réflexe de sursaut à l'aide d'un court silence (GPIAS). Les paramètres psychoacoustiques de l'acouphène ont également été mesurés. Toutes les mesures ont été reprises plusieurs mois plus tard chez un sous-groupe de participants. Résultats : Expérience 1 : le paradigme d'inhibition du réflexe acoustique de sursaut par un court silence est applicable chez l'humain normo-entendant. Expérience 2 : les mesures psychoacoustiques informatisées de l'acouphène incluant l'appariement en fréquence et en intensité sont des mesures précises et fidèles du percept de l'acouphène. Expérience 3 : un déficit d'inhibition au paradigme du GPIAS a été retrouvé chez le groupe de participants avec acouphène pour les bruits de fond en hautes et en basses fréquences au test et au retest. Les mesures d'appariement en fréquence ont révélé un acouphène dont la fréquence prédominante était d'environ 16 000 Hz chez la plupart des participants. Discussion : Il est possible d'appliquer le paradigme d'inhibition du réflexe acoustique de sursaut par un court silence à des participants humains atteints d'acouphène, tel qu'il est utilisé en recherche animale pour « objectiver » la présence d'acouphène. Toutefois, le déficit d'inhibition mesuré n'est pas spécifique à la fréquence de l'acouphène lorsque validé à partir des données d'appariement psychoacoustique. Nos résultats soulèvent des questions quant à l'interprétation originale du paradigme pour détecter la présence d'un acouphène chez les animaux.
Resumo:
Photoconductivity (PC) processes may be the most suitable technique for obtaining information about the states in the gap. It finds applications in photovoItaics, photo detection and radiation measurements. The main task in the area of photovoltaics, is to increase the efficiency of the device and also to develop new materials with good optoelectronic properties useful for energy conversion, keeping the idea of cost effectiveness. Photoconduction includes generation and recombination of carriers and their transport to the electrodes. So thermal relaxation process, charge carrier statistics, effects of electrodes and several mechanisms of recombination are involved in photoconductivity.A major effect of trapping is to make the experimentally observed decay time of photocurrent, longer than carrier lifetime. If no trapping centers are present, then observed photocurrent will decay in the same way as the density of free carriers and the observed decay time will be equal to carrier lifetime. If the density of free carriers is much less than density of trapped carriers, the entire decay of photocurrent is effectively dominated by the rate of trap emptying rather than by the rate of recombination.In the present study, the decay time of carriers was measured using photoconductive decay (PCD) technique. For the measurements, the film was loaded in a liquid Helium cryostat and the temperature was controlled using Lakshore Auto tuning temperature controller (Model 321). White light was used to illuminate the required area of the sample. Heat radiation from the light source was avoided by passing the light beam through a water filter. The decay current. after switching off the illumination. was measured using a Kiethely 2000 multi meter. Sets of PCD measurements were taken varying sample temperature, sample preparation temperature, thickness of the film, partial pressure of Oxygen and concentration of a particular element in a compound. Decay times were calculated using the rate window technique, which is a decay sampling technique particularly suited to computerized analysis. For PCD curves with two well-defined regions, two windows were chosen, one at the fast decay region and the other at the slow decay region. The curves in a particular window were exponentially fitted using Microsoft Excel 2000 programme. These decay times were plotted against sample temperature and sample preparation temperature to study the effect of various defects in the film. These studies were done in order to optimize conditions of preparation technique so as to get good photosensitive samples. useful for photovoltaic applications.Materials selected for the study were CdS, In2Se3, CuIn2Se3 and CuInS2• Photoconductivity studies done on these samples are organised in six chapters including introduction and conclusion.
Resumo:
The main objective of the present study is to understand different mechanisms involved in the production and evolution of plasma by the pulsed laser ablation and radio frequency magnetron sputtering. These two methods are of particular interest, as these are well accomplished methods used for surface coatings, nanostructure fabrications and other thin film devices fabrications. Material science researchers all over the world are involved in the development of devices based on transparent conducting oxide (TCO) thin films. Our laboratory has been involved in the development of TCO devices like thin film diodes using zinc oxide (ZnO) and zinc magnesium oxide (ZnMgO), thin film transistors (TFT's) using zinc indium oxide and zinc indium tin oxide, and some electroluminescent (EL) devices by pulsed laser ablation and RF magnetron sputtering.In contrast to the extensive literature relating to pure ZnO and other thin films produced by various deposition techniques, there appears to have been relatively little effort directed towards the characterization of plasmas from which such films are produced. The knowledge of plasma dynamics corresponding to the variations in the input parameters of ablation and sputtering, with the kind of laser/magnetron used for the generation of plasma, is limited. To improve the quality of the deposited films for desired application, a sound understanding of the plume dynamics, physical and chemical properties of the species in the plume is required. Generally, there is a correlation between the plume dynamics and the structural properties of the films deposited. Thus the study of the characteristics of the plume contributes to a better understanding and control of the deposition process itself. The hydrodynamic expansion of the plume, the composition, and SIze distribution of clusters depend not only on initial conditions of plasma production but also on the ambient gas composition and pressure. The growth and deposition of the films are detennined by the thermodynamic parameters of the target material and initial conditions such as electron temperature and density of the plasma.For optimizing the deposition parameters of various films (stoichiometric or otherwise), in-situ or ex-situ monitoring of plasma plume dynamics become necessary for the purpose of repeatability and reliability. With this in mind, the plume dynamics and compositions of laser ablated and RF magnetron sputtered zinc oxide plasmas have been investigated. The plasmas studied were produced at conditions employed typically for the deposition of ZnO films by both methods. Apart from this two component ZnO plasma, a multi-component material (lead zirconium titanate) was ablated and plasma was characterized.
Resumo:
Multivariate lifetime data arise in various forms including recurrent event data when individuals are followed to observe the sequence of occurrences of a certain type of event; correlated lifetime when an individual is followed for the occurrence of two or more types of events, or when distinct individuals have dependent event times. In most studies there are covariates such as treatments, group indicators, individual characteristics, or environmental conditions, whose relationship to lifetime is of interest. This leads to a consideration of regression models.The well known Cox proportional hazards model and its variations, using the marginal hazard functions employed for the analysis of multivariate survival data in literature are not sufficient to explain the complete dependence structure of pair of lifetimes on the covariate vector. Motivated by this, in Chapter 2, we introduced a bivariate proportional hazards model using vector hazard function of Johnson and Kotz (1975), in which the covariates under study have different effect on two components of the vector hazard function. The proposed model is useful in real life situations to study the dependence structure of pair of lifetimes on the covariate vector . The well known partial likelihood approach is used for the estimation of parameter vectors. We then introduced a bivariate proportional hazards model for gap times of recurrent events in Chapter 3. The model incorporates both marginal and joint dependence of the distribution of gap times on the covariate vector . In many fields of application, mean residual life function is considered superior concept than the hazard function. Motivated by this, in Chapter 4, we considered a new semi-parametric model, bivariate proportional mean residual life time model, to assess the relationship between mean residual life and covariates for gap time of recurrent events. The counting process approach is used for the inference procedures of the gap time of recurrent events. In many survival studies, the distribution of lifetime may depend on the distribution of censoring time. In Chapter 5, we introduced a proportional hazards model for duration times and developed inference procedures under dependent (informative) censoring. In Chapter 6, we introduced a bivariate proportional hazards model for competing risks data under right censoring. The asymptotic properties of the estimators of the parameters of different models developed in previous chapters, were studied. The proposed models were applied to various real life situations.
Resumo:
The world demand for fish and fishery products is increasing steadily and it is generally accepted that it will not be possible to meet the heavy demand with resources exploited from capture fishery alone. Now aquaculture is well established and fastdeveloping industry in many countries and is a major focus sector for development. During recent decades, aquaculture has gained momentum, throughout the world especially in developing countries. According to Food and Agricultural Oganisation (FAO, 2000), global aquaculture production was 26.38 tones in 1996 have reached 32.9 million tonnes during 1999. Only marine aquaculture sector has contributed 13.1 million tonnes during 1999.India is a major fish producing country. About one half of lndia’s brackish water lands are currently being utilized for farming in order to reduce the gap between supply and demand for fish. Aquaculture has become a major source of livelihood for people and its role in integrated rural development, generation of employment and earning foreign exchange, thereby alleviating poverty is being greatly appreciated around the world.Among the infectious agents, bacteria are becoming the prime causal organisms for diseases in food fishes and other marine animals. Sindermann, (1970) reported that bacterial fish pathogen most commonly found among marine fishes is species of Pseudomonas, Vibrio and Mycobacterium. These can be categorized into primary pathogens; secondary invaders that may cause systemic disease in immunocompromised hosts; and normal marine flora which are not pathogenic but may occur on body surfaces or even within the tissues of the host. I-Iigh density of animals in hatchery tanks and ponds is conducive to the spread of pathogen and the aquatic environment with regular application of protein rich feed, is ideal for culturing bacteria. Bacteria, which are normally present in seawater or on the surface of fish, can invade and cause pathological effects in fishes, which are injured or subjected to other environmental stresses.Mycobacteria except parasites are known as nontuberculosis mycobacteria (NTM), atypical mycobacteria or mycobacteria other than tuberculosis(MO'l'l"). This group of mycobacteria includes opportunistic pathogens and saprophytes. Environmental mycobacteria are ubiquitous in distribution and the sources may include soil, water, warm-blooded as well as cold-blooded animals. Disease caused by environmental mycobacterial strains in susceptible humans (Goslee & Wolinsky, 1976; Grange, 1987), animals and fishes are increasingly attracting attention. Greatest importance of environmental mycobacteria is believed to be their role in immunological priming of humans and animals, thereby modifying their immune responses to subsequent exposure to pathogenic species.
Resumo:
The service quality of any sector has two major aspects namely technical and functional. Technical quality can be attained by maintaining technical specification as decided by the organization. Functional quality refers to the manner which service is delivered to customer which can be assessed by the customer feed backs. A field survey was conducted based on the management tool SERVQUAL, by designing 28 constructs under 7 dimensions of service quality. Stratified sampling techniques were used to get 336 valid responses and the gap scores of expectations and perceptions are analyzed using statistical techniques to identify the weakest dimension. To assess the technical aspects of availability six months live outage data of base transceiver were collected. The statistical and exploratory techniques were used to model the network performance. The failure patterns have been modeled in competing risk models and probability distribution of service outage and restorations were parameterized. Since the availability of network is a function of the reliability and maintainability of the network elements, any service provider who wishes to keep up their service level agreements on availability should be aware of the variability of these elements and its effects on interactions. The availability variations were studied by designing a discrete time event simulation model with probabilistic input parameters. The probabilistic distribution parameters arrived from live data analysis was used to design experiments to define the availability domain of the network under consideration. The availability domain can be used as a reference for planning and implementing maintenance activities. A new metric is proposed which incorporates a consistency index along with key service parameters that can be used to compare the performance of different service providers. The developed tool can be used for reliability analysis of mobile communication systems and assumes greater significance in the wake of mobile portability facility. It is also possible to have a relative measure of the effectiveness of different service providers.
Resumo:
The corporate views on wives roles and their subsequent involvement in their husbands career seem to be quiet surprising .Even though the corporate magnates are aware of wives influence on husbands professional advancements they seldom give credit to this factor. Again it may be an eye opener for the corporations which hardly take note of the executives wives their likes or dislikes, their expectations or frustrations. They are to understand that man in his totality and decisions affecting his family have to be taken seriously. More over they should respect the right of the wives by understanding the exact role played by them. Thus this study is to understand the roles and contributions of executives wives to the success of their husbands in their professions. The study tries to minimize the gap between the corporations and the wives ,and also to make the wives aware of their peculiar role in the career advancement of their executive husbands.
Resumo:
The primary aim of this work has been to develop a cost effective process that can be operated at room temperature for developing latex reclaim with superior mechanical properties. With this objective in mind the researcher proposes to study the reclaiming action of four different chemicals on latex products waste. Waste latex products are chosen because it has a higher potential to generate good quality rubber hydrocarbon since all latex products are based on either high quality concentrated latex or creamed latex. Moreover, all latex products are only lightly crosslinked and not masticated and hence not mechanically degraded. The author also proposes to fully explore the possible application of latex reclaim in various fields..