888 resultados para In search of lost time


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pour répondre aux exigences du gouvernement fédéral quant aux temps d’attente pour les chirurgies de remplacement du genou et de la hanche, les établissements canadiens ont adopté des stratégies de gestion des listes d’attentes avec des niveaux de succès variables. Notre question de recherche visait à comprendre Quels facteurs ont permis de maintenir dans le temps un temps d’attente répondant aux exigences du gouvernement fédéral pendant au moins 6-12 mois? Nous avons développé un modèle possédant quatre facteurs, inspiré du modèle de Parsons (1977), afin d’analyser les facteurs comprenant la gouvernance, la culture, les ressources, et les outils. Trois études de cas ont été menées. En somme, le 1er cas a été capable d’obtenir les exigences pendant six mois mais incapable de les maintenir, le 2e cas a été capable de maintenir les exigences > 18 mois et le 3e cas a été incapable d’atteindre les objectifs. Des documents furent recueillis et des entrevues furent réalisées auprès des personnes impliquées dans la stratégie. Les résultats indiquent que l’hôpital qui a été en mesure de maintenir le temps d’attente possède certaines caractéristiques: réalisation exclusive de chirurgie de remplacement de la hanche et du genou, présence d’un personnel motivé, non distrait par d’autres préoccupations et un esprit d’équipe fort. Les deux autres cas ont eu à faire face à une culture médicale moins homogène et moins axés sur l’atteinte des cibles; des ressources dispersées et une politique intra-établissement imprécise. Le modèle d’hôpital factory est intéressant dans le cadre d’une chirurgie surspécialisée. Toutefois, les patients sont sélectionnés pour des chirurgies simples et dont le risque de complication est faible. Il ne peut donc pas être retenu comme le modèle durable par excellence.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Travail réalisé en cotutelle (Université de Paris IV-La Sorbonne).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Leaf blotch, caused by Rhynchosporium secalis, was studied in a range of winter barley cultivars using a combination of traditional plant pathological techniques and newly developed multiplex and real-time polymerase chain reaction (PCR) assays. Using PCR, symptomless leaf blotch colonization was shown to occur throughout the growing season in the resistant winter barley cv. Leonie. The dynamics of colonization throughout the growing season were similar in both Leonie and Vertige, a susceptible cultivar. However, pathogen DNA levels were approximately 10-fold higher in the susceptible cultivar, which expressed symptoms throughout the growing season. Visual assessments and PCR also were used to determine levels of R. secalis colonization and infection in samples from a field experiment used to test a range of winter barley cultivars with different levels of leaf blotch resistance. The correlation between the PCR and visual assessment data was better at higher infection levels (R(2) = 0.81 for leaf samples with >0.3% disease). Although resistance ratings did not correlate well with levels of disease for all cultivars tested, low levels of infection were observed in the cultivar with the highest resistance rating and high levels of infection in the cultivar with the lowest resistance rating.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The purpose of this study was to apply and compare two time-domain analysis procedures in the determination of oxygen uptake (VO2) kinetics in response to a pseudorandom binary sequence (PRBS) exercise test. PRBS exercise tests have typically been analysed in the frequency domain. However, the complex interpretation of frequency responses may have limited the application of this procedure in both sporting and clinical contexts, where a single time measurement would facilitate subject comparison. The relative potential of both a mean response time (MRT) and a peak cross-correlation time (PCCT) was investigated. This study was divided into two parts: a test-retest reliability study (part A), in which 10 healthy male subjects completed two identical PRBS exercise tests, and a comparison of the VO2 kinetics of 12 elite endurance runners (ER) and 12 elite sprinters (SR; part B). In part A, 95% limits of agreement were calculated for comparison between MRT and PCCT. The results of part A showed no significant difference between test and retest as assessed by MRT [mean (SD) 42.2 (4.2) s and 43.8 (6.9) s] or by PCCT [21.8 (3.7) s and 22.7 (4.5) s]. Measurement error (%) was lower for MRT in comparison with PCCT (16% and 25%, respectively). In part B of the study, the VO2 kinetics of ER were significantly faster than those of SR, as assessed by MRT [33.4 (3.4) s and 39.9 (7.1) s, respectively; P<0.01] and PCCT [20.9 (3.8) s and 24.8 (4.5) s; P < 0.05]. It is possible that either analysis procedure could provide a single test measurement Of VO2 kinetics; however, the greater reliability of the MRT data suggests that this method has more potential for development in the assessment Of VO2 kinetics by PRBS exercise testing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we present an on-line estimation algorithm for an uncertain time delay in a continuous system based on the observational input-output data, subject to observational noise. The first order Pade approximation is used to approximate the time delay. At each time step, the algorithm combines the well known Kalman filter algorithm and the recursive instrumental variable least squares (RIVLS) algorithm in cascade form. The instrumental variable least squares algorithm is used in order to achieve the consistency of the delay parameter estimate, since an error-in-the-variable model is involved. An illustrative example is utilized to demonstrate the efficacy of the proposed approach.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We show that an analysis of the mean and variance of discrete wavelet coefficients of coaveraged time-domain interferograms can be used as a specification for determining when to stop coaveraging. We also show that, if a prediction model built in the wavelet domain is used to determine the composition of unknown samples, a stopping criterion for the coaveraging process can be developed with respect to the uncertainty tolerated in the prediction.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Various methods of assessment have been applied to the One Dimensional Time to Explosion (ODTX) apparatus and experiments with the aim of allowing an estimate of the comparative violence of the explosion event to be made. Non-mechanical methods used were a simple visual inspection, measuring the increase in the void volume of the anvils following an explosion and measuring the velocity of the sound produced by the explosion over 1 metre. Mechanical methods used included monitoring piezo-electric devices inserted in the frame of the machine and measuring the rotational velocity of a rotating bar placed on the top of the anvils after it had been displaced by the shock wave. This last method, which resembles original Hopkinson Bar experiments, seemed the easiest to apply and analyse, giving relative rankings of violence and the possibility of the calculation of a “detonation” pressure.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A One-Dimensional Time to Explosion (ODTX) apparatus has been used to study the times to explosion of a number of compositions based on RDX and HMX over a range of contact temperatures. The times to explosion at any given temperature tend to increase from RDX to HMX and with the proportion of HMX in the composition. Thermal ignition theory has been applied to time to explosion data to calculate kinetic parameters. The apparent activation energy for all of the compositions lay between 127 kJ mol−1 and 146 kJ mol−1. There were big differences in the pre-exponential factor and this controlled the time to explosion rather than the activation energy for the process.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper documents the extent of inequality of educational opportunity in India spanning the period 1983–2004 using National Sample Surveys. We build on recent developments in the literature that have operationalized concepts of inequality of opportunity theory and construct several indices of inequality of educational opportunity for an adult sample. Kerala stands out as the least opportunity-unequal state. Rajasthan, Gujarat, and Uttar Pradesh experienced large-scale falls in the ranking of inequality of opportunities. By contrast, West Bengal and Orissa made significant progress in reducing inequality of opportunity. We also examine the links between progress toward equality of opportunity and a selection of pro-poor policies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The possibility of using a time sequence of surface pressure observations in four-dimensional data assimilation is being investigated. It is shown that a linear multilevel quasi-geostrophic model can be updated successfully with surface data alone, provided the number of time levels are at least as many as the number of vertical levels. It is further demonstrated that current statistical analysis procedures are very inefficient to assimilate surface observations, and it is shown by numerical experiments that the vertical interpolation must be carried out using the structure of the most dominating baroclinic mode in order to obtain a satisfactory updating. Different possible ways towards finding a practical solution are being discussed.