916 resultados para career adapt-abilities, adaptability, test adaptation, measurement invariance
Resumo:
This study investigated the development of all 3 components of episodic memory (EM), as defined by Tulving, namely, core factual content, spatial context, and temporal context. To this end, a novel, ecologically valid test was administered to 109 participants aged 4-16 years. Results showed that each EM component develops at a different rate. Ability to memorize factual content emerges early, whereas context retrieval abilities continue to improve until adolescence, due to persistent encoding difficulties (isolated by comparing results on free recall and recognition tasks). Exploration of links with other cognitive functions revealed that short-term feature-binding abilities contribute to all EM components, and executive functions to temporal and spatial context, although ability to memorize temporal context is predicted mainly by age.
Resumo:
Arterial Spin Labeling (ASL) is a method to measure perfusion using magnetically labeled blood water as an endogenous tracer. Being fully non-invasive, this technique is attractive for longitudinal studies of cerebral blood flow in healthy and diseased individuals, or as a surrogate marker of metabolism. So far, ASL has been restricted mostly to specialist centers due to a generally low SNR of the method and potential issues with user-dependent analysis needed to obtain quantitative measurement of cerebral blood flow (CBF). Here, we evaluated a particular implementation of ASL (called Quantitative STAR labeling of Arterial Regions or QUASAR), a method providing user independent quantification of CBF in a large test-retest study across sites from around the world, dubbed "The QUASAR reproducibility study". Altogether, 28 sites located in Asia, Europe and North America participated and a total of 284 healthy volunteers were scanned. Minimal operator dependence was assured by using an automatic planning tool and its accuracy and potential usefulness in multi-center trials was evaluated as well. Accurate repositioning between sessions was achieved with the automatic planning tool showing mean displacements of 1.87+/-0.95 mm and rotations of 1.56+/-0.66 degrees . Mean gray matter CBF was 47.4+/-7.5 [ml/100 g/min] with a between-subject standard variation SD(b)=5.5 [ml/100 g/min] and a within-subject standard deviation SD(w)=4.7 [ml/100 g/min]. The corresponding repeatability was 13.0 [ml/100 g/min] and was found to be within the range of previous studies.
Resumo:
OBJECTIVE: To test the effect of a multidimensional lifestyle intervention on aerobic fitness and adiposity in predominantly migrant preschool children. DESIGN: Cluster randomised controlled single blinded trial (Ballabeina study) over one school year; randomisation was performed after stratification for linguistic region. SETTING: 40 preschool classes in areas with a high migrant population in the German and French speaking regions of Switzerland. PARTICIPANTS: 652 of the 727 preschool children had informed consent and were present for baseline measures (mean age 5.1 years (SD 0.7), 72% migrants of multicultural origins). No children withdrew, but 26 moved away. INTERVENTION: The multidimensional culturally tailored lifestyle intervention included a physical activity programme, lessons on nutrition, media use (use of television and computers), and sleep and adaptation of the built environment of the preschool class. It lasted from August 2008 to June 2009. MAIN OUTCOME MEASURES: Primary outcomes were aerobic fitness (20 m shuttle run test) and body mass index (BMI). Secondary outcomes included motor agility, balance, percentage body fat, waist circumference, physical activity, eating habits, media use, sleep, psychological health, and cognitive abilities. RESULTS: Compared with controls, children in the intervention group had an increase in aerobic fitness at the end of the intervention (adjusted mean difference: 0.32 stages (95% confidence interval 0.07 to 0.57; P=0.01) but no difference in BMI (-0.07 kg/m(2), -0.19 to 0.06; P=0.31). Relative to controls, children in the intervention group had beneficial effects in motor agility (-0.54 s, -0.90 to -0.17; P=0.004), percentage body fat (-1.1%, -2.0 to -0.2; P=0.02), and waist circumference (-1.0 cm, -1.6 to -0.4; P=0.001). There were also significant benefits in the intervention group in reported physical activity, media use, and eating habits, but not in the remaining secondary outcomes. CONCLUSIONS: A multidimensional intervention increased aerobic fitness and reduced body fat but not BMI in predominantly migrant preschool children.
Resumo:
RESUME : Valganciclovir (Valcyte®) is an orally administered ester prodrug of the standard anticytomegalovirus (CMV) drug ganciclovir. This drug enabled an important reduction of the burden of CMV morbidity and mortality in solid organ transplant recipients. Prevention of CMV infection and treatment of CMV disease requires drug administration during many weeks. Oral drug administration is therefore convenient. Valganciclovir has been developed to overcome the poor oral availability of ganciclovir, which limits its concentration exposure after oral administration and thus its efficacy. This prodrug crosses efficiently the intestinal barrier, is then hydrolyzed into ganciclovir, providing exposure similar to intravenous ganciclovir. Valganciclovir is now preferred for the prophylaxis and treatment of CMV infection in solid organ transplant recipients. Nevertheless, adequate dosage adjustment is necessary to optimize its use, avoiding either insufficient or exaggerate exposure related to differences in its pharmacokinetic profile between patients. The main goal of this thesis was to better describe the pharmacokinetic and pharmacodynamic profile of valganciclovir in solid organ transplant recipients, to assess their reproducibility and their predictability, and thus to evaluate the current recommendations for valganciclovir dosage adjustment and the potential contribution of routine therapeutic drug monitoring (TDM) to patients' management. A total of 437 ganciclovir plasma concentration data from 65 transplant patients (41 kidney, 12 lung, 10 heart and 2 liver recipients, 58 under oral valganciclovir prophylaxis, 8 under oral valganciclovir treatment and 2 under intravenous ganciclovir) were measured using a validated chromatographic method (HPLC) developed for this study. The results were analyzed by non-linear mixed effect modeling (NONMEM). A two-compartment model with first-order absorption appropriately described the data. Systemic clearance was markedly influenced by GFR, with further differences between graft types and sex (CL/GFR = 1.7 in kidney, 0.9 in heart and 1.2 in lung and liver recipients) with interpatient variability (CV%) of 26% and interoccasion variability of 12%. Body weight and sex influenced central volume of distribution (V1 = 0.34 l/kg in males and 0.27 l/kg in females) with an interpatient variability of 20%. Residual intrapatient variability was 21 %. No significant drug interaction influenced GCV disposition. VGC prophylactic efficacy and tolerability were good, without detectable dependence on GCV profile. In conclusion, this analysis highlights the importance of thorough adjustment of VGC dosage to renal function and body weight. Considering the good predictability and reproducibility of GCV profile after oral VGC in solid organ transplant recipients, routine TDM does not appear to be clinically indicated. However, GCV plasma measurement may still be helpful in specific clinical situations such as documentation of appropriate exposure in patients with potentially compromised absorption, or lack of response to CMV disease treatment, or under renal replacement therapy. RESUME : Le valganciclovir (Valcyte®) est un promédicament oral du ganciclovir qui est un anti-infectieux de référence contre les infections à cytomegalovirus (CMV). Cet antiviral a permis de réduire les effets délétères de cette infection jusqu'ici responsable d'une importante morbidité et mortalité chez les transplantés d'organe. La prévention et le traitement de l'infection à CMV sont donc nécessaires mais requièrent l'administration d'un agent antiviral sur une longue période. Un médicament administré par voie orale représente donc un avantage évident. Le valganciclovir a été développé dans le but d'améliorer la faible absorption orale du ganciclovir, et donc son efficacité. Cet ester valylique du ganciclovir traverse plus facilement la barrière gastro-intestinale, puis est hydrolysé en ganciclovir dans la circulation sanguine, produisant une exposition comparable à celle d'une perfusion intraveineuse de ganciclovir. De ce fait, le valganciclovir est devenu largement utilisé pour la prophylaxie mais aussi le traitement de l'infection à CMV. Néanmoins une utilisation optimale de ce nouveau médicament nécessite de bonnes connaissances sur son profil pharmacocinétique afin d'établir un schéma de dose adapté pour éviter tant une surexposition qu'une sous-exposition résultant des différences d'élimination entre les patients. Le but de cette thèse a été d'étudier le profil pharmacocinétique et pharmacodynamique du valganciclovir chez les transplantés d'organe ainsi que sa reproductibilité et sa prédictibilité. Il s'agissait d'apprécier de manière critique le schéma actuellement recommandé pour l'adaptation des doses de valganciclovir, mais aussi la contribution éventuelle d'un suivi des concentrations sanguines en routine. Un total de 437 taux sanguins de ganciclovir ont été mesurés, provenant de 65 patients transplantés d'organe (41 rénaux, 12 pulmonaires, 10 cardiaques et 2 hépatiques, 58 sous une prophylaxie orale de valganciclovir, 8 sous un traitement de valganciclovir et 2 sous un traitement intraveineux). Une méthode de chromatographie liquide à haute performance a été développée et validée pour cette étude. Les résultats ont été ensuite analysés par modélisation non linéaire à effets mixtes (NONMEM). Un modèle à deux compartiments avec absorption de premier ordre a permis de décrire les données. La clairance systémique était principalement influencée par le débit de filtration glomérulaire (GFR), avec une différence entre les types de greffe et les sexes (CL/GFR = 1.7 chez les greffés rénaux, 0.9 pour les greffés cardiaques et 1.2 pour le groupe des greffés pulmonaires et hépatiques) avec un variabilité inter-individuelle de 26% (CV%) et une variabilité inter-occasion de 12%. Le poids corporel ainsi que le sexe avaient une influence sur le volume central de distribution (V1 = 0.34 l/kg chez les hommes et 0.27 l/kg chez les femmes) avec une variabilité inter-individuelle de 20%. La variabilité intra-individuelle résiduelle était de 21 %. Aucune interaction médicamenteuse n'a montré d'influence sur le profil du ganciclovir. La prophylaxie avec le valganciclovir s'est révélée efficace et bien tolérée. En conclusion, cette analyse souligne l'importance d'une adaptation de la dose du valganciclovir à la fonction rénale et au poids du patient. Au vu de la bonne reproductibilité et prédictibilité du profil pharmacocinétique du ganciclovir chez les patients transplantés recevant du valganciclovir, un suivi des concentrations sanguines en routine ne semble pas cliniquement indiqué. Néanmoins, la mesure des taux plasmatiques de ganciclovir peut être utile dans certaines situations particulières, comme la vérification d'une exposition appropriée chez des patients susceptibles d'absorption insuffisante, ou ne répondant pas au traitement d'une infection à CMV ou encore sous épuration extra-rénale. RESUME LARGE PUBLIC : Le valganciclovir est un précurseur capable de libérer du ganciclovir, récemment développé pour améliorer la faible absorption orale de ce dernier. Une fois le valganciclovir absorbé, le ganciclovir libéré dans la circulation sanguine devient efficace contre les infections à cytomégalovirus. Ce virus largement répandu est responsable de maladies insidieuses et parfois graves chez les personnes présentant une baisse des défenses immunitaires, comme les greffés d'organe recevant un traitement anti-rejet. Le ganciclovir est administré pendant plusieurs mois consécutifs soit pour prévenir une infection après la transplantation, soit pour traiter une infection déclarée. La facilité d'administration du valganciclovir par voie orale représente un avantage sur une administration du ganciclovir par perfusion, qui nécessite une hospitalisation. Toutefois, la voie orale peut être une source supplémentaire de variabilité chez les patients, avec un impact potentiel sur l'efficacité ou la toxicité du médicament. Le but de cette étude a été - de décrire le devenir de ce médicament dans le corps humain (dont l'étude relève de la discipline de la pharmacocinétique) - de définir les facteurs cliniques pouvant expliquer les différences de concentration sanguine observées entre les patients sous une posologie donnée - d'explorer les relations entre les concentrations du médicament dans le sang et son efficacité ou la survenue d'effets indésirables (dont l'étude relève de la discipline de la pharmacodynamie). Cette étude a nécessité le développement et la validation, d'une méthode d'analyse pour mesurer la concentration sanguine du ganciclovir, puis son application à 437 échantillons provenant de 65 patients transplantés d'organe solide (41 rénaux, 12 pulmonaires, 10 cardiaques et 2 hépatiques) recevant du valganciclovir. Les résultats des mesures effectuées ont été analysés à l'aide d'un outil mathématique afin d'élaborer un modèle du devenir du médicament dans le sang chez chaque patient et à chaque occasion. Cette étude a permis d'évaluer chez des patients recevant le valganciclovir, la vitesse à laquelle l'organisme absorbe, distribue, puis élimine le médicament. La vitesse d'élimination dépendait étroitement de la fonction rénale, du type de greffe et du sexe alors que la distribution dépendait du poids et du sexe du patient. La variabilité non expliquée par ces facteurs cliniques était modérée et vraisemblablement sans conséquence clinique évidente soit sur l'efficacité ou la tolérance, qui se révèlent très satisfaisantes chez les patients de l'étude. Les observations n'ont pas révélé de relation entre les concentrations de médicament et l'efficacité thérapeutique ou la survenue d'effets indésirables, confirmant que les doses relativement faibles utilisées dans notre collectif de patients suffisaient à produire une exposition reproductible à des concentrations adéquates. En conclusion, le profil (et par conséquent l'absorption) du valganciclovir chez les patients transplantés semble bien prédictible après une adaptation de la dose à la fonction rénale et au poids du patient. Un contrôle systématique des concentrations sanguines n'est probablement pas indiqué en routine, mais cette mesure peut présenter un intérêt dans certaines conditions particulières.
Resumo:
Because self-reported health status [SRHS] is an ordered response variable, inequality measurement for SRHS data requires a numerical scale for converting individual responses into a summary statistic. The choice of scale is however problematic, since small variations in the numerical scale may reverse the ordering of a given pair of distributions of SRHS data in relation to conventional inequality indices such as the variance. This paper introduces a parametric family of inequality indices, founded on an inequality ordering proposed by Allison and Foster [Allison, R.A., Foster, J., 2004. Measuring health inequalities using qualitative data. Journal of Health Economics 23, 505-524], which satisfy a suitable invariance property with respect to the choice of numerical scale. Several key members of the parametric family are also derived, and an empirical application using data from the Swiss Health Survey illustrates the proposed methodology. [Authors]
Resumo:
At the beginning of the 21st century, a new social arrangement of work poses a series of questions and challenges to scholars who aim to help people develop their working lives. Given the globalization of career counseling, we decided to address these issues and then to formulate potentially innovative responses in an international forum. We used this approach to avoid the difficulties of creating models and methods in one country and then trying to export them to other countries where they would be adapted for use. This article presents the initial outcome of this collaboration, a counseling model and methods. The life-designing model for career intervention endorses five presuppositions about people and their work lives: contextual possibilities, dynamic processes, non-linear progression, multiple perspectives, and personal patterns. Thinking from these five presuppositions, we have crafted a contextualized model based on the epistemology of social constructionism, particularly recognizing that an individual's knowledge and identity are the product of social interaction and that meaning is co-constructed through discourse. The life-design framework for counseling implements the theories of self-constructing [Guichard, J. (2005). Life-long self-construction. International Journal for Educational and Vocational Guidance, 5, 111-124] and career construction [Savickas, M. L. (2005). The theory and practice of career construction. In S. D. Brown & R. W. Lent (Eds.), Career development and counselling: putting theory and research to work (pp. 42-70). Hoboken, NJ: Wiley] that describe vocational behavior and its development. Thus, the framework is structured to be life-long, holistic, contextual, and preventive.
Resumo:
Velocity-density tests conducted in the laboratory involved small 4-inch diameter by 4.58-inch-long compacted soil cylinders made up of 3 differing soil types and for varying degrees of density and moisture content, the latter being varied well beyond optimum moisture values. Seventeen specimens were tested, 9 with velocity determinations made along two elements of the cylinder, 180 degrees apart, and 8 along three elements, 120 degrees apart. Seismic energy was developed by blows of a small tack hammer on a 5/8-inch diameter steel ball placed at the center of the top of the cylinder, with the detector placed successively at four points spaced 1/2-inch apart on the side of the specimen involving wave travel paths varying from 3.36 inches to 4.66 inches in length. Time intervals were measured using a model 217 micro-seismic timer in both laboratory and field measurements. Forty blows of the hammer were required for each velocity determination, which amounted to 80 blows on 9 laboratory specimens and 120 blows on the remaining 8 cylinders. Thirty-five field tests were made over the three selected soil types, all fine-grained, using a 2-foot seismic line with hammer-impact points at 6-inch intervals. The small tack hammer and 5/8-inch steel ball was, again, used to develop seismic wave energy. Generally, the densities obtained from the velocity measurements were lower than those measured in the conventional field testing. Conclusions were reached that: (1) the method does not appear to be usable for measurement of density of essentially fine-grained soils when the moisture content greatly exceeds the optimum for compaction, and (2) due to a gradual reduction in velocity upon aging, apparently because of gradual absorption of pore water into the expandable interlayer region of the clay, the seismic test should be conducted immediately after soil compaction to obtain a meaningful velocity value.
Resumo:
The objective of this work was to estimate the stability and adaptability of pod and seed yield in runner peanut genotypes based on the nonlinear regression and AMMI analysis. Yield data from 11 trials, distributed in six environments and three harvests, carried out in the Northeast region of Brazil during the rainy season were used. Significant effects of genotypes (G), environments (E), and GE interactions were detected in the analysis, indicating different behaviors among genotypes in favorable and unfavorable environmental conditions. The genotypes BRS Pérola Branca and LViPE‑06 are more stable and adapted to the semiarid environment, whereas LGoPE‑06 is a promising material for pod production, despite being highly dependent on favorable environments.
Resumo:
Abstract: To understand the processes of evolution, biologists are interested in the ability of a population to respond to natural or artificial selection. The amount of genetic variation is often viewed as the main factor allowing a species to answer to selection. Many theories have thus focused on the maintenance of genetic variability. Ecologists and population geneticists have long-suspected that the structure of the environment is connected to the maintenance of diversity. Theorists have shown that diversity can be permanently and stably maintained in temporal and spatial varying environment in certain conditions. Moreover, varying environments have been also theoretically demonstrated to cause the evolution of divergent life history strategies in the different niches constituting the environment. Although there is a huge number of theoretical studies selection and on life history evolution in heterogeneous environments, there is a clear lack of empirical studies. The purpose of this thesis was to. empirically study the evolutionary consequences of a heterogeneous environment in a freshwater snail Galba truncatula. Indeed, G. truncatula lives in two habitat types according the water availability. First, it can be found in streams or ponds which never completely dry out: a permanent habitat. Second, G. truncatula can be found in pools that freeze during winter and dry during summer: a temporary habitat. Using a common garden approach, we empirically demonstrated local adaptation of G. truncatula to temporary and permanent habitats. We used at first a comparison of molecular (FST) vs. quantitative (QST) genetic differentiation between temporary and permanent habitats. To confirm the pattern QST> FST between habitats suggesting local adaptation, we then tested the desiccation resistance of individuals from temporary and permanent habitats. This study confirmed that drought resistance seemed to be the main factor selected between habitats, and life history traits linked to the desiccation resistance were thus found divergent between habitats. However, despite this evidence of selection acting on mean values of traits between habitats, drift was suggested to be the main factor responsible of variation in variances-covariances between populations. At last, we found life history traits variation of individuals in a heterogeneous environment varying in parasite prevalence. This thesis empirically demonstrated the importance of heterogeneous environments in local adaptation and life history evolution and suggested that more experimental studies are needed to investigate this topic. Résumé: Les biologistes se sont depuis toujours intéressés en l'aptitude d'une population à répondre à la sélection naturelle. Cette réponse dépend de la quantité de variabilité génétique présente dans cette population. Plus particulièrement, les théoriciens se sont penchés sur la question du maintient de la variabilité génétique au sein d'environnements hétérogènes. Ils ont alors démontré que, sous certaines conditions, la diversité génétique peut se maintenir de manière stable et permanente dans des environnements variant au niveau spatial et temporel. De plus, ces environments variables ont été démontrés comme responsable de divergence de traits d'histoire de vie au sein des différentes niches constituant l'environnement. Cependant, malgré ce nombre important d'études théoriques portant sur la sélection et l'évolution des traits d'histoire de vie en environnement hétérogène, les études empiriques sont plus rares. Le but de cette thèse était donc d'étudier les conséquences évolutives d'un environnement hétérogène chez un esgarcot d'eau douce Galba truncatula. En effet, G. truncatula est trouvé dans deux types d'habitats qui diffèrent par leur niveau d'eau. Le premier, l'habitat temporaire, est constitué de flaques d'eau qui peuvent s'assécher pendant l'été et geler pendant l'hiver. Le second, l'habitat permanent, correspond à des marres ou à des ruisseaux qui ont un niveau d'eau constant durant toute l'année. Utilisant une approche expérimentale de type "jardin commun", nous avons démontré l'adaptation locale des individus à leur type d'habitat, permanent ou temporaire. Nous avons utilisé l'approche Fsr/QsT qui compare la différentiation génétique moléculaire avec la différentiation génétique quantitative entre les 2 habitats. Le phénomène d'adapation locale démontré par QsT > FsT, a été testé experimentalement en mesurant la résistance à la dessiccation d'individus d'habitat temporaire et permanent. Cette étude confirma que la résistance à la sécheresse a été sélectionné entre habitats et que les traits responsables de cette resistance sont différents entre habitats. Cependant si la sélection agit sur la valeur moyenne des traits entre habitats, la dérive génétique semble être le responsable majeur de la différence de variances-covariances entre populations. Pour finir, une variation de traits d'histoire de vie a été trouvée au sein d'un environnement hétérogène constitué de populations variants au niveau de leur taux de parasitisme. Pour conclure, cette thèse a donc démontré l'importance d'un environnement hétérogène sur l'adaptation locale et l'évolution des traits d'histoire de vie et suggère que plus d'études empiriques sur le sujet sont nécessaires.
Resumo:
This work is devoted to the problem of reconstructing the basis weight structure at paper web with black{box techniques. The data that is analyzed comes from a real paper machine and is collected by an o®-line scanner. The principal mathematical tool used in this work is Autoregressive Moving Average (ARMA) modelling. When coupled with the Discrete Fourier Transform (DFT), it gives a very flexible and interesting tool for analyzing properties of the paper web. Both ARMA and DFT are independently used to represent the given signal in a simplified version of our algorithm, but the final goal is to combine the two together. Ljung-Box Q-statistic lack-of-fit test combined with the Root Mean Squared Error coefficient gives a tool to separate significant signals from noise.
Resumo:
Nowadays the used fuel variety in power boilers is widening and new boiler constructions and running models have to be developed. This research and development is done in small pilot plants where more faster analyse about the boiler mass and heat balance is needed to be able to find and do the right decisions already during the test run. The barrier on determining boiler balance during test runs is the long process of chemical analyses of collected input and outputmatter samples. The present work is concentrating on finding a way to determinethe boiler balance without chemical analyses and optimise the test rig to get the best possible accuracy for heat and mass balance of the boiler. The purpose of this work was to create an automatic boiler balance calculation method for 4 MW CFB/BFB pilot boiler of Kvaerner Pulping Oy located in Messukylä in Tampere. The calculation was created in the data management computer of pilot plants automation system. The calculation is made in Microsoft Excel environment, which gives a good base and functions for handling large databases and calculations without any delicate programming. The automation system in pilot plant was reconstructed und updated by Metso Automation Oy during year 2001 and the new system MetsoDNA has good data management properties, which is necessary for big calculations as boiler balance calculation. Two possible methods for calculating boiler balance during test run were found. Either the fuel flow is determined, which is usedto calculate the boiler's mass balance, or the unburned carbon loss is estimated and the mass balance of the boiler is calculated on the basis of boiler's heat balance. Both of the methods have their own weaknesses, so they were constructed parallel in the calculation and the decision of the used method was left to user. User also needs to define the used fuels and some solid mass flowsthat aren't measured automatically by the automation system. With sensitivity analysis was found that the most essential values for accurate boiler balance determination are flue gas oxygen content, the boiler's measured heat output and lower heating value of the fuel. The theoretical part of this work concentrates in the error management of these measurements and analyses and on measurement accuracy and boiler balance calculation in theory. The empirical part of this work concentrates on the creation of the balance calculation for the boiler in issue and on describing the work environment.
Resumo:
This work had two primary objectives: 1) to produce a working prototype for automated printability assessment and 2) to perform a study of available machine vision and other necessary hardware solutions. The three printability testing methods, IGT Picking,He¬liotest, and mottling, considered in this work have several different requirements and the task was to produce a single automated testing system suitable for all methods. A system was designed and built and its performance was tested using the Heliotest. Working proto¬types are important tools for implementing theoretical methods into practical systems and testing and demonstrating the methodsin real life conditions. The system was found to be sufficient for the Heliotest method. Further testing and possible modifications related to other two test methods were left for future works. A short study of available systems and solutions concerning image acquisition of machine vision was performed. The theoretical part of this study includes lighting systems, optical systems and image acquisition tools, mainly cameras and the underlying physical aspects for each portion.
Resumo:
The current study aimed to explore the validity of an adaptation into French of the self-rated form of the Health of the Nation Outcome Scales for Children and Adolescents (F-HoNOSCA-SR) and to test its usefulness in a clinical routine use. One hundred and twenty nine patients, admitted into two inpatient units, were asked to participate in the study. One hundred and seven patients filled out the F-HoNOSCA-SR (for a subsample (N=17): at two occasions, one week apart) and the strengths and difficulties questionnaire (SDQ). In addition, the clinician rated the clinician-rated form of the HoNOSCA (HoNOSCA-CR, N=82). The reliability (assessed with split-half coefficient, item response theory (IRT) models and intraclass correlations (ICC) between the two occasions) revealed that the F-HoNSOCA-SR provides reliable measures. The concurrent validity assessed by correlating the F-HoNOSCA-SR and the SDQ revealed a good convergent validity of the instrument. The relationship analyses between the F-HoNOSCA-SR and the HoNOSCA-CR revealed weak but significant correlations. The comparison between the F-HoNOSCA-SR and the HoNOSCA-CR with paired sample t-tests revealed a higher score for the self-rated version. The F-HoNSOCA-SR was reported to provide reliable measures. In addition, it allows us to measure complementary information when used together with the HoNOSCA-CR.
Resumo:
Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.
Resumo:
This thesis examines the history and evolution of information system process innovation (ISPI) processes (adoption, adaptation, and unlearning) within the information system development (ISD) work in an internal information system (IS) department and in two IS software house organisations in Finland over a 43-year time-period. The study offers insights into influential actors and their dependencies in deciding over ISPIs. The research usesa qualitative research approach, and the research methodology involves the description of the ISPI processes, how the actors searched for ISPIs, and how the relationships between the actors changed over time. The existing theories were evaluated using the conceptual models of the ISPI processes based on the innovationliterature in the IS area. The main focus of the study was to observe changes in the main ISPI processes over time. The main contribution of the thesis is a new theory. The term theory should be understood as 1) a new conceptual framework of the ISPI processes, 2) new ISPI concepts and categories, and the relationships between the ISPI concepts inside the ISPI processes. The study gives a comprehensive and systematic study on the history and evolution of the ISPI processes; reveals the factors that affected ISPI adoption; studies ISPI knowledge acquisition, information transfer, and adaptation mechanisms; and reveals the mechanismsaffecting ISPI unlearning; changes in the ISPI processes; and diverse actors involved in the processes. The results show that both the internal IS department and the two IS software houses sought opportunities to improve their technical skills and career paths and this created an innovative culture. When new technology generations come to the market the platform systems need to be renewed, and therefore the organisations invest in ISPIs in cycles. The extent of internal learning and experiments was higher than the external knowledge acquisition. Until the outsourcing event (1984) the decision-making was centralised and the internalIS department was very influential over ISPIs. After outsourcing, decision-making became distributed between the two IS software houses, the IS client, and itsinternal IT department. The IS client wanted to assure that information systemswould serve the business of the company and thus wanted to co-operate closely with the software organisations.