999 resultados para Amélioration de la performance
Resumo:
Les tâches nécessitant des manipulations et des transformations de figures géométriques et de formes, comme les tâches de rotation mentale, donnent lieu à des différences de performance entre hommes et femmes qui restent intrigantes. Plusieurs hypothèses ont été proposées pour expliquer ces différences. La plus récurrente porte sur les différences de stratégie globale vs locale utilisées pour traiter l'information. Bien que cette conjecture soit intéressante, elle reste difficile à opérationnaliser car elle englobe tous les mécanismes cognitifs (acquisition, conservation et récupération de l'information). Ce travail prend la forme d'un retour aux sources dans la mesure où il se base sur des recherches anciennes qui ont montré que les hommes perçoivent significativement mieux que les femmes la verticale et l'horizontale. Il teste l'hypothèse selon laquelle les hommes, comparativement aux femmes, présentent une plus forte indépendance au champ perceptif visuel et sont donc plus susceptibles d'utiliser la verticalité et l'horizontalité pour résoudre une tâche de rotation mentale. Une première série d'expériences s'est penchée sur la perception spatiale pour évaluer son impact sur la résolution d'une tâche impliquant la rotation mentale. Les résultats ont montré que seuls les hommes se référaient à la verticalité et à l'horizontalité pour résoudre la tâche. Une seconde série d'expériences ont investigué l'effet de la présence, ou absence, d'axes directionnels directement liés à une tâche de rotation mentale. Elles ont été menées également en environnement réel afin d'évaluer comment le déplacement actif ou passif, correspondant à un changement de perspective en lieu et place d'une rotation mentale, module la performance des hommes et des femmes. Les résultats n'ont pas mis en évidence de différence sexuelle. Notre hypothèse est vérifiée puisque c'est uniquement lorsque la tâche ne présente pas d'axes orthogonaux évidents mais implicites que seuls les hommes, plus indépendants au champ perceptif visuel que les femmes, utilisent la perception de la verticalité et de l'horizontalité pour améliorer leur compétence en rotation mentale. -- Tasks that require manipulation and transformation of geometric shapes and forms, like tasks of mental rotation and give rise to differences in performance between men and women, remain intriguing. Several hypotheses have been proposed to explain these differences. The most recurring hypothesis addresses differences in global versus local strategies for processing information. While this conjecture is interesting, it remains difficult to study because it encompasses all the cognitive mechanisms (acquisition, retention and output). This work returns to the sources, which are based on earlier research that shows that men are significantly better than women at perceiving verticality and horizontality. It tests the hypothesis according to which men, as compared to women, exhibit a greater independence on the perceptive visual field, and therefore are more susceptible to utilizing the verticality and the horizontality to solve a mental rotation task. A first set of experiments examined spatial perception in order to assess its impact on the resolution of a task involving mental rotation. The results showed that only men referred to the verticality and the horizontality to solve the task. A second series of experiments investigated the effect of a presence, or absence of directional axes directed tied to the task of mental rotation. They were also conducted in a real world environment to evaluate how the active or passive displacement, corresponding to a change in perspective instead of a mental rotation, modulates the performance of men and women. The results did not show sex differences. Our hypothesis is verified: it is only when the task presents no obvious, but implicit orthogonal axes that men, who exhibit a greater independence on the perceptive visual field than women, use the perception of verticality and horizontality to improve their competence in mental rotation.
Resumo:
Characterizing the geological features and structures in three dimensions over inaccessible rock cliffs is needed to assess natural hazards such as rockfalls and rockslides and also to perform investigations aimed at mapping geological contacts and building stratigraphy and fold models. Indeed, the detailed 3D data, such as LiDAR point clouds, allow to study accurately the hazard processes and the structure of geologic features, in particular in vertical and overhanging rock slopes. Thus, 3D geological models have a great potential of being applied to a wide range of geological investigations both in research and applied geology projects, such as mines, tunnels and reservoirs. Recent development of ground-based remote sensing techniques (LiDAR, photogrammetry and multispectral / hyperspectral images) are revolutionizing the acquisition of morphological and geological information. As a consequence, there is a great potential for improving the modeling of geological bodies as well as failure mechanisms and stability conditions by integrating detailed remote data. During the past ten years several large rockfall events occurred along important transportation corridors where millions of people travel every year (Switzerland: Gotthard motorway and railway; Canada: Sea to sky highway between Vancouver and Whistler). These events show that there is still a lack of knowledge concerning the detection of potential rockfalls, making mountain residential settlements and roads highly risky. It is necessary to understand the main factors that destabilize rocky outcrops even if inventories are lacking and if no clear morphological evidences of rockfall activity are observed. In order to increase the possibilities of forecasting potential future landslides, it is crucial to understand the evolution of rock slope stability. Defining the areas theoretically most prone to rockfalls can be particularly useful to simulate trajectory profiles and to generate hazard maps, which are the basis for land use planning in mountainous regions. The most important questions to address in order to assess rockfall hazard are: Where are the most probable sources for future rockfalls located? What are the frequencies of occurrence of these rockfalls? I characterized the fracturing patterns in the field and with LiDAR point clouds. Afterwards, I developed a model to compute the failure mechanisms on terrestrial point clouds in order to assess the susceptibility to rockfalls at the cliff scale. Similar procedures were already available to evaluate the susceptibility to rockfalls based on aerial digital elevation models. This new model gives the possibility to detect the most susceptible rockfall sources with unprecented detail in the vertical and overhanging areas. The results of the computation of the most probable rockfall source areas in granitic cliffs of Yosemite Valley and Mont-Blanc massif were then compared to the inventoried rockfall events to validate the calculation methods. Yosemite Valley was chosen as a test area because it has a particularly strong rockfall activity (about one rockfall every week) which leads to a high rockfall hazard. The west face of the Dru was also chosen for the relevant rockfall activity and especially because it was affected by some of the largest rockfalls that occurred in the Alps during the last 10 years. Moreover, both areas were suitable because of their huge vertical and overhanging cliffs that are difficult to study with classical methods. Limit equilibrium models have been applied to several case studies to evaluate the effects of different parameters on the stability of rockslope areas. The impact of the degradation of rockbridges on the stability of large compartments in the west face of the Dru was assessed using finite element modeling. In particular I conducted a back-analysis of the large rockfall event of 2005 (265'000 m3) by integrating field observations of joint conditions, characteristics of fracturing pattern and results of geomechanical tests on the intact rock. These analyses improved our understanding of the factors that influence the stability of rock compartments and were used to define the most probable future rockfall volumes at the Dru. Terrestrial laser scanning point clouds were also successfully employed to perform geological mapping in 3D, using the intensity of the backscattered signal. Another technique to obtain vertical geological maps is combining triangulated TLS mesh with 2D geological maps. At El Capitan (Yosemite Valley) we built a georeferenced vertical map of the main plutonio rocks that was used to investigate the reasons for preferential rockwall retreat rate. Additional efforts to characterize the erosion rate were made at Monte Generoso (Ticino, southern Switzerland) where I attempted to improve the estimation of long term erosion by taking into account also the volumes of the unstable rock compartments. Eventually, the following points summarize the main out puts of my research: The new model to compute the failure mechanisms and the rockfall susceptibility with 3D point clouds allows to define accurately the most probable rockfall source areas at the cliff scale. The analysis of the rockbridges at the Dru shows the potential of integrating detailed measurements of the fractures in geomechanical models of rockmass stability. The correction of the LiDAR intensity signal gives the possibility to classify a point cloud according to the rock type and then use this information to model complex geologic structures. The integration of these results, on rockmass fracturing and composition, with existing methods can improve rockfall hazard assessments and enhance the interpretation of the evolution of steep rockslopes. -- La caractérisation de la géologie en 3D pour des parois rocheuses inaccessibles est une étape nécessaire pour évaluer les dangers naturels tels que chutes de blocs et glissements rocheux, mais aussi pour réaliser des modèles stratigraphiques ou de structures plissées. Les modèles géologiques 3D ont un grand potentiel pour être appliqués dans une vaste gamme de travaux géologiques dans le domaine de la recherche, mais aussi dans des projets appliqués comme les mines, les tunnels ou les réservoirs. Les développements récents des outils de télédétection terrestre (LiDAR, photogrammétrie et imagerie multispectrale / hyperspectrale) sont en train de révolutionner l'acquisition d'informations géomorphologiques et géologiques. Par conséquence, il y a un grand potentiel d'amélioration pour la modélisation d'objets géologiques, ainsi que des mécanismes de rupture et des conditions de stabilité, en intégrant des données détaillées acquises à distance. Pour augmenter les possibilités de prévoir les éboulements futurs, il est fondamental de comprendre l'évolution actuelle de la stabilité des parois rocheuses. Définir les zones qui sont théoriquement plus propices aux chutes de blocs peut être très utile pour simuler les trajectoires de propagation des blocs et pour réaliser des cartes de danger, qui constituent la base de l'aménagement du territoire dans les régions de montagne. Les questions plus importantes à résoudre pour estimer le danger de chutes de blocs sont : Où se situent les sources plus probables pour les chutes de blocs et éboulement futurs ? Avec quelle fréquence vont se produire ces événements ? Donc, j'ai caractérisé les réseaux de fractures sur le terrain et avec des nuages de points LiDAR. Ensuite, j'ai développé un modèle pour calculer les mécanismes de rupture directement sur les nuages de points pour pouvoir évaluer la susceptibilité au déclenchement de chutes de blocs à l'échelle de la paroi. Les zones sources de chutes de blocs les plus probables dans les parois granitiques de la vallée de Yosemite et du massif du Mont-Blanc ont été calculées et ensuite comparés aux inventaires des événements pour vérifier les méthodes. Des modèles d'équilibre limite ont été appliqués à plusieurs cas d'études pour évaluer les effets de différents paramètres sur la stabilité des parois. L'impact de la dégradation des ponts rocheux sur la stabilité de grands compartiments de roche dans la paroi ouest du Petit Dru a été évalué en utilisant la modélisation par éléments finis. En particulier j'ai analysé le grand éboulement de 2005 (265'000 m3), qui a emporté l'entier du pilier sud-ouest. Dans le modèle j'ai intégré des observations des conditions des joints, les caractéristiques du réseau de fractures et les résultats de tests géoméchaniques sur la roche intacte. Ces analyses ont amélioré l'estimation des paramètres qui influencent la stabilité des compartiments rocheux et ont servi pour définir des volumes probables pour des éboulements futurs. Les nuages de points obtenus avec le scanner laser terrestre ont été utilisés avec succès aussi pour produire des cartes géologiques en 3D, en utilisant l'intensité du signal réfléchi. Une autre technique pour obtenir des cartes géologiques des zones verticales consiste à combiner un maillage LiDAR avec une carte géologique en 2D. A El Capitan (Yosemite Valley) nous avons pu géoréferencer une carte verticale des principales roches plutoniques que j'ai utilisé ensuite pour étudier les raisons d'une érosion préférentielle de certaines zones de la paroi. D'autres efforts pour quantifier le taux d'érosion ont été effectués au Monte Generoso (Ticino, Suisse) où j'ai essayé d'améliorer l'estimation de l'érosion au long terme en prenant en compte les volumes des compartiments rocheux instables. L'intégration de ces résultats, sur la fracturation et la composition de l'amas rocheux, avec les méthodes existantes permet d'améliorer la prise en compte de l'aléa chute de pierres et éboulements et augmente les possibilités d'interprétation de l'évolution des parois rocheuses.
Resumo:
The research described in this thesis examines the characteristics, the benefits and the challenges associated with the implementation of management accounting systems in the field of Corporate Social Responsibility (CSR). Applied to the CSR context, management accounting relates to the identification, elaboration and communication of information about an organization's interactions with the society and the environment. Based on this information, firms are able to make decisions to achieve social and environmental objectives and provide evidence justifying the benefits and the costs of such actions. The study begins by focusing on green management and exploring the characteristics of Environmental Management Accounting (EMA) systems within firms. The first chapter informs the reader about the growing body of EMA research and reveals unexplored relevant aspects that need to be further investigated. The work also emphasizes the importance of developing new theoretical hypotheses and appropriate research designs to empirically tackle new aspects of EMA and gain understanding on the use of these practices. Subsequently, given the acknowledged importance of control systems in influencing the behaviour of individuals within organizations, the remaining two chapters of the dissertation focus on the functioning of CSR-linked incentives assigned to employees in the form of compensation plans. The second chapter examines the determinants influencing corporate provision of incentives for the attainment of environmental targets. Empirical analysis of a sample of international firms reveals that companies are likely to use green incentives as mechanisms to increase the efficacy in contracting with their employees as well as to respond to social influences. Finally, the third chapter investigates the effectiveness of contracting associated with the use of CSR-linked executive compensation. Empirical analysis of a sample of US-based companies shows that corporate choice to tie senior executives' pay to CSR targets promotes the firm's CSR performance. Cette thèse examine les caractéristiques, avantages et défis associés à l'utilisation des systèmes de contrôle de gestion dans le domaine de la Responsabilité Sociale des Entreprises (RSE). Dans le contexte de la RSE, les activités du contrôle de gestion impliquent l'identification, l'élaboration et la communication d'informations qui concernent les interactions des organisations avec la société et l'environnement. Avec ces informations les entreprises sont en mesure de prendre des décisions visant à atteindre les objectifs sociaux et environnementaux de l'organisation et de documenter les bénéfices et coûts de ces actions. Dès le début, la thèse se concentre sur les caractéristiques des systèmes de contrôle de gestion environnementale au sein des entreprises. Le premier chapitre passe en revue la littérature existante et révèle des aspects inexplorés. Pour ce faire, le travail suggère le développement de nouvelles théories ainsi que l'utilisation de méthodes appropriées. Ces dernières doivent permettre d'aborder empiriquement de nouveaux aspects des systèmes de contrôle environnemental et faciliter la compréhension sur l'utilisation de ces pratiques. Considérant l'importance des systèmes de contrôle pour influencer le comportement des individus au sein des organisations, la suite du travail se concentre sur le fonctionnement des contrats de rémunération des employées liées aux résultats de la RSE. Plus particulièrement, le deuxième chapitre examine les facteurs qui influencent la décision des entreprises d'assigner des objectifs environnementaux aux employées. L'analyse empirique d'un échantillon d'entreprises internationales montre que les entreprises sont susceptibles d'utiliser des mécanismes incitatifs écologiques pour augmenter l'efficacité des contrats ainsi que pour répondre aux influences sociales. Finalement, le troisième chapitre analyse l'efficacité des contrats de rémunération des dirigeants liés aux résultats de la RSE. L'analyse empirique d'un échantillon de sociétés américaines indique que le choix de l'entreprise de lier la rémunération des dirigeants à des objectifs de la RSE favorise la performance RSE de l'organisation.
Resumo:
La médiatisation des affaires de dopage a rendu accessibles au public les coulisses de la production de la performance des cyclistes. Confrontées à des contraintes de visibilité de leurs pratiques, les équipes doivent désormais produire des performances crédibles tout en affirmant une identité professionnelle acceptable. Les équipes du cyclisme professionnel sont inégalement armées pour faire face à cette nouvelle donne. Celles qui disposent de ressources technoscientifiques importantes, sont adossées à des sponsors aux visées mondiales, et sont moins liées à leurs ancrages territoriaux, s'y adaptent plus facilement. Certaines de ces équipes mondialisées font évoluer les normes de production de la performance ; elles contribuent ainsi à réduire l'autonomie du travail des autres équipes et modifient ce que signifie être une équipe professionnelle.
Resumo:
L'économie de mouvement en course à pied est un paramètre essentiel pour la performance et de nouvelles méthodes d'entrainement essaient aujourd'hui de le cibler. La mesure de cette économie de course se fait habituellement en laboratoire par la consommation d'oxygène nécessaire au déplacement à une vitesse donnée sous-maximale. La question de cette étude est de voir dans quelle mesure l'oeil averti d'un entraineur en course à pied peut estimer l'économie de course, en comparaison à une mesure objective de la consommation d'oxygène. Au total, 22 coureurs de niveaux différents et 9 entraineurs ont pris part à cette étude. Elle s'est dans un premier temps déroulée avec les coureurs sur le site du Stade de Coubertin à Vidy (VD). Cette étape a permis les enregistrements vidéo et la mesure de leur économie de course respective ainsi que l'établissement des notes d'économies de référence. Dans un second temps, les évaluations par les entraineurs ont été faites en ligne sur la base des vidéos. Les résultats ont été traités de telle manière à obtenir des coefficients (corrélation intraclasse et kappa de Cohen) estimant la concordance des évaluations de chaque entraineur avec les notes de référence. La concordance au sein du groupe d'entraineurs a aussi été évaluée. L'étude présente en conclusion des résultats étonnants, remettant en question la capacité des entraineurs à évaluer l'économie de course de coureurs issus d'un groupe de performances hétérogènes par rapport à des mesures objectives. En revanche, l'étude présente des résultats indiquant une bonne concordance des entraineurs entre eux.
Resumo:
Les 21, 22 et 23 septembre 2006, le Département d’Études Françaises de l’Université de Turku (Finlande) a organisé une conférence internationale et bilingue (anglais et français) sur le thème de la mobilité académique ; le but de cette rencontre était de rendre possible la tenue d’un forum international et multidisciplinaire, susceptible d’être le siège de divers débats entre les différents acteurs de la mobilité académique (c’estàdire des étudiants, des chercheurs, des personnels enseignants et administratifs, etc.). Ainsi, ont été mis à contribution plus de cinquante intervenants, (tous issus de domaines aussi variés que la linguistique, les sciences de l’éducation, la didactique, l’anthropologie, la sociologie, la psychologie, l’histoire, la géographie, etc.) ainsi que cinq intervenants renommés1. La plupart des thèmes traités durant la conférence couvraient les champs suivants : l’organisation de la mobilité, les obstacles rencontrés par les candidats à la mobilité, l’intégration des étudiants en situation d’échange, le développement des programmes d’études, la mobilité virtuelle, l’apprentissage et l’enseignement des langues, la prise de cosncience interculturelle, le développement des compétences, la perception du système de mobilité académique et ses impacts sur la mobilité effective. L’intérêt du travail réalisé durant la conférence réside notamment dans le fait qu’il ne concentre pas uniquement des perspectives d’étudiants internationaux et en situation d’échange (comme c’est le cas de la plupart des travaux de recherche déjà menés sur ce sujet), mais aussi ceux d’autres corps : enseignants, chercheurs, etc. La contribution suivante contient un premier corpus de dixsept articles, répartis en trois sections : 1. Impacts de la mobilité étudiante ; 2. Formation en langues ; 3. Amélioration de la mobilité académique. À l’image de la conférence, la production qui suit est bilingue : huit des articles sont rédigés en français, et les neuf autres en anglais. Certains auteurs n’ont pas pu assister à la conférence mais ont tout de même souhaité apparaître dans cet ouvrage. Dans la première section de l’ouvrage, Sandrine Billaud tâche de mettre à jour les principaux obstacles à la mobilité étudiante en France (logement, organisation des universités, démarches administratives), et propose à ce sujet quelques pistes d’amélioration. Vient ensuite un article de Dominique Ulma, laquelle se penche sur la mobilité académique régnant au sein des Instituts Universitaires de Formation des Maîtres (IUFM) ; elle s’est tout particulièrement concentrée sur l’enthousiasme des stagiaires visàvis de la mobilité, et sur les bénéfices qu’apporte la mobilité Erasmus à ce type précis d’étudiant. Ensuite, dans un troisième article, Magali Hardoin s’interroge sur les potentialités éducationnelles de la mobilité des enseignantsstagiaires, et tâche de définir l’impact de celleci sur la construction de leur profil professionnel. Après cela arrive un groupe de trois articles, tous réalisés à bases d’observations faites dans l’enseignement supérieur espagnol, et qui traitent respectivement de la portée qu’a le programme de triple formation en langues européennes appliquées pour les étudiants en mobilité (Marián MorónMartín), des conséquences qu’occasionne la présence d’étudiants étrangers dans les classes de traductions (Dimitra Tsokaktsidu), et des réalités de l’intégration sur un campus espagnol d’étudiants américains en situation d’échange (Guadalupe Soriano Barabino). Le dernier article de la section, issu d’une étude sur la situation dans les institutions japonaises, fait état de la situation des programmes de doubles diplômes existant entre des établissements japonais et étrangers, et tente de voir quel est l’impact exact de tels programmes pour les institutions japonaises (Mihoko Teshigawara, Riichi Murakami and Yoneo Yano). La seconde section est elle consacrée à la relation entre apprentissage et enseignement des langues et mobilité académique. Dans un premier article, Martine Eisenbeis s’intéresse à des modules multimédia réalisés à base du film « L’auberge espagnole », de Cédric Klapish (2001), et destinés aux étudiants en mobilité désireux d’apprendre et/ou améliorer leur français par des méthodes moins classiques. Viennent ensuite les articles de Jeanine Gerbault et Sabine Ylönen, lesquels traitent d’un projet européen visant à supporter la mobilité étudiante par la création d’un programme multimédia de formation linguistique et culturelle pour les étudiants en situation de mobilité (le nom du projet est EUROMOBIL). Ensuite, un article de Pascal Schaller s’intéresse aux différents types d’activités que les étudiants en séjour à l’étranger expérimentent dans le cadre de leur formation en langue. Enfin, la section s’achève avec une contribution de Patricia KohlerBally, consacrée à un programme bilingue coordonné par l’Université de Fribourg (Suisse). La troisième et dernière section propose quelques pistes de réflexion destinées à améliorer la mobilité académique des étudiants et des enseignants ; dans ce cadre seront donc évoquées les questions de l’égalité face à la mobilité étudiante, de la préparation nécessitée par celleci, et de la prise de conscience interculturelle. Dans un premier chapitre, Javier Mato et Bego
Resumo:
In this paper, we develop finite-sample inference procedures for stationary and nonstationary autoregressive (AR) models. The method is based on special properties of Markov processes and a split-sample technique. The results on Markovian processes (intercalary independence and truncation) only require the existence of conditional densities. They are proved for possibly nonstationary and/or non-Gaussian multivariate Markov processes. In the context of a linear regression model with AR(1) errors, we show how these results can be used to simplify the distributional properties of the model by conditioning a subset of the data on the remaining observations. This transformation leads to a new model which has the form of a two-sided autoregression to which standard classical linear regression inference techniques can be applied. We show how to derive tests and confidence sets for the mean and/or autoregressive parameters of the model. We also develop a test on the order of an autoregression. We show that a combination of subsample-based inferences can improve the performance of the procedure. An application to U.S. domestic investment data illustrates the method.
Resumo:
A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.
Resumo:
This paper assesses the empirical performance of an intertemporal option pricing model with latent variables which generalizes the Hull-White stochastic volatility formula. Using this generalized formula in an ad-hoc fashion to extract two implicit parameters and forecast next day S&P 500 option prices, we obtain similar pricing errors than with implied volatility alone as in the Hull-White case. When we specialize this model to an equilibrium recursive utility model, we show through simulations that option prices are more informative than stock prices about the structural parameters of the model. We also show that a simple method of moments with a panel of option prices provides good estimates of the parameters of the model. This lays the ground for an empirical assessment of this equilibrium model with S&P 500 option prices in terms of pricing errors.
Resumo:
Conditional heteroskedasticity is an important feature of many macroeconomic and financial time series. Standard residual-based bootstrap procedures for dynamic regression models treat the regression error as i.i.d. These procedures are invalid in the presence of conditional heteroskedasticity. We establish the asymptotic validity of three easy-to-implement alternative bootstrap proposals for stationary autoregressive processes with m.d.s. errors subject to possible conditional heteroskedasticity of unknown form. These proposals are the fixed-design wild bootstrap, the recursive-design wild bootstrap and the pairwise bootstrap. In a simulation study all three procedures tend to be more accurate in small samples than the conventional large-sample approximation based on robust standard errors. In contrast, standard residual-based bootstrap methods for models with i.i.d. errors may be very inaccurate if the i.i.d. assumption is violated. We conclude that in many empirical applications the proposed robust bootstrap procedures should routinely replace conventional bootstrap procedures for autoregressions based on the i.i.d. error assumption.
Resumo:
[français] L’objectif de cette recherche est d’analyser l’organisation interne d’une firme de sondage sous l’angle des sphères du milieu de travail telles qu’identifiées par Bélanger, Giles et Murray (2004), soient : la gestion de la production, l’organisation du travail et la relation à l’emploi. Plus spécifiquement, nous chercherons à savoir comment se comporte la firme enquêtée face à la gestion de la flexibilité organisationnelle et quel est l’impact de celle-ci sur les trois sphères du travail. L’analyse utilise la méthodologie de l’étude de cas et fait appel à divers types de matériaux : des observations ponctuelles, des entrevues informelles et les bases de données administratives ainsi que les rapports d’évaluation des entrevues téléphoniques effectuées par les intervieweurs. De même, l’analyse des résultats utilise à la fois des méthodes plus classiques telles que les corrélations ainsi que des représentations graphiques et des analyses qualitatives. L’analyse permet de repérer une logique de fonctionnement à l’œuvre dans les différentes sphères de l’emploi : l’importante standardisation des processus de travail (dans le champ de la gestion de la production), la réduction des marges de manœuvre (dans le champ de l’organisation du travail) et la non reconnaissance de l’expertise des intervieweurs (dans le champ de la relation à l’emploi). Les contradictions repérées dans l’analyse, entre les sphères de l’emploi et les objectifs de flexibilité, montrent que les structures mises en place bloquent, dans une certaine mesure, la capacité d’initiative et d’adaptation que la flexibilité exige. La recherche a montré que ce qu’on demande aux intervieweurs est à la fois le reflet des exigences de la flexibilité, tel que constaté dans ce mémoire, mais aussi, des exigences sociales face à la méthodologie de sondage. Tout porte à déduire que celles-ci peuvent engendrer un plafonnement de la performance des employés. Mots-clés : centres d’appels, intervieweurs, firmes de sondage, flexibilité organisationnelle, gestion de la production, organisation du travail, relation à l’emploi, travail émotionnel.
Resumo:
L’injection de cellules souches provenant de la moelle osseuse est reconnue pour améliorer la fonction ventriculaire ainsi que le remodelage cicatriciel après un infarctus du myocarde (IM). Le Stromal Cell-derived factor-1 alpha (SDF-1 alpha), une chimiokine induite par l’ischémie cardiaque, représente une grande importance en raison de son rôle dans le recrutement de cellules inflammatoires et de cellules souches de la moelle osseuse vers les sites endommagés. Quoique les recherches sur le rôle de la chimiokine SDF-1 alpha dans le remodelage ventriculaire se multiplient, son implication dans la phase aiguë du remodelage reste inexplorée. Le but de la présente étude est de déterminer l’effet du SDF-1 alpha sur la taille de la cicatrice, l’hypertrophie cardiaque ainsi que la fonction ventriculaire chez des rats et des souris une semaine après un IM. La stratégie utilisée implique l’administration de l’AMD3100 (1 mg/kg, 24 heures après l’IM, pendant 6 jours), l’antagoniste sélectif du récepteur du SDF-1 alpha, le CXCR4. Ce récepteur est couplé à une protéine G alpha i et induit la migration et la prolifération cellulaire. Chez les rats du groupe IM, l’expression de la chimiokine a été détectée surtout dans les cellules musculaires lisses et les cellules endothéliales des vaisseaux cicatriciels. Le profil d’expression de la chimiokine dans le cœur infarci indique un gradient de concentration vers la cicatrice. Une semaine après l’IM, le traitement avec l’AMD3100 a diminué la taille de la cicatrice, résultant en une amélioration de la fonction ventriculaire et une diminution de l’élévation de l’expression de l’ARNm de l’ANP dans le ventricule gauche non infarci (VGNI). Chez les souris, le traitement avec l’AMD3100 a engendré les mêmes effets, soit une diminution de la taille de la cicatrice ainsi qu’une amélioration de la fonction ventriculaire. La réduction de la taille de la région infarcie chez les souris traitées avec l’AMD3100 est associée avec une atténuation de l’infiltration des neutrophiles dans la région ischémique. Ces résultats suggèrent que le blocage pharmacologique de l’axe SDF-1 alpha/CXCR4 lors de la phase aiguë du remodelage ventriculaire après un IM diminue la taille de la cicatrice et améliore la fonction ventriculaire, en partie, par la diminution de la réaction inflammatoire.
Resumo:
Le cancer du poumon a une incidence et une létalité parmi les plus hautes de tous les cancers diagnostiqués au Canada. En considérant la gravité du pronostic et des symptômes de la maladie, l’accès au traitement dans les plus brefs de délais est essentiel. Malgré l’engagement du gouvernement fédéral et les gouvernements provinciaux de réduire les délais de temps d’attente, des balises pour les temps d’attente pour le traitement d’un cancer ne sont toujours pas établis. En outre, le compte-rendu des indicateurs des temps d’attente n’est pas uniforme à travers les provinces. Une des solutions proposées pour la réduction des temps d’attente pour le traitement du cancer est les équipes interdisciplinaires. J’ai complété un audit du programme interdisciplinaire traitant le cancer du poumon à l’Hôpital général juif (l’HGJ) de 2004 à 2007. Les objectifs primaires de l’étude étaient : (1) de faire un audit de la performance de l’équipe interdisciplinaire à l’HGJ en ce qui concerne les temps d’attente pour les intervalles critiques et les sous-groupes de patients ; (2) de comparer les temps d’attente dans la trajectoire clinique des patients traités à l’HGJ avec les balises qui existent ; (3) de déterminer les facteurs associés aux délais plus longs dans cette population. Un objectif secondaire de l’étude était de suggérer des mesures visant à réduire les temps d’attente. Le service clinique à l’HGJ a été évalué selon les balises proposées par le British Thoracic Society, Cancer Care Ontario, et la balise pan-canadienne pour la radiothérapie. Les patients de l’HGJ ont subi un délai médian de 9 jours pour l’intervalle «Ready to treat to first treatment», et un délai médian de 30 jours pour l’intervalle entre le premier contact avec l’hôpital et le premier traitement. Les patients âgés de plus de 65 ans, les patients avec une capacité physique diminuée, et les patients avec un stade de tumeur limité étaient plus à risque d’échouer les balises pour les temps d’attente.
Resumo:
L'imagerie intravasculaire ultrasonore (IVUS) est une technologie médicale par cathéter qui produit des images de coupe des vaisseaux sanguins. Elle permet de quantifier et d'étudier la morphologie de plaques d'athérosclérose en plus de visualiser la structure des vaisseaux sanguins (lumière, intima, plaque, média et adventice) en trois dimensions. Depuis quelques années, cette méthode d'imagerie est devenue un outil de choix en recherche aussi bien qu'en clinique pour l'étude de la maladie athérosclérotique. L'imagerie IVUS est par contre affectée par des artéfacts associés aux caractéristiques des capteurs ultrasonores, par la présence de cônes d'ombre causés par les calcifications ou des artères collatérales, par des plaques dont le rendu est hétérogène ou par le chatoiement ultrasonore (speckle) sanguin. L'analyse automatisée de séquences IVUS de grande taille représente donc un défi important. Une méthode de segmentation en trois dimensions (3D) basée sur l'algorithme du fast-marching à interfaces multiples est présentée. La segmentation utilise des attributs des régions et contours des images IVUS. En effet, une nouvelle fonction de vitesse de propagation des interfaces combinant les fonctions de densité de probabilité des tons de gris des composants de la paroi vasculaire et le gradient des intensités est proposée. La segmentation est grandement automatisée puisque la lumière du vaisseau est détectée de façon entièrement automatique. Dans une procédure d'initialisation originale, un minimum d'interactions est nécessaire lorsque les contours initiaux de la paroi externe du vaisseau calculés automatiquement sont proposés à l'utilisateur pour acceptation ou correction sur un nombre limité d'images de coupe longitudinale. La segmentation a été validée à l'aide de séquences IVUS in vivo provenant d'artères fémorales provenant de différents sous-groupes d'acquisitions, c'est-à-dire pré-angioplastie par ballon, post-intervention et à un examen de contrôle 1 an suivant l'intervention. Les résultats ont été comparés avec des contours étalons tracés manuellement par différents experts en analyse d'images IVUS. Les contours de la lumière et de la paroi externe du vaisseau détectés selon la méthode du fast-marching sont en accord avec les tracés manuels des experts puisque les mesures d'aire sont similaires et les différences point-à-point entre les contours sont faibles. De plus, la segmentation par fast-marching 3D s'est effectuée en un temps grandement réduit comparativement à l'analyse manuelle. Il s'agit de la première étude rapportée dans la littérature qui évalue la performance de la segmentation sur différents types d'acquisition IVUS. En conclusion, la segmentation par fast-marching combinant les informations des distributions de tons de gris et du gradient des intensités des images est précise et efficace pour l'analyse de séquences IVUS de grandes tailles. Un outil de segmentation robuste pourrait devenir largement répandu pour la tâche ardue et fastidieuse qu'est l'analyse de ce type d'images.
Resumo:
En salle d’opération, les tâches de l’anesthésiste sont nombreuses. Alors que l’utilisation de nouveaux outils technologiques l’informe plus fidèlement sur ce qui se passe pour son patient, ces outils font que ses tâches deviennent plus exigeantes. En vue de diminuer cette charge de travail, nous avons considérer l’administration automatique d’agents anesthésiques en se servant de contrôle en boucle fermée. À cette fin, nous avons développé un système d’administration d’un agent anesthésique (le propofol) visant à maintenir à un niveau optimal la perte de conscience du patient pendant toute la durée d’une chirurgie. Le système comprend un ordinateur, un moniteur d’anesthésie et une pompe de perfusion. L’ordinateur est doté d’un algorithme de contrôle qui, à partir d’un indice (Bispectral IndexTM ou BIS) fournit par le moniteur d’anesthésie détermine le taux d’infusion de l’agent anesthésiant. Au départ, l’anesthésiste choisit une valeur cible pour la variable de contrôle BIS et l’algorithme, basé sur système expert, calcule les doses de perfusion de propofol de sorte que la valeur mesurée de BIS se rapproche le plus possible de la valeur cible établie. Comme interface-utilisateur pour un nouveau moniteur d’anesthésie, quatre sortes d’affichage ont été considérés: purement numérique, purement graphique, un mélange entre graphique et numérique et un affichage graphique intégré (soit bidimensionnel). À partir de 20 scenarios différents où des paramètres normaux et anormaux en anesthésie étaient présentés à des anesthésistes et des résidents, l’étude des temps de réaction, de l’exactitude des réponses et de la convivialité (évaluée par le NASA-TLX) a montré qu’un affichage qui combine des éléments graphiques et numériques était le meilleur choix comme interface du système. Une étude clinique a été réalisée pour comparer le comportement du système d’administration de propofol en boucle fermée comparativement à une anesthésie contrôlée de façon manuelle et conventionnelle où le BIS était aussi utilisé. Suite à l’approbation du comité d’éthique et le consentement de personnes ayant à subir des chirurgies générales et orthopédiques, 40 patients ont été distribués également et aléatoirement soit dans le Groupe contrôle, soit dans le Groupe boucle fermée. Après l’induction manuelle de propofol (1.5 mg/kg), le contrôle en boucle fermée a été déclenché pour maintenir l’anesthésie à une cible de BIS fixée à 45. Dans l’autre groupe, le propofol a été administré à l’aide d’une pompe de perfusion et l’anesthésiste avait aussi à garder manuellement l’indice BIS le plus proche possible de 45. En fonction du BIS mesuré, la performance du contrôle exercé a été définie comme excellente pendant les moments où la valeur du BIS mesurée se situait à ±10% de la valeur cible, bonne si comprise de ±10% à ±20%, faible si comprise de ±20% à ±30% ou inadéquate lorsque >±30%. Dans le Groupe boucle fermée, le système a montré un contrôle excellent durant 55% du temps total de l’intervention, un bon contrôle durant 29% du temps et faible que pendant 9% du temps. Le temps depuis l’arrêt de la perfusion jusqu’à l’extubation est de 9 ± 3.7 min. Dans le Groupe contrôle, un contrôle excellent, bon, et faible a été enregistré durant 33%, 33% et 15% du temps respectivement et les doses ont été changées manuellement par l’anesthésiste en moyenne 9.5±4 fois par h. L’extubation a été accomplie après 11.9 ± 3.3 min de l’arrêt de la perfusion. Dans le Groupe boucle fermée, un contrôle excellent a été obtenu plus longtemps au cours des interventions (P<0.0001) et un contrôle inadéquat moins longtemps (P=0.001) que dans le Groupe contrôle. Le système en boucle fermée d’administration de propofol permet donc de maintenir plus facilement l’anesthésie au voisinage d’une cible choisie que l’administration manuelle.