909 resultados para measurement and metrology


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Six sigma is a quality improvement philosophy with systematic and formal approach. In order to successfully implement and utilize six sigma the basic disciplines of it should be adopted by the entire organization. Furthermore, employee involvement is crucial in six sigma implementation. This thesis addresses the challenges of long-lasting involvement in the case company. It focuses on gaps of involving six sigma trained employees, Black Belts. Theoretical framework of the thesis illustrates different factors influencing employee involvement. Influencing factors can be divided into ten categories: organizational culture, managerial commitment, leadership style, employee empowerment, employees’ perceptions, communication, training, goals, performance measurement and incentives. Factors and categories overlap and are related to each other. The framework provides holistic view of employee involvement in six sigma context but can be used also with other quality management philosophies. This thesis was conducted as a case study and written on an assignment to a power and automation technology company. Due to the nature of research problem, the data collection was conducted by interviewing case company personnel. In order to study involvement from employees’ point of view interview questions were designed to be open-ended and to allow the interviewees to tell freely about the phenomenon. This thesis provides empirical support on previous studies in organizational support, management commitment and employee empowerment. In addition, it indicates the importance of separate function for Black Belts in the organization. The gaps in Black Belt involvement can be categorized under two categories: Management driven gaps are related to management commitment, organizational structure and culture and information systems. Black Belt driven gaps are related to practice and effort of using six sigma. This thesis finds solutions for bridging these gaps in the case company by applying findings from literature research and suggestions given by the interviewees. For each gap, actions are suggested for bridging the discrepancy between current and desired situations. The thesis states that in order to embed six sigma in the organization the most crucial gaps, lack of management commitment, six sigma vision and possibilities to use six sigma, should be diminished.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Kandidaatintyö tehtiin osana PulpVision-tutkimusprojektia, jonka tarkoituksena on kehittää kuvapohjaisia laskenta- ja luokittelumetodeja sellun laaduntarkkailuun paperin valmistuksessa. Tämän tutkimusprojektin osana on aiemmin kehitetty metodi, jolla etsittiin kaarevia rakenteita kuvista, ja tätä metodia hyödynnettiin kuitujen etsintään kuvista. Tätä metodia käytettiin lähtökohtana kandidaatintyölle. Työn tarkoituksena oli tutkia, voidaanko erilaisista kuitukuvista laskettujen piirteiden avulla tunnistaa kuvassa olevien kuitujen laji. Näissä kuitukuvissa oli kuituja neljästä eri puulajista ja yhdestä kasvista. Nämä lajit olivat akasia, koivu, mänty, eukalyptus ja vehnä. Jokaisesta lajista valittiin 100 kuitukuvaa ja nämä kuvat jaettiin kahteen ryhmään, joista ensimmäistä käytettiin opetusryhmänä ja toista testausryhmänä. Opetusryhmän avulla jokaiselle kuitulajille laskettiin näitä kuvaavia piirteitä, joiden avulla pyrittiin tunnistamaan testausryhmän kuvissa olevat kuitulajit. Nämä kuvat oli tuottanut CEMIS-Oulu (Center for Measurement and Information Systems), joka on mittaustekniikkaan keskittynyt yksikkö Oulun yliopistossa. Yksittäiselle opetusryhmän kuitukuvalle laskettiin keskiarvot ja keskihajonnat kolmesta eri piirteestä, jotka olivat pituus, leveys ja kaarevuus. Lisäksi laskettiin, kuinka monta kuitua kuvasta löydettiin. Näiden piirteiden eri yhdistelmien avulla testattiin tunnistamisen tarkkuutta käyttämällä k:n lähimmän naapurin menetelmää ja Naiivi Bayes -luokitinta testausryhmän kuville. Testeistä saatiin lupaavia tuloksia muun muassa pituuden ja leveyden keskiarvoja käytettäessä saavutettiin jopa noin 98 %:n tarkkuus molemmilla algoritmeilla. Tunnistuksessa kuitujen keskimäärinen pituus vaikutti olevan kuitukuvia parhaiten kuvaava piirre. Käytettyjen algoritmien välillä ei ollut suurta vaihtelua tarkkuudessa. Testeissä saatujen tulosten perusteella voidaan todeta, että kuitukuvien tunnistaminen on mahdollista. Testien perusteella kuitukuvista tarvitsee laskea vain kaksi piirrettä, joilla kuidut voidaan tunnistaa tarkasti. Käytetyt lajittelualgoritmit olivat hyvin yksinkertaisia, mutta ne toimivat testeissä hyvin.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Monesti yritysjohtajan on vaikea hahmottaa, mitä kaikkia ulottuvuuksia ja menetelmiä suorituskyvyn analysointiin liittyy. Pelkkään talouteen keskittyvä johtaminen edustaa hyvin kapeaa näkökulmaa yrityksen toiminnasta ja voi lopulta johtaa yrityksen vääriin valintoihin ja hyvin kohtalokkaisiin virhearviointeihin. Suorituskyvyn mittaamisella ja analysoimisella saadaan kokonaisvaltainen näkemys yrityksen toiminnasta ja sen tilasta. Yrityksen suorituskykyä pystytään tarkastelemaan hyvin monella tavalla ja erilaisista näkökulmista. Tutkimuksen päätavoitteena on selvittää millainen suorituskyvyn analysointijärjestelmä soveltuu teknologiateollisuuden pk-yritykselle. Alatavoitteena on tutkia millaiset mittaus- ja johtamistarpeet ovat toimialalle tyypillisiä (1) sekä miten toiminnanohjausjärjestelmä ja suori-tuskyvyn mittaristo voidaan integroida toisiinsa (2). Case-yritykselle rakennetaan suorituskyvyn mittaristo ja verrataan sitä toiminnanohjausjärjestelmään sekä selvitetään mittariston tarpeellisuutta Case-yritykselle. Teknologiateollisuuden pk-yrityksille ei voida suoraan määrittää sopivaa suorituskyvyn ana-lysointijärjestelmää. BSC osoittautui kuitenkin parhaimmaksi valinnaksi. BSC pakottaa pk-yrityksiä huomioimaan useampi suorituskyvyn osa-alue. BSC ei myöskään tarvitse montaa mittaria kuvaamaan suorituskyvyn osa-alueita. Tutkimuksessa selvisi hyvin paljon suorituskykyyn vaikuttavia tekijöitä. Projektiluonteisuuden vuoksi case-yrityksen projektiseurantaa kehitettiin ja rakennettiin BSC-pohjainen suorituskyvyn analysointijärjestelmä.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

SrMg^Rui-iOa thin films were made by using pulsed laser deposition on SrTiOa (100) substrates in either O2 or Ar atmosphere. The thin films were characterized by x-ray diffraction, energy dispersive x-ray microanalysis, dc resistivity measurement, and dc magnetization measurement. The effect of Mg doping was observed. As soon as the amount of Mg increased in SrMg-cRui-iOa thin films, the magnetization decreased, and the resistivity increased. It had little effect on the Curie temperature (transition temperature). The magnetization states of SrMgiRui-iOa thin films, for x < 0.15, are similar to SrRuOs films. X-ray diffraction results for SrMga-Rui-iOa thin films made in oxygen showed that the films are epitaxial. The thin films could not be well made in Ar atmosphere during laser ablation as there was no clear peak of SrMg^Rui-iOa in x-ray diffraction results. Substrate temperatures had an effect on the resistivity of the films. The residual resistivity ratios were increased by increasing substrate temperature. It was observed that the thickness of thin films are another factor for film quality: Thin films were epitaxial, but thicker films were not epitaxial.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper explores the cognitive functions of the Reality Status Evaluation (RSE) system in our experiences of narrative mediated messages (NMM) (fictional, narrative, audio-visual one-way input and moving picture messages), such as fictional TV programs and films. We regard reality in mediated experiences as a special mental and emotional construction and a multi-dimensional concept. We argue that viewers' reality sense in NMM is influenced by many factors with "real - on" as the default value. Some of these factors function as primary mental processes, including the content realism factors of those messages such as Factuality (F), Social Realism (SR), Life Relevance (LR), and Perceptual Realism - involvement (PR), which would have direct impacts on reality evaluations. Other factors, such as Narrative Meaning (NM), Emotional Responses, and personality trait Absorption (AB), will influence the reality evaluations directly or through the mediations of these main dimensions. I designed a questionnaire to study this theoretical construction. I developed items to form scales and sub-scales measuring viewers' subjective experiences of reality evaluations and these factors. Pertinent statistical techniques, such as internal consistency and factorial analysis, were employed to make revisions and improve the quality of the questionnaire. In the formal experiment, after viewing two short films, which were selected as high or low narrative structure messages from previous experiments, participants were required to answer the questionnaire, Absorption questionnaire, and SAM (Self-Assessment Manikin, measuring immediate emotional responses). Results were analyzed using the EQS, structural equation modeling (SEM), and discussed in terms oflatent relations among these subjective factors in mediated experience. The present results supported most of my theoretical hypotheses. In NMM, three main jactors, or dimensions, could be extracted in viewers' subjective reality evaluations: Social Realism (combining with Factuality), Life Relevance and Perceptual Realism. I designed two ways to assess viewers' understanding of na"ative meanings in mediated messages, questionnaire (NM-Q) and rating (NM-R) measurement, and its significant influences on reality evaluations was supported in the final EQS models. Particularly in high story stnlcture messages, the effect of Narrative Meaning (NM) can rarely be explained by only these dimensions of reality evaluations. Also, Empathy seems to playa more important role in RSE of low story structure messages. Also, I focused on two other factors that were pertinent to RSE in NMM, the personality trait Absorption, and Emotional Responses (including two dimensions: Valence and Intensity). Final model results partly supported my theoretical hypotheses about the relationships among Absorption (AB), Social Realism (SR) and Life Relevance (LR); and the immediate impact of Emotional Responses on Perceptual Realism cPR).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les pyréthrinoïdes et les pyréthrines sont des insecticides neurotoxiques auxquels on attribue également des effets néfastes sur les systèmes immunitaire, hormonal et reproducteur. Ils sont abondamment utilisés en agriculture, mais aussi en horticulture, en extermination et dans le traitement d’infestations parasitaires humaines et animales (gale, poux). Il y a donc un intérêt en santé environnementale à connaître l’ampleur de l’exposition humaine à ces pesticides. La mesure des métabolites urinaires des pyréthrinoïdes et des pyréthrines apparaît une approche de choix pour arriver à cette fin puisqu’elle permet, en théorie, d’obtenir un portrait global de l’exposition. Or,traditionnellement et par soucis de simplicité les concentrations volumiques ou ajustées pour la créatinine) de ces biomarqueurs dans des urines ponctuelles sont déterminées, mais l’effet de l’utilisation de ces unités sur la validité des estimations de dose quotidienne absorbée n’a jamais été vérifié. L’objectif général de cette thèse était donc de développer, appliquer et valider une nouvelle stratégie de mesure et d’analyse de biomarqueurs pour améliorer la précision et la fiabilité des évaluations de l’exposition individuelles et populationnelles aux pyréthrinoïdes et pyréthrines. Les objectifs spécifiques étaient : i) de caractériser l’exposition humaine à ces contaminants en région urbaine et rurale au Québec et ii) de comparer la validité de la nouvelle stratégie de mesure et d’analyse de biomarqueurs urinaires proposée avec les autres méthodes plus usuelles utilisées pour estimer l’exposition individuelle et populationnelle et les doses absorbées de pyréthrinoïdes. Des adultes et des enfants, recrutés dans la population de l’Île de Montréal et de la Montérégie ont recueilli leurs urines pendant une période d’au moins douze heures et complété un questionnaire documentant les sources potentielles d’exposition. Les quantités de métabolites de pyréthrinoïdes et pyréthrines (pmol) mesurées dans les urines ont été ajustées pour une période de douze heures exactement et pour le poids corporel. Les quantités excrétées en région urbaine ont été comparées à celles excrétées en région rurale et les données individuelles et populationnelles ont été comparées à celles qui auraient été obtenues si des concentrations volumiques ou ajustées pour la créatinine avaient été mesurées. Les résultats montrent que l’exposition à ces pesticides est ubiquiste puisque plus de 90% des participants excrétaient les principaux métabolites de pyréthrinoïdes et pyréthrines à un niveau supérieur au seuil de détection analytique. Les résultats suggèrent que l’alimentation pourrait être à l’origine de ce niveau de base puisque les autres sources d’exposition connues n’ont été que rarement rapportées. Au Québec, l’exposition en milieu rural apparaissait légèrement plus importante qu’en milieu urbain et certains facteurs d’exposition, comme l’utilisation de pesticides domestiques, ont été rapportés plus fréquemment en milieu rural. Enfin, il a été démontré que la mesure des concentrations volumiques ou ajustées pour la créatinine de biomarqueurs est une approche qui peut entraîner des biais importants (jusqu’à 500% d’erreur et plus) en particulier lors de l’évaluation de l’exposition individuelle. Il est évident que les autorités de santé publique et de santé environnementale employant des biomarqueurs urinaires afin d’évaluer l’exposition aux pyréthrinoïdes et aux pyréthrines (ainsi qu’à d’autres molécules ayant des demi-vies d’élimination similaire)devraient diriger leurs efforts vers la mesure des quantités excrétées pendant une période d’au moins douze heures pour obtenir un portrait le plus valide possible de l’exposition. Il serait aussi souhaitable de mieux documenter la toxicocinétique de ces molécules chez l’humain afin d’établir avec une plus grande confiance la relation entre les quantités excrétées de biomarqueurs et les doses absorbées de ces contaminants.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est une maladie dont la cause est encore inconnue, et qui génère des déformations complexes du rachis, du thorax et du bassin. La prévalence est de 4% dans la population adolescente au Québec. Cette pathologie affecte surtout les filles durant leur poussée de croissance pubertaire. Parmi plusieurs hypothèses émises, l’hypothèse neuroendocrinienne, impliquant une déficience en mélatonine comme agent étiologique de la SIA a suscité beaucoup d’intérêt. Cette hypothèse découle du fait que l’ablation de la glande pinéale chez le poulet produit une scoliose ressemblant sous plusieurs aspects à la pathologie humaine. La pertinence biologique de la mélatonine dans la scoliose est controversée, étant donné que la majorité des études chez l’homme n’ont pu mettre en évidence une diminution significative des niveaux de mélatonine circulante chez les patients scoliotiques. Nous avons démontré un dysfonctionnement dans la signalisation de la mélatonine au niveau des tissus musculo-squelettiques chez une série de patients atteints de SIA (Moreau & coll. 2004). Nous avons confirmé ce défaut chez un plus grand nombre de patients ainsi qu’en utilisant une nouvelle technologie (spectroscopie cellulaire diélectrique) n’ayant pas recours à un prétraitement des cellules donnant ainsi des résultats plus précis. Cette technique a montré la présence des mêmes groupes fonctionnels identifiés auparavant par la technique d’AMPc. Le dysfonctionnement de la signalisation de la mélatonine est dû à une phosphorylation accrue des protéines G inhibitrices. Ce défaut pourrait être causé par un déséquilibre de l’activité des kinases et phosphatases capables de réguler la phosphorylation des protéines Gi. Parmi ces kinases, PKCd a suscité initialement notre intérêt vu qu’elle peut phosphoryler les protéines Gi. Nous avons démontré que cette kinase interagit avec le récepteur de la mélatonine MT2 et que cette interaction varie selon le groupe fonctionnel auquel un patient SIA appartient. Par la suite nos travaux se sont dirigés vers la découverte d’effecteurs cellulaires régulés par la mélatonine et plus spécifiquement l’ostéopontine (OPN), compte tenu de son rôle présumé comme mécanorécepteur et dans certaines structures jouant un rôle dans la proprioception, le contrôle postural et la fonction vestibulaire. L’OPN a été identifiée initialement par sa surexpression au niveau protéique et de l’ARNm dans la musculature paraspinale uniquement chez les poulets scoliotiques. Nous avons également utilisé un autre modèle animal, la souris C57Bl/6 naturellement déficiente en mélatonine. Nous avons généré des souris bipèdes en amputant les membres antérieurs de souris OPN KO, des souris CD44 KO ainsi que des souris contrôles C57Bl/6. Nos résultats ont montré qu’aucune souris OPN KO (n=50) ou CD44 KO (n=60) ne développe la maladie, contrairement aux souris contrôles C57Bl/6 (n=50) dont 45% deviennent scoliotiques. Ces résultats nous ont poussés à investiguer le rôle de cette protéine dans l’étiopathogenèse de la maladie chez l’humain. Nos résultats ont montré une augmentation des niveaux circulants d’OPN chez les patients atteints de la SIA et que l’élevation en OPN corrélait avec la sévérité de la maladie. Nos études chez les enfants asymptomatiques nés de parents scoliotiques et qui sont plus à risque de développer la maladie ont aussi démontré des différences significatives au niveau des concentrations en OPN en comparaison avec les sujets sains. En effet, plusieurs enfants à risque présentaient des niveaux d’OPN supérieurs à 800ng/ml suggérant un plus grand risque de développer une scoliose indiquant aussi que l’augmentation des niveaux en OPN précède le début de la maladie.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Objectif—Comparer les effets de la stérilisation au plasma de gaz de peroxyde d’hydrogène (HPGP) à l’oxyde d’éthylène (EO) et à la vapeur (ST) sur les propriétés physico-chimiques et d’adhésion bactérienne de fils de nylon et de polyéthylène. Design expérimental—Etude in vitro. Matériel—Des brins non stérilisés, stérilisés au HPGP, à l’EO et ST; de fil nylon leader (FNL), de fil de nylon pêche (FNP) et de fil de polyéthylène (PE) ont été utilisés. Méthodes—Une analyse de surface au spectroscope photo-électronique à rayons X (XPS), une mesure de l’angle de contact, une analyse par microscopie à force atomique (AFM) et l’adhésion bactérienne de Staphylococcus intermedius et d’Escherichia Coli ont été testés sur les brins. Résultats—Une oxydation de la surface de tous les échantillons stérilisés a été observée quelque soit la méthode de stérilisation. La stérilisation a augmenté significativement l’angle de contact pour tous les types de fil quelque soit la méthode. La rugosité n’a pas été affectée significativement par la méthode de stérilisation pour le FNL et FNP. L’adhésion bactérienne a été affectée significativement par la méthode de stérilisation. Le PE a un angle de contact, une rugosité et une adhésion bactérienne significativement plus élevée que le FNL et FNP, peu importe la méthode de stérilisation. Conclusion—La stérilisation au HPGP constitue une alternative intéressante à la vapeur et l’EO. Le PE n’est peut être pas un matériel idéal par sa capacité d’adhésion bactérienne. De futures études sont nécessaires pour déterminer la signification clinique de ces trouvailles.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La mesure du déjettement du tronc est un élément important pour évaluer la posture en ce qui a trait à la scoliose idiopathique. Cependant, il y a peu d'informations quant à sa mesure et les associations entre le déjettement du tronc et d'autres indicateurs ou facteurs pertinents. Les objectifs de cette étude sont : 1) d’évaluer la validité et la fiabilité de test-retest du fil à plomb pour mesurer le déjettement du tronc de C7 à S1 chez les personnes atteintes de scoliose idiopathique; et 2) d'étudier l'association entre le déjettement du tronc et les facteurs suivants : la douleur, l’angle de Cobb, le type de scoliose, la santé mentale et l’image de soi chez les personnes atteintes de scoliose idiopathique. Nous avons recruté 55 sujets âgés de 10 à 21 ans atteints de scoliose idiopathique (angle de Cobb : 15º à 60º) de la clinique de scoliose dans un hôpital pédiatrique de soins tertiaires. Le déjettement a été mesuré directement sur les sujets à deux reprises par la même physiothérapeute de même que sur les radiographies prises ce jour-là. Deux mesures ont été prises à chaque fois : une les pieds joints (FT) et l’autre en écartant les pieds (FA). Les sujets ont répondu au questionnaire adressé au patient de la Scoliosis Research Society-22, qui traite de la douleur, de l'image de soi et de la santé mentale. Le type de scoliose et l'angle de Cobb ont été mesurés sur les radiographies prises ce jour-là. Nous avons utilisé la théorie de la généralisabilité pour calculer la fidélité de test-retest pour les mesures FT et FA, en rapportant les coefficients de fiabilité (f) et les erreurs types de mesure (SEM). La validité de la mesure du fil à plomb a été calculée en comparant les mesures prises directement sur les radiographies en utilisant le coefficient de corrélation de Pearson. Les corrélations de Pearson ont été calculées entre le déjettement du tronc et la douleur, l'angle de Cobb, l'image de soi et la santé mentale. Les corrélations de Spearman ont été calculées entre le déjettement du tronc et le type de scoliose. Nous avons ensuite utilisé des modèles de régression linéaire multiple pour déterminer les associations entre ces variables. Nos résultats indiquent que les mesures de déjettement du tronc en utilisant un fil à plomb ont une forte corrélation (r = 0,87) avec la mesure obtenue par radiographie. La mesure du déjettement du tronc en utilisant un fil à plomb a démontré une excellente fidélité de test-retest (f: 0,98 pour la mesure FT et 0,99 pour la mesure FA) et les SEM étaient de 2,0 mm pour la mesure FT et 1,8 mm pour la mesure FA. Le déjettement du tronc est corrélé positivement avec l'angle de Cobb (r = 0,32, p = 0,02), mais il n'est pas corrélé à la douleur, la santé mentale, l'image de soi ou le type de scoliose. Les conclusions de notre étude ont montré que la mesure clinique du déjettement du tronc en utilisant un fil à plomb est une méthode fiable et valide et que le déjettement du tronc est associé à l'angle de Cobb. Une étude longitudinale est nécessaire pour déterminer si le déjettement du tronc est un indicateur pronostique de la progression de la scoliose. Mots-clés: la scoliose idiopathique, le déjettement du tronc, fil à plomb, posture, déplacement latéral du tronc

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les pères s’impliquent aujourd’hui davantage qu’auparavant auprès de leurs enfants. À l’âge préscolaire, les jeux physiques (incluant les jeux de bataille) sont une caractéristique distinctive du style paternel d’interaction. Quelques études tendent à suggérer un lien entre ce type de jeu et l’adaptation sociale des enfants. Cependant,des contradictions se dégagent de la littérature, notamment quant au lien entre la quantité de jeu physique père-enfant et des mesures d’adaptation sociale, quant aux différentes opérationnalisations de la qualité du jeu physique, ainsi qu’en ce qui a trait au genre de l’enfant. Il y a également un débat entourant le degré optimal de contrôle ou de mutualité) au cours du jeu, de même qu’un nombre très limité d’études sur le lien entre le jeu physique père-enfant et l’anxiété/retrait. Dans ce contexte de divergences entre les chercheurs, la présente thèse vise quatre objectifs, soit : 1)vérifier si la quantité de jeux de bataille père-enfant est liée à l’adaptation sociale des enfants d’âge préscolaire (via des mesures de compétence sociale, d’agressivité/irritabilité, d’agression physique et d’anxiété/retrait); 2) tester si des mesures de mutualité ou de contrôle modèrent la relation entre la quantité de jeux de bataille père-enfant et les mesures d’adaptation sociale; 3) explorer le rôle potentiel d’autres indices de qualité du jeu de bataille; 4) clarifier le rôle du genre de l’enfant. L’échantillon est composé de 100 dyades père-enfant de Montréal et les environs. Les résultats des analyses corrélationnelles suggèrent que la fréquence et la durée de jeu de bataille ne sont pas reliées directement à l’adaptation sociale des enfants et mettent en lumière des variables qui pourraient jouer un rôle modérateur. Les régressions pour modèles modérateurs indiquent que la mutualité père-enfant dans les initiations au jeu de bataille et la peur exprimée par l’enfant au cours de ce type de jeu modèrent la relation entre la durée des jeux de bataille et la compétence sociale de l’enfant d’âge préscolaire. La mutualité modère également le lien entre la durée du jeu et l’agressivité/irritabilité de l’enfant. Les initiations autoritaires faites par le père modèrent le lien entre la durée du jeu et les agressions physiques, alors qu’aucune variable ne modère le lien entre la durée du jeu et l’anxiété/retrait des enfants. Les analyses post-hoc donnent davantage d’informations sur la nature des liens de modération. Bien que les pères rapportent ne pas faire davantage de jeux de bataille, ni jouer plus longtemps à se batailler avec leurs garçons qu’avec leurs filles, trois modèles modérateurs sur quatre demeurent significatifs uniquement pour les garçons. Ces données sont interprétées à la lumière des théories éthologique et développementale. Il est suggéré que plutôt que de traiter l’agression et la compétence sociale comme des variables opposées de l’adaptation, une mesure de compétition permettrait peut-être de réconcilier les deux mondes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La planification intégrée du développement urbain et des transports durables est aujourd’hui cruciale au double impératif d’une plus grande maîtrise des déplacements automobiles et d’une diminution de la « dépendance automobile », éléments essentiels au développement durable des grandes métropoles. La présente recherche visait l‘approfondissement des connaissances sur l‘évolution récente de la forme urbaine dans les trois régions métropolitaines canadiennes de Toronto, Montréal et Vancouver, sous l’angle particulier de l’intégration « forme urbaine – transports durables ». Notre stratégie de recherche a consisté en l’élaboration d’un cadre d‘analyse qui devait permettre une opérationnalisation complète du paradigme d‘aménagement à l‘étude ainsi qu’une évaluation de sa mise en œuvre. Ce cadre tire parti des opportunités analytiques qu‘offrent les systèmes d‘information géographique (SIG) ainsi que certains outils Internet courants de « visite virtuelle des lieux » tel que Google Earth. Il en est résulté une approche méthodologique originale, multidimensionnelle et multi-échelle. Son application a permis des analyses particulières de la forme urbaine pour chacune des trois régions cibles, structurées selon trois axes principaux : leur performance globale (autour de 2006), leur performance en périphérie métropolitaine ainsi que l’évolution de leur performance entre 2001 et 2006. De nos analyses comparatives, Vancouver se démarque avec des performances supérieures pour les trois axes, tout particulièrement pour l‘évolution de ses performances. Montréal arrive quant à elle troisième, en raison notamment de sa faible performance en périphérie. Globalement, les trois régions métropolitaines affichent de faibles niveaux d’intégration entre la forme urbaine et les réseaux de transport durable et souffrent d’une grande dépendance automobile structurelle, particulièrement en leur périphérie. Par ailleurs, en dépit d’objectifs de planification adéquats, les déficiences de leur forme urbaine et leurs progrès relativement modestes laissent présager une prédominance de la dépendance automobile qui perdurera au cours des prochaines années. Il nous apparaît primordial que tous les acteurs du domaine public fassent preuve d‘une plus grande « lucidité », voire maturité, face aux lourds constats exposant la difficile mise en œuvre de leurs objectifs ainsi que la dichotomie entre ce qui « se passe sur le terrain » et le contenu de leurs politiques. Une première étape obligée vers un raffinement des politiques et, peut-être, vers leur plus grande efficacité passe sans doute par la pleine reconnaissance des limites du paradigme d’aménagement actuel et de l‘immense défi que représente un inversement des tendances. Cela implique notamment une plus grande transparence en matière d‘évaluation des politiques ainsi que des efforts communs pour le développement et la diffusion de données de qualité dans les domaines connexes de la forme urbaine et des transports urbains, de meilleurs outils de monitoring, etc., qui pourraient aider à instituer une nouvelle synergie entre tous les acteurs impliqués tant dans la recherche urbaine, le développement urbain que les politiques d’aménagement et de transport. Le raffinement de notre propre approche méthodologique pourrait aussi bénéficier de telles avancées, approche qui constitue une des avenues possibles pour la poursuite de l‘exploration de l‘enjeu de l‘intégration « forme urbaine – transports durables » dans les régions métropolitaines canadiennes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le prix efficient est latent, il est contaminé par les frictions microstructurelles ou bruit. On explore la mesure et la prévision de la volatilité fondamentale en utilisant les données à haute fréquence. Dans le premier papier, en maintenant le cadre standard du modèle additif du bruit et le prix efficient, on montre qu’en utilisant le volume de transaction, les volumes d’achat et de vente, l’indicateur de la direction de transaction et la différence entre prix d’achat et prix de vente pour absorber le bruit, on améliore la précision des estimateurs de volatilité. Si le bruit n’est que partiellement absorbé, le bruit résiduel est plus proche d’un bruit blanc que le bruit original, ce qui diminue la misspécification des caractéristiques du bruit. Dans le deuxième papier, on part d’un fait empirique qu’on modélise par une forme linéaire de la variance du bruit microstructure en la volatilité fondamentale. Grâce à la représentation de la classe générale des modèles de volatilité stochastique, on explore la performance de prévision de différentes mesures de volatilité sous les hypothèses de notre modèle. Dans le troisième papier, on dérive de nouvelles mesures réalizées en utilisant les prix et les volumes d’achat et de vente. Comme alternative au modèle additif standard pour les prix contaminés avec le bruit microstructure, on fait des hypothèses sur la distribution du prix sans frictions qui est supposé borné par les prix de vente et d’achat.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’instrument le plus fréquemment utilisé pour la mesure de l’amplitude de mouvement du coude est le goniomètre universel. Or celui-ci ne fait pas l’unanimité : plusieurs auteurs remettent en question sa fiabilité et validité. Cette étude détaille donc, en trois étapes, une alternative beaucoup plus précise et exacte : une méthode radiographique de mesure. Une étude de modélisation a d’abord permis de repérer les sources d’erreur potentielles de cette méthode radiographique, à ce jour jamais utilisée pour le coude. La méthode a ensuite servi à évaluer la validité du goniomètre. À cette fin, 51 volontaires ont participé à une étude clinique où les deux méthodes ont été confrontées. Finalement, la mesure radiographique a permis de lever le voile sur l’influence que peuvent avoir différents facteurs démographiques sur l’amplitude de mouvement du coude. La méthode radiographique s’est montrée robuste et certaines sources d’erreurs facilement évitables ont été identifiées. En ce qui concerne l’étude clinique, l’erreur de mesure attribuable au goniomètre était de ±10,3° lors de la mesure du coude en extension et de ±7,0° en flexion. L’étude a également révélé une association entre l’amplitude de mouvement et différents facteurs, dont les plus importants sont l’âge, le sexe, l’IMC et la circonférence du bras et de l’avant-bras. En conclusion, l’erreur du goniomètre peut être tolérée en clinique, mais son utilisation est cependant déconseillée en recherche, où une erreur de mesure de l’ordre de 10° est inacceptable. La méthode radiographique, étant plus précise et exacte, représente alors une bien meilleure alternative.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.