992 resultados para Analyse spectrale


Relevância:

60.00% 60.00%

Publicador:

Resumo:

La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’arrivée du spectromètre imageur à transformée de Fourier SITELLE au télescope Canada-France-Hawaï souligne la nécessité d’un calculateur de temps d’exposition permettant aux utilisateurs de l’instrument de planifier leurs observations et leurs demandes de temps de télescope. Une grande partie de mon projet est ainsi le développement d’un code de simulation capable de reproduire les résultats de SITELLE et de son prédecesseur SpIOMM, installé à l’Observatoire du Mont-Mégantic. La précision des simulations est confirmée par une comparaison avec des données SpIOMM et les premières observations de SITELLE. La seconde partie de mon projet consiste en une analyse spectrale de données observationelles. Prenant avantage du grand champ de vue de SpIOMM, les caractéristiques du gaz ionisé (vitesse radiale et intensité) sont étudiées pour l’ensemble de la paire de galaxies en interaction Arp 72. La courbe de rotation dans le visible ainsi que le gradient de métallicité de NGC 5996, la galaxie principale d’Arp 72, sont obtenues ici pour la première fois. La galaxie spirale NGC 7320 est également étudiée à partir d’observations faites à la fois avec SpIOMM et SITELLE.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Diverses études se sont penchées sur les paramètres EEG du sommeil en ondes lentes, y compris l’activité en ondes lentes en lien avec le somnambulisme, mais les résultats se révèlent inconsistants et contradictoires. Le premier objectif de la présente étude était d’analyser quantitativement l’EEG en sommeil en mesurant les fluctuations de puissance spectrale en delta (1-4 Hz) et delta lent (0.5-1 Hz) avant des épisodes de somnambulisme. Le second était de détecter les oscillations lentes (> 75 μV, fréquence d'environ 0.7-0.8 Hz) et très lentes (> 140 μV, fréquence d'environ 0.7-0.8 Hz) afin d'examiner leur changement d'amplitude et de densité avant de tels épisodes. Suite à une privation de sommeil de 25 heures, les enregistrements polysomnographiques de 22 adultes atteints de somnambulisme ont été scrutés. L’analyse des 200 secondes avant les épisodes révèle que ceux-ci ne sont pas précédés d’une augmentation graduelle de puissance spectrale en delta ni en delta lent, tant sur les dérivations frontale, centrale que pariétale. Toutefois, une hausse statistiquement significative de la densité des oscillations lentes et des oscillations très lentes a été observée au cours des 20 sec immédiatement avant le début des épisodes. Reste à déterminer le rôle exact de ces paramètres de l’EEG en sommeil par rapport à la manifestation et au diagnostic des parasomnies en sommeil lent.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le somnambulisme est une parasomnie commune, caractérisée par des éveils incomplets lors des stades de sommeil lent, au cours desquels les individus atteints présentent des comportements moteurs d’une complexité variable accompagnés de confusion et d’un jugement altéré. La littérature actuelle suggère que ce trouble serait associé à des particularités de l’activité en ondes lentes et des oscillations lentes, deux indices de l’intégrité du processus homéostatique et de la profondeur du sommeil. Toutefois, en raison de certaines lacunes méthodologiques dans les études existantes, le rôle de ces marqueurs électroencéphalographiques dans la pathophysiologie du somnambulisme reste à éclaircir. Notre premier article a donc investigué d’éventuelles anomalies de l’activité en ondes lentes et des oscillations lentes chez les somnambules, en comparant leur sommeil au cours de la nuit entière à celui de participants contrôles. De plus, comme les somnambules semblent réagir différemment (en termes de fragmentation du sommeil notamment) des dormeurs normaux à une pression homéostatique accrue, nous avons comparé l’activité en ondes lentes et les oscillations lentes en nuit de base et suite à une privation de sommeil de 38 heures. Les résultats de nos enregistrements électroencéphalographiques chez 10 somnambules adultes et neuf participants contrôles montrent une élévation de la puissance spectrale de l’activité en ondes lentes et de la densité des oscillations lentes en nuit de récupération par rapport à la nuit de base pour nos deux groupes. Toutefois, contrairement à plusieurs études précédentes, nous ne n’observons pas de différence entre somnambules et dormeurs normaux quant à l’activité en ondes lentes et aux oscillations lentes pour aucune des deux nuits. Au-delà ce certaines considérations méthodologiques ayant pu contribuer à ce résultat inattendu, nous croyons qu’il justifie un questionnement sur l’hétérogénéité des somnambules comme population. Notre deuxième article s’est penché sur les facteurs électroencéphalographiques transitoires susceptibles d’être associés au déclenchement des épisodes de somnambulisme. Nous avons comparé les fluctuations d’activité en ondes lentes et des oscillations lentes dans les minutes avant des épisodes de somnambulisme spontanés (c.a.d.: non associés à un stimulus identifiable) à celles survenant avant des éveils normaux comparables chez 12 somnambules adultes. Nous montrons que, comparativement aux éveils normaux, les épisodes de somnambulisme sont précédés d’un sommeil plus profond, tel qu’indiqué par une plus grande densité spectrale de l’activité en ondes lentes et une plus grande densité des oscillations lentes. Cet approfondissement du sommeil, spécifique aux épisodes de somnambulisme, semble survenir sur un laps de temps relativement long (>3 minutes), et non abruptement au cours des secondes précédant l’épisode. Ces données ouvrent un questionnement quant aux mécanismes en jeu dans la survenue des épisodes de somnambulisme spontanés. Globalement, cette thèse suggère que des phénomènes liés à l’activité en ondes lentes et aux oscillations lentes seraient liés au déclenchement des épisodes de somnambulisme, mais que des études supplémentaires devront être menées afin de délimiter le rôle précis que ces marqueurs jouent dans la pathophysiologie du somnambulisme.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Des techniques adaptées aux contextes routiers sont nécessaires pour maintenir et réhabiliter des chaussées construites sur pergélisol ou en contexte de gel saisonnier. Plusieurs problématiques peuvent engendrer une augmentation des coûts de réparation et entretien, une diminution de la durée de vie des chaussées et des problèmes reliés à la sécurité des usagers de la route. L’objectif du projet consiste donc à élaborer un outil d’aide à la décision, qui contribuerait à localiser les zones sensibles au gel saisonnier et à la dégradation du pergélisol, à discerner les causes de dégradation des chaussées dues au gel saisonnier et à sélectionner les meilleures stratégies d’atténuation et de réfection à moindre coût. Le projet de recherche est divisé en deux volets distincts. Le premier volet traite des problématiques de gel de chaussées en contexte de gel saisonnier. Actuellement, il existe des méthodes de diagnostic qui permettent de détecter les endroits où un problème de gélivité est susceptible d’être présent. Par contre, ces méthodes ne permettent pas de discerner si le problème de gel est en profondeur ou en surface de la chaussée; en d’autres mots si le problème est lié à un soulèvement différentiel du sol ou à un soulèvement de fissures. De plus, les méthodes utilisées ne sont pas adaptées aux chaussées en contexte municipal. Selon les problématiques connues de certains sites, il a été possible de développer un abaque permettant de différencier si la problématique de gel se situe en surface ou en profondeur dans une chaussée. Puis, une analyse d’imagerie 3D a été réalisée pour complémenter l’abaque créé. À l’aide de cette technologie, une nouvelle méthode sera mise au point pour détecter des problématiques de gel grâce aux profils transversaux. Le deuxième volet porte sur les chaussées construites sur pergélisol. Les méthodes actuelles de détection de la dégradation du pergélisol sous les chaussées manquent de précision et ont besoin d’être raffinées, surtout dans le contexte actuel de réchauffement climatique. Pour ce faire, trois sites d’essais ont été étudiés sur l’Alaska Highway au Yukon. En fonction de différentes analyses telles que des analyses de profils longitudinaux, de la densité spectrale et de longueurs d’onde, des tendances ont été décelées pour caractériser l’instabilité du pergélisol.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This is an important book that ought to launch a debate about how we research our understanding of the world, it is an innovative intervention in a vital public issue, and it is an elegant and scholarly hard look at what is actually happening. Jean Seaton, Prof of Media History, U of Westminster, UK & Official Historian of the BBC -- Summary: This book investigates the question of how comparative studies of international TV news (here: on violence presentation) can best be conceptualized in a way that allows for crossnational, comparative conclusions on an empirically validated basis. This book shows that such a conceptualization is necessary in order to overcome existing restrictions in the comparability of international analysis on violence presentation. Investigated examples include the most watched news bulletins in Great Britain (10o'clock news on the BBC), Germany (Tagesschau on ARD) and Russia (Vremja on Channel 1). This book highlights a substantial cross-national violence news flow as well as a cross-national visual violence flow (key visuals) as distinct transnational components. In addition, event-related textual analysis reveals how the historical rootedness of nations and its symbols of power are still manifested in televisual mediations of violence. In conclusion, this study lobbies for a conscientious use of comparative data/analysis both in journalism research and practice in order to understand what it may convey in the different arenas of today’s newsmaking.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper deals with the analysis of the parameters which are effective in shaft voltage generation of induction generators. It focuses on different parasitic capacitive couplings by mathematical equations, finite element simulations and experiments. The effects of different design parameters have been studied on proposed capacitances and resultant shaft voltage. Some parameters can change proposed capacitive coupling such as: stator slot tooth, the gap between slot tooth and winding, and the height of the slot tooth, as well as the air gap between the rotor and the stator. This analysis can be used in a primary stage of a generator design to reduce motor shaft voltage and avoid additional costs of resultant bearing current mitigation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Monitoring Internet traffic is critical in order to acquire a good understanding of threats to computer and network security and in designing efficient computer security systems. Researchers and network administrators have applied several approaches to monitoring traffic for malicious content. These techniques include monitoring network components, aggregating IDS alerts, and monitoring unused IP address spaces. Another method for monitoring and analyzing malicious traffic, which has been widely tried and accepted, is the use of honeypots. Honeypots are very valuable security resources for gathering artefacts associated with a variety of Internet attack activities. As honeypots run no production services, any contact with them is considered potentially malicious or suspicious by definition. This unique characteristic of the honeypot reduces the amount of collected traffic and makes it a more valuable source of information than other existing techniques. Currently, there is insufficient research in the honeypot data analysis field. To date, most of the work on honeypots has been devoted to the design of new honeypots or optimizing the current ones. Approaches for analyzing data collected from honeypots, especially low-interaction honeypots, are presently immature, while analysis techniques are manual and focus mainly on identifying existing attacks. This research addresses the need for developing more advanced techniques for analyzing Internet traffic data collected from low-interaction honeypots. We believe that characterizing honeypot traffic will improve the security of networks and, if the honeypot data is handled in time, give early signs of new vulnerabilities or breakouts of new automated malicious codes, such as worms. The outcomes of this research include: • Identification of repeated use of attack tools and attack processes through grouping activities that exhibit similar packet inter-arrival time distributions using the cliquing algorithm; • Application of principal component analysis to detect the structure of attackers’ activities present in low-interaction honeypots and to visualize attackers’ behaviors; • Detection of new attacks in low-interaction honeypot traffic through the use of the principal component’s residual space and the square prediction error statistic; • Real-time detection of new attacks using recursive principal component analysis; • A proof of concept implementation for honeypot traffic analysis and real time monitoring.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Prostate cancer metastasis is reliant on the reciprocal interactions between cancer cells and the bone niche/micro-environment. The production of suitable matrices to study metastasis, carcinogenesis and in particular prostate cancer/bone micro-environment interaction has been limited to specific protein matrices or matrix secreted by immortalised cell lines that may have undergone transformation processes altering signaling pathways and modifying gene or receptor expression. We hypothesize that matrices produced by primary human osteoblasts are a suitable means to develop an in vitro model system for bone metastasis research mimicking in vivo conditions. We have used a decellularized matrix secreted from primary human osteoblasts as a model for prostate cancer function in the bone micro-environment. We show that this collagen I rich matrix is of fibrillar appearance, highly mineralized, and contains proteins, such as osteocalcin, osteonectin and osteopontin, and growth factors characteristic of bone extracellular matrix (ECM). LNCaP and PC3 cells grown on this matrix, adhere strongly, proliferate, and express markers consistent with a loss of epithelial phenotype. Moreover, growth of these cells on the matrix is accompanied by the induction of genes associated with attachment, migration, increased invasive potential, Ca2+ signaling and osteolysis. In summary, we show that growth of prostate cancer cells on matrices produced by primary human osteoblasts mimics key features of prostate cancer bone metastases and thus is a suitable model system to study the tumor/bone micro-environment interaction in this disease.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Concerns regarding groundwater contamination with nitrate and the long-term sustainability of groundwater resources have prompted the development of a multi-layered three dimensional (3D) geological model to characterise the aquifer geometry of the Wairau Plain, Marlborough District, New Zealand. The 3D geological model which consists of eight litho-stratigraphic units has been subsequently used to synthesise hydrogeological and hydrogeochemical data for different aquifers in an approach that aims to demonstrate how integration of water chemistry data within the physical framework of a 3D geological model can help to better understand and conceptualise groundwater systems in complex geological settings. Multivariate statistical techniques(e.g. Principal Component Analysis and Hierarchical Cluster Analysis) were applied to groundwater chemistry data to identify hydrochemical facies which are characteristic of distinct evolutionary pathways and a common hydrologic history of groundwaters. Principal Component Analysis on hydrochemical data demonstrated that natural water-rock interactions, redox potential and human agricultural impact are the key controls of groundwater quality in the Wairau Plain. Hierarchical Cluster Analysis revealed distinct hydrochemical water quality groups in the Wairau Plain groundwater system. Visualisation of the results of the multivariate statistical analyses and distribution of groundwater nitrate concentrations in the context of aquifer lithology highlighted the link between groundwater chemistry and the lithology of host aquifers. The methodology followed in this study can be applied in a variety of hydrogeological settings to synthesise geological, hydrogeological and hydrochemical data and present them in a format readily understood by a wide range of stakeholders. This enables a more efficient communication of the results of scientific studies to the wider community.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pressure feeder chutes are pieces of equipment used in sugar cane crushing to increase the amount of cane that can be put through a mill. The continuous pressure feeder was developed with the objective to provide a constant feed of bagasse under pressure to the mouth of the crushing mills. The pressure feeder chute is used in a sugarcane milling unit to transfer bagasse from one set of crushing rolls to a second set of crushing rolls. There have been many pressure feeder chute failures in the past. The pressure feeder chute is quite vulnerable and if the bagasse throughput is blocked at the mill rollers, the pressure build-up in the chute can be enormous, which can ultimately result in failure. The result is substantial damage to the rollers, mill and chute construction, and downtimes of up to 48 hours can be experienced. Part of the problem is that the bagasse behaviour in the pressure feeder chute is not understood well. If the pressure feeder chute behaviour was understood, then the chute geometry design could be modified in order to minimise risk of failure. There are possible avenues for changing pressure feeder chute design and operations with a view to producing more reliable pressure feeder chutes in the future. There have been previous attempts to conduct experimental work to determine the causes of pressure feeder chute failures. There are certain guidelines available, however pressure feeder chute failures continue. Pressure feeder chute behaviour still remains poorly understood. This thesis contains the work carried out between April 14th 2009 and October 10th 2012 that focuses on the design of an experimental apparatus to measure forces and visually observe bagasse behaviour in an attempt to understand bagasse behaviour in pressure feeder chutes and minimise the risk of failure.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Aim A new method of penumbral analysis is implemented which allows an unambiguous determination of field size and penumbra size and quality for small fields and other non-standard fields. Both source occlusion and lateral electronic disequilibrium will affect the size and shape of cross-axis profile penumbrae; each is examined in detail. Method A new method of penumbral analysis is implemented where the square of the derivative of the cross-axis profile is plotted. The resultant graph displays two peaks in the place of the two penumbrae. This allows a strong visualisation of the quality of a field penumbra, as well as a mathematically consistent method of determining field size (distance between the two peak’s maxima), and penumbra (full-widthtenth-maximum of peak). Cross-axis profiles were simulated in a water phantom at a depth of 5 cm using Monte Carlo modelling, for field sizes between 5 and 30 mm. The field size and penumbra size of each field was calculated using the method above, as well as traditional definitions set out in IEC976. The effect of source occlusion and lateral electronic disequilibrium on the penumbrae was isolated by repeating the simulations removing electron transport and using an electron spot size of 0 mm, respectively. Results All field sizes calculated using the traditional and proposed methods agreed within 0.2 mm. The penumbra size measured using the proposed method was systematically 1.8 mm larger than the traditional method at all field sizes. The size of the source had a larger effect on the size of the penumbra than did lateral electronic disequilibrium, particularly at very small field sizes. Conclusion Traditional methods of calculating field size and penumbra are proved to be mathematically adequate for small fields. However, the field size definition proposed in this study would be more robust amongst other nonstandard fields, such as flattening filter free. Source occlusion plays a bigger role than lateral electronic disequilibrium in small field penumbra size.