961 resultados para Electromyographic signal acquisition
Resumo:
In this article we propose a novel method for calculating cardiac 3-D strain. The method requires the acquisition of myocardial short-axis (SA) slices only and produces the 3-D strain tensor at every point within every pair of slices. Three-dimensional displacement is calculated from SA slices using zHARP which is then used for calculating the local displacement gradient and thus the local strain tensor. There are three main advantages of this method. First, the 3-D strain tensor is calculated for every pixel without interpolation; this is unprecedented in cardiac MR imaging. Second, this method is fast, in part because there is no need to acquire long-axis (LA) slices. Third, the method is accurate because the 3-D displacement components are acquired simultaneously and therefore reduces motion artifacts without the need for registration. This article presents the theory of computing 3-D strain from two slices using zHARP, the imaging protocol, and both phantom and in-vivo validation.
Resumo:
Members of the TCF/LEF (T cell factor / lymphoid enhancer factor) family of DNA-binding factors play important roles during embryogenesis, the establishment and/or maintenance of self-renewing tissues such as the immune system and for malignant transformation. Specifically, it has been shown that TCF-1 is required for T cell development. A role for LEF-1 became apparent when mice harbored two hypomorphic TCF-1 alleles and consequently expressed low levels of TCF-1. Here we show that NK cell development is similarly regulated by redundant functions of TCF-1 and LEF-1, whereby TCF-1 contributes significantly more to NK cell development than LEF-1. Despite this role for NK cell development, LEF-1 is not required for the establishment of a repertoire of MHC class I-specific Ly49 receptors on NK cells. The proper formation of this repertoire depends to a large extent on TCF-1. These findings suggest common and distinct functions of TCF-1 and LEF-1 during lymphocyte development.
Resumo:
Résumé pour un large public: La vaccination a eu un impact énorme sur la santé mondiale. Mais, quel est le principe d'un vaccin? Il est basé sur la 'mémoire immunologique', qui est une particularité exclusive des systèmes immunitaires des organismes évolués. Suite à une infection par un pathogène, des cellules spécialisées de notre système immunitaire (les lymphocytes) le reconnaissent et initient une réaction immunitaire qui a pour but son élimination. Pendant cette réaction se développent aussi des cellules, appelées cellules lymphocytaires mémoire, qui persistent pour longue durée et qui ont la capacité de stimuler une réaction immunitaire très efficace immédiatement après une seconde exposition à ce même pathogène. Ce sont ces cellules mémoires (lymphocytes B et T) qui sont à la base de la 'mémoire immunologique' et qui sont stimulées lors de la vaccination. Chez l'homme, deux populations distinctes des lymphocytes T mémoires ont été identifiées: les cellules centrales (CM) et effectrices (EM) mémoires. Ces populations sont fonctionnellement hétérogènes et exercent des rôles distincts et essentiels dans l'immunité protectrice. Typiquement, les cellules effectrices mémoires sont capables de tuer immédiatement le pathogène tandis que les cellules centrales mémoires sont responsables d'initier une réponse immunitaire complète. Pourtant, les mécanismes biochimiques qui contrôlent les fonctions de ces cellules ont été jusqu'à présent peu étudiés à cause de la faible fréquence de ces cellules et de la quantité limitée de tissus humains disponibles pour les analyses. La compréhension de ces mécanismes est cruciale pour la réalisation de vaccins efficaces et pour le développement de nouveaux médicaments capables de moduler la réponse immunitaire lymphocytaire. Dans cette thèse, nous avons d'abord développé et amélioré une technologie appelée 'protéine array en phase inverse' qui possède un niveau de sensibilité beaucoup plus élevé par rapport aux technologies classiquement utilisées dans l'étude des protéines. Grâce à cette technique, nous avons pu comparer la composition protéique du système de transmission des signaux d'activation des cellules CM et EM humaines. L'analyse de 8 à 13 sujets sains a montré que ces populations des cellules mémoires possèdent un système de signalisation protéique différent. En effet, les cellules EM possèdent, par rapport aux cellules CM, des niveaux réduits d'une protéine régulatrice (appelée c-Cbl) que nous avons démontré comme étant responsable des fonctions spécifiques de ces cellules. En effet, en augmentant artificiellement l'expression de cette protéine régulatrice dans les cellules EM jusqu'au niveau de celui des cellules CM, nous avons induit dans les cellules EM des capacités fonctionnelles caractéristiques des cellules CM. En conclusion, notre étude a identifié, pour la première fois chez l'homme, un mécanisme biochimique qui contrôle les fonctions des populations des cellules mémoires. Résumé en Français: Les cellules mémoires persistent inertes dans l'organisme et produisent des réactions immunitaires rapides et robustes contre les pathogènes précédemment rencontrés. Deux populations distinctes des cellules mémoires ont été identifiées chez l'homme: les cellules centrales (CM) et effectrices (EM) mémoires. Ces populations sont fonctionnellement hétérogènes et exercent des rôles distincts et critiques dans l'immunité protectrice. Les mécanismes biochimiques qui contrôlent leurs fonctions ont été jusqu'à présent peu étudiés, bien que leur compréhension soit cruciale pour le développement des vaccins et des nouveaux traitements/médicaments. Les limites majeures à ces études sont la faible fréquence de ces populations et la quantité limitée de tissus humains disponibles. Dans cette thèse nous avons d'abord développé et amélioré la technologie de 'protéine array en phase inverse' afin d'analyser les molécules de signalisation des cellules mémoires CD4 et CD8 humaines isolées ex vivo. L'excellente sensibilité, la reproductibilité et la linéarité de la détection, ont permis de quantifier des variations d'expression protéiques supérieures à 20% dans un lysat équivalent à 20 cellules. Ensuite, grâce à l'analyse de 8 à 13 sujets sains, nous avons prouvé que les cellules mémoires CD8 ont une composition homogène de leur système de signalisation tandis que les cellules CD4 EM expriment significativement de plus grandes quantités de SLP-76 et des niveaux réduits de c-Cbl, Syk, Fyn et LAT par rapport aux cellules CM. En outre, l'expression réduite du régulateur négatif c-Cbl est corrélée avec l'expression des SLP-76, PI3K et LAT uniquement dans les cellules EM. L'évaluation des propriétés fonctionnelles des cellules mémoires a permis de démontrer que l'expression réduite du c-Cbl dans les cellules EM est associé à une diminution de leur seuil d'activation. En effet, grâce a la technique de transduction cytosolique, nous avons augmenté la quantité de c-Cbl des cellules EM à un niveau comparable à celui des cellules CM et constaté une réduction de la capacité des cellules EM à proliférer et sécréter des cytokines. Ce mécanisme de régulation dépend principalement de l'activité d'ubiquitine ligase de c-Cbl comme démontré par l'impact réduit du mutant enzymatiquement déficient de c-Cbl sur les fonctions de cellules EM. En conclusion, cette thèse identifie c-Cbl comme un régulateur critique des réponses fonctionnelles des populations de cellules T mémoires et fournit, pour la première fois chez l'homme, un mécanisme contrôlant l'hétérogénéité fonctionnelle des ces cellules. De plus, elle valide l'utilisation combinée des 'RPP arrays' et de la transduction cytosolique comme outil puissant d'analyse quantitative et fonctionnel des protéines de signalisation. Summary : Memory cells persist in a quiescent state in the body and mediate rapid and vigorous immune responses toward pathogens previously encountered. Two subsets of memory cells, namely central (CM) and effector (EM) memory cells, have been identified in humans. These subsets display high functional heterogeneity and assert critical and distinct roles in the control of protective immunity. The biochemical mechanisms controlling their functional properties remain so far poorly investigated, although their clarification is crucial for design of effective T-cell vaccine and drug development. Major limitations to these studies lie in the low frequency of memory T cell subsets and the limited amount of human specimen available. In this thesis we first implemented the innovative reverse phase protein array approach to profile 15 signalling components in human CD8 and CD4 memory T cells isolated ex vivo. The high degree of sensitivity, reproducibility and linearity achieved, allowed an excellent quantification of variations in protein expression higher than 20% in as few as 20-cell equivalent per spot. Based on the analysis of 8 to 13 healthy subjects, we showed that CD8 memory cells have a homogeneous composition of their signaling machinery while CD4 EM cells express statistically significant increased amounts of SLP-76 and reduced levels of c- Cbl, Syk, Fyn and LAT as compared to CM cells. Moreover, in EM but not CM cells, reduced expression of negative regulator c-Cbl correlated with the expression of SLP-76, PI3K and LAT. Subsequently, we demonstrated that the higher functional properties and the lower functional threshold of EM cells is associated with reduced expression of c-Cbl. Indeed, by increasing c-Cbl content of EM cells to the same level of CM cells using cytosolic transduction, we impaired their proliferation and cytokine production. This regulatory mechanism was primarily dependent on c-Cbl E3 ubiquitin ligase activity as evidenced by the weaker impact of enzymatically deficient c-Cbl C381A mutant on EM cell functions. Together, these results identify c-Cbl as a critical regulator of the functional responses of memory T cell subsets and provides, for the first time in humans, a mechanism controlling the functional heterogeneity of memory CD4 cells. Moreover it validates the combined use of RPP arrays and cytosolic transduction approaches as a powerful tool to quantitatively analyze signalling proteins and functionally assess their roles.
Resumo:
L'expérience LHCb sera installée sur le futur accélérateur LHC du CERN. LHCb est un spectromètre à un bras consacré aux mesures de précision de la violation CP et à l'étude des désintégrations rares des particules qui contiennent un quark b. Actuellement LHCb se trouve dans la phase finale de recherche et développement et de conception. La construction a déjà commencé pour l'aimant et les calorimètres. Dans le Modèle Standard, la violation CP est causée par une phase complexe dans la matrice 3x3 CKM (Cabibbo-Kobayashi-Maskawa) de mélange des quarks. L'expérience LHCb compte utiliser les mesons B pour tester l'unitarité de cette matrice, en mesurant de diverses manières indépendantes tous les angles et côtés du "triangle d'unitarité". Cela permettra de surdéterminer le modèle et, peut-être, de mettre en évidence des incohérences qui seraient le signal de l'existence d'une physique au-delà du Modèle Standard. La reconstruction du vertex de désintégration des particules est une condition fondamentale pour l'expérience LHCb. La présence d'un vertex secondaire déplacé est une signature de la désintégration de particules avec un quark b. Cette signature est utilisée dans le trigger topologique du LHCb. Le Vertex Locator (VeLo) doit fournir des mesures précises de coordonnées de passage des traces près de la région d'interaction. Ces points sont ensuite utilisés pour reconstruire les trajectoires des particules et l'identification des vertices secondaires et la mesure des temps de vie des hadrons avec quark b. L'électronique du VeLo est une partie essentielle du système d'acquisition de données et doit se conformer aux spécifications de l'électronique de LHCb. La conception des circuits doit maximiser le rapport signal/bruit pour obtenir la meilleure performance de reconstruction des traces dans le détecteur. L'électronique, conçue en parallèle avec le développement du détecteur de silicium, a parcouru plusieurs phases de "prototyping" décrites dans cette thèse.<br/><br/>The LHCb experiment is being built at the future LHC accelerator at CERN. It is a forward single-arm spectrometer dedicated to precision measurements of CP violation and rare decays in the b quark sector. Presently it is finishing its R&D and final design stage. The construction already started for the magnet and calorimeters. In the Standard Model, CP violation arises via the complex phase of the 3 x 3 CKM (Cabibbo-Kobayashi-Maskawa) quark mixing matrix. The LHCb experiment will test the unitarity of this matrix by measuring in several theoretically unrelated ways all angles and sides of the so-called "unitary triangle". This will allow to over-constrain the model and - hopefully - to exhibit inconsistencies which will be a signal of physics beyond the Standard Model. The Vertex reconstruction is a fundamental requirement for the LHCb experiment. Displaced secondary vertices are a distinctive feature of b-hadron decays. This signature is used in the LHCb topology trigger. The Vertex Locator (VeLo) has to provide precise measurements of track coordinates close to the interaction region. These are used to reconstruct production and decay vertices of beauty-hadrons and to provide accurate measurements of their decay lifetimes. The Vertex Locator electronics is an essential part of the data acquisition system and must conform to the overall LHCb electronics specification. The design of the electronics must maximise the signal to noise ratio in order to achieve the best tracking reconstruction performance in the detector. The electronics is being designed in parallel with the silicon detector development and went trough several prototyping phases, which are described in this thesis.
Resumo:
Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.
Resumo:
PURPOSE: To combine weighted iterative reconstruction with self-navigated free-breathing coronary magnetic resonance angiography for retrospective reduction of respiratory motion artifacts. METHODS: One-dimensional self-navigation was improved for robust respiratory motion detection and the consistency of the acquired data was estimated on the detected motion. Based on the data consistency, the data fidelity term of iterative reconstruction was weighted to reduce the effects of respiratory motion. In vivo experiments were performed in 14 healthy volunteers and the resulting image quality of the proposed method was compared to a navigator-gated reference in terms of acquisition time, vessel length, and sharpness. RESULT: Although the sampling pattern of the proposed method contained 60% more samples with respect to the reference, the scan efficiency was improved from 39.5 ± 10.1% to 55.1 ± 9.1%. The improved self-navigation showed a high correlation to the standard navigator signal and the described weighting efficiently reduced respiratory motion artifacts. Overall, the average image quality of the proposed method was comparable to the navigator-gated reference. CONCLUSION: Self-navigated coronary magnetic resonance angiography was successfully combined with weighted iterative reconstruction to reduce the total acquisition time and efficiently suppress respiratory motion artifacts. The simplicity of the experimental setup and the promising image quality are encouraging toward future clinical evaluation. Magn Reson Med 73:1885-1895, 2015. © 2014 Wiley Periodicals, Inc.
Resumo:
We evaluated the performance of an optical camera based prospective motion correction (PMC) system in improving the quality of 3D echo-planar imaging functional MRI data. An optical camera and external marker were used to dynamically track the head movement of subjects during fMRI scanning. PMC was performed by using the motion information to dynamically update the sequence's RF excitation and gradient waveforms such that the field-of-view was realigned to match the subject's head movement. Task-free fMRI experiments on five healthy volunteers followed a 2×2×3 factorial design with the following factors: PMC on or off; 3.0mm or 1.5mm isotropic resolution; and no, slow, or fast head movements. Visual and motor fMRI experiments were additionally performed on one of the volunteers at 1.5mm resolution comparing PMC on vs PMC off for no and slow head movements. Metrics were developed to quantify the amount of motion as it occurred relative to k-space data acquisition. The motion quantification metric collapsed the very rich camera tracking data into one scalar value for each image volume that was strongly predictive of motion-induced artifacts. The PMC system did not introduce extraneous artifacts for the no motion conditions and improved the time series temporal signal-to-noise by 30% to 40% for all combinations of low/high resolution and slow/fast head movement relative to the standard acquisition with no prospective correction. The numbers of activated voxels (p<0.001, uncorrected) in both task-based experiments were comparable for the no motion cases and increased by 78% and 330%, respectively, for PMC on versus PMC off in the slow motion cases. The PMC system is a robust solution to decrease the motion sensitivity of multi-shot 3D EPI sequences and thereby overcome one of the main roadblocks to their widespread use in fMRI studies.
Resumo:
PURPOSE: All methods presented to date to map both conductivity and permittivity rely on multiple acquisitions to compute quantitatively the magnitude of radiofrequency transmit fields, B1+. In this work, we propose a method to compute both conductivity and permittivity based solely on relative receive coil sensitivities ( B1-) that can be obtained in one single measurement without the need to neither explicitly perform transmit/receive phase separation nor make assumptions regarding those phases. THEORY AND METHODS: To demonstrate the validity and the noise sensitivity of our method we used electromagnetic finite differences simulations of a 16-channel transceiver array. To experimentally validate our methodology at 7 Tesla, multi compartment phantom data was acquired using a standard 32-channel receive coil system and two-dimensional (2D) and 3D gradient echo acquisition. The reconstructed electric properties were correlated to those measured using dielectric probes. RESULTS: The method was demonstrated both in simulations and in phantom data with correlations to both the modeled and bench measurements being close to identity. The noise properties were modeled and understood. CONCLUSION: The proposed methodology allows to quantitatively determine the electrical properties of a sample using any MR contrast, with the only constraint being the need to have 4 or more receive coils and high SNR. Magn Reson Med, 2014. © 2014 Wiley Periodicals, Inc.
Resumo:
Diplomityön tarkoituksena oli arvioida akvisition jälkeistä integraatioprosessia. Integraation tarkoitus on mukauttaa ostettu yritys toimivaksi osaksi konsernia. Työn empiirisenä ongelmana oli yleisesti tunnustettu integraatiojohtamisen kompleksisuus. Samoin myöskin akateemisesta kirjallisuudesta puuttui koherentti malli, jolla arvioida integraatiota. Tutkimuskohteena oli akvisitio, jossa suomalainen tietotekniikkan suuryritys osti osake-enemmistön tsekkiläisestä keskisuuresta ohjelmistoyrityksestä. Tutkimuksessa generoitiin integraatiojohtamisen malli tietopohjaiseen organisaatioon. Mallin mukaan integraatio koostuu kolmesta eriävästä, mutta toisiaan tukevasta alueesta: organisaatiokulttuurin yhdentyminen, tietopääoman tasaaminen ja konsernin sisäisten prosessien yhdenmukaistaminen. Näistä kaksi kaksi jälkimmäistä ovat johdettavissa, mutta kulttuurin yhdentymiseen integraatiojohtamisella voidaan vaikuttaa vain katalysoivasti. Organisaatiokulttuuri levittäytyy vain osallisten vuorovaikuksien kautta. Lisäksi tutkimus osoitti, miten akvisitio on revolutionaarinen vaihe yrityksen kehityksessä. Integraation ensimmäinen ajanjakso on revolutionaarista. Tällöin suurimmat ja näkyvimmät johdettavat muutokset pyritään saamaan aikaan, jotta integraatiossa edettäisiin evolutionaariseen kehitykseen. Revolutionaarisen intergaation vetojuhtana toimii integraatiojohto, kun taas evolutionaarinen integraatio etenee osallisten (organisaation jäsenten) itsensä toiminnan ja vuorovaikutusten kautta.
Resumo:
A robust finding of studies investigating the Aspect Hypothesis is that learners at early stages of acquisition show a strong preference for using the progressive aspect as associated with activity verbs. As they advance in their acquisition of the second or foreign language, learners move from this prototypical association to associations traditionally considered to be more peripheral (e.g.-ing with accomplishments or achievements). Within this framework, the goal of this paper is to provide further evidence from groups of learners with different proficiency levels with regard to the acquisition of progressive aspect by tutored learners of English who are bilingual Catalan-Spanish. This is done by eliciting data by means of two different task types and by looking at both tokens and types. Our results are consistent with previous research according to which-ing morphology is closely associated with durative lexical aspect, although not necessarily with activity predicates. The study also shows that the type of task has an influence on the frequency and the distribution of learners" progressive forms.
Resumo:
Diplomityön tavoitteena oli sopivimman yritysostokohteen valitseminen useiden kilpailijoiden joukosta puunkäsittelykoneiden toimittajalle. Ensin esiteltiin Suomen metsäteollisuus sekä sen osaamistarpeista noussut metsäklusteri pääosin kohdeyrityksen näkökulmasta. Seuraavaksi annettiin kuva yrityksen tuotteista, kilpailijoista ja asiakkaista. Yritysostoprosessi kuvattiin sekä esille tuotiin yleiset motiivit ja kriittiset menestystekijät. Lisäksi kuvattiin kilpailijoiden ja liiketoimintaympäristön analysointi yrityksen menestyksen edellytyksenä. Puuntyöstökoneiden markkinat segmentoitiin ja analysoitiin vuodesta 1990 aina tähän päivään asti, jotta löydettäisiin kehityskelpoiset osa-alueet eli alueet, joissa yrityksen markkinaosuutta voitaisiin kasvattaa. Kandidaattien ominaisuuksia verrattiin yritysoston motiiveihin. Yritysten tuotteet sekä maantieteellinen sijainti pisteytettiin, jotta sopivimmat yritykset nousisivat esille. Kolme yritystä valittiin syvällisempään tarkasteluun. Yritysten tuotteita, taloudellista asemaa ja globaalia verkostoa vertailtiin keskenään muiden tekijöiden, kuten maailmantalouden ohessa. Taloudellisesti vakaa ja teknisesti monipuolinen yritys kohtasi yritysoston motiivit parhaiten. Kohteen positiivisia puolia olivat sijainti, tuotteet ja palvelut. Lisäksi, yritys sopii ostajan strategiaan sekä auttaa kohtaamaan asiakkaiden nykyiset ja tulevat tarpeet.