960 resultados para 2-D image inputs


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Numerous sources of evidence point to the fact that heterogeneity within the Earth's deep crystalline crust is complex and hence may be best described through stochastic rather than deterministic approaches. As seismic reflection imaging arguably offers the best means of sampling deep crustal rocks in situ, much interest has been expressed in using such data to characterize the stochastic nature of crustal heterogeneity. Previous work on this problem has shown that the spatial statistics of seismic reflection data are indeed related to those of the underlying heterogeneous seismic velocity distribution. As of yet, however, the nature of this relationship has remained elusive due to the fact that most of the work was either strictly empirical or based on incorrect methodological approaches. Here, we introduce a conceptual model, based on the assumption of weak scattering, that allows us to quantitatively link the second-order statistics of a 2-D seismic velocity distribution with those of the corresponding processed and depth-migrated seismic reflection image. We then perform a sensitivity study in order to investigate what information regarding the stochastic model parameters describing crustal velocity heterogeneity might potentially be recovered from the statistics of a seismic reflection image using this model. Finally, we present a Monte Carlo inversion strategy to estimate these parameters and we show examples of its application at two different source frequencies and using two different sets of prior information. Our results indicate that the inverse problem is inherently non-unique and that many different combinations of the vertical and lateral correlation lengths describing the velocity heterogeneity can yield seismic images with the same 2-D autocorrelation structure. The ratio of all of these possible combinations of vertical and lateral correlation lengths, however, remains roughly constant which indicates that, without additional prior information, the aspect ratio is the only parameter describing the stochastic seismic velocity structure that can be reliably recovered.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La présente recherche analyse le concept mental d'identité personnelle et en propose une interprétation critique, qui se développe à partir des cas de troubles psychologiques se manifestant chez certains patients transplantés. Nous pensons que l'étude de ces cas offre la possibilité de repenser, et par là critiquer, certains présupposés qui conditionnent le débat philosophique contemporain sur l'identité personnelle de matrice essentiellement analytique. Nous proposons de ce concept mental une interprétation inusuelle, reposant sur une certaine compréhension de l'être (humain), que nous caractérisons par la formule «identité personnelle transductive ». Cette expression véhicule l'idée d'une «ontologie autre » ; autre que l'ontologie classique qui pense l'être comme déterminité, à l'instar d'un individu substantiel, stable et persistant. Nous nous éloignons ainsi de la conception de la déterminité telle qu'elle se développe depuis l'Antiquité grecque, parce que nous croyons que le changement ou le devenir réside dans la nature des choses. Nous avons ainsi essayé de présenter une interprétation de l'être différente, en empruntant à Gilbert Simondon la notion de « transductivité » -dans le sens d'« individuation en progrès »que cet auteur lui attribue. En comparant les témoignages des patients transplantés avec les cas imaginaires de transplantation de cerveau qui dominent les discussions philosophiques, nous avons montré la nécessité de refonder l'ontologie sur laquelle reposent les théories contemporaines de l'identité personnelle. Cette tentative répond à l'exigence de résoudre et tempérer les apories qui se font jour au sein des conceptions déterministes de la personne -soient-elles réductionnistes (à l'instar des partisans du critère de continuité psychologique et physique) ou non réductionnistes (à l'instar des conceptions simples ou Théories de l'ego basées sur une approche à la première personne, où la personne, comprise comme persistance substantielle d'un sujet, se fonde d'elle-même). Au coeur de notre démarche se trouve la notion d'« image du corps », véritable outil d'unification épistémologique et de renouvellement ontologique. Cette notion s'est révélée extrêmement utile non seulement pour comprendre et démêler les composantes qui interviennent dans le surgissement des troubles psychologiques lors des transplantations d'organes, ainsi que la variabilité des réactions individuelles, mais aussi, plus fondamentalement, pour rendre manifeste l'opération de «transduction perpétuée »qui est à la base de l'ontogenèse de l'être humain en tant que personne, donc du moi. La notion d'image du corps nous a donc permis de mettre en évidence ce que l'expérience de la transplantation d'organes bien comprise pourrait ou devrait apporter à la théorie de l'identité personnelle. C'est ainsi que, par approximation, s'est précisée l'idée d'une identité personnelle transductive, où le moi (la personne), étant interprété comme l'aspect subjectif d'une opération d'«individuation perpétuée », se donne sous le signe de la discordance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En observant les dynamiques scientifiques et institutionnelles à l'oeuvre autour du développement des nanosciences et des nanotechnologies, on observe des rapprochements entre certaines disciplines, dont la chimie, et la transformation de leur identité et de leurs frontières. Ce chapitre rend compte de la manière dont la communauté des chimistes réagit à ces transformations mais aussi comment elle perçoit les alertes sur l'environnement et sur les risques toxicologiques et éco-toxicologiques potentiels et ce qu'elle en fait. On constate alors que les nanoparticules impactent la communauté chimique et contribuent à la verdir (en termes d'image dans la société comme en termes de réduction effectives des nuisances) encore un peu plus. Le texte tente de qualifier le phénomène et de répondre finalement à la question : « comment les nanoparticules poussent la chimie vers le développement durable ? »

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Particle fluxes (including major components and grain size), and oceanographic parameters (near-bottom water temperature, current speed and suspended sediment concentration) were measured along the Cap de Creus submarine canyon in the Gulf of Lions (GoL; NW Mediterranean Sea) during two consecutive winter-spring periods (2009 2010 and 2010 2011). The comparison of data obtained with the measurements of meteorological and hydrological parameters (wind speed, turbulent heat flux, river discharge) have shown the important role of atmospheric forcings in transporting particulate matter through the submarine canyon and towards the deep sea. Indeed, atmospheric forcing during 2009 2010 and 2010 2011 winter months showed differences in both intensity and persistence that led to distinct oceanographic responses. Persistent dry northern winds caused strong heat losses (14.2 × 103 W m−2) in winter 2009 2010 that triggered a pronounced sea surface cooling compared to winter 2010 2011 (1.6 × 103 W m−2 lower). As a consequence, a large volume of dense shelf water formed in winter 2009 2010, which cascaded at high speed (up to ∼1 m s−1) down Cap de Creus Canyon as measured by a current-meter in the head of the canyon. The lower heat losses recorded in winter 2010 2011, together with an increased river discharge, resulted in lowered density waters over the shelf, thus preventing the formation and downslope transport of dense shelf water. High total mass fluxes (up to 84.9 g m−2 d−1) recorded in winter-spring 2009 2010 indicate that dense shelf water cascading resuspended and transported sediments at least down to the middle canyon. Sediment fluxes were lower (28.9 g m−2 d−1) under the quieter conditions of winter 2010 2011. The dominance of the lithogenic fraction in mass fluxes during the two winter-spring periods points to a resuspension origin for most of the particles transported down canyon. The variability in organic matter and opal contents relates to seasonally controlled inputs associated with the plankton spring bloom during March and April of both years.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUME Les fibres textiles sont des produits de masse utilisés dans la fabrication de nombreux objets de notre quotidien. Le transfert de fibres lors d'une action délictueuse est dès lors extrêmement courant. Du fait de leur omniprésence dans notre environnement, il est capital que l'expert forensique évalue la valeur de l'indice fibres. L'interprétation de l'indice fibres passe par la connaissance d'un certain nombre de paramètres, comme la rareté des fibres, la probabilité de leur présence par hasard sur un certain support, ainsi que les mécanismes de transfert et de persistance des fibres. Les lacunes les plus importantes concernent les mécanismes de transfert des fibres. A ce jour, les nombreux auteurs qui se sont penchés sur le transfert de fibres ne sont pas parvenus à créer un modèle permettant de prédire le nombre de fibres que l'on s'attend à retrouver dans des circonstances de contact données, en fonction des différents paramètres caractérisant ce contact et les textiles mis en jeu. Le but principal de cette recherche est de démontrer que la création d'un modèle prédictif du nombre de fibres transférées lors d'un contact donné est possible. Dans le cadre de ce travail, le cas particulier du transfert de fibres d'un tricot en laine ou en acrylique d'un conducteur vers le dossier du siège de son véhicule a été étudié. Plusieurs caractéristiques des textiles mis en jeu lors de ces expériences ont été mesurées. Des outils statistiques (régression linéaire multiple) ont ensuite été utilisés sur ces données afin d'évaluer l'influence des caractéristiques des textiles donneurs sur le nombre de fibres transférées et d'élaborer un modèle permettant de prédire le nombre de fibres qui vont être transférées à l'aide des caractéristiques influençant significativement le transfert. Afin de faciliter la recherche et le comptage des fibres transférées lors des expériences de transfert, un appareil de recherche automatique des fibres (liber finder) a été utilisé dans le cadre de cette recherche. Les tests d'évaluation de l'efficacité de cet appareil pour la recherche de fibres montrent que la recherche automatique est globalement aussi efficace qu'une recherche visuelle pour les fibres fortement colorées. Par contre la recherche automatique perd de son efficacité pour les fibres très pâles ou très foncées. Une des caractéristiques des textiles donneurs à étudier est la longueur des fibres. Afin de pouvoir évaluer ce paramètre, une séquence d'algorithmes de traitement d'image a été implémentée. Cet outil permet la mesure de la longueur d'une fibre à partir de son image numérique à haute résolution (2'540 dpi). Les tests effectués montrent que les mesures ainsi obtenues présentent une erreur de l'ordre du dixième de millimètre, ce qui est largement suffisant pour son utilisation dans le cadre de cette recherche. Les résultats obtenus suite au traitement statistique des résultats des expériences de transfert ont permis d'aboutir à une modélisation du phénomène du transfert. Deux paramètres sont retenus dans le modèle: l'état de la surface du tissu donneur et la longueur des fibres composant le tissu donneur. L'état de la surface du tissu est un paramètre tenant compte de la quantité de fibres qui se sont détachées de la structure du tissu ou qui sont encore faiblement rattachées à celle-ci. En effet, ces fibres sont les premières à se transférer lors d'un contact, et plus la quantité de ces fibres par unité de surface est importante, plus le nombre de fibres transférées sera élevé. La longueur des fibres du tissu donneur est également un paramètre important : plus les fibres sont longues, mieux elles sont retenues dans la structure du tissu et moins elles se transféreront. SUMMARY Fibres are mass products used to produce numerous objects encountered everyday. The transfer of fibres during a criminal action is then very common. Because fibres are omnipresent in our environment, the forensic expert has to evaluate the value of the fibre evidence. To interpret fibre evidence, the expert has to know some parameters as frequency of fibres,' probability of finding extraneous fibres by chance on a given support, and transfer and persistence mechanisms. Fibre transfer is one of the most complex parameter. Many authors studied fibre transfer mechanisms but no model has been created to predict the number of fibres transferred expected in a given type of contact according to parameters as characteristics of the contact and characteristics of textiles. The main purpose of this research is to demonstrate that it is possible to create a model to predict the number of fibres transferred during a contact. In this work, the particular case of the transfer of fibres from a knitted textile in wool or in acrylic of a driver to the back of a carseat has been studied. Several characteristics of the textiles used for the experiments were measured. The data obtained were then treated with statistical tools (multiple linear regression) to evaluate the influence of the donor textile characteristics on the number of úbers transferred, and to create a model to predict this number of fibres transferred by an equation containing the characteristics having a significant influence on the transfer. To make easier the searching and the counting of fibres, an apparatus of automatic search. of fibers (fiber finder) was used. The tests realised to evaluate the efficiency of the fiber finder shows that the results obtained are generally as efficient as for visual search for well-coloured fibres. However, the efficiency of automatic search decreases for pales and dark fibres. One characteristic of the donor textile studied was the length of the fibres. To measure this parameter, a sequence of image processing algorithms was implemented. This tool allows to measure the length of a fibre from it high-resolution (2'540 dpi) numerical image. The tests done shows that the error of the measures obtained are about some tenths of millimetres. This precision is sufficient for this research. The statistical methods applied on the transfer experiment data allow to create a model of the transfer phenomenon. Two parameters are included in the model: the shedding capacity of the donor textile surface and the length of donor textile fibres. The shedding capacity of the donor textile surface is a parameter estimating the quantity of fibres that are not or slightly attached to the structure of the textile. These fibres are easily transferred during a contact, and the more this quantity of fibres is high, the more the number of fibres transferred during the contact is important. The length of fibres is also an important parameter: the more the fibres are long, the more they are attached in the structure of the textile and the less they are transferred during the contact.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Aquest projecte tracta sobre l'estudi d'unes noves solucions constructives per tal de millorar l'eficiència energètica dels edificis actuals. Per estudiar i obtenir resultats verídics s'utilitzen 4 cubicles reals, existents a Puigverd de Lleida, amb les mateixes dimensions interiors i idèntiques solucions constructives en façana però amb solucions diferents en coberta (2 d'elles amb coberta vegetada amb diferent tipus de drenatge, el tercer amb coberta plana convencional no transitable i el quart amb una solució constructiva considerada com a referència) per tal de comparar-los. És un estudi d'investigació mitjançant un anàlisi de cicle de vida (ACV) dels quatre cubicles utilitzant la base de dades Eco Invent 99.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'objectif de ce travail est le développement d'une méthode de caractérisation objective de la qualité d'image s'appliquant à des systèmes de mammographie analogique, utilisant un couple écran-film comme détecteur, et numérique, basé sur une technologie semi-conductrice, ceci en vue de la comparaison de leurs performances. La méthode développée tient compte de la gamme dynamique du détecteur, de la détectabilité de structures de haut contraste, simulant des microcalcifications, et de structures de bas contraste, simulant des opacités (nodules tumoraux). La méthode prend également en considération le processus de visualisation de l'image, ainsi que la réponse de l'observateur. Pour réaliser ceci, un objet-test ayant des propriétés proches de celles d'un sein comprimé, composé de différents matériaux équivalents aux tissus, allant du glandulaire à l'adipeux, et comprenant des zones permettant la simulation de structures de haut et bas contraste, ainsi que la mesure de la résolution et celle du bruit, a été développé et testé. L'intégration du processus de visualisation a été réalisée en utilisant une caméra CCD mesurant directement les paramètres de qualité d'image, à partir de l'image de l'objet-test, dans une grandeur physique commune au système numérique et analogique, à savoir la luminance arrivant sur l'oeil de l'observateur. L'utilisation d'une grandeur synthétique intégrant dans un même temps, le contraste, le bruit et la résolution rend possible une comparaison objective entre les deux systèmes de mammographie. Un modèle mathématique, simulant la réponse d'un observateur et intégrant les paramètres de base de qualité d'image, a été utilisé pour calculer la détectabilité de structures de haut et bas contraste en fonction du type de tissu sur lequel celles-ci se trouvent. Les résultats obtenus montrent qu'à dose égale la détectabilité des structures est significativement plus élevée avec le système de mammographie numérique qu'avec le système analogique. Ceci est principalement lié au fait que le bruit du système numérique est plus faible que celui du système analogique. Les résultats montrent également que la méthodologie, visant à comparer des systèmes d'imagerie numérique et analogique en utilisant un objet-test à large gamme dynamique ainsi qu'une caméra, peut être appliquée à d'autres modalités radiologiques, ainsi qu'à une démarche d'optimisation des conditions de lecture des images.<br/><br/>The goal of this work was to develop a method to objectively compare the performance of a digital and a screen-film mammography system in terms of image quality and patient dose. We propose a method that takes into account the dynamic range of the image detector and the detection of high contrast (for microcalcifications) and low contrast (for masses or tumoral nodules) structures. The method also addresses the problems of image visualization and the observer response. A test object, designed to represent a compressed breast, was constructed from various tissue equivalent materials ranging from purely adipose to purely glandular composition. Different areas within the test object permitted the evaluation of low and high contrast detection, spatial resolution, and image noise. All the images (digital and conventional) were captured using a CCD camera to include the visualization process in the image quality assessment. In this way the luminance reaching the viewer?s eyes can be controlled for both kinds of images. A global quantity describing image contrast, spatial resolution and noise, and expressed in terms of luminance at the camera, can then be used to compare the two technologies objectively. The quantity used was a mathematical model observer that calculates the detectability of high and low contrast structures as a function of the background tissue. Our results show that for a given patient dose, the detection of high and low contrast structures is significantly better for the digital system than for the conventional screen-film system studied. This is mainly because the image noise is lower for the digital system than for the screen-film detector. The method of using a test object with a large dynamic range combined with a camera to compare conventional and digital imaging modalities can be applied to other radiological imaging techniques. In particular it could be used to optimize the process of radiographic film reading.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le nombre d'examens tomodensitométriques (Computed Tomography, CT) effectués chaque année étant en constante augmentation, différentes techniques d'optimisation, dont les algorithmes de reconstruction itérative permettant de réduire le bruit tout en maintenant la résolution spatiale, ont étés développées afin de réduire les doses délivrées. Le but de cette étude était d'évaluer l'impact des algorithmes de reconstruction itérative sur la qualité image à des doses effectives inférieures à 0.3 mSv, comparables à celle d'une radiographie thoracique. Vingt CT thoraciques effectués à cette dose effective ont été reconstruits en variant trois paramètres: l'algorithme de reconstruction, rétroprojection filtrée versus reconstruction itérative iDose4; la matrice, 5122 versus 7682; et le filtre de résolution en densité (mou) versus spatiale (dur). Ainsi, 8 séries ont été reconstruites pour chacun des 20 CT thoraciques. La qualité d'image de ces 8 séries a d'abord été évaluée qualitativement par deux radiologues expérimentés en aveugle en se basant sur la netteté des parois bronchiques et de l'interface entre le parenchyme pulmonaire et les vaisseaux, puis quantitativement en utilisant une formule de merit, fréquemment utilisée dans le développement de nouveaux algorithmes et filtres de reconstruction. La performance diagnostique de la meilleure série acquise à une dose effective inférieure à 0.3 mSv a été comparée à celle d'un CT de référence effectué à doses standards en relevant les anomalies du parenchyme pulmonaire. Les résultats montrent que la meilleure qualité d'image, tant qualitativement que quantitativement a été obtenue en utilisant iDose4, la matrice 5122 et le filtre mou, avec une concordance parfaite entre les classements quantitatif et qualitatif des 8 séries. D'autre part, la détection des nodules pulmonaires de plus de 4mm étaient similaire sur la meilleure série acquise à une dose effective inférieure à 0.3 mSv et le CT de référence. En conclusion, les CT thoraciques effectués à une dose effective inférieure à 0.3 mSv reconstruits avec iDose4, la matrice 5122 et le filtre mou peuvent être utilisés avec confiance pour diagnostiquer les nodules pulmonaires de plus de 4mm.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

To determine the feasibility of data transfer, an interlaboratory comparison was conducted on colon carcinoma cell line (DLD-1) proteins resolved by two-dimensional polyacrylamide gel electrophoresis either on small (6 x 7 cm) or large (16x18 cm) gels. The gels were silver-stained and scanned by laser densitometry, and the image obtained was analyzed using Melanie software. The number of spots detected was 1337+/-161 vs. 2382+/-176 for small vs. large format gels, respectively. After gel calibration using landmarks determined using pl and Mr markers, large- and small-format gels were matched and 712+/-36 proteins were found on both types of gels. Having performed accurate gel matching it was possible to acquire additional information after accessing a 2-D PAGE reference database (http://www.expasy.ch/ cgibin/map2/def?DLD1_HUMAN). Thus, the difference in gel size is not an obstacle for data transfer. This will facilitate exchanges between laboratories or consultation concerning existing databases.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Soitinnus: sekakuoro, orkesteri ja urut (harmoni).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Problématique. Le diabete de type 2 est la maladie metabolique la plus frequente, sa prevalence ne cesse de croitre et parallelement, la population vieillissante est en constante augmentation. Le diagnostic de diabete de type 2 accroit le risque de syndrome geriatrique. Pour prevenir d'eventuelles complications, le traitement du diabete de type 2 est constitue de differentes composantes incluant des automesures de la glycemie capillaire, une prise reguliere du traitement pharmacologique souvent multiples de l'activite physique et enfin le suivi de recommandations pour une alimentation equilibree. Pour la personne agee diabetique de type 2, l'apprentissage de l'application de ces composantes du traitement signifie qu'elle doit proceder a des ajustements dans sa vie quotidienne. Buts. Les buts de cette etude sont : 1) de decrire l'ajustement psychosocial de la personne agee au diabete de type 2, et 2) d'explorer la presence de relations entre differentes variables sociodemographiques et de sante et l'ajustement psychosocial de personnes agees diabetiques de type 2. Méthodologie. Il s'agit d'une etude descriptive correlationnelle. L'echantillon de convenance est compose de 57 participants ages de plus de 65 ans connus pour un diagnostic de diabete de type 2. Les mesures ont ete effectuees par l'utilisation du questionnaire « The Psychological Adjustement to Illness Scale (PAIS-SR) » developpe par Derogatis (1986). Les donnees ont ete recoltees dans un centre ambulatoire universitaire de consultation en diabetologie en Suisse Romande. La théorie de l'adaptation cognitive lors d'événements menaçants (Taylor, 1983) a servi de cadre theorique a l'etude. Résultats. La majorite des participants a l'etude est de sexe masculin et l'age moyen des participants a l'etude est de 71 ans. Les participants ont un ajustement psychosocial a la maladie positif. Le score des signes depressifs est faible, tandis que davantage de difficultes apparaissent dans le domaine des relations sexuelles. Tous les participants ont des comorbidites ou ont developpe des complications. La moyenne de l'hemoglobine glyquee (HbA1c) correspond aux normes preconisees par les experts. Aucune correlation significative n'a pu etre etablie entre le niveau d'ajustement psychosocial, et les variables sociodemographiques et de sante.Conclusion : Les participants a l'etude ont un controle glycemique optimal et presentent un ajustement psychosocial positif. Malgre le fait qu'aucune correlation n'a pu etre determinee entre les differentes variables, la problematique reste importante a etudier. Les complications et les comorbidites associees au diagnostic de diabete de type 2 rendent cette population particulierement vulnerable, et a risque de declin fonctionnel. Peu d'etudes ont permis de determiner les composantes favorisant le processus d'adaptation d'un etat de sante vers un etat de maladie, et ce dans un contexte de vieillissement. La recherche dans ce domaine permettrait de determiner plus precisement des axes de prise en charge et de favoriser la prevention du declin fonctionnel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Soitinnus: laulu, piano

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The synthesis of -5-(D-arabino-1,2,3,4-tetrahydroxybutyl)tetrazole and -2-(D-arabino-1,2,3,4-tetra-acetoxybutyl)-5-methyl-1,3,4-oxadiazole from D-arabinose is described. Attempts at removing the protecting groups of the oxadiazole derivative were unsuccessful, leading to products resulting from the opening of the oxadiazole ring. The unprotected tetrazole derivative was selectively phosphorylated at the primary hydroxyl group with diethylphosphoryl chloride. The resulting 5-[D-arabino-4-(diethylphosphoryloxy)-1,2,3-trihydroxybutyl]tetrazole is a protected form of a potential inhibitor of the enzymes glucose-6-phosphate isomerase and glucosamine synthase.