75 resultados para Uniform Rotundity In Every Direction

em Université de Lausanne, Switzerland


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Instead of standard rigid thoracoscopes, we used a modified gastroscope for video assistance during 12 minimally invasive left internal mammary harvesting. Flexibility and remote control of its last centimeters give to the gastroscope a total freedom of movements, and perfect positioning in every direction. The scope is equipped with cold light, a suction canal and an irrigation canal, which allow for in situ washing without needing to remove it from the thoracic cavity. Thanks to these advantages, vision and lighting are always perfect.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Given their high sensitivity and ability to limit the field of view (FOV), surface coils are often used in magnetic resonance spectroscopy (MRS) and imaging (MRI). A major downside of surface coils is their inherent radiofrequency (RF) B1 heterogeneity across the FOV, decreasing with increasing distance from the coil and giving rise to image distortions due to non-uniform spatial responses. A robust way to compensate for B1 inhomogeneities is to employ adiabatic inversion pulses, yet these are not well adapted to all imaging sequences - including to single-shot approaches like echo planar imaging (EPI). Hybrid spatiotemporal encoding (SPEN) sequences relying on frequency-swept pulses provide another ultrafast MRI alternative, that could help solve this problem thanks to their built-in heterogeneous spatial manipulations. This study explores how this intrinsic SPEN-based spatial discrimination, could be used to compensate for the B1 inhomogeneities inherent to surface coils. Experiments carried out in both phantoms and in vivo rat brains demonstrate that, by suitably modulating the amplitude of a SPEN chirp pulse that progressively excites the spins in a direction normal to the coil, it is possible to compensate for the RF transmit inhomogeneities and thus improve sensitivity and image fidelity.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract : Textural division of a mineral in pyramids, with their apices located at the centre of the mineral and their bases corresponding to the mineral faces is called textural sector zoning. Textural sector zoning is observed in many metamorphic minerals like andalousite and garnet. Garnets found in the graphite rich black shales of the Mesozoic cover of the Gotthard Massif display textural sector zoning. The morphology of this sector zoning is not the same in different types of black shales observed in the Nufenen pass area. Garnets in foliated black shales display a well developed sector zoning while garnets found in cm-scale layered black shales display well developed sectors in the direction of the schistosity plane. This sector zoning is always associated with up to 30μm sized birefringent lamellae emanating radial from the sector boundaries. They alternate with isotrope lamellae. The garnet forming reaction was determined using singular value decomposition approach and results compared to thermodynamic calculations. It is of the form chl + mu + cc + cld = bt + fds + ank + gt + czo and is similar in both layered and foliated black shales. The calculated X(O) is close to 0.36 and does not significantly vary during the metamorphic history of the rock. This corresponds to X CO2, X CH4, and X H2O BSE imaging of garnets on oriented-cuts revealed that the orientation of the lamellae found within the sectors is controlled by crystallography. BSE imaging and electron microprobe analysis revealed that these lamellae are calcium rich compared to the isotropic lamellae. The addition of Ca to an almandine rich garnet causes a small distortion of the X site and potentially, ordering. Ordered and disordered garnet might have very similar free energies for this composition. Hence, two garnets with different composition can be precipitated with minor overstepping of the reaction. It is enough that continued nucleation of a new garnet layer slightly prefers the same structure to assure a fiber-like growth of both garnet compositions side by side. This hypothesis is in agreement with the thermodynamic properties of the garnet solid solution described in the literature and could explain the textures observed in garnets with these compositions. To understand the differences in sector zoning morphology, and crystal growth kinetics, crystal size distribution were determined in several samples using 2D spatial analysis of slab surfaces. The same nucleation rate law was chosen for all cases. Different growth rate law for non-layered black shales and layered black shales were used. Garnet in layered black shales grew according to a growth rate law of the form R=kt ½. The transport of nutrient is the limiting factor. Transport will occur preferentially on the schistosity planes. The shapes of the garnets in such rocks are therefore ovoid with the longest axis parallel to the schistosity planes. Sector zoning is less developed with sectors present only parallel to the schistosity planes. Garnet in non-layered blackshales grew according to a growth rate law of the form R=kt. The limiting factor is the attachment at the surface of the garnet. Garnets in these rocks will display a well developed sector zoning in all directions. The growth rate law is thus influenced by the texture of the rock. It favours or hinders the transport of nutrient to the mineral surface. Résumé : La zonation sectorielle texturale consiste en la division d'un cristal en pyramides dont les sommets sont localisés au centre du minéral. La base de ces pyramides correspond aux faces du minéral. Ce type de zonation est fréquemment observé dans les minéraux métamorphiques tels que l'andalousite ou le grenat. Les grenats présents dans les marnes riches en graphites de la couverture Mésozoïque du Massif du Gotthard présent une zonation sectorielle texturale. La morphologie de cette zonation n'est pas la même dans les marnes litées et dans les marnes foliées. Les grenats des marnes foliées montrent des secteurs bien développés dans 3 directions. Les grenats des marnes litées montrent des secteurs développés uniquement dans la direction des plans de schistosité. Cette zonation sectorielle est toujours associée à des lamelles biréfringentes de quelques microns de large qui partent de la limite des secteurs et qui sont perpendiculaires aux faces du grenat. Ces lamelles alternent avec des lamelles isotropes. La réaction de formation du grenat a été déterminée par calcul matriciel et thermodynamique. La réaction est de la forme chl + mu + cc + cld= bt + fds + ank + gt + czo. Elle est similaire dans les roches litées et dans les roches foliées. L'évaluation des conditions fluides montrent que le X(O) est proche de 0.36 et ne change pas de façon significative durant l'histoire métamorphique de la roche. Des images BSE sur des coupes orientées ont révélé que l'orientation de lamelles biréfringentes est contrôlée parla crystallographie. La comparaison des analyses à la microsonde électronique et des images BSE révèle également que les lamelles biréfringentes sont plus riches en calcium que les lamelles isotropes. L'addition de calcium va déformer légèrement le site X et ainsi créer un ordre sur ce site. L'énergie interne d'un grenat ordré et d'un grenat désordonné sont suffisamment proches pour qu'un léger dépassement de l'énergie de la réaction de formation permette la coexistence des 2 types de grenat dans le même minéral. La formation de lamelles est expliquée par le fait qu'un grenat préférera la même structure. Ces observations sont en accord avec la thermodynamique des solutions solides du grenat et permet d'expliquer les structures similaires observées dans des grenats provenant de lithologies différentes. Une étude de la distribution des tailles des grenats et une modélisation de la croissance a permis de mettre en évidence 2 mécanismes de croissance différents suivant la texture de la roche. Dans les 2 cas, la loi de nucléation est la même. Dans les roches litées, la loi de croissance est de forme R=kt½. Le transport des nutriments est le facteur limitant. Ce transport a lieu préférentiellement dans la direction des niveaux de schistosité. Les grenats ont une forme légèrement allongée car la croissance des secteurs est facilitée sur les niveaux de schistosité. La croissance des grenats dans les roches foliées suit une loi de croissance de la forme R=kt. Les seuls facteurs limitant la croissance sont les processus d'attachement à la surface du grenat. La loi de croissance de ces grenats est donc contrainte par la texture de la roche. Cela se marque par des différences dans la morphologie de la zonation sectorielle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

PURPOSE: The most common methods of bladder augmentation are gastrocystoplasty and enterocystoplasty. Gastrocystoplasty is advantageous due to minimal mucous secretion and a well developed muscular wall as well as good urodynamic properties of the patch. However, the permanent contact of urine with the gastric mucosa is not free of complications. We report the urodynamic, macroscopic and histological outcomes of a pedicled de-epithelialized gastric patch incorporated in the bladder. We compared the results to those of our previous study, which sought to analyze these techniques of patch coverage using sigmoid patches. MATERIALS AND METHODS: We performed 20 augmentation cystoplasties in the mini-pig model using a pedicled de-epithelialized gastric patch and 5 techniques of patch coverage. RESULTS: Three months after surgery all bladders had an increase in volume except those in which the auto-augmentation technique was used. However, all gastric patches were smaller compared to preoperative size. Many had irregular fibrosed inner surfaces and histological evaluation revealed a fibrosed newly formed submucosal layer with a complete urothelial coverage in every patch. No gastric mucosal remnant was found. CONCLUSIONS: De-epithelialized gastrocystoplasty is an attractive procedure that can increase bladder capacity as well as provide a complete urothelial lining without mucosal remnants. However, the success of this procedure seems to be limited by increased morbidity and fibrotic changes, and decreased surface of the patch.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

SUMMARY : Eukaryotic DNA interacts with the nuclear proteins using non-covalent ionic interactions. Proteins can recognize specific nucleotide sequences based on the sterical interactions with the DNA and these specific protein-DNA interactions are the basis for many nuclear processes, e.g. gene transcription, chromosomal replication, and recombination. New technology termed ChIP-Seq has been recently developed for the analysis of protein-DNA interactions on a whole genome scale and it is based on immunoprecipitation of chromatin and high-throughput DNA sequencing procedure. ChIP-Seq is a novel technique with a great potential to replace older techniques for mapping of protein-DNA interactions. In this thesis, we bring some new insights into the ChIP-Seq data analysis. First, we point out to some common and so far unknown artifacts of the method. Sequence tag distribution in the genome does not follow uniform distribution and we have found extreme hot-spots of tag accumulation over specific loci in the human and mouse genomes. These artifactual sequence tags accumulations will create false peaks in every ChIP-Seq dataset and we propose different filtering methods to reduce the number of false positives. Next, we propose random sampling as a powerful analytical tool in the ChIP-Seq data analysis that could be used to infer biological knowledge from the massive ChIP-Seq datasets. We created unbiased random sampling algorithm and we used this methodology to reveal some of the important biological properties of Nuclear Factor I DNA binding proteins. Finally, by analyzing the ChIP-Seq data in detail, we revealed that Nuclear Factor I transcription factors mainly act as activators of transcription, and that they are associated with specific chromatin modifications that are markers of open chromatin. We speculate that NFI factors only interact with the DNA wrapped around the nucleosome. We also found multiple loci that indicate possible chromatin barrier activity of NFI proteins, which could suggest the use of NFI binding sequences as chromatin insulators in biotechnology applications. RESUME : L'ADN des eucaryotes interagit avec les protéines nucléaires par des interactions noncovalentes ioniques. Les protéines peuvent reconnaître les séquences nucléotidiques spécifiques basées sur l'interaction stérique avec l'ADN, et des interactions spécifiques contrôlent de nombreux processus nucléaire, p.ex. transcription du gène, la réplication chromosomique, et la recombinaison. Une nouvelle technologie appelée ChIP-Seq a été récemment développée pour l'analyse des interactions protéine-ADN à l'échelle du génome entier et cette approche est basée sur l'immuno-précipitation de la chromatine et sur la procédure de séquençage de l'ADN à haut débit. La nouvelle approche ChIP-Seq a donc un fort potentiel pour remplacer les anciennes techniques de cartographie des interactions protéine-ADN. Dans cette thèse, nous apportons de nouvelles perspectives dans l'analyse des données ChIP-Seq. Tout d'abord, nous avons identifié des artefacts très communs associés à cette méthode qui étaient jusqu'à présent insoupçonnés. La distribution des séquences dans le génome ne suit pas une distribution uniforme et nous avons constaté des positions extrêmes d'accumulation de séquence à des régions spécifiques, des génomes humains et de la souris. Ces accumulations des séquences artéfactuelles créera de faux pics dans toutes les données ChIP-Seq, et nous proposons différentes méthodes de filtrage pour réduire le nombre de faux positifs. Ensuite, nous proposons un nouvel échantillonnage aléatoire comme un outil puissant d'analyse des données ChIP-Seq, ce qui pourraient augmenter l'acquisition de connaissances biologiques à partir des données ChIP-Seq. Nous avons créé un algorithme d'échantillonnage aléatoire et nous avons utilisé cette méthode pour révéler certaines des propriétés biologiques importantes de protéines liant à l'ADN nommés Facteur Nucléaire I (NFI). Enfin, en analysant en détail les données de ChIP-Seq pour la famille de facteurs de transcription nommés Facteur Nucléaire I, nous avons révélé que ces protéines agissent principalement comme des activateurs de transcription, et qu'elles sont associées à des modifications de la chromatine spécifiques qui sont des marqueurs de la chromatine ouverte. Nous pensons que lés facteurs NFI interagir uniquement avec l'ADN enroulé autour du nucléosome. Nous avons également constaté plusieurs régions génomiques qui indiquent une éventuelle activité de barrière chromatinienne des protéines NFI, ce qui pourrait suggérer l'utilisation de séquences de liaison NFI comme séquences isolatrices dans des applications de la biotechnologie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

BACKGROUND: Sudden cardiac death (SCD) among the young is a rare and devastating event, but its exact incidence in many countries remains unknown. An autopsy is recommended in every case because some of the cardiac pathologies may have a genetic origin, which can have an impact on the living family members. The aims of this retrospective study completed in the canton of Vaud, Switzerland were to determine both the incidence of SCD and the autopsy rate for individuals from 5 to 39 years of age. METHODS: The study was conducted from 2000 to 2007 on the basis of official statistics and analysis of the International Classification of Diseases codes for potential SCDs and other deaths that might have been due to cardiac disease. RESULTS: During the 8 year study period there was an average of 292'546 persons aged 5-39 and there were a total of 1122 deaths, certified as potential SCDs in 3.6% of cases. The calculated incidence is 1.71/100'000 person-years (2.73 for men and 0.69 for women). If all possible cases of SCD (unexplained deaths, drowning, traffic accidents, etc.) are included, the incidence increases to 13.67/100'000 person-years. However, the quality of the officially available data was insufficient to provide an accurate incidence of SCD as well as autopsy rates. The presumed autopsy rate of sudden deaths classified as diseases of the circulatory system is 47.5%. For deaths of unknown cause (11.1% of the deaths), the autopsy was conducted in 13.7% of the cases according to codified data. CONCLUSIONS: The incidence of presumed SCD in the canton of Vaud, Switzerland, is comparable to the data published in the literature for other geographic regions but may be underestimated as it does not take into account other potential SCDs, as unexplained deaths. Increasing the autopsy rate of SCD in the young, better management of information obtained from autopsies as well developing of structured registry could improve the reliability of the statistical data, optimize the diagnostic procedures, and the preventive measures for the family members.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Hypoglycemia, if recurrent, may have severe consequences on cognitive and psychomotor development of neonates. Therefore, screening for hypoglycemia is a daily routine in every facility taking care of newborn infants. Point-of-care-testing (POCT) devices are interesting for neonatal use, as their handling is easy, measurements can be performed at bedside, demanded blood volume is small and results are readily available. However, such whole blood measurements are challenged by a wide variation of hematocrit in neonates and a spectrum of normal glucose concentration at the lower end of the test range. We conducted a prospective trial to check precision and accuracy of the best suitable POCT device for neonatal use from three leading companies in Europe. Of the three devices tested (Precision Xceed, Abbott; Elite XL, Bayer; Aviva Nano, Roche), Aviva Nano exhibited the best precision. None completely fulfilled the ISO-accuracy-criteria 15197: 2003 or 2011. Aviva Nano fulfilled these criteria in 92% of cases while the others were <87%. Precision Xceed reached the 95% limit of the 2003 ISO-criteria for values ≤4.2 mmol/L, but not for the higher range (71%). Although validated for adults, new POCT devices need to be specifically evaluated on newborn infants before adopting their routine use in neonatology.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

BACKGROUND: The influence of recent immobilization or surgery on mortality in cancer patients with venous thromboembolism (VTE) has not been thoroughly studied. METHODS: We used the RIETE Registry data to compare the 3-month mortality rate in cancer patients with VTE, with patients categorized according to the presence of recent immobilization, surgery or neither. The major outcomes were fatal pulmonary embolism (PE) and fatal bleeding within the first 3 months. RESULTS: Of 6,746 patients with active cancer and acute VTE, 1,224 (18%) had recent immobilization, 1,055 (16%) recent surgery, and 4,467 (66%) had neither. The all-cause mortality was 23.4% (95% CI: 22.4-24.5), and the PE-related mortality: 2.5% (95% CI: 2.1-2.9). Four in every ten patients dying of PE had recent immobilization (37%) or surgery (5.4%). Only 28% of patients with immobilization had received prophylaxis, as compared with 67% of the surgical. Fatal PE was more common in patients with recent immobilization (5.0%; 95% CI: 3.9-6.3) than in those with surgery (0.8%; 95% CI: 0.4-1.6) or neither (2.2%; 95% CI: 1.8-2.6). On multivariate analysis, patients with immobilization were at an increased risk for fatal PE (odds ratio: 1.8; 95% CI: 1.2-2.5). CONCLUSIONS: One in every three cancer patients dying of PE had recent immobilization for ≥ 4 days. Many of these deaths could have been prevented with adequate thromboprophylaxis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Consumption of nicotine in the form of smokeless tobacco (snus, snuff, chewing tobacco) or nicotine-containing medication (gum, patch) may benefit sport practice. Indeed, use of snus seems to be a growing trend and investigating nicotine consumption amongst professional athletes is of major interest to sport authorities. Thus, a liquid chromatography-tandem mass spectrometry (LC-MS/MS) method for the detection and quantification of nicotine and its principal metabolites cotinine, trans-3-hydroxycotinine, nicotine-N'-oxide and cotinine-N-oxide in urine was developed. Sample preparation was performed by liquid-liquid extraction followed by hydrophilic interaction chromatography-tandem mass spectrometry (HILIC-MS/MS) operated in electrospray positive ionization (ESI) mode with selective reaction monitoring (SRM) data acquisition. The method was validated and calibration curves were linear over the selected concentration ranges of 10-10,000 ng/mL for nicotine, cotinine, trans-3-hydroxycotinine and 10-5000 ng/mL for nicotine-N'-oxide and cotinine-N-oxide, with calculated coefficients of determination (R(2)) greater than 0.95. The total extraction efficiency (%) was concentration dependent and ranged between 70.4 and 100.4%. The lower limit of quantification (LLOQ) for all analytes was 10 ng/mL. Repeatability and intermediate precision were ?9.4 and ?9.9%, respectively. In order to measure the prevalence of nicotine exposure during the 2009 Ice Hockey World Championships, 72 samples were collected and analyzed after the minimum of 3 months storage period and complete removal of identification means as required by the 2009 International Standards for Laboratories (ISL). Nicotine and/or metabolites were detected in every urine sample, while concentration measurements indicated an exposure within the last 3 days for eight specimens out of ten. Concentrations of nicotine, cotinine, trans-3-hydroxycotinine, nicotine-N'-oxide and cotinine-N-oxide were found to range between 11 and 19,750, 13 and 10,475, 10 and 8217, 11 and 3396, and 13 and 1640 ng/mL, respectively. When proposing conservative concentration limits for nicotine consumption prior and/or during the games (50 ng/mL for nicotine, cotinine and trans-3-hydroxycotinine and 25 ng/mL for nicotine-N'-oxide and cotinine-N-oxide), about half of the hockey players were qualified as consumers. These findings significantly support the likelihood of extensive smokeless nicotine consumption. However, since such conclusions can only be hypothesized, the potential use of smokeless tobacco as a doping agent in ice hockey requires further investigation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neuropsychology is a scientific discipline, born in the XIX century, and bridges the fields of neurology and psychology. Neuropsychologists apply scientific knowledge about the relationship between brain function and mental performances. The major clinical role of a neuropsychological evaluation is to help to establish medical and functional diagnosis in patients (adults or infants) with different neurological pathologies such as stroke, traumatic brain injury, dementia, epilepsy.... Such analysis necessitates accurate observation of behaviour and administration of tests of mental abilities (e.g. language, memory...). Test results can also help to clarify the nature of cognitive difficulties and to support the formulation of plans for neuropsychological therapy and functional adjustment in every day life.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

De manière générale, l'autonomie des établissements de formation influence positivement la performance scolaire. Une enquête réalisée en Suisse romande auprès de 219 cadres scolaires permet, dans la présente contribution, de mesurer l'écart existant entre le degré d'autonomie souhaitée par les cadres scolaires d'une part et le degré d'autonomie dont ils disent disposer d'autre part. Le traitement descriptif des données de l'enquête démontre que, dans tous les domaines de gestion, les cadres scolaires souhaitent disposer de plus d'autonomie qu'ils n'en perçoivent. Ce constat est valable dans tous les cantons, tous les degrés du système éducatif et toutes les fonctions. Le degré d'autonomie souhaitée ne varie que peu selon les cantons, les degrés ou les fonctions. Sur cette base, il n'est pas possible de conclure à la nécessité ou à la pertinence d'un degré d'autonomie différenciée selon les cantons, les degrés ou les fonctions. Le traitement analytique des données de l'enquête identifie les facteurs expliquant l'écart entre les degrés d'autonomie souhaitée et perçue. Cet écart est plus élevé que la moyenne dans les cantons de Fribourg et de Genève, dans le degré primaire et dans la fonction de directeur. En d'autres termes, l'adéquation entre les degrés d'autonomie souhaitée et perçue est moins bonne dans ces cantons, ce degré et cette fonction. Un rattrapage en matière de délégation d'autonomie est dès lors possible. La reconnaissance, à l'intérieur de l'établissement, d'une faculté de conduite et de pilotage à la direction exerce un effet positif sur le degré d'autonomie souhaitée et un effet positif plus important encore sur le degré perçu. Par conséquent, il apparaît qu'une direction dont la faculté de conduite est avérée souhaite non seulement disposer de plus d'autonomie mais parvienne à obtenir (ou à « gagner ») plus d'autonomie. Abstract School autonomy has a positive influence on pupils' performance. This article presents the results of a survey conducted in the French-speaking part of Switzerland on 219 school leaders. The objective of the survey is to measure and to explain the gap between the level of autonomy desired by school leaders, and the level of autonomy that they perceive. Descriptive statistics show that, in every single management area, school leaders wish to have more autonomy than they actually have. This result is valid in all cantons, all levels of the education system and all types of job. The desired level of autonomy varies only slightly depending on the cantons, the levels of the education system and the types of job. On this basis, it is not possible to conclude that it is necessary and relevant to differentiate the level of autonomy depending on the cantons, the levels of the education system and the types of job. Analytical statistics identify the explanatory variables of the gap between the desired level of autonomy and the perceived level of autonomy. This gap is higher than average in the cantons of Fribourg and Geneva, in the primary level of education and in the position of head-teacher. In other words, the adequacy between the desired and the perceived levels of autonomy is worse in these cantons, this level and this position. As a result, a catch-up on the delegation of school autonomy is possible. Results also show that school leaders, whose management competence is recognized by its staff, not only want more autonomy but succeed in securing (or "gaining") more autonomy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The concept of nosocomial infections (or healthcare-related infections) applies to the outpatients clinics. However, data are scarce and imprecise in this setting compared with hospitals. The choice of preventive measures is therefore difficult. A lower risk in the outpatient facilities does not justify the complete implementation of hospital precautions. The latter can nevertheless be adapted since infection may be acquired during an ambulatory consultation through the same mechanisms as in hospitals. We propose a preventive strategy derived from standard precautions to be applied in every case, transmission-based precautions that are more rarely needed, and asepsis in case of invasive procedure.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

BACKGROUND: Various centralised mammography screening programmes have shown to reduce breast cancer mortality at reasonable costs. However, mammography screening is not necessarily cost-effective in every situation. Opportunistic screening, the predominant screening modality in several European countries, may under certain circumstances be a cost-effective alternative. In this study, we compared the cost-effectiveness of both screening modalities in Switzerland. METHODS: Using micro-simulation modelling, we predicted the effects and costs of biennial mammography screening for 50-69 years old women between 1999 and 2020, in the Swiss female population aged 30-70 in 1999. A sensitivity analysis on the test sensitivity of opportunistic screening was performed. RESULTS: Organised mammography screening with an 80% participation rate yielded a breast cancer mortality reduction of 13%. Twenty years after the start of screening, the predicted annual breast cancer mortality was 25% lower than in a situation without screening. The 3% discounted cost-effectiveness ratio of organised mammography screening was euro11,512 per life year gained. Opportunistic screening with a similar participation rate was comparably effective, but at twice the costs: euro22,671-24,707 per life year gained. This was mainly related to the high costs of opportunistic mammography and frequent use of imaging diagnostics in combination with an opportunistic mammogram. CONCLUSION: Although data on the performance of opportunistic screening are limited, both opportunistic and organised mammography screening seem effective in reducing breast cancer mortality in Switzerland. However, for opportunistic screening to become equally cost-effective as organised screening, costs and use of additional diagnostics should be reduced.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recent population genetic studies suggest that staphylococcal cassette chromosome mec (SCCmec) was acquired much more frequently than previously thought. In the present study, we aimed to investigate the diversity of SCCmec elements in a local methicillin-resistant Staphylococcus aureus (MRSA) population. Each MRSA isolate (one per patient) recovered in the Vaud canton of Switzerland from January 2005 to December 2008 was analyzed by the double-locus sequence typing (DLST) method and SCCmec typing. DLST analysis indicated that 1,884/2,036 isolates (92.5%) belong to four predominant clones. As expected from the local spread of a clone, most isolates within clones harbored an identical SCCmec type. However, three to seven SCCmec types have been recovered in every predominant DLST clone, suggesting that some of these elements might have been acquired locally. This pattern could also be explained by distinct importations of related isolates into the study region. The addition of a third highly variable locus to further increase the discriminatory power of typing as well as epidemiological data suggested that most ambiguous situations were explained by the second hypothesis. In conclusion, our study showed that even if the acquisition of new SCCmec elements at a local level likely occurs, it does not explain all the diversity observed in the study region.