1000 resultados para données à haute fréquence


Relevância:

30.00% 30.00%

Publicador:

Resumo:

RESUME L'Institut de Géophysique de l'Université de Lausanne a développé au cours de ces dernières années un système d'acquisition de sismique réflexion multitrace à haute résolution 2D et 3D. L'objectif de cette thèse était de poursuivre ce développement tout améliorant les connaissances de la géologie sous le lac Léman, en étudiant en particulier la configuration des grands accidents sous-lacustres dans la Molasse (Tertiaire) qui forme l'essentiel du substratum des formations quaternaires. En configuration 2D, notre système permet d'acquérir des profils sismiques avec une distance inter-CDP de 1,25 m. La couverture varie entre 6 et 18 selon le nombre de traces et la distance inter-tir. Le canon à air (15/15 eu. in.), offre une résolution verticale de 1,25 ni et une pénétration maximale de 300 m sous le fond de l'eau. Nous avons acquis au total plus de 400 km de sections 2D dans le Grand Lac et le Haut Lac entre octobre 2000 et juillet 2004. Une campagne de sismique 3D a fourni des données au large d'Evian sur une surface de 442,5 m sur 1450 m, soit 0,64 km2. La navigation ainsi que le positionnement des hydrophones et de la source ont été réalisés avec des GPS différentiels. Nous avons utilisé un traitement sismique conventionnel, sans appliquer d'AGC et en utilisant une migration post-stack. L'interprétation du substratum antéquaternaire est basée sur l'identification des sismofaciès, sur leurs relations avec les unités géologiques adjacentes au lac, ainsi que sur quelques données de forages. Nous obtenons ainsi une carte des unités géologiques dans le Grand Lac. Nous précisons la position du chevauchement subalpin entre la ville de Lausanne, sur la rive nord, et le bassin de Sciez, sur la rive sud. Dans la Molasse de Plateau, nous avons identifié les décrochements de Pontarlier et de St. Cergue ainsi que plusieurs failles non reconnues jusqu'ici. Nous avons cartographié les accidents qui affectent la Molasse subalpine ainsi que le plan de chevauchement du flysch sur la Molasse près de la rive sud du lac. Une nouvelle carte tectonique de la région lémanique a ainsi pu être dressée. L'analyse du substratum ne montre pas de failles suggérant une origine tectonique de la cuvette lémanique. Par contre, nous suggérons que la forme du creusement glaciaire, donc de la forme du lac Léman, a été influencée par la présence de failles dans le substratum antéquaternaire. L'analyse des sédiments quaternaires nous a permis de tracer des cartes des différentes interfaces ou unités qui les composent. La carte du toit du substratum antéquaternaire montre la présence de chenaux d'origine glaciaire dont la profondeur maximale atteint la cote -200 ni. Leur pente est dirigée vers le nord-est, à l'inverse du sens d'écoulement actuel des eaux. Nous expliquons cette observation par l'existence de circulations sous-glaciaires d'eau artésienne. Les sédiments glaciaires dont l'épaisseur maximale atteint 150 ni au centre du lac ont enregistré les différentes récurrences glaciaires. Dans la zone d'Evian, nous mettons en évidence la présence de lentilles de sédiments glaciolacustres perchées sur le flanc de la cuvette lémanique. Nous avons corrélé ces unités avec des données de forage et concluons qu'il s'agit du complexe inférieur de la pile sédimentaire d'Evian. Celui-ci, âgé de plus de 30 000 ans, serait un dépôt de Kame associé à un lac périglaciaire. La sismique réflexion 3D permet de préciser l'orientation de l'alimentation en matériel détritique de l'unité. La finesse des images obtenues nous permet également d'établir quels types d'érosion ont affecté certaines unités. Les sédiments lacustres, dont l'épaisseur maximale imagée atteint plus de 225 m et sans doute 400 ni sous le delta du Rhône, indiquent plusieurs mécanismes de dépôts. A la base, une mégaturbidite, épaisse d'une trentaine de mètres en moyenne, s'étend entre l'embouchure de la Dranse et le delta du Rhône. Au-dessus, la décantation des particules en suspension d'origine biologique et détritique fournit l'essentiel des sédiments. Dans la partie orientale du lac, les apports détritiques du Rhône forment un delta qui prograde vers l'ouest en s'imbriquant avec les sédiments déposés par décantation. La structure superficielle du delta a brutalement évolué, probablement à la suite de l'évènement catastrophique du Tauredunum (563 A.D.). Sa trace probable se marque par la présence d'une surface érosive que nous avons cartographiée. Le delta a ensuite changé de géométrie, avec notamment un déplacement des chenaux sous-lacustres. Sur l'ensemble de nos sections sismiques, nous n'observons aucune faille dans les sédiments quaternaires qui attesterait d'une tectonique postglaciaire du substratum. ABSTRACT During the last few years the institute of Geophysics of the University of Lausanne cleveloped a 2D and 3D high-resolution multichannel seismic reflection acquisition system. The objective of the present work was to carry on this development white improving our knowledge of the geology under Lake Geneva, in particular by studying the configuration of the large accidents affecting the Tertiary Molasse that makes up the basement of most Quaternary deposits. In its 2D configuration, our system makes it possible to acquire seismic profiles with a CDP interval of 1.25 m. The fold varies from 6 to 18 depending on the number of traces and the shooting interval. Our air gun (15/15 cu. in.) provides a vertical resolution of 1.25 m and a maximum penetration depth of approximately 300 m under water bottom. We acquired more than 400 km of 2D sections in the Grand Lac and the Haut Lac between October 2000 and July 2004. A 3D seismic survey off the city of Evian provided data on a surface of 442.5 m x 1450 m (0.64 km2). Ship's navigation as well as hydrophone- and source positioning were carried out with differential GPS. The seismic data were processed following a conventional sequence without .applying AGC and using post-stack migration. The interpretation of the pre-Quaternary substratum is based on sismofacies, on their relationships with terrestrial geological units and on some borehole data. We thus obtained a map of the geological units in the Grand Lac. We defined the location of the subalpine thrust from Lausanne, on the north shore, to the Sciez Basin, on the south shore. Within the Molasse de Plateau, we identified the already know Pontarlier and St Cergue transforms Fault as well as faults. We mapped faults that affect subalpine Molasse as well as the thrust fault plane between alpine flysch and Molasse near the lake's south shore. A new tectonic map of the Lake Geneva region could thus be drawn up. The substratum does not show faults indicating a tectonic origin for the Lake Geneva Basin. However, we suggest that the orientation of glacial erosion, and thus the shape of Lake Geneva, vas influenced by the presence of faults in the pre-Quaternary basement. The analysis of Quaternary sediments enabled us to draw up maps of various discontinuities or internal units. The top pre-Quaternary basement map shows channels of glacial origin, the deepest of them reaching an altitude of 200 m a.s.l. The channel's slopes are directed to the North-East, in opposite direction of the present water flow. We explain this observation by the presence of artesian subglacial water circulation. Glacial sediments, the maximum thickness of which reaches 150 m in the central part of the lake, record several glacial recurrences. In the Evian area, we found lenses of glacio-lacustrine sediments set high up on the flank of the Lake Geneva Bassin. We correlated these units with on-land borehole data and concluded that they represent the lower complex of the Evian sedimentary pile. The lower complex is aider than 30 000 years, and it could be a Kame deposit associated with a periglacial lake. Our 3D seismic reflexion survey enables us to specify the supply direction of detrital material in this unit. With detailed seismic images we established how some units were affected by different erosion types. The lacustrine sediments we imaged in Lake Geneva are thicker than 225 m and 400 m or more Linder the Rhone Delta. They indicate several depositional mechanisms. Their base is a major turbidite, thirty meters thick on average, that spreads between the Dranse mouth and the Rhone delta. Above this unit, settling of suspended biological and detrital particles provides most of the sediments. In the eastern part of the lake, detrital contribution from the Rhone builds a delta that progrades to the west and imbricates with the settling sediments. The shallow structure of the Rhone delta abruptly evolved, probably after the catastrophic Tauredunum event (563 A.D.). It probably coincides with an erosive surface that we mapped. As a result, the delta geometry changed, in particular associated with a displacement of water bottom channels. In all our seismic sections, we do not observe fault in the Quaternary sediments that would attest postglacial tectonic activity in the basement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La schizophrénie est une maladie chronique qui touche 1% de la population mondiale. Elle¦comporte des facteurs de risque génétiques et environnementaux. Leur interaction pendant le¦développement du cerveau mène aux déficits de la synchronisation neuronale et aux¦dommages cellulaires qui prédisposent l'individu à développer, à l'âge adulte, la¦schizophrénie (Kim Do et al.). Kim Do et al (2009) ont découvert qu'une anomalie génétique¦de la synthèse du glutathion (GSH) est responsable de la dérégulation redox qui mène au¦stress oxydatif qui, à son tour, est impliqué dans la pathogénèse de la schizophrénie pendant le¦développement du cerveau. Le GSH protège les cellules contre les radicaux libres produits par¦le stress oxydatif. En effet, les radicaux libres provoquent la peroxydation des lipides,¦l'oxydation des protéines et des lésions au niveau de l'ADN, et par conséquent, des¦dommages cellulaires.¦Le GSH est produit par l'enzyme clé GCL (glutamate-cystéine ligase). Le GCL est composé¦de deux sous-unités: GCL-M (sous-unité modulatrice) et GCL-C (sous-unité catalytique). Des¦polymorphismes des gènes de GCL-M et GCL-C ont été trouvé associés avec la¦maladie (Tosic et al., 2006 ; Gysin et al., 2007). Dans cette étude, on se focalisera sur le TNR¦GAG (répétitions de tri-nucléotides) du GCL-C. En effet, GCL-C possède sur son codon¦START des variances avec 7, 8 ou 9 répétitions GAG générant ainsi six génotypes différents:¦7/7, 7/8, 7/9, 8/8, 8/9 et 9/9. Dans deux cohortes, les génotypes 8/7, 8/8, 8/9 et 9/9, appelés¦génotype à haute risque (HR), se trouvent en plus grand nombre chez les patients tandis que¦les génotypes 7/7 et 7/9 (génotypes à bas risque (BR)) sont plus nombreux chez les sujets¦témoins (Gysin et al., 2007). En plus, les analyses des cultures de fibroblastes montrent que¦chez les génotypes HR, en comparaison avec ceux à BR, l'expression de protéine de GCL-C,¦l'activité enzymatique de GCL et le taux de GSH sont nettement plus bas.¦Cette étude se base sur le DIGS (diagnostic interview for genetic studies), un entretien semistructuré¦qui récolte des données psychopathologiques. Grâce à cet outil, nous pouvons¦comparer les données des sujets avec les génotypes HR versus BR. Plus précisément, on va se¦focaliser sur le chapitre des psychoses du DIGS chez les schizophrènes, en se posant la¦question suivante: « Est-ce qu'il y a une différence des phénotypes entre BR et HR ? » .¦La méthode de travail va se focaliser sur : (a) revue de la littérature, (b) l'analyse et la¦compréhension du DIGS et (c) l'analyse, l'interprétation et la synthèse des résultats¦statistiques du chapitre « psychose » du DIGS.¦Les résultats nous indiquent une différence significative entre les deux groupes pour les¦symptômes suivants : (a) les idées délirantes de persécution, (b) la durée de l'émoussement¦affectif et des affects inappropriés et (c) les croyances inhabituelles ou pensées magiques¦pendant la phase prodromique.¦Étant donné que cette étude se base sur un échantillon assez restreint, il faudrait la consolider¦avec un plus grands nombre de cas et il serait intéressant de le reproduire dans une autre¦cohorte. En conclusion, le travail peut ouvrir de nouvelles perspectives, surtout pour les¦symptômes mal traités ou pas traités par les traitements actuels.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte : Après les maladies cardiovasculaires, le cancer est la deuxième cause de mortalité en Suisse. Les cancers de la prostate, du sein, du côlon-rectum, du col utérin et le mélanome cutané représentent, en termes d'incidence et de mortalité, la moitié du fardeau du cancer en Suisse. Des moyens de prévention primaire et/ou secondaire contribuent à réduire la fréquence et la mortalité due à ces cinq cancers. Cependant, l'attitude face à la prévention diffère selon les individus et dépend de multiples facteurs socio-économiques, environnementaux, culturels et comportementaux. Objectif : Évaluer la fréquence et identifier les déterminants des pratiques de dépistage des cancers de la prostate, du sein, du côlon-rectum, du col utérin et du mélanome cutané en Suisse. Matériel et méthode : Les données utilisées sont issues de l'Enquête suisse sur la santé 2007. Une pondération statistique permet d'extrapoler les résultats à la population générale. Des modèles de régression logistique multivariée ont été construits afin de décrire l'association entre pratique du dépistage et facteurs sociodémographiques, style de vie, état de santé, recours aux prestations de santé et soutien social. Résultats : En 2007, selon les méthodes et fréquences recommandées en Suisse et dans les tranches d'âge concernées, 49% des hommes ont effectué un dépistage du cancer prostatique, 13% du cancer colorectal et 33,7% du mélanome cutané. Chez les femmes, 17,9% ont réalisé un dépistage du cancer du sein, 8,7% du cancer colorectal, 36,8% du mélanome cutané et 50,2% du cancer du col utérin. Globalement et pour les deux sexes, l'âge, le lieu de résidence, le niveau de formation, la classe socioprofessionnelle, le revenu d'équivalence du ménage, la pratique d'autres dépistages des cancers, le nombre de visites médicales et de jours d'hospitalisation au cours des 12 mois précédents déterminent le recours au dépistage des cancers d'intérêt. Chez les hommes, la présence d'un médecin de famille et, chez les femmes, la franchise annuelle, influencent aussi la pratique du dépistage. Conclusion : Les prévalences du dépistage varient notablement selon le type de cancer. Le recours aux dépistages des cancers dépend de facteurs sociodémographiques, de l'utilisation des services de santé et de la pratique d'autres dépistages, mais peu, voire pas, du style de vie, de l'état de santé et de la sécurité et du soutien sociaux. Les facteurs identifiés sont souvent communs aux différents types de cancer et rendent possible l'établissement d'un profil général d'utilisateurs du dépistage des cancers. Les stratégies visant à améliorer la compliance aux examens de dépistage devraient considérer les facteurs qui en déterminent le recours et mieux cibler les segments de la population qui les sous-utilisent.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’exercice d’allocation de ressources en santé, relevant du Ministère de la santé, se voit fortement influencé autant par les besoins variés de la population que par les exigences des intervenants en santé. Quel rôle ces différents intérêts peuvent-ils jouer dans l’intégration de nouvelles technologies dans la distribution des soins de santé ? La pharmacogénomique, branche émergente de la pharmacologie intégrant les données issues du projet génome humain au processus de développement du médicament, est perçue comme une technologie qui permettrait de personnaliser la médecine. Son intégration aux processus de développement ou de prescription de médicaments promet de minimiser l’apparition d’effets secondaires néfastes découlant de la prise de médicaments. Serait-il alors judicieux pour le gouvernement du Québec, considérant la conjoncture actuelle d’allocation de ressources, d’investir dans la pharmacogénomique en tant que nouvel outil de développement du médicament ou nouveau mode pronostic de médication pour sa population ? Nous aborderons cette question à l’aide de critères de sélection dictés par Caulfield et ses collaborateurs (2001)[1] pour évaluer la pertinence de l’investissement public dans la mise sur pied d’un test génétique, soit l’acceptabilité, l’utilité, la non-malfaisance et la présence d’un bénéfice clair – à coût raisonnable – pour la population. La génomique avoisinant la génétique, ces facteurs s’avèrent applicables dans notre discussion.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé Dans la présente thèse, nous avons étudié la déformation anisotrope par bombardement ionique de nanoparticules d'or intégrées dans une matrice de silice amorphe ou d'arséniure d’aluminium cristallin. On s’est intéressé à la compréhension du mécanisme responsable de cette déformation pour lever toute ambigüité quant à l’explication de ce phénomène et pour avoir une interprétation consistante et unique. Un procédé hybride combinant la pulvérisation et le dépôt chimique en phase vapeur assisté par plasma a été utilisé pour la fabrication de couches nanocomposites Au/SiO2 sur des substrats de silice fondue. Des structures à couches simples et multiples ont été obtenues. Le chauffage pendant ou après le dépôt active l’agglomération des atomes d’Au et par conséquent favorise la croissance des nanoparticules. Les nanocomposites Au/AlAs ont été obtenus par implantation ionique de couches d’AlAs suivie de recuit thermique rapide. Les échantillons des deux nanocomposites refroidis avec de l’azote liquide ont été irradiés avec des faisceaux de Cu, de Si, d’Au ou d’In d’énergie allant de 2 à 40 MeV, aux fluences s'étendant de 1×1013 à 4×1015 ions/cm2, en utilisant le Tandem ou le Tandetron. Les propriétés structurales et morphologiques du nanocomposite Au/SiO2 sont extraites en utilisant des techniques optiques car la fréquence et la largeur de la résonance plasmon de surface dépendent de la forme et de la taille des nanoparticules, de leur concentration et de la distance qui les séparent ainsi que des propriétés diélectriques du matériau dans lequel les particules sont intégrées. La cristallinité de l’arséniure d’aluminium est étudiée par deux techniques: spectroscopie Raman et spectrométrie de rétrodiffusion Rutherford en mode canalisation (RBS/canalisation). La quantité d’Au dans les couches nanocomposites est déduite des résultats RBS. La distribution de taille et l’étude de la transformation de forme des nanoparticules métalliques dans les deux nanocomposites sont déterminées par microscopie électronique en transmission. Les résultats obtenus dans le cadre de ce travail ont fait l’objet de trois articles de revue. La première publication montre la possibilité de manipuler la position spectrale et la largeur de la bande d’absorption des nanoparticules d’or dans les nanocomposites Au/SiO2 en modifiant leur structure (forme, taille et distance entre particules). Les nanoparticules d’Au obtenues sont presque sphériques. La bande d’absorption plasmon de surface (PS) correspondante aux particules distantes est située à 520 nm. Lorsque la distance entre les particules est réduite, l’interaction dipolaire augmente ce qui élargit la bande de PS et la déplace vers le rouge (602 nm). Après irradiation ionique, les nanoparticules sphériques se transforment en ellipsoïdes alignés suivant la direction du faisceau. La bande d’absorption se divise en deux bandes : transversale et longitudinale. La bande correspondante au petit axe (transversale) est décalée vers le bleu et celle correspondante au grand axe (longitudinale) est décalée vers le rouge indiquant l’élongation des particules d’Au dans la direction du faisceau. Le deuxième article est consacré au rôle crucial de la déformation plastique de la matrice et à l’importance de la mobilité des atomes métalliques dans la déformation anisotrope des nanoparticules d’Au dans les nanocomposites Au/SiO2. Nos mesures montrent qu'une valeur seuil de 2 keV/nm (dans le pouvoir d'arrêt électronique) est nécessaire pour la déformation des nanoparticules d'or. Cette valeur est proche de celle requise pour la déformation de la silice. La mobilité des atomes d’Au lors du passage d’ions est confirmée par le calcul de la température dans les traces ioniques. Le troisième papier traite la tentative de formation et de déformation des nanoparticules d’Au dans une matrice d’arséniure d’aluminium cristallin connue pour sa haute résistance à l’amorphisation et à la déformation sous bombardement ionique. Le résultat principal de ce dernier article confirme le rôle essentiel de la matrice. Il s'avère que la déformation anisotrope du matériau environnant est indispensable pour la déformation des nanoparticules d’or. Les résultats expérimentaux mentionnés ci-haut et les calculs de températures dans les traces ioniques nous ont permis de proposer le scénario de déformation anisotrope des nanoparticules d’Au dans le nanocomposite Au/SiO2 suivant: - Chaque ion traversant la silice fait fondre brièvement un cylindre étroit autour de sa trajectoire formant ainsi une trace latente. Ceci a été confirmé par la valeur seuil du pouvoir d’arrêt électronique. - L’effet cumulatif des impacts de plusieurs ions conduit à la croissance anisotrope de la silice qui se contracte dans la direction du faisceau et s’allonge dans la direction perpendiculaire. Le modèle de chevauchement des traces ioniques (overlap en anglais) a été utilisé pour valider ce phénomène. - La déformation de la silice génère des contraintes qui agissent sur les nanoparticules dans les plans perpendiculaires à la trajectoire de l’ion. Afin d’accommoder ces contraintes les nanoparticules d’Au se déforment dans la direction du faisceau. - La déformation de l’or se produit lorsqu’il est traversé par un ion induisant la fusion d’un cylindre autour de sa trajectoire. La mobilité des atomes d’or a été confirmée par le calcul de la température équivalente à l’énergie déposée dans le matériau par les ions incidents. Le scénario ci-haut est compatible avec nos données expérimentales obtenues dans le cas du nanocomposite Au/SiO2. Il est appuyé par le fait que les nanoparticules d’Au ne se déforment pas lorsqu’elles sont intégrées dans l’AlAs résistant à la déformation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La présente recherche collaborative vise à étudier les pratiques de lecture à haute voix d’enseignantes expertes et leur influence sur le développement de l’habileté des élèves du préscolaire à faire des inférences. Plus précisément, nous décrivons les interventions, lors des lectures à haute voix, de quatre enseignantes expertes que nous avons formées pour travailler la compréhension inférentielle et les comparons à celles de deux enseignantes expertes non formées (objectif 1). Puis, nous examinons l’influence de leurs pratiques de lecture à haute voix sur le développement de l’habileté à faire des inférences de leurs élèves (n=92) (objectif 2). Enfin, nous nous intéressons, à titre exploratoire, au potentiel de la recherche collaborative comme voie de développement professionnel des enseignants (objectif 3). Afin d’atteindre nos objectifs, nous avons observé les enseignantes à quatre reprises, lors de lectures d’albums de littérature de jeunesse. Les données obtenues à partir de ces pratiques observées ont été complétées par celles issues des pratiques déclarées des enseignantes pour toute la durée de la recherche (neuf semaines). De plus, nous avons évalué l’habileté à réaliser des inférences des élèves de ces six enseignantes à deux reprises, au début et à la fin de la recherche. Finalement, les enseignantes ont rempli deux questionnaires écrits sur l’impact de cette recherche sur leurs pratiques, l’un à la fin de la recherche et l’autre deux ans après celle-ci. Nos résultats indiquent que si toutes les enseignantes travaillaient les inférences, il existe cependant des différences notables dans leur façon de mener ce travail. Trois des enseignantes formées (enseignantes 1, 2 et 3) ont majoritairement privilégié la co-élaboration du sens des épisodes implicites et se sont montrées très efficaces pour soutenir leurs élèves dans ce travail de construction du sens. L’autre enseignante formée (enseignante 4), en raison d’une appropriation difficile du contenu de la formation, n’est pas parvenue à offrir à ses élèves un étayage adéquat, malgré ses nombreuses tentatives pour les amener à faire des inférences. Les enseignantes non formées (enseignantes 5 et 6) ont, quant à elles, misé plus fréquemment sur la transmission du sens des épisodes implicites et ont également soutenu moins efficacement leurs élèves dans l’élaboration du sens. Ces différences dans la façon de travailler les inférences se sont répercutées sur la progression des élèves entre le début et la fin de la recherche. Ceux des enseignantes 1, 2 et 3 obtiennent des résultats significativement supérieurs à ceux des trois autres enseignantes. Ainsi, il ne suffit pas de travailler les inférences lors des lectures à haute voix pour assurer la progression des élèves. D’autres facteurs revêtent aussi une grande importance : le choix d’oeuvres de qualité, l’engagement des élèves dans les discussions pour co-élaborer le sens et l’étayage adéquat de l’enseignant. Enfin, il semblerait que l’activité réflexive suscitée lors d’une participation à une recherche collaborative et le soutien offert par l’étudiante-chercheuse aient donné aux enseignantes la possibilité d’apporter des changements durables dans leurs pratiques. En ce sens, la recherche collaborative paraît être une voie prometteuse pour contribuer au développement professionnel des enseignants.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte : La fibrillation auriculaire est commune chez les insuffisants cardiaques. L’efficacité des stratégies de contrôle de la fréquence et du rythme s’équivalent. Nous avons comparé l’impact économique des deux stratégies de traitement chez les patients avec fibrillation auriculaire et insuffisance cardiaque. Méthode : Dans cette sous-étude de l’essai Atrial Fibrillation and Congestive Heart Failure, la consommation de soins de santé des patients Québécois ainsi que leurs coûts ont été quantifiés grâce aux banques de données de la Régie de l’assurance-maladie du Québec et de l’Ontario Case Costing Initiative. Résultats : Trois cent quatre patients ont été inclus, âgés de 68±9 ans, fraction d’éjection de 26±6%. Les caractéristiques de base étaient bien réparties entre le contrôle du rythme (N=149) et de la fréquence (N=155). Les patients soumis au contrôle de la fréquence ont eu moins de procédures cardiovasculaires (146 versus 238, P<0.001) en raison du plus faible nombre de cardioversions et de moindres coûts reliés aux antiarythmiques (48 $±203 versus 1319 $±1058 par patient, P<0.001). Ces différences ont été compensées par un surplus de dépenses dues aux hospitalisations non-cardiovasculaires, aux dispositifs cardiaques implantables et aux médicaments non-cardiovasculaires dans le groupe du contrôle de la fréquence. Au total, les coûts par patient avec les stratégies du contrôle de la fréquence et du rythme s’élèvent à 78 767 $±79 568 et 72 764 $±72 800 (P=0.49). Interprétation : Chez les patients avec fibrillation auriculaire et insuffisance cardiaque, le contrôle de la fréquence est associé avec moins de procédures cardiovasculaires et une pharmacothérapie cardiovasculaire moins coûteuse. Toutefois, les coûts associés aux arythmies représentent moins de la moitié des dépenses de santé et le total des coûts s’équilibre entre les 2 stratégies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La phosphorylation est une modification post-traductionnelle omniprésente des protéines Cette modification est ajoutée et enlevée par l’activité enzymatique respective des protéines kinases et phosphatases. Les kinases Erk1/2 sont au cœur d’une voie de signalisation importante qui régule l’activité de protéines impliquées dans la traduction, le cycle cellulaire, le réarrangement du cytosquelette et la transcription. Ces kinases sont aussi impliquées dans le développement de l’organisme, le métabolisme du glucose, la réponse immunitaire et la mémoire. Différentes pathologies humaines comme le diabète, les maladies cardiovasculaires et principalement le cancer, sont associées à une perturbation de la phosphorylation sur les différents acteurs de cette voie. Considérant l’importance biologique et clinique de ces deux kinases, connaître l’étendue de leur activité enzymatique pourrait mener au développement de nouvelles thérapies pharmacologiques. Dans ce contexte, l’objectif principal de cette thèse était de mesurer l’influence de cette voie sur le phosphoprotéome et de découvrir de nouveaux substrats des kinases Erk1/2. Une étude phosphoprotéomique de cinétique d’inhibition pharmacologique de la voie de signalisation Erk1/2 a alors été entreprise. Le succès de cette étude était basé sur trois technologies clés, soit l’enrichissement des phosphopeptides avec le dioxyde de titane, la spectrométrie de masse haut débit et haute résolution, et le développement d’une plateforme bio-informatique nommée ProteoConnections. Cette plateforme permet d’organiser les données de protéomique, évaluer leur qualité, indiquer les changements d’abondance et accélérer l’interprétation des données. Une fonctionnalité distinctive de ProteoConnections est l’annotation des sites phosphorylés identifiés (kinases, domaines, structures, conservation, interactions protéiques phospho-dépendantes). Ces informations ont été essentielles à l’analyse des 9615 sites phosphorylés sur les 2108 protéines identifiées dans cette étude, soit le plus large ensemble rapporté chez le rat jusqu’à ce jour. L’analyse des domaines protéiques a révélé que les domaines impliqués dans les interactions avec les protéines, les acides nucléiques et les autres molécules sont les plus fréquemment phosphorylés et que les sites sont stratégiquement localisés pour affecter les interactions. Un algorithme a été implémenté pour trouver les substrats potentiels des kinases Erk1/2 à partir des sites identifiés selon leur motif de phosphorylation, leur cinétique de stimulation au sérum et l’inhibition pharmacologique de Mek1/2. Une liste de 157 substrats potentiels des kinases Erk1/2 a ainsi été obtenue. Parmi les substrats identifiés, douze ont déjà été rapportés et plusieurs autres ont des fonctions associées aux substrats déjà connus. Six substrats (Ddx47, Hmg20a, Junb, Map2k2, Numa1, Rras2) ont été confirmés par un essai kinase in vitro avec Erk1. Nos expériences d’immunofluorescence ont démontré que la phosphorylation de Hmg20a sur la sérine 105 par Erk1/2 affecte la localisation nucléocytoplasmique de cette protéine. Finalement, les phosphopeptides isomériques positionnels, soit des peptides avec la même séquence d’acides aminés mais phosphorylés à différentes positions, ont été étudiés avec deux nouveaux algorithmes. Cette étude a permis de déterminer leur fréquence dans un extrait enrichi en phosphopeptides et d’évaluer leur séparation par chromatographie liquide en phase inverse. Une stratégie analytique employant un des algorithmes a été développée pour réaliser une analyse de spectrométrie de masse ciblée afin de découvrir les isomères ayant été manqués par la méthode d’analyse conventionnelle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La phosphorylation est une modification post-traductionnelle modulant l’activité, la conformation ou la localisation d’une protéine et régulant divers processus. Les kinases et phosphatases sont responsables de la dynamique de phosphorylation et agissent de manière coordonnée. L’activation anormale ou la dérégulation de kinases peuvent conduire au développement de cancers ou de désordres métaboliques. Les récepteurs tyrosine kinase (RTKs) sont souvent impliqués dans des maladies et la compréhension des mécanismes régissant leur régulation permet de déterminer les effets anticipés sur leurs substrats. Dans ce contexte, le but de cette thèse est d’identifier les évènements de phosphorylation intervenant dans la voie de l’insuline chez la drosophile impliquant un RTK : le récepteur de l’insuline (InR). La cascade de phosphorylation déclenchée suite à l’activation du récepteur est conservée chez le mammifère. Afin d’étudier le phosphoprotéome de cellules S2 de drosophile, nous avons utilisé une étape d’enrichissement de phosphopeptides sur dioxyde de titane suivie de leur séparation par chromatographie liquide (LC) et mobilité ionique (FAIMS). Les phosphopeptides sont analysés par spectrométrie de masse en tandem à haute résolution. Nous avons d’abord démontré les bénéfices de l’utilisation du FAIMS comparativement à une étude conventionnelle en rapportant une augmentation de 50 % dans le nombre de phosphopeptides identifiés avec FAIMS. Cette technique permet de séparer des phosphoisomères difficilement distinguables par LC et l’acquisition de spectres MS/MS distincts où la localisation précise du phosphate est déterminée. Nous avons appliqué cette approche pour l’étude des phosphoprotéomes de cellules S2 contrôles ou traitées à l’insuline et avons identifié 32 phosphopeptides (sur 2 660 quantifiés) pour lesquels la phosphorylation est modulée. Étonnamment, 50 % des cibles régulées possèdent un site consensus pour la kinase CK2. Une stratégie d’inhibition par RNAi a été implémentée afin d’investiguer le rôle de CK2 dans la voie de l’insuline. Nous avons identifié 6 phosphoprotéines (CG30085, su(var)205, scny, protein CDV3 homolog, D1 et mu2) positivement régulées suite à l’insuline et négativement modulées après le traitement par RNAi CK2. Par essai kinase in vitro, nous avons identifié 29 cibles directes de CK2 dont 15 corrélaient avec les résultats obtenus par RNAi. Nous avons démontré que la phosphorylation de su(var)205 (S15) était modulée par l’insuline en plus d’être une cible directe de CK2 suite à l’expérience RNAi et à l’essai kinase. L’analyse des données phosphoprotéomiques a mis en évidence des phosphopeptides isomériques dont certains étaient séparables par FAIMS. Nous avons déterminé leur fréquence lors d’études à grande échelle grâce à deux algorithmes. Le script basé sur les différences de temps de rétention entre isomères a identifié 64 phosphoisomères séparés par LC chez la souris et le rat (moins de 1 % des peptides identifiés). Chez la drosophile, 117 ont été répertoriés en combinaison avec une approche ciblée impliquant des listes d’inclusion. Le second algorithme basé sur la présence d’ions caractéristiques suite à la fragmentation de formes qui co-éluent a rapporté 23 paires isomériques. L’importance de pouvoir distinguer des phosphoisomères est capitale dans le but d’associer une fonction biologique à un site de phosphorylation précis qui doit être identifié avec confiance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Alors que l’Imagerie par résonance magnétique (IRM) permet d’obtenir un large éventail de données anatomiques et fonctionnelles, les scanneurs cliniques sont généralement restreints à l’utilisation du proton pour leurs images et leurs applications spectroscopiques. Le phosphore jouant un rôle prépondérant dans le métabolisme énergétique, l’utilisation de cet atome en spectroscopie RM présente un énorme avantage dans l’observation du corps humain. Cela représente un certain nombre de déEis techniques à relever dus à la faible concentration de phosphore et sa fréquence de résonance différente. L’objectif de ce projet a été de développer la capacité à réaliser des expériences de spectroscopie phosphore sur un scanneur IRM clinique de 3 Tesla. Nous présentons ici les différentes étapes nécessaires à la conception et la validation d’une antenne IRM syntonisée à la fréquence du phosphore. Nous présentons aussi l’information relative à réalisation de fantômes utilisés dans les tests de validation et la calibration. Finalement, nous présentons les résultats préliminaires d’acquisitions spectroscopiques sur un muscle humain permettant d’identiEier les différents métabolites phosphorylés à haute énergie. Ces résultats s’inscrivent dans un projet de plus grande envergure où les impacts des changements du métabolisme énergétique sont étudiés en relation avec l’âge et les pathologies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le rôle du parent est important dans le développement de la compétence en lecture de jeunes enfants et lire à son enfant est une pratique de littératie familiale fortement encouragée par la société. Cette étude a pour objectif de décrire cet accompagnement parental notamment en lien avec les stratégies de compréhension utilisées entre un parent et son enfant lors de la lecture à voix haute. Nous avons observé 10 parents lire un abécédaire, un texte narratif avec intrigue, un texte narratif sans intrigue et un texte informatif à leur enfant de cinq ans. Il s’avère que les stratégies utilisées par les parents et leurs enfants diffèrent selon le genre de texte. Les élèves ayant de faibles résultats (reconnaissance des lettres et de leurs sons, rappel du texte, compréhension du vocabulaire réceptif et de la morphosyntaxe) utilisent également moins de stratégies de compréhension lors de la lecture à voix haute que les enfants présentant de meilleurs résultats. Nous avons également vérifié l’étayage offert par les parents d’enfants présentant de bonnes et de faibles compétences en lecture. Ces deux groupes de parents se distinguent par la qualité et la fréquence de l’utilisation des stratégies de compréhension. En effet, nous remarquons que les parents qui guident leurs enfants dans l’utilisation des stratégies de compréhension sont davantage associés aux enfants démontrant une bonne compétence en lecture. Finalement, nous avons aussi vérifié les pratiques de littératie familiale (temps d’exposition et accessibilité à la lecture, modélisation par les membres de la famille, attitude des parents envers la lecture et mise en place d’activité favorisant la conscience phonologique de l’enfant). Seule la mise sur pied d’activités favorisant la conscience phonologique a pu être liée au rendement des enfants.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les ARN non codants (ARNnc) sont des transcrits d'ARN qui ne sont pas traduits en protéines et qui pourtant ont des fonctions clés et variées dans la cellule telles que la régulation des gènes, la transcription et la traduction. Parmi les nombreuses catégories d'ARNnc qui ont été découvertes, on trouve des ARN bien connus tels que les ARN ribosomiques (ARNr), les ARN de transfert (ARNt), les snoARN et les microARN (miARN). Les fonctions des ARNnc sont étroitement liées à leurs structures d’où l’importance de développer des outils de prédiction de structure et des méthodes de recherche de nouveaux ARNnc. Les progrès technologiques ont mis à la disposition des chercheurs des informations abondantes sur les séquences d'ARN. Ces informations sont accessibles dans des bases de données telles que Rfam, qui fournit des alignements et des informations structurelles sur de nombreuses familles d'ARNnc. Dans ce travail, nous avons récupéré toutes les séquences des structures secondaires annotées dans Rfam, telles que les boucles en épingle à cheveux, les boucles internes, les renflements « bulge », etc. dans toutes les familles d'ARNnc. Une base de données locale, RNAstem, a été créée pour faciliter la manipulation et la compilation des données sur les motifs de structure secondaire. Nous avons analysé toutes les boucles terminales et internes ainsi que les « bulges » et nous avons calculé un score d’abondance qui nous a permis d’étudier la fréquence de ces motifs. Tout en minimisant le biais de la surreprésentation de certaines classes d’ARN telles que l’ARN ribosomal, l’analyse des scores a permis de caractériser les motifs rares pour chacune des catégories d’ARN en plus de confirmer des motifs communs comme les boucles de type GNRA ou UNCG. Nous avons identifié des motifs abondants qui n’ont pas été étudiés auparavant tels que la « tetraloop » UUUU. En analysant le contenu de ces motifs en nucléotides, nous avons remarqué que ces régions simples brins contiennent beaucoup plus de nucléotides A et U. Enfin, nous avons exploré la possibilité d’utiliser ces scores pour la conception d’un filtre qui permettrait d’accélérer la recherche de nouveaux ARN non-codants. Nous avons développé un système de scores, RNAscore, qui permet d’évaluer un ARN en se basant sur son contenu en motifs et nous avons testé son applicabilité avec différents types de contrôles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction : Le dalcetrapib, inhibiteur de la glycoprotéine hydrophobe de transfert des esters de cholestérol (CETP), a été étudié dans le cadre de l’essai clinique de phase II dal-PLAQUE2 (DP2). L’objectif principal est d’étudier l’effet du dalcetrapib après 1 an de traitement sur la structure et la fonction des HDL dans une sous-population de la cohorte DP2. Méthode : Les sujets de la cohorte DP2 ayant une série de mesures de cIMT et des échantillons de plasma et sérum au baseline et à 1 an de traitement furent sélectionnés (379 sujets: 193 du groupe placebo (PCB) et 186 du groupe dalcetrapib (DAL)). Des données biochimiques prédéterminées, le profil des concentrations et tailles des sous-classes de HDL et LDL en résonance magnétique nucléaire (RMN) et 2 mesures de capacité d’efflux de cholestérol (CEC) du sérum ont été explorées. Les données statistiques furent obtenues en comparant les changements à un an à partir du « baseline » avec un ANOVA ou ANCOVA. La procédure normalisée de fonctionnement d’essai d’efflux de cholestérol permet de calculer l’efflux fractionnel (en %) de 3H-cholestérol des lignées cellulaires BHK-ABCA1 (fibroblastes) et J774 (macrophages, voie ABCA1) et HepG2 (hépatocytes, voie SR-BI), vers les échantillons sériques de la cohorte DP2. Résultats : Pour la biochimie plasmatique, un effet combiné des changements d’activité de CETP dans les 2 groupes a causé une réduction de 30% dans le groupe DAL. Après 1 an de traitement dans le groupe DAL, la valeur de HDL-C a augmenté de 35,5% (p < 0,001) et l’apoA-I a augmenté de 14,0% (p < 0,001). Au profil RMN, dans le groupe DAL après 1 an de traitement, il y a augmentation de la taille des HDL-P (5,2%; p < 0,001), des grosses particules HDL (68,7%; p < 0,001) et des grosses particules LDL (37,5%; p < 0,01). Les petites particules HDL sont diminuées (-9,1%; p < 0,001). Il n’y a aucune différence significative de mesure de cIMT entre les deux groupes après 1 an de traitement. Pour la CEC, il y a augmentation significative par la voie du SR-BI et une augmentation via la voie ABCA1 dans le groupe DAL après 1 an de traitement. Conclusion : Après un an de traitement au dalcetrapib, on note une hausse de HDL-C, des résultats plutôt neutres au niveau du profil lipidique par RMN et une CEC augmentée mais trop faible pour affecter la valeur de cIMT chez les échantillons testés.