535 resultados para Détection de similarités


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Enjeu: Déterminer si la macroautophagie est activée de façon excessive dans les neurones en souffrance dans l'encéphalopathie anoxique-ischémique du nouveau-né à terme. Contexte de la recherche: L'encéphalopathie anoxique-ischémique suite à une asphyxie néonatale est associée à une morbidité neurologique à long terme. Une diminution de son incidence reste difficile, son primum movens étant soudain, imprévisible voire non identifiable. Le développement d'un traitement pharmacologique neuroprotecteur post-anoxie reste un défi car les mécanismes impliqués dans la dégénérescence neuronale sont multiples, interconnectés et encore insuffisamment compris. En effet, il ressort des études animales que la notion dichotomique de mort cellulaire apoptotique (type 1)/nécrotique (type 3) est insuffisante. Une même cellule peut présenter des caractéristiques morphologiques mixtes non seulement d'apoptose et de nécrose mais aussi parfois de mort autophagique (type 2) plus récemment décrite. L'autophagie est un processus physiologique normal et essentiel de dégradation de matériel intracellulaire par les enzymes lysosomales. La macroautophagie, nommée simplement autophagie par la suite, consiste en la séquestration de parties de cytosol à éliminer (protéines et organelles) dans des compartiments intermédiaires, les autophagosomes, puis en leur fusion avec des lysosomes pour former des autolysosomes. Dans certaines conditions de stress telles que l'hypoxie et l'excitoxicité, une activité autophagique anormalement élevée peut être impliquée dans la mort cellulaire soit comme un mécanisme de mort indépendant (autodigestion excessive correspondante à la mort cellulaire de type 2) soit en activant d'autres voies de mort comme celles de l'apoptose. Description de l'article: Ce travail examine la présence de l'autophagie et son lien avec la mort cellulaire dans les neurones d'une région cérébrale fréquemment atteinte chez le nouveau- né humain décédé après une asphyxie néonatale sévère, le thalamus ventro-latéral. Ces résultats ont été comparés à ceux obtenus dans un modèle d'hypoxie-ischémie cérébrale chez le raton de 7 jours (dont le cerveau serait comparable à celui d'un nouveau-né humain de 34-37 semaines de gestation). Au total 11 nouveau-nés à terme décédés peu après la naissance ont été rétrospectivement sélectionnés, dont 5 présentant une encéphalopathie hypoxique- ischémique sévère et 6 décédés d'une cause autre que l'asphyxie choisis comme cas contrôle. L'autophagie et l'apoptose neuronale ont été évaluées sur la base d'une étude immunohistochimique et d'imagerie confocale de coupes histologiques en utilisant des marqueurs tels que LC3 (protéine dont la forme LC3-II est liée à la membrane des autophagosomes), p62/SQSTM1 (protéine spécifiquement dégradée par autophagie), LAMP1 (protéine membranaire des lysosomes et des autolysosomes), Cathepsin D ou B (enzymes lysosomales), TUNEL (détection de la fragmentation de l'ADN se produisant lors de l'apoptose), CASPASE-3 activée (protéase effectrice de l'apoptose) et PGP9.5 (protéine spécifique aux neurones). Chez le raton l'étude a pu être étendue en utilisant d'autres méthodes complémentaires telles que la microscopie électronique et le Western-blot. Une quantification des différents marqueurs montre une augmentation statistiquement significative de l'autophagie neuronale dans les cas d'asphyxie par rapport aux cas contrôles chez l'humain comme chez le raton. En cas d'asphyxie, les mêmes neurones expriment une densité accrue d'autophagosomes et d'autolysosomes par rapport aux cas contrôles. De plus, les neurones hautement autophagiques présentent des caractéristiques de l'apoptose. Conclusion: Cette étude montre, pour la première fois, que les neurones thalamiques lésés en cas d'encéphalopathie hypoxique-ischémique sévère présentent un niveau anormalement élevé d'activité autophagique comme démontré chez le raton hypoxique-ischémique. Ce travail permet ainsi de mettre en avant l'importance de considérer l'autophagie comme acteur dans la mort neuronale survenant après asphyxie néonatale. Perspectives: Récemment un certain nombre d'études in vitro ou sur des modèles d'ischémie cérébrale chez les rongeurs suggèrent un rôle important de la macroautophagie dans la mort neuronale. Ainsi, l'inhibition spécifique de la macroautophagie devrait donc être envisagée dans le futur développement des stratégies neuroprotectrices visant à protéger le cerveau des nouveau-nés à terme suite à une asphyxie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les maladies cardio-vasculaires représentent la première cause de mortalité en Suisse. Après un arrêt cardio-respiratoire, une minorité des patients survit sans ou avec peu de séquelles fonctionnelles. L'évaluation du pronostic se fait classiquement selon des critères établis par l'Académie Américaine de Neurologie (AAN) en 2006, soit précédant l'introduction de l'hypothermie thérapeutique. Depuis, ces critères semblent insuffisants, et de nouveaux examens para-cliniques sont nécessaires afin d'identifier les patients ayant un pronostic favorable. La détection d'irrégularités auditives, et plus particulièrement l'évolution de cette détection sur plusieurs jours, pourrait être un indicateur du pronostic de patients comateux suite à une anoxie cérébrale. En effet, lors d'une violation de la régularité établie par des séries de sons identiques, deux signaux sont détectables à l'électro- encéphalographie (EEG). Le premier, dénommé «Mismatch negativity» (MMN), peut être enregistré après une violation locale d'une régularité établie au niveau de chaque son. Il reflète un processus inconscient et ne demandant pas de ressources attentionnelles. Le deuxième, dénommé « complexe P300 » survient par contre après une violation globale d'une régularité établie au niveau de groupes de sons. La littérature actuelle indique que ce deuxième phénomène requerrait la présence de capacités attentionnelles. Dans notre étude, nous avons testé l'existence de cette détection d'irrégularités auditives globales chez des patients dans une phase précoce de coma post-anoxique, sous hypothermie thérapeutique. Nous avons enregistré la réponse électro-encéphalographique lors de violations de régularités auditives globales, à l'aide d'un protocole expérimental qui intégrait en plus un paradigme de MMN classique, afin de tester la détection d'irrégularités auditives locales également. Notre analyse finale inclut 24 patients comateux ayant subi un arrêt cardio-respiratoire, et bénéficié du protocole hypothermie du Centre Hospitalier Universitaire Vaudois (CHUV) à Lausanne. Après une analyse multivariée des réponses électro-encéphalographiques de chaque tracé individuellement (« single-trial »), nous avons trouvé que 8 patients sur 24 pouvaient discriminer une irrégularité globale, alors qu'étant définis comateux selon l'échelle de Glasgow (GCS). De plus, l'amélioration de la détection d' irrégularités auditives entre deux EEG consécutifs (en hypo- puis normothermie), était un facteur de bon pronostic. Notre test pourrait ainsi être un complément para-clinique dans l'évaluation du pronostic de patients en coma post- anoxique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs La chirurgie pancréatique reste associée à une morbidité postopératoire importante. Les efforts sont concentrés la plupart du temps sur la diminution de cette morbidité, mais la détection précoce de patients à risque de complications pourrait être une autre stratégie valable. Un score simple de prédiction des complications après duodénopancréatectomie céphalique a récemment été publié par Braga et al. La présente étude a pour but de valider ce score et de discuter de ses possibles implications cliniques. Méthodes De 2000 à 2015, 245 patients ont bénéficié d'une duodénopancréatectomie céphalique dans notre service. Les complications postopératoires ont été recensées selon la classification de Dindo et Clavien. Le score de Braga se base sur quatre paramètres : le score ASA (American Society of Anesthesiologists), la texture du pancréas, le diamètre du canal de Wirsung (canal pancréatique principal) et les pertes sanguines intra-opératoires. Un score de risque global de 0 à 15 peut être calculé pour chaque patient. La puissance de discrimination du score a été calculée en utilisant une courbe ROC (receiver operating characteristic). Résultats Des complications majeures sont apparues chez 31% des patients, alors que 17% des patients ont eu des complications majeures dans l'article de Braga. La texture du pancréas et les pertes sanguines étaient statistiquement significativement corrélées à une morbidité accrue. Les aires sous la courbe étaient respectivement de 0.95 et 0.99 pour les scores classés en quatre catégories de risques (de 0 à 3, 4 à 7, 8 à 11 et 12 à 15) et pour les scores individuels (de 0 à 15). Conclusions Le score de Braga permet donc une bonne discrimination entre les complications mineures et majeures. Notre étude de validation suggère que ce score peut être utilisé comme un outil pronostique de complications majeures après duodénopancréatectomie céphalique. Les implications cliniques, c'est-à-dire si les stratégies de prise en charge postopératoire doivent être adaptées en fonction du risque individuel du patient, restent cependant à élucider. -- Objectives Pancreatic surgery remains associated with important morbidity. Efforts are most commonly concentrated on decreasing postoperative morbidity, but early detection of patients at risk could be another valuable strategy. A simple prognostic score has recently been published. This study aimed to validate this score and discuss possible clinical implications. Methods From 2000 to 2012, 245 patients underwent pancreaticoduodenectomy. Complications were graded according to the Dindo-Clavien classification. The Braga score is based on American Society of Anesthesiologists score, pancreatic texture, Wirsung duct diameter, and blood loss. An overall risk score (from 0 to 15) can be calculated for each patient. Score discriminant power was calculated using a receiver operating characteristic curve. Results Major complications occurred in 31% of patients compared to 17% in Braga's data. Pancreatic texture and blood loss were independently statistically significant for increased morbidity. The areas under curve were 0.95 and 0.99 for 4-risk categories and for individual scores, respectively. Conclusions The Braga score discriminates well between minor and major complications. Our validation suggests that it can be used as prognostic tool for major complications after pancreaticoduodenectomy. The clinical implications, i.e., whether postoperative treatment strategies should be adapted according to the patient's individual risk, remain to be elucidated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs études suggèrent que les patients qui présentent un premier épisode psychotique et un passé délictueux présenteraient une clinique spécifique et nécessiteraient une prise en charge adaptée. A partir d'une cohorte de patients suivis pour un premier épisode psychotique dans la région de Melbourne {The Early Psychosis Prevention and Intervention Centre), nous avons analysé la prévalence d'actes délictueux dans leur passé (1), les caractéristiques cliniques à leur admission (2), l'évolution à court terme des patients ayant commis des délits par rapport aux autres patients (3). Nous avons également cherché à déterminer si des délits plus graves (atteinte à l'intégrité d'une personne) étaient corrélés à des caractéristiques cliniques particulières. Sur les 649 patients dont les données ont pu être analysées entre 1998 et 2000, 29% avaient un passé délictueux. Ils étaient en majorité des hommes et présentaient des difficultés sociales et scolaires plus importantes que les autres patients. Ils avaient également recours de manière plus régulière à des substances illicites et commis plus souvent des tentatives de suicide. Le tableau clinique qu'ils présentaient à leur admission dans le programme de soins était plus complexe et l'évolution globalement plus défavorable après 18 mois de traitement. Nous avons relevé aussi que la durée de psychose non traitée était plus longue que celle des autres patients. Enfin, les délits avec atteinte à l'intégrité d'une autre personne étaient plus fréquents en présence d'un insight faible et nécessitaient un plus grand nombre d'hospitalisation. Ces résultats confirment le besoin d'une recherche approfondie dans ce champ de la clinique et de stratégies de prévention et de soins plus spécifiques. Une détection précoce chez les jeunes hommes qui commettent des actes délictueux serait particulièrement importante puisque notre étude suggère que certains d'entre eux seraient dans une phase débutante et non reconnue d'un épisode psychotique. Une intervention plus rapide et adaptée pourrait avoir des conséquences positives à plusieurs niveaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les lymphocytes T CD4+ sont connus pour leur potentiel d'acquisition de fragments membraneux de cellules présentatrices d'antigène (CPA) dans un processus nommé trogocytose. Ce phénomène est observé lors de l'interaction entre le lymphocyte T CD4+ antigène-spécifique et la CPA lors de la présentation de l'antigène en question, et dépend donc de la spécificité du lymphocyte T CD4+. L'identification des lymphocytes T CD4+ sujets à la trogocytose en co-culture avec des CPA chargées d'un antigène connu permet d'enrichir des lymphocytes T antigène-spécifiques sans connaître leur spécificité exacte ou leur profil de production de cytokines. Dans cette étude, nous avons donc cherché à évaluer l'utilité de cette méthode dans l'identification de la spécificité des lymphocytes T effecteurs et régulateurs lors de l'inflammation auto-immune avec des spécificités souvent inconnues. La trogocytose a démontré son efficacité dans la détection de lymphocytes T réactifs à la protéine basique de myéline in vitro ainsi qu'ex vivo après immunisation. Cependant, le potentiel de la trogocytose à identifier des lymphocytes T régulateurs antigène-spécifiques est limité par le fait que les lymphocytes T régulateurs Foxp3+ montrent un taux élevé de manière constitutive de trogocytose comparé aux lymphocytes T Foxp3-, Un taux localement élevé de trogocytose lors d'un état inflammatoire (observé au niveau des lymphocytes T effecteurs et régulateurs isolés du système nerveux central enflammé) empêche l'utilisation de la trogocytose dans l'évaluation de la réactivité antigénique de cellules extraites d'un site inflammatoire. Nos résultats montrent la possibilité d'enrichir des lymphocytes T conventionnels antigène- réactifs en périphérie par détection au moyen de la trogocytose. Nous avons aussi montré les limitations de cette méthode dans sa capacité d'identifier des lymphocytes T effecteurs et régulateurs antigène- réactifs extraits de sites inflammatoires. Le potentiel de trogocytose élevé dans les sites d'inflammation soulève la question de la signification biologique de ce phénomène dans l'inflammation, dans la suppression médiée par les lymphocytes T régulateurs et dans le maintien de la tolérance immunologique dans des états de santé variables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atherosclerosis is a chronic cardiovascular disease that involves the thicken¬ing of the artery walls as well as the formation of plaques (lesions) causing the narrowing of the lumens, in vessels such as the aorta, the coronary and the carotid arteries. Magnetic resonance imaging (MRI) is a promising modality for the assessment of atherosclerosis, as it is a non-invasive and patient-friendly procedure that does not use ionizing radiation. MRI offers high soft tissue con¬trast already without the need of intravenous contrast media; while modifica¬tion of the MR pulse sequences allows for further adjustment of the contrast for specific diagnostic needs. As such, MRI can create angiographic images of the vessel lumens to assess stenoses at the late stage of the disease, as well as blood flow-suppressed images for the early investigation of the vessel wall and the characterization of the atherosclerotic plaques. However, despite the great technical progress that occurred over the past two decades, MRI is intrinsically a low sensitive technique and some limitations still exist in terms of accuracy and performance. A major challenge for coronary artery imaging is respiratory motion. State- of-the-art diaphragmatic navigators rely on an indirect measure of motion, per¬form a ID correction, and have long and unpredictable scan time. In response, self-navigation (SM) strategies have recently been introduced that offer 100% scan efficiency and increased ease of use. SN detects respiratory motion di¬rectly from the image data obtained at the level of the heart, and retrospectively corrects the same data before final image reconstruction. Thus, SN holds po-tential for multi-dimensional motion compensation. To this regard, this thesis presents novel SN methods that estimate 2D and 3D motion parameters from aliased sub-images that are obtained from the same raw data composing the final image. Combination of all corrected sub-images produces a final image with reduced motion artifacts for the visualization of the coronaries. The first study (section 2.2, 2D Self-Navigation with Compressed Sensing) consists of a method for 2D translational motion compensation. Here, the use of com- pressed sensing (CS) reconstruction is proposed and investigated to support motion detection by reducing aliasing artifacts. In healthy human subjects, CS demonstrated an improvement in motion detection accuracy with simula¬tions on in vivo data, while improved coronary artery visualization was demon¬strated on in vivo free-breathing acquisitions. However, the motion of the heart induced by respiration has been shown to occur in three dimensions and to be more complex than a simple translation. Therefore, the second study (section 2.3,3D Self-Navigation) consists of a method for 3D affine motion correction rather than 2D only. Here, different techniques were adopted to reduce background signal contribution in respiratory motion tracking, as this can be adversely affected by the static tissue that surrounds the heart. The proposed method demonstrated to improve conspicuity and vi¬sualization of coronary arteries in healthy and cardiovascular disease patient cohorts in comparison to a conventional ID SN method. In the third study (section 2.4, 3D Self-Navigation with Compressed Sensing), the same tracking methods were used to obtain sub-images sorted according to the respiratory position. Then, instead of motion correction, a compressed sensing reconstruction was performed on all sorted sub-image data. This process ex¬ploits the consistency of the sorted data to reduce aliasing artifacts such that the sub-image corresponding to the end-expiratory phase can directly be used to visualize the coronaries. In a healthy volunteer cohort, this strategy improved conspicuity and visualization of the coronary arteries when compared to a con¬ventional ID SN method. For the visualization of the vessel wall and atherosclerotic plaques, the state- of-the-art dual inversion recovery (DIR) technique is able to suppress the signal coming from flowing blood and provide positive wall-lumen contrast. How¬ever, optimal contrast may be difficult to obtain and is subject to RR variability. Furthermore, DIR imaging is time-inefficient and multislice acquisitions may lead to prolonged scanning times. In response and as a fourth study of this thesis (chapter 3, Vessel Wall MRI of the Carotid Arteries), a phase-sensitive DIR method has been implemented and tested in the carotid arteries of a healthy volunteer cohort. By exploiting the phase information of images acquired after DIR, the proposed phase-sensitive method enhances wall-lumen contrast while widens the window of opportunity for image acquisition. As a result, a 3-fold increase in volumetric coverage is obtained at no extra cost in scanning time, while image quality is improved. In conclusion, this thesis presented novel methods to address some of the main challenges for MRI of atherosclerosis: the suppression of motion and flow artifacts for improved visualization of vessel lumens, walls and plaques. Such methods showed to significantly improve image quality in human healthy sub¬jects, as well as scan efficiency and ease-of-use of MRI. Extensive validation is now warranted in patient populations to ascertain their diagnostic perfor¬mance. Eventually, these methods may bring the use of atherosclerosis MRI closer to the clinical practice. Résumé L'athérosclérose est une maladie cardiovasculaire chronique qui implique le épaississement de la paroi des artères, ainsi que la formation de plaques (lé¬sions) provoquant le rétrécissement des lumières, dans des vaisseaux tels que l'aorte, les coronaires et les artères carotides. L'imagerie par résonance magné¬tique (IRM) est une modalité prometteuse pour l'évaluation de l'athérosclérose, car il s'agit d'une procédure non-invasive et conviviale pour les patients, qui n'utilise pas des rayonnements ionisants. L'IRM offre un contraste des tissus mous très élevé sans avoir besoin de médias de contraste intraveineux, tan¬dis que la modification des séquences d'impulsions de RM permet en outre le réglage du contraste pour des besoins diagnostiques spécifiques. À ce titre, l'IRM peut créer des images angiographiques des lumières des vaisseaux pour évaluer les sténoses à la fin du stade de la maladie, ainsi que des images avec suppression du flux sanguin pour une première enquête des parois des vais¬seaux et une caractérisation des plaques d'athérosclérose. Cependant, malgré les grands progrès techniques qui ont eu lieu au cours des deux dernières dé¬cennies, l'IRM est une technique peu sensible et certaines limitations existent encore en termes de précision et de performance. Un des principaux défis pour l'imagerie de l'artère coronaire est le mou¬vement respiratoire. Les navigateurs diaphragmatiques de pointe comptent sur une mesure indirecte de mouvement, effectuent une correction 1D, et ont un temps d'acquisition long et imprévisible. En réponse, les stratégies d'auto- navigation (self-navigation: SN) ont été introduites récemment et offrent 100% d'efficacité d'acquisition et une meilleure facilité d'utilisation. Les SN détectent le mouvement respiratoire directement à partir des données brutes de l'image obtenue au niveau du coeur, et rétrospectivement corrigent ces mêmes données avant la reconstruction finale de l'image. Ainsi, les SN détiennent un poten¬tiel pour une compensation multidimensionnelle du mouvement. A cet égard, cette thèse présente de nouvelles méthodes SN qui estiment les paramètres de mouvement 2D et 3D à partir de sous-images qui sont obtenues à partir des mêmes données brutes qui composent l'image finale. La combinaison de toutes les sous-images corrigées produit une image finale pour la visualisation des coronaires ou les artefacts du mouvement sont réduits. La première étude (section 2.2,2D Self-Navigation with Compressed Sensing) traite d'une méthode pour une compensation 2D de mouvement de translation. Ici, on étudie l'utilisation de la reconstruction d'acquisition comprimée (compressed sensing: CS) pour soutenir la détection de mouvement en réduisant les artefacts de sous-échantillonnage. Chez des sujets humains sains, CS a démontré une amélioration de la précision de la détection de mouvement avec des simula¬tions sur des données in vivo, tandis que la visualisation de l'artère coronaire sur des acquisitions de respiration libre in vivo a aussi été améliorée. Pourtant, le mouvement du coeur induite par la respiration se produit en trois dimensions et il est plus complexe qu'un simple déplacement. Par conséquent, la deuxième étude (section 2.3, 3D Self-Navigation) traite d'une méthode de cor¬rection du mouvement 3D plutôt que 2D uniquement. Ici, différentes tech¬niques ont été adoptées pour réduire la contribution du signal du fond dans le suivi de mouvement respiratoire, qui peut être influencé négativement par le tissu statique qui entoure le coeur. La méthode proposée a démontré une amélioration, par rapport à la procédure classique SN de correction 1D, de la visualisation des artères coronaires dans le groupe de sujets sains et des pa¬tients avec maladies cardio-vasculaires. Dans la troisième étude (section 2.4,3D Self-Navigation with Compressed Sensing), les mêmes méthodes de suivi ont été utilisées pour obtenir des sous-images triées selon la position respiratoire. Au lieu de la correction du mouvement, une reconstruction de CS a été réalisée sur toutes les sous-images triées. Cette procédure exploite la cohérence des données pour réduire les artefacts de sous- échantillonnage de telle sorte que la sous-image correspondant à la phase de fin d'expiration peut directement être utilisée pour visualiser les coronaires. Dans un échantillon de volontaires en bonne santé, cette stratégie a amélioré la netteté et la visualisation des artères coronaires par rapport à une méthode classique SN ID. Pour la visualisation des parois des vaisseaux et de plaques d'athérosclérose, la technique de pointe avec double récupération d'inversion (DIR) est capa¬ble de supprimer le signal provenant du sang et de fournir un contraste posi¬tif entre la paroi et la lumière. Pourtant, il est difficile d'obtenir un contraste optimal car cela est soumis à la variabilité du rythme cardiaque. Par ailleurs, l'imagerie DIR est inefficace du point de vue du temps et les acquisitions "mul- tislice" peuvent conduire à des temps de scan prolongés. En réponse à ce prob¬lème et comme quatrième étude de cette thèse (chapitre 3, Vessel Wall MRI of the Carotid Arteries), une méthode de DIR phase-sensitive a été implémenté et testé

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sur les marchés de carding en ligne, de grandes quantités d'informations financières volées sont vendues et achetées à bas prix. Ces marchés pourraient constituer une menace importante pour les établissements financiers et les victimes. Cependant, le risque pourrait être moins important qu'attendu car les membres de ces communautés sont régulièrement victimisées par leurs pairs. Le but de cette recherche est d'évaluer la stabilité de ces marchés en s'intéressant au niveau de supercherie au sein d'un forum de carding. Cet article présente une méthode de détection des participants qui possèdent plusieurs identités virtuelles (comptes utilisateurs) afin de tromper les autres. Le profil d'utilisation des différents comptes d'une même personne est analysé. L'approche présentée est discutée sous l'angle forensique, particulièrement pertinent pour interpréter les liens faits entre différents comptes utilisateurs attribués à une même personne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nombre d'examens tomodensitométriques (Computed Tomography, CT) effectués chaque année étant en constante augmentation, différentes techniques d'optimisation, dont les algorithmes de reconstruction itérative permettant de réduire le bruit tout en maintenant la résolution spatiale, ont étés développées afin de réduire les doses délivrées. Le but de cette étude était d'évaluer l'impact des algorithmes de reconstruction itérative sur la qualité image à des doses effectives inférieures à 0.3 mSv, comparables à celle d'une radiographie thoracique. Vingt CT thoraciques effectués à cette dose effective ont été reconstruits en variant trois paramètres: l'algorithme de reconstruction, rétroprojection filtrée versus reconstruction itérative iDose4; la matrice, 5122 versus 7682; et le filtre de résolution en densité (mou) versus spatiale (dur). Ainsi, 8 séries ont été reconstruites pour chacun des 20 CT thoraciques. La qualité d'image de ces 8 séries a d'abord été évaluée qualitativement par deux radiologues expérimentés en aveugle en se basant sur la netteté des parois bronchiques et de l'interface entre le parenchyme pulmonaire et les vaisseaux, puis quantitativement en utilisant une formule de merit, fréquemment utilisée dans le développement de nouveaux algorithmes et filtres de reconstruction. La performance diagnostique de la meilleure série acquise à une dose effective inférieure à 0.3 mSv a été comparée à celle d'un CT de référence effectué à doses standards en relevant les anomalies du parenchyme pulmonaire. Les résultats montrent que la meilleure qualité d'image, tant qualitativement que quantitativement a été obtenue en utilisant iDose4, la matrice 5122 et le filtre mou, avec une concordance parfaite entre les classements quantitatif et qualitatif des 8 séries. D'autre part, la détection des nodules pulmonaires de plus de 4mm étaient similaire sur la meilleure série acquise à une dose effective inférieure à 0.3 mSv et le CT de référence. En conclusion, les CT thoraciques effectués à une dose effective inférieure à 0.3 mSv reconstruits avec iDose4, la matrice 5122 et le filtre mou peuvent être utilisés avec confiance pour diagnostiquer les nodules pulmonaires de plus de 4mm.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif STOPP/START est un outil de détection de la prescription médicamenteuse potentiellement inappropriée chez la personne de 65 ans ou plus. La version initiale de 2008 vient d'être mise à jour et améliorée par ses auteurs. Nous en présentons l'adaptation et la validation en langue française. Méthodes L'adaptation en français de l'outil STOPP/START.v2 a été réalisée par deux experts, confirmée par la méthode de traduction-inverse, et finalisée d'après les commentaires de neufs évaluateurs francophones, gériatres, pharmaciens cliniciens, et médecin généraliste de quatre pays (France, Belgique, Suisse, Canada). La validation a été complétée par une analyse de concordance inter-juge (CCI) des critères STOPP/START.v2 appliqués à dix vignettes cliniques standardisées. Résultats Les 115 critères de STOPP/START.v2 en français sont, par rapport à la version originale anglaise, identiques par leur classification mais adaptés en termes de présentation (critères START.v2 commençant par la condition clinique, et accompagnés par une justification du caractère inapproprié de l'omission) voire de formulation de certains critères. Cette adaptation en français est validée par (i) la traduction-inverse montrant le respect du sens clinique de la version originale, (ii) l'identification semblable des critères lorsque appliqués à dix vignettes cliniques par les neuf évaluateurs, et (iii) le haut niveau de concordance de ces neuf évaluations tant pour STOPP.v2 (CCI 0,849) que pour START.v2 (CCI 0,921). Conclusion L'adaptation en langue française des critères STOPP/START.v2 fournit aux cliniciens un outil de détection de la prescription médicamenteuse potentiellement inappropriée chez les personnes de 65 ans et plus qui est logique, fiable et facile à utiliser. Objective STOPP/START is a screening tool to detect potentially inappropriate prescribing in persons aged 65 or older. Its Irish authors recently updated and improved the initially published version of 2008. We present the adaptation and validation into French language of this updated tool. Methods STOPP/START.v2 was adapted into French by two experts, then confirmed by a translation-back translation method and finalised according to the comments of nine French-speaking assessors - geriatricians, pharmacologists and a general physician - from four countries (France, Belgium, Switzerland, and Canada). The validation was completed by an inter-rater reliability (IRR) analysis of the STOPP/START.v2 criteria applied to 10 standardized clinical vignettes. Results In comparison to the original English version, the 115 STOPP/START.v2 criteria in French language classify in identical manner, but the presentation has been adjusted (START.v2 first specifies the clinical condition followed by an explanation of the inappropriateness of the prescription or omission). This adaptation into French language was validated by means of (i) the translation/back-translation, which showed that the French version complied with the clinical meaning of the original criteria; (ii) the similar screening results when applied by the nine specialists to the 10 cases; and (iii) the high level of inter-rater reliability of these 9 evaluations, for both STOPP (IRR 0.849) and START.v2 (IRR 0.921). Conclusion The adaptation into French of the STOPP/START.v2 criteria provides clinicians with a screening tool to detect potentially inappropriate prescribing in patients aged 65 and older that is more logical, more reliable and easier to use.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La violence parmi les jeunes est un thème récurrent dans les médias qui suscite de nombreuses inquiétudes dans la population. Les enquêtes standardisées répétées auprès des jeunes sur la violence qu'ils ont expérimentée, en tant qu'auteurs ou victimes, constituent une source précieuse de données pour étudier l'évolution de ce phénomène ainsi que d'autres formes de délinquance et de comportements à risque. Elles permettent également de décrire et de mieux comprendre les contextes dans lesquels les incidents violent se produisent et quelles sont les causes potentielles du passage à l'acte. Ces enquêtes sont un moyen efficace de dresser un état des lieux qui va bien au-dede ce que peuvent montrer les statistiques officielles de la police et de la justice. En vue des enquêtes de 2014, les méthodologies des deux études cantonales ont été harmonisées de manière à augmenter les possibilités de comparaison. Ce processus d'harmonisation ainsi que la présente étude comparative ont été financés par l'Office fédéral des assurances sociales (OFAS). Par ailleurs, les habitudes des jeunes ayant évolué au cours des dix dernières années, un certain nombre de comportements ont été intégrés dans les questionnaires vaudois et zurichois de 2014, comme le cyber-harcèlement et la violence au sein des jeunes couples. La présente étude cherche à répondre à deux questions fondamentales : 1. Comment la violence parmi les jeunes ainsi que ses contextes et facteurs de risque ont-ils évolué ces dernières années ? 2. Quelles similarités et différences trouvons-nous entre les cantons de Vaud et de Zurich en 2014 ? Par conséquent, l'étude est divisée en deux parties : la première traite de l'évolution de la violence et d'autres problèmes comportementaux entre 1999 (Zurich) respectivement 2004 (Lausanne) et 2014 chez les jeunes habitants la ville de Lausanne ou de Zurich ; la seconde partie dresse le portrait de la situation en 2014 dans les cantons de Vaud et de Zurich. Pour des raisons d'échantillonnage les analyses dans le temps sont limitées à des comparaisons inter-villes plutôt qu'inter-cantonales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

« Les yeux sont du visage humain la partie la plus noble et la plus importante, les yeux sont composés de corps, d'âme et d'esprit, ou plutôt les yeux sont la fenêtre où l'âme et l'esprit viennent se montrer » (Alphonse Karr, 1853). L'oeil est le regard, mais pour l'ophtalmologue il est aussi une fenêtre ouverte et un regard possible sur le reste du corps. Prolongement du système nerveux central en contact direct avec le monde extérieur dont il est l'un des « senseurs » le plus subtil et le plus complexe, il est sujet à des réactions inflammatoires, allergiques et toxiques chez l'enfant et chez l'adulte. Alors que notre environnement visuel change (modification des systèmes d'éclairage domestique dans les villes, écrans, mode de vie et habitudes de travail), que les polluants se multiplient et se combinent et que les environnements climatisés deviennent la règle, le nombre de patients souffrant de pathologies de la surface oculaire atteint 30 % des motifs de nos consultations et le nombre des patients myopes est en hausse. L'oeil est l'un des « senseurs » le plus subtil et le plus complexe Si la surface oculaire peut aussi être le témoin des pathologies systémiques, c'est la rétine qui en est plus fréquemment le reflet. Les atteintes du lit vasculaire, du nerf optique ou de la rétine peuvent être des manifestations de pathologies générales ou d'effets secondaires ou toxiques de médicaments. L'examen du fond d'oeil et la rétinophotographie restent les examens de dépistage de référence en particulier pour la rétinopathie diabétique, véritable fléau mondial et première cause de cécité dans les pays industrialisés chez les jeunes adultes. Mais ce n'est que par la collaboration entre ophtalmologues, médecins traitants et autres spécialistes que les pathologies rétiniennes peuvent être prises en charge de façon optimale pour qu'à des traitements oculaires spécifiques soit associée la prise en charge globale des maladies causales ou interférentes. Au-delà du fond d'oeil, les progrès technologiques contribuent au développement de multiples méthodes d'exploration des différentes structures de l'oeil offrant ainsi la possibilité d'utiliser l'oeil comme témoin de manifestations précoces de maladies neurologiques périphériques ou centrales. L'imagerie cornéenne semble aujourd'hui capable de révéler et de suivre de façon longitudinale la neuropathie diabétique périphérique et il n'est pas impossible que la rétine devienne le site de détection précoce de la maladie d'Alzheimer. Sur le plan de la prise en charge, l'ophtalmologue ne peut pas se contenter de traiter l'oeil, il doit aussi assurer une prise en charge pluridisciplinaire et accompagner le patient qui, perdant la vision, est sujet à la dépression et à la majoration de tout autre handicap. La perte visuelle est le handicap le plus redouté des populations et la perte d'autonomie qu'il induit limite l'observance et le suivi thérapeutique (comparable en termes de gravité ressentie à un « alitement brutal dans les suites d'un AVC »). La médecine personnalisée et les interactions multidisciplinaires prennent ici tout leur sens. Les développements thérapeutiques ont été majeurs ces dernières années et la cécité n'est plus une fatalité, au moins dans certains cas. Mais la rétine étant un tissu nerveux post-mitotique, les traitements et donc le dépistage doivent être précoces pour prévenir la perte visuelle irréversible. Spécifiquement, les espoirs lointains comme la thérapie génique entrent dans les essais cliniques laissant entrevoir la lumière au bout du tunnel. A portée de vue, la rétine artificielle constitue une avancée concrète, encore perfectible mais accessible dès aujourd'hui. Si les progrès sont manifestes dans le domaine de l'ophtalmologie, il reste encore beaucoup à apprendre et à comprendre en particulier dans les mécanismes pathogéniques multifactoriels des maladies oculaires plus fréquentes. Seule une exploration approfondie des maladies humaines pourra nous permettre de mieux appréhender de nouvelles stratégies thérapeutiques. Comme le disait André Isaac (1893-1975), pour voir loin, il faut regarder de près.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis develops a comprehensive and a flexible statistical framework for the analysis and detection of space, time and space-time clusters of environmental point data. The developed clustering methods were applied in both simulated datasets and real-world environmental phenomena; however, only the cases of forest fires in Canton of Ticino (Switzerland) and in Portugal are expounded in this document. Normally, environmental phenomena can be modelled as stochastic point processes where each event, e.g. the forest fire ignition point, is characterised by its spatial location and occurrence in time. Additionally, information such as burned area, ignition causes, landuse, topographic, climatic and meteorological features, etc., can also be used to characterise the studied phenomenon. Thereby, the space-time pattern characterisa- tion represents a powerful tool to understand the distribution and behaviour of the events and their correlation with underlying processes, for instance, socio-economic, environmental and meteorological factors. Consequently, we propose a methodology based on the adaptation and application of statistical and fractal point process measures for both global (e.g. the Morisita Index, the Box-counting fractal method, the multifractal formalism and the Ripley's K-function) and local (e.g. Scan Statistics) analysis. Many measures describing the space-time distribution of environmental phenomena have been proposed in a wide variety of disciplines; nevertheless, most of these measures are of global character and do not consider complex spatial constraints, high variability and multivariate nature of the events. Therefore, we proposed an statistical framework that takes into account the complexities of the geographical space, where phenomena take place, by introducing the Validity Domain concept and carrying out clustering analyses in data with different constrained geographical spaces, hence, assessing the relative degree of clustering of the real distribution. Moreover, exclusively to the forest fire case, this research proposes two new methodologies to defining and mapping both the Wildland-Urban Interface (WUI) described as the interaction zone between burnable vegetation and anthropogenic infrastructures, and the prediction of fire ignition susceptibility. In this regard, the main objective of this Thesis was to carry out a basic statistical/- geospatial research with a strong application part to analyse and to describe complex phenomena as well as to overcome unsolved methodological problems in the characterisation of space-time patterns, in particular, the forest fire occurrences. Thus, this Thesis provides a response to the increasing demand for both environmental monitoring and management tools for the assessment of natural and anthropogenic hazards and risks, sustainable development, retrospective success analysis, etc. The major contributions of this work were presented at national and international conferences and published in 5 scientific journals. National and international collaborations were also established and successfully accomplished. -- Cette thèse développe une méthodologie statistique complète et flexible pour l'analyse et la détection des structures spatiales, temporelles et spatio-temporelles de données environnementales représentées comme de semis de points. Les méthodes ici développées ont été appliquées aux jeux de données simulées autant qu'A des phénomènes environnementaux réels; nonobstant, seulement le cas des feux forestiers dans le Canton du Tessin (la Suisse) et celui de Portugal sont expliqués dans ce document. Normalement, les phénomènes environnementaux peuvent être modélisés comme des processus ponctuels stochastiques ou chaque événement, par ex. les point d'ignition des feux forestiers, est déterminé par son emplacement spatial et son occurrence dans le temps. De plus, des informations tels que la surface bru^lée, les causes d'ignition, l'utilisation du sol, les caractéristiques topographiques, climatiques et météorologiques, etc., peuvent aussi être utilisées pour caractériser le phénomène étudié. Par conséquent, la définition de la structure spatio-temporelle représente un outil puissant pour compren- dre la distribution du phénomène et sa corrélation avec des processus sous-jacents tels que les facteurs socio-économiques, environnementaux et météorologiques. De ce fait, nous proposons une méthodologie basée sur l'adaptation et l'application de mesures statistiques et fractales des processus ponctuels d'analyse global (par ex. l'indice de Morisita, la dimension fractale par comptage de boîtes, le formalisme multifractal et la fonction K de Ripley) et local (par ex. la statistique de scan). Des nombreuses mesures décrivant les structures spatio-temporelles de phénomènes environnementaux peuvent être trouvées dans la littérature. Néanmoins, la plupart de ces mesures sont de caractère global et ne considèrent pas de contraintes spatiales com- plexes, ainsi que la haute variabilité et la nature multivariée des événements. A cet effet, la méthodologie ici proposée prend en compte les complexités de l'espace géographique ou le phénomène a lieu, à travers de l'introduction du concept de Domaine de Validité et l'application des mesures d'analyse spatiale dans des données en présentant différentes contraintes géographiques. Cela permet l'évaluation du degré relatif d'agrégation spatiale/temporelle des structures du phénomène observé. En plus, exclusif au cas de feux forestiers, cette recherche propose aussi deux nouvelles méthodologies pour la définition et la cartographie des zones périurbaines, décrites comme des espaces anthropogéniques à proximité de la végétation sauvage ou de la forêt, et de la prédiction de la susceptibilité à l'ignition de feu. A cet égard, l'objectif principal de cette Thèse a été d'effectuer une recherche statistique/géospatiale avec une forte application dans des cas réels, pour analyser et décrire des phénomènes environnementaux complexes aussi bien que surmonter des problèmes méthodologiques non résolus relatifs à la caractérisation des structures spatio-temporelles, particulièrement, celles des occurrences de feux forestières. Ainsi, cette Thèse fournit une réponse à la demande croissante de la gestion et du monitoring environnemental pour le déploiement d'outils d'évaluation des risques et des dangers naturels et anthro- pogéniques. Les majeures contributions de ce travail ont été présentées aux conférences nationales et internationales, et ont été aussi publiées dans 5 revues internationales avec comité de lecture. Des collaborations nationales et internationales ont été aussi établies et accomplies avec succès.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nombreux sont les groupes de recherche qui se sont intéressés, ces dernières années, à la manière de monitorer l'entraînement des sportifs de haut niveau afin d'optimaliser le rendement de ce dernier tout en préservant la santé des athlètes. Un des problèmes cardinaux d'un entraînement sportif mal conduit est le syndrome du surentraînement. La définition du syndrome susmentionné proposée par Kreider et al. est celle qui est actuellement acceptée par le « European College of Sport Science » ainsi que par le « American College of Sports Medicine», à savoir : « An accumulation of training and/or non-training stress resulting in long-term decrement in performance capacity with or without related physiological and psychological signs and symptoms of maladaptation in which restoration of performance capacity may take several weeks or months. » « Une accumulation de stress lié, ou non, à l'entraînement, résultant en une diminution à long terme de la capacité de performance. Cette dernière est associée ou non avec des signes et des symptômes physiologiques et psychologiques d'inadaptation de l'athlète à l'entraînement. La restauration de ladite capacité de performance peut prendre plusieurs semaines ou mois. » Les recommandations actuelles, concernant le monitoring de l'entraînement et la détection précoce du syndrome du surentrainement, préconisent, entre autre, un suivi psychologique à l'aide de questionnaires (tel que le Profile of Mood State (POMS)), un suivi de la charge d'entraînement perçue par l'athlète (p.ex. avec la session rating of perceived exertion (RPE) method selon C. Foster), un suivi des performances des athlètes et des charges d'entraînement effectuées ainsi qu'un suivi des problèmes de santé (blessures et maladies). Le suivi de paramètres sanguins et hormonaux n'est pas recommandé d'une part pour des questions de coût et de faisabilité, d'autre part car la littérature scientifique n'a, jusqu'ici, pas été en mesure de dégager des évidences à ce sujet. A ce jour, peu d'études ont suivi ces paramètres de manière rigoureuse, sur une longue période et chez un nombre d'athlète important. Ceci est précisément le but de notre étude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chez les patients cancéreux, les cellules malignes sont souvent reconnues et détruites par les cellules T cytotoxiques du patient. C'est pourquoi, depuis plusieurs années, des recherches visent à produire des vaccins sensibilisant les cellules de l'immunité adaptative, afin de prévenir certains cancers. Bien que les vaccins ciblant les cellules T CD8+ (cytotoxiques) ont une efficacité in-vitro élevée, un vaccin pouvant cibler les cellules T CD8+ et CD4+ aurait une plus grande efficacité (1-3). En effet, les cellules T helper (CD4+) favorisent la production et la maintenance des cellules T CD8+ mémoires à longue durée de vie. Il existe un grand nombre de sous-types de cellules T CD4+ et leur action envers les cellules cancéreuses est différente. Par exemple, les lymphocytes Treg ont une activité pro-tumorale importante (4) et les lymphocytes Th1 ont une activité anti-tumorale (5). Cependant, le taux naturel des différents sous-types de cellules T CD4+ spécifiques aux antigènes tumoraux est variable. De plus, une certaine flexibilité des différents sous-types de cellules T CD4+ a été récemment démontrée (6). Celle-ci pourrait être ciblée par des protocoles de vaccination avec des antigènes tumoraux administrés conjointement à des adjuvants définis. Pour cela, il faut approfondir les connaissances sur le rôle des cellules T CD4+ spécifiques aux antigènes dans l'immunité anti-tumorale et connaître précisément la proportion des sous-types de cellules T CD4+ activées avant et après la vaccination. L'analyse des cellules T, par la cytométrie de flux, est très souvent limité par le besoin d'un nombre très élevé de cellules pour l'analyse de l'expression protéique. Or dans l'analyse des cellules T CD4+ spécifiques aux antigènes tumoraux cette technique n'est souvent pas applicable, car ces cellules sont présentes en très faible quantité dans le sang et dans les tissus tumoraux. C'est pourquoi, une approche basée sur l'analyse de la cellule T individuelle a été mise en place afin d'étudier l'expression du profil génétique des cellules T CD8+ et CD4+. (7,8) Méthode : Ce nouveau protocole (« single cell ») a été élaboré à partir d'une modification du protocole PCR-RT, qui permet la détection spécifique de l'ADN complémentaire (ADNc) après la transcription globale de l'ARN messager (ARNm) exprimé par une cellule T individuelle. Dans ce travail, nous optimisons cette nouvelle technique d'analyse pour les cellules T CD4+, en sélectionnant les meilleures amorces. Tout d'abord, des clones à profils fonctionnels connus sont générés par cytométrie de flux à partir de cellules T CD4+ d'un donneur sain. Pour cette étape d'optimisation des amorces, la spécificité des cellules T CD4+ n'est pas prise en considération. Il est, donc, possible d'étudier et de trier ces clones par cytométrie de flux. Ensuite, grâce au protocole « single cell », nous testons par PCR les amorces des différents facteurs spécifiques de chaque sous-type des T CD4+ sur des aliquotes issus d'une cellule provenant des clones générés. Nous sélectionnons les amorces dont la sensibilité, la spécificité ainsi que les valeurs prédictives positives et négatives des tests sont les meilleures. (9) Conclusion : Durant ce travail nous avons généré de l'ADNc de cellules T individuelles et sélectionné douze paires d'amorces pour l'identification des sous-types de cellules T CD4+ par la technique d'analyse PCR « single cell ». Les facteurs spécifiques aux cellules Th2 : IL-4, IL-5, IL-13, CRTh2, GATA3 ; les facteurs spécifiques aux cellules Th1 : TNFα, IL-2 ; les facteurs spécifiques aux cellules Treg : FOXP3, IL-2RA ; les facteurs spécifiques aux cellules Th17 : RORC, CCR6 et un facteur spécifique aux cellules naïves : CCR7. Ces amorces peuvent être utilisées dans le futur en combinaison avec des cellules antigènes-spécifiques triées par marquage des multimères pMHCII. Cette méthode permettra de comprendre le rôle ainsi que l'amplitude et la diversité fonctionnelle de la réponse de la cellule T CD4+ antigène-spécifique dans les cancers et dans d'autres maladies. Cela afin d'affiner les recherches en immunothérapie oncologique. (8)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We propose finite sample tests and confidence sets for models with unobserved and generated regressors as well as various models estimated by instrumental variables methods. The validity of the procedures is unaffected by the presence of identification problems or \"weak instruments\", so no detection of such problems is required. We study two distinct approaches for various models considered by Pagan (1984). The first one is an instrument substitution method which generalizes an approach proposed by Anderson and Rubin (1949) and Fuller (1987) for different (although related) problems, while the second one is based on splitting the sample. The instrument substitution method uses the instruments directly, instead of generated regressors, in order to test hypotheses about the \"structural parameters\" of interest and build confidence sets. The second approach relies on \"generated regressors\", which allows a gain in degrees of freedom, and a sample split technique. For inference about general possibly nonlinear transformations of model parameters, projection techniques are proposed. A distributional theory is obtained under the assumptions of Gaussian errors and strictly exogenous regressors. We show that the various tests and confidence sets proposed are (locally) \"asymptotically valid\" under much weaker assumptions. The properties of the tests proposed are examined in simulation experiments. In general, they outperform the usual asymptotic inference methods in terms of both reliability and power. Finally, the techniques suggested are applied to a model of Tobin’s q and to a model of academic performance.