483 resultados para psychokinésiologie, détection, radiophysique
Resumo:
While a number of plants, animals, and insects in Madagascar have been called 'invasive', the topic of invasive species has until recently received less attention here than in other island contexts. Some species, often alien to Madagascar and introduced by humans, have expanded their range rapidly and have had both negative and positive effects on landscapes, on native biodiversity, and on livelihoods. Examples include the prickly pear (raketa), the silver wattle (mimosa), and, recently, the Asian common toad (radaka boka). Building on a conceptual approach to 'invasive species', this paper emphasizes the importance of inclusive and deliberative site- and population - specific management of invasive species. It analyses three separate concepts commonly used in definitions of invasion: the origin, behaviour, and effects of particular species. It places these concepts in their broader social and ecological context, with particular attention to local perspectives on invasive species. We illustrate these concepts with Malagasy examples and data. The examples demonstrate that while invasions can have dramatic consequences, there can be multiple, often competing, interests as well as site - specific biophysical, environmental, and cultural considerations that need to be taken into account when designing policy and management interventions. We conclude with a number of lessons learned. RESUME FRANCAIS Contrairement à la plupart des autres îles, et en dépit du qualificatif 'invasif' rattaché depuis longtemps à certaines espèces qui s'y sont naturalisées, les réflexions autour de l'approche des espèces invasives à Madagascar demeurent récentes. L'opuntia (Opuntia spp.) figure certes parmi les plus anciens exemples d'espèces traités dans la littérature sur les invasions biologiques. Mais ce n'est vraiment qu'avec le retentissement médiatique autour de la détection en 2011 de la présence du crapaud masqué (Duttaphrynus melanostictus) et la recherche d'une parade appropriée que s'est affirmée la nécessité de traiter cette question des espèces invasives en tant que telle. Une posture nativiste et uniforme qui ignorerait la spécificité des contextes biophysiques et socio - économiques locaux, mais aussi la pluralité des formes d'invasion biologique et des défi- nitions qui s'y rattachent, ne saurait être privilégiée. L'article montre qu'il s'agit de situer les réflexions dans un contexte insulaire socio - économique dans lequel les espèces allogènes tiennent depuis longtemps une large place. Il défend en outre la nécessité d'envisager les espèces invasives non pas selon une forme de perception unique et autoritariste, mais selon une diversité de points de vue, conforme aux conflits d'intérêts qui se manifestent parfois, et mettant plutôt en avant le caractère exogène des espèces invasives, leurs effets (négatifs, mais aussi positifs) sur le milieu, ou leur mode de fonctionnement (disper- sion, dominance) dans des contextes spécifiques et locaux. Il convient en particulier d'observer qu'aux coûts générés par les invasions biologiques peuvent s'ajouter des bénéfices économiques, et que les impacts écologiques néfastes peuvent se combiner avec des incidences heureuses, y compris auprès d'espèces indigènes en situation critique. En outre, le point de vue des populations humaines, leur connaissance d'espèces invasives quotidiennement rencontrées, leur réticence à scin- der le vivant en espèces indigènes et allogène, mais aussi leur vision pragmatique, ne sauraient être mésestimés, et moins encore oubliés. Enfin, l'article invite à prendre du recul face aux effets rhétoriques liés aux discours conventionnels sur les inva- sions biologiques, à éviter les amalgames et les généralisations excessives, à tenir compte des contraintes environnementales mais aussi des aspirations socio - économiques des populations locales, et à prendre en compte la diversité des spécificités locales, qu'elles soient biophysiques ou sociales. En conclusion, il est sans doute heureux que Madagascar n'ait rejoint que très récemment la mouvance internationale des réflexions sur les espèces invasives : cela lui permet en effet d'être en mesure de disposer d'une position équilibrée, déjouant certains discours catastrophistes, et préférant une approche résolument contextualisée, à l'échelle nationale comme aux échelles régionales.
Resumo:
La fabrication, la distribution et l'usage de fausses pièces d'identité constituent une menace pour la sécurité autant publique que privée. Ces faux documents représentent en effet un catalyseur pour une multitude de formes de criminalité, des plus anodines aux formes les plus graves et organisées. La dimension, la complexité, la faible visibilité, ainsi que les caractères répétitif et évolutif de la fraude aux documents d'identité appellent des réponses nouvelles qui vont au-delà d'une approche traditionnelle au cas par cas ou de la stratégie du tout technologique dont la perspective historique révèle l'échec. Ces nouvelles réponses passent par un renforcement de la capacité de comprendre les problèmes criminels que posent la fraude aux documents d'identité et les phénomènes qui l'animent. Cette compréhension est tout bonnement nécessaire pour permettre d'imaginer, d'évaluer et de décider les solutions et mesures les plus appropriées. Elle requière de développer les capacités d'analyse et la fonction de renseignement criminel qui fondent en particulier les modèles d'action de sécurité les plus récents, tels que l'intelligence-led policing ou le problem-oriented policing par exemple. Dans ce contexte, le travail doctoral adopte une position originale en postulant que les fausses pièces d'identité se conçoivent utilement comme la trace matérielle ou le vestige résultant de l'activité de fabrication ou d'altération d'un document d'identité menée par les faussaires. Sur la base de ce postulat fondamental, il est avancé que l'exploitation scientifique, méthodique et systématique de ces traces au travers d'un processus de renseignement forensique permet de générer des connaissances phénoménologiques sur les formes de criminalité qui fabriquent, diffusent ou utilisent les fausses pièces d'identité, connaissances qui s'intègrent et se mettent avantageusement au service du renseignement criminel. A l'appui de l'épreuve de cette thèse de départ et de l'étude plus générale du renseignement forensique, le travail doctoral propose des définitions et des modèles. Il décrit des nouvelles méthodes de profilage et initie la constitution d'un catalogue de formes d'analyses. Il recourt également à des expérimentations et des études de cas. Les résultats obtenus démontrent que le traitement systématique de la donnée forensique apporte une contribution utile et pertinente pour le renseignement criminel stratégique, opérationnel et tactique, ou encore la criminologie. Combiné aux informations disponibles par ailleurs, le renseignement forensique produit est susceptible de soutenir l'action de sécurité dans ses dimensions répressive, proactive, préventive et de contrôle. En particulier, les méthodes de profilage des fausses pièces d'identité proposées permettent de révéler des tendances au travers de jeux de données étendus, d'analyser des modus operandi ou d'inférer une communauté ou différence de source. Ces méthodes appuient des moyens de détection et de suivi des séries, des problèmes et des phénomènes criminels qui s'intègrent dans le cadre de la veille opérationnelle. Ils permettent de regrouper par problèmes les cas isolés, de mettre en évidence les formes organisées de criminalité qui méritent le plus d'attention, ou de produire des connaissances robustes et inédites qui offrent une perception plus profonde de la criminalité. Le travail discute également les difficultés associées à la gestion de données et d'informations propres à différents niveaux de généralité, ou les difficultés relatives à l'implémentation du processus de renseignement forensique dans la pratique. Ce travail doctoral porte en premier lieu sur les fausses pièces d'identité et leur traitement par les protagonistes de l'action de sécurité. Au travers d'une démarche inductive, il procède également à une généralisation qui souligne que les observations ci-dessus ne valent pas uniquement pour le traitement systématique des fausses pièces d'identité, mais pour celui de tout type de trace dès lors qu'un profil en est extrait. Il ressort de ces travaux une définition et une compréhension plus transversales de la notion et de la fonction de renseignement forensique. The production, distribution and use of false identity documents constitute a threat to both public and private security. Fraudulent documents are a catalyser for a multitude of crimes, from the most trivial to the most serious and organised forms. The dimension, complexity, low visibility as well as the repetitive and evolving character of the production and use of false identity documents call for new solutions that go beyond the traditional case-by-case approach, or the technology-focused strategy whose failure is revealed by the historic perspective. These new solutions require to strengthen the ability to understand crime phenomena and crime problems posed by false identity documents. Such an understanding is pivotal in order to be able to imagine, evaluate and decide on the most appropriate measures and responses. Therefore, analysis capacities and crime intelligence functions, which found the most recent policing models such as intelligence-led policing or problem-oriented policing for instance, have to be developed. In this context, the doctoral research work adopts an original position by postulating that false identity documents can be usefully perceived as the material remnant resulting from the criminal activity undertook by forgers, namely the manufacture or the modification of identity documents. Based on this fundamental postulate, it is proposed that a scientific, methodical and systematic processing of these traces through a forensic intelligence approach can generate phenomenological knowledge on the forms of crime that produce, distribute and use false identity documents. Such knowledge should integrate and serve advantageously crime intelligence efforts. In support of this original thesis and of a more general study of forensic intelligence, the doctoral work proposes definitions and models. It describes new profiling methods and initiates the construction of a catalogue of analysis forms. It also leverages experimentations and case studies. Results demonstrate that the systematic processing of forensic data usefully and relevantly contributes to strategic, tactical and operational crime intelligence, and also to criminology. Combined with alternative information available, forensic intelligence may support policing in its repressive, proactive, preventive and control activities. In particular, the proposed profiling methods enable to reveal trends among extended datasets, to analyse modus operandi, or to infer that false identity documents have a common or different source. These methods support the detection and follow-up of crime series, crime problems and phenomena and therefore contribute to crime monitoring efforts. They enable to link and regroup by problems cases that were previously viewed as isolated, to highlight organised forms of crime which deserve greatest attention, and to elicit robust and novel knowledge offering a deeper perception of crime. The doctoral research work discusses also difficulties associated with the management of data and information relating to different levels of generality, or difficulties associated with the implementation in practice of the forensic intelligence process. The doctoral work focuses primarily on false identity documents and their treatment by policing stakeholders. However, through an inductive process, it makes a generalisation which underlines that observations do not only apply to false identity documents but to any kind of trace as soon as a profile is extracted. A more transversal definition and understanding of the concept and function of forensic intelligence therefore derives from the doctoral work.
Resumo:
Introduction La précarité définit ce dont l'avenir, la durée ou la solidité ne sont pas assurés. Elle se développe notamment lorsque le niveau socio-économique est défavorable. Elle se définit par rapport à la communauté et peut être matérielle ou relationnelle. Le rapport entre précarité et santé peut se comprendre sous l'angle des déterminants sociaux de la santé, énoncés en 2004 par l'Organisation Mondiale de la Santé (OMS) : les conditions et les habitudes de vie influencent l'état de santé. Ayant un large accès à la population, les médecins de premier recours (MPR) sont des témoins privilégiés de la précarité et des inégalités sociales. La littérature définit la mission des MPR, mais il est essentiel de connaître leurs points de vue sur la question de la précarité, dans la réalité pratique. Méthode Ce travail de recherche a débuté par une revue approfondie de la littérature concernant les problématiques psychosociales en médecine. Une approche qualitative était ensuite nécessaire, sous forme d'entrevues semidirigées avec cinq différents médecins de la région lausannoise, afin de réaliser un questionnaire à soumettre à 47 autres médecins de premier recours, dans l'ensemble de la Suisse Romande, après validation par la commission cantonale vaudoise d'éthique. Résultats Cette enquête met en évidence l'existence et l'importance de la problématique de la précarité au sein du système de santé en Suisse Romande. Difficile à cerner, complexe et multifactorielle, certains ont tenté de la définir mais chacun l'apprécie différemment selon son vécu et sa sensibilité. Hormis ceux qui renoncent aux soins ou qui recourent aux urgences en dernier recours, la population qui consulte les MPR comporte entre 10 et 20% de patients précaires, proportion en augmentation ces dernières années et dépendant de la localisation. Les MPR détectent la précarité grâce à l'anamnèse psychosociale et certains marqueurs extérieurs. Leurs points de vue sont au coeur de notre question initiale. Pour eux, c'est leur rôle de détecter et prendre en charge, du moins partiellement, la précarité. Ils réfèrent ensuite souvent les patients vers d'autres structures ou corps de métiers mieux spécialisés. Ils ressentent, selon les situations, de la frustration, du surmenage, de l'impuissance mais aussi de la satisfaction personnelle dans ce type de prise en charge. La précarité complique souvent la prise en charge médicale : elle influence la survenue ou l'évolution du problème de santé, augmente le temps de consultation pour les patients précaires, induit une tendance chez les MPR à adapter le traitement ou réaliser moins d'investigations complémentaires en raison des difficultés économiques des patients et entraîne souvent des factures impayées. Les pathologies ou problèmes de santé les plus fréquemment rencontrés dans ces populations sont les troubles dépressifs, les addictions, les douleurs chroniques et le syndrome métabolique. Enfin, au delà du simple constat, les MPR expriment certains besoins pour mieux faire face à la précarité : ils souhaiteraient entre autres un carnet d'adresses utiles, un score mesurant la précarité et une formation continue à ce sujet. Conclusion La précarité est un sujet d'actualité et peut notamment influencer l'état de santé des populations, et inversement. Les MPR sont des témoins essentiels de cette problématique et la clé de sa détection, de par leur accès à une large population. Connaître leurs points de vue paraît donc essentiel si l'on souhaite imaginer des interventions visant à réduire les inégalités en matière de santé, pour une meilleure équité des soins. Entre ce qu'ils ressentent et les problèmes concrets d'organisation des consultations de patients précaires, le risque est un certain renoncement aux soins de la part des médecins, qui accentuerait celui des patients déjà existant. Finalement, la pénurie grandissante des MPR nécessite également de mieux comprendre leur mission et leurs conditions de travail, afin d'aider à redéfinir l'avenir du métier, pour continuer à exister et détecter ces situations à prendre en charge, visant à restaurer une santé solide et équilibrée, physique, mentale et sociale.
Resumo:
Contexte Lié au vieillissement et à la sédentarisation de la population, ainsi qu'à la chronicisation du cancer, l'emploi de cathéters veineux centraux permanents (CVCP) n'a cessé d'augmenter. La complication majeure de ces dispositifs, induisant de forts taux de morbi-mortalité, est l'infection. Actuellement, le diagnostic de ces infections reste surtout basé sur la clinique et les hémocultures. Lorsque le doute persiste, une ablation chirurgicale suivie de la mise en culture des prélèvements chirurgicaux et du cathéter permettent de poser le diagnostic. En clinique, après ces examens, nous constatons que seule la moitié des cathéters retirés étaient réellement infectés. Alors que la tomographie par émission de positons fusionnée à la tomographie (PET/CT) a montré de bons résultats dans la détection des infections chroniques, la valeur diagnostique du PET/CT au fluorodeoxyglucose marqué au 18F (18F-FDG) pour les infections de CVCP n'a encore jamais été déterminée dans une étude prospective. Objectifs Au travers de cette étude prospective, ouverte et monocentrique, nous chercherons à connaître la valeur diagnostique du PET/CT au 18F-FDG dans la détection d'infections de CVCP et ainsi d'en déterminer son utilité. Nous essaierons aussi de déterminer la différence de valeur diagnostique du PET/CT au 18F-FDG par rapport aux méthodes conventionnelles (paramètres cliniques et culture du liquide d'aspiration), afin de se déterminer sur l'éventuelle utilité diagnostique de celui-ci. Méthodes Cadre : Etude prospective d'au moins 20 patients, avec 2 groupes contrôles d'au moins 10 patients ayant chacun respectivement une faible et une forte probabilité d'infection, soit au moins 40 patients au total. Population : patients adultes avec CVCP devant être retiré. Cette étude prévoit un examen PET/CT au 18F-FDG effectué auprès de patients nécessitant une ablation de CVCP sur suspicion d'infection, sans confirmation possible par les moyens diagnostiques non chirurgicaux. Deux acquisitions seront réalisées 45 et 70 minutes après l'injection de 5,5MBq/Kg de 18F-FDG. Le groupe contrôle à faible probabilité d'infection, sera formé de patients bénéficiant de l'ablation définitive d'un CVCP pour fin de traitement durant le laps de temps de l'étude, et ayant bénéficié au préalable d'un examen PET/CT pour raison X. Après avoir retiré chirurgicalement le CVCP, nous utiliserons la culture microbiologique des deux extrémités du CVCP comme étalon d'or (gold standard) de l'infection. Le groupe contrôle à forte probabilité d'infection sera formé de patients nécessitant une ablation de CVCP sur infection de CVCP confirmée par les moyens diagnostiques non chirurgicaux (culture positive du liquide de l'aspiration). Lors de l'examen PET/CT, ces patients auront aussi deux acquisitions réalisées 45 et 70 minutes après l'injection de 5,5MBq/Kg de 18F-FDG. Les résultats de ces examens seront évalués par deux spécialistes en médecine nucléaire qui détermineront le niveau de suspicion de l'infection sur une échelle de Likert allant de I à V, sur la base du nombre de foyers, de la localisation du foyer, de l'intensité de la captation de 18F-FDG au voisinage du cathéter et du rapport tissu/arrière-plan. Par la suite, nous retirerons chirurgicalement le CVCP. Nous utiliserons la culture microbiologique du pus (si présent), des deux extrémités du CVCP ainsi que l'histologie des tissus formant un tunnel autour du cathéter comme étalon d'or de l'infection. Les résultats seront analysés à l'aide de courbes ROC (Receiver Operating Characteristic) afin de déterminer la valeur diagnostique du PET/CT dans l'infection de CVCP. Les résultats des examens des patients avec suspicion clinique d'infection seront ensuite analysés séparément, afin de déterminer la différence de valeur diagnostique du PET/CT au 18F-FDG par rapport aux méthodes conventionnelles. Résultats escomptés Ce projet veut chercher à savoir si le PET/CT au 18F-FDG peut être un moyen diagnostique valide dans les infections de CVCP, s'avérer utile lorsque les autres moyens diagnostiques sont non conclusifs. Plus-value escomptée Actuellement, lors d'incertitude sur le diagnostic d'infection de CVCP, une opération chirurgicale est effectuée à titre préventif afin d'enlever le cathéter en cause, cependant seulement la moitié de ces cathéters sont réellement infectés en pratique. Le PET/CT au 18F-FDG, grâce à sa sensibilité élevée et probablement une bonne valeur prédictive négative, pourrait éviter à une partie des patients un retrait inutile du cathéter, diminuant ainsi les risques chirurgicaux et les coûts liés à de telles opérations, tout en préservant le capital d'accès vasculaire futur.
Resumo:
Enjeu: Déterminer si la macroautophagie est activée de façon excessive dans les neurones en souffrance dans l'encéphalopathie anoxique-ischémique du nouveau-né à terme. Contexte de la recherche: L'encéphalopathie anoxique-ischémique suite à une asphyxie néonatale est associée à une morbidité neurologique à long terme. Une diminution de son incidence reste difficile, son primum movens étant soudain, imprévisible voire non identifiable. Le développement d'un traitement pharmacologique neuroprotecteur post-anoxie reste un défi car les mécanismes impliqués dans la dégénérescence neuronale sont multiples, interconnectés et encore insuffisamment compris. En effet, il ressort des études animales que la notion dichotomique de mort cellulaire apoptotique (type 1)/nécrotique (type 3) est insuffisante. Une même cellule peut présenter des caractéristiques morphologiques mixtes non seulement d'apoptose et de nécrose mais aussi parfois de mort autophagique (type 2) plus récemment décrite. L'autophagie est un processus physiologique normal et essentiel de dégradation de matériel intracellulaire par les enzymes lysosomales. La macroautophagie, nommée simplement autophagie par la suite, consiste en la séquestration de parties de cytosol à éliminer (protéines et organelles) dans des compartiments intermédiaires, les autophagosomes, puis en leur fusion avec des lysosomes pour former des autolysosomes. Dans certaines conditions de stress telles que l'hypoxie et l'excitoxicité, une activité autophagique anormalement élevée peut être impliquée dans la mort cellulaire soit comme un mécanisme de mort indépendant (autodigestion excessive correspondante à la mort cellulaire de type 2) soit en activant d'autres voies de mort comme celles de l'apoptose. Description de l'article: Ce travail examine la présence de l'autophagie et son lien avec la mort cellulaire dans les neurones d'une région cérébrale fréquemment atteinte chez le nouveau- né humain décédé après une asphyxie néonatale sévère, le thalamus ventro-latéral. Ces résultats ont été comparés à ceux obtenus dans un modèle d'hypoxie-ischémie cérébrale chez le raton de 7 jours (dont le cerveau serait comparable à celui d'un nouveau-né humain de 34-37 semaines de gestation). Au total 11 nouveau-nés à terme décédés peu après la naissance ont été rétrospectivement sélectionnés, dont 5 présentant une encéphalopathie hypoxique- ischémique sévère et 6 décédés d'une cause autre que l'asphyxie choisis comme cas contrôle. L'autophagie et l'apoptose neuronale ont été évaluées sur la base d'une étude immunohistochimique et d'imagerie confocale de coupes histologiques en utilisant des marqueurs tels que LC3 (protéine dont la forme LC3-II est liée à la membrane des autophagosomes), p62/SQSTM1 (protéine spécifiquement dégradée par autophagie), LAMP1 (protéine membranaire des lysosomes et des autolysosomes), Cathepsin D ou B (enzymes lysosomales), TUNEL (détection de la fragmentation de l'ADN se produisant lors de l'apoptose), CASPASE-3 activée (protéase effectrice de l'apoptose) et PGP9.5 (protéine spécifique aux neurones). Chez le raton l'étude a pu être étendue en utilisant d'autres méthodes complémentaires telles que la microscopie électronique et le Western-blot. Une quantification des différents marqueurs montre une augmentation statistiquement significative de l'autophagie neuronale dans les cas d'asphyxie par rapport aux cas contrôles chez l'humain comme chez le raton. En cas d'asphyxie, les mêmes neurones expriment une densité accrue d'autophagosomes et d'autolysosomes par rapport aux cas contrôles. De plus, les neurones hautement autophagiques présentent des caractéristiques de l'apoptose. Conclusion: Cette étude montre, pour la première fois, que les neurones thalamiques lésés en cas d'encéphalopathie hypoxique-ischémique sévère présentent un niveau anormalement élevé d'activité autophagique comme démontré chez le raton hypoxique-ischémique. Ce travail permet ainsi de mettre en avant l'importance de considérer l'autophagie comme acteur dans la mort neuronale survenant après asphyxie néonatale. Perspectives: Récemment un certain nombre d'études in vitro ou sur des modèles d'ischémie cérébrale chez les rongeurs suggèrent un rôle important de la macroautophagie dans la mort neuronale. Ainsi, l'inhibition spécifique de la macroautophagie devrait donc être envisagée dans le futur développement des stratégies neuroprotectrices visant à protéger le cerveau des nouveau-nés à terme suite à une asphyxie.
Resumo:
Les maladies cardio-vasculaires représentent la première cause de mortalité en Suisse. Après un arrêt cardio-respiratoire, une minorité des patients survit sans ou avec peu de séquelles fonctionnelles. L'évaluation du pronostic se fait classiquement selon des critères établis par l'Académie Américaine de Neurologie (AAN) en 2006, soit précédant l'introduction de l'hypothermie thérapeutique. Depuis, ces critères semblent insuffisants, et de nouveaux examens para-cliniques sont nécessaires afin d'identifier les patients ayant un pronostic favorable. La détection d'irrégularités auditives, et plus particulièrement l'évolution de cette détection sur plusieurs jours, pourrait être un indicateur du pronostic de patients comateux suite à une anoxie cérébrale. En effet, lors d'une violation de la régularité établie par des séries de sons identiques, deux signaux sont détectables à l'électro- encéphalographie (EEG). Le premier, dénommé «Mismatch negativity» (MMN), peut être enregistré après une violation locale d'une régularité établie au niveau de chaque son. Il reflète un processus inconscient et ne demandant pas de ressources attentionnelles. Le deuxième, dénommé « complexe P300 » survient par contre après une violation globale d'une régularité établie au niveau de groupes de sons. La littérature actuelle indique que ce deuxième phénomène requerrait la présence de capacités attentionnelles. Dans notre étude, nous avons testé l'existence de cette détection d'irrégularités auditives globales chez des patients dans une phase précoce de coma post-anoxique, sous hypothermie thérapeutique. Nous avons enregistré la réponse électro-encéphalographique lors de violations de régularités auditives globales, à l'aide d'un protocole expérimental qui intégrait en plus un paradigme de MMN classique, afin de tester la détection d'irrégularités auditives locales également. Notre analyse finale inclut 24 patients comateux ayant subi un arrêt cardio-respiratoire, et bénéficié du protocole hypothermie du Centre Hospitalier Universitaire Vaudois (CHUV) à Lausanne. Après une analyse multivariée des réponses électro-encéphalographiques de chaque tracé individuellement (« single-trial »), nous avons trouvé que 8 patients sur 24 pouvaient discriminer une irrégularité globale, alors qu'étant définis comateux selon l'échelle de Glasgow (GCS). De plus, l'amélioration de la détection d' irrégularités auditives entre deux EEG consécutifs (en hypo- puis normothermie), était un facteur de bon pronostic. Notre test pourrait ainsi être un complément para-clinique dans l'évaluation du pronostic de patients en coma post- anoxique.
Resumo:
Objectifs La chirurgie pancréatique reste associée à une morbidité postopératoire importante. Les efforts sont concentrés la plupart du temps sur la diminution de cette morbidité, mais la détection précoce de patients à risque de complications pourrait être une autre stratégie valable. Un score simple de prédiction des complications après duodénopancréatectomie céphalique a récemment été publié par Braga et al. La présente étude a pour but de valider ce score et de discuter de ses possibles implications cliniques. Méthodes De 2000 à 2015, 245 patients ont bénéficié d'une duodénopancréatectomie céphalique dans notre service. Les complications postopératoires ont été recensées selon la classification de Dindo et Clavien. Le score de Braga se base sur quatre paramètres : le score ASA (American Society of Anesthesiologists), la texture du pancréas, le diamètre du canal de Wirsung (canal pancréatique principal) et les pertes sanguines intra-opératoires. Un score de risque global de 0 à 15 peut être calculé pour chaque patient. La puissance de discrimination du score a été calculée en utilisant une courbe ROC (receiver operating characteristic). Résultats Des complications majeures sont apparues chez 31% des patients, alors que 17% des patients ont eu des complications majeures dans l'article de Braga. La texture du pancréas et les pertes sanguines étaient statistiquement significativement corrélées à une morbidité accrue. Les aires sous la courbe étaient respectivement de 0.95 et 0.99 pour les scores classés en quatre catégories de risques (de 0 à 3, 4 à 7, 8 à 11 et 12 à 15) et pour les scores individuels (de 0 à 15). Conclusions Le score de Braga permet donc une bonne discrimination entre les complications mineures et majeures. Notre étude de validation suggère que ce score peut être utilisé comme un outil pronostique de complications majeures après duodénopancréatectomie céphalique. Les implications cliniques, c'est-à-dire si les stratégies de prise en charge postopératoire doivent être adaptées en fonction du risque individuel du patient, restent cependant à élucider. -- Objectives Pancreatic surgery remains associated with important morbidity. Efforts are most commonly concentrated on decreasing postoperative morbidity, but early detection of patients at risk could be another valuable strategy. A simple prognostic score has recently been published. This study aimed to validate this score and discuss possible clinical implications. Methods From 2000 to 2012, 245 patients underwent pancreaticoduodenectomy. Complications were graded according to the Dindo-Clavien classification. The Braga score is based on American Society of Anesthesiologists score, pancreatic texture, Wirsung duct diameter, and blood loss. An overall risk score (from 0 to 15) can be calculated for each patient. Score discriminant power was calculated using a receiver operating characteristic curve. Results Major complications occurred in 31% of patients compared to 17% in Braga's data. Pancreatic texture and blood loss were independently statistically significant for increased morbidity. The areas under curve were 0.95 and 0.99 for 4-risk categories and for individual scores, respectively. Conclusions The Braga score discriminates well between minor and major complications. Our validation suggests that it can be used as prognostic tool for major complications after pancreaticoduodenectomy. The clinical implications, i.e., whether postoperative treatment strategies should be adapted according to the patient's individual risk, remain to be elucidated.
Resumo:
Plusieurs études suggèrent que les patients qui présentent un premier épisode psychotique et un passé délictueux présenteraient une clinique spécifique et nécessiteraient une prise en charge adaptée. A partir d'une cohorte de patients suivis pour un premier épisode psychotique dans la région de Melbourne {The Early Psychosis Prevention and Intervention Centre), nous avons analysé la prévalence d'actes délictueux dans leur passé (1), les caractéristiques cliniques à leur admission (2), l'évolution à court terme des patients ayant commis des délits par rapport aux autres patients (3). Nous avons également cherché à déterminer si des délits plus graves (atteinte à l'intégrité d'une personne) étaient corrélés à des caractéristiques cliniques particulières. Sur les 649 patients dont les données ont pu être analysées entre 1998 et 2000, 29% avaient un passé délictueux. Ils étaient en majorité des hommes et présentaient des difficultés sociales et scolaires plus importantes que les autres patients. Ils avaient également recours de manière plus régulière à des substances illicites et commis plus souvent des tentatives de suicide. Le tableau clinique qu'ils présentaient à leur admission dans le programme de soins était plus complexe et l'évolution globalement plus défavorable après 18 mois de traitement. Nous avons relevé aussi que la durée de psychose non traitée était plus longue que celle des autres patients. Enfin, les délits avec atteinte à l'intégrité d'une autre personne étaient plus fréquents en présence d'un insight faible et nécessitaient un plus grand nombre d'hospitalisation. Ces résultats confirment le besoin d'une recherche approfondie dans ce champ de la clinique et de stratégies de prévention et de soins plus spécifiques. Une détection précoce chez les jeunes hommes qui commettent des actes délictueux serait particulièrement importante puisque notre étude suggère que certains d'entre eux seraient dans une phase débutante et non reconnue d'un épisode psychotique. Une intervention plus rapide et adaptée pourrait avoir des conséquences positives à plusieurs niveaux.
Resumo:
Les lymphocytes T CD4+ sont connus pour leur potentiel d'acquisition de fragments membraneux de cellules présentatrices d'antigène (CPA) dans un processus nommé trogocytose. Ce phénomène est observé lors de l'interaction entre le lymphocyte T CD4+ antigène-spécifique et la CPA lors de la présentation de l'antigène en question, et dépend donc de la spécificité du lymphocyte T CD4+. L'identification des lymphocytes T CD4+ sujets à la trogocytose en co-culture avec des CPA chargées d'un antigène connu permet d'enrichir des lymphocytes T antigène-spécifiques sans connaître leur spécificité exacte ou leur profil de production de cytokines. Dans cette étude, nous avons donc cherché à évaluer l'utilité de cette méthode dans l'identification de la spécificité des lymphocytes T effecteurs et régulateurs lors de l'inflammation auto-immune avec des spécificités souvent inconnues. La trogocytose a démontré son efficacité dans la détection de lymphocytes T réactifs à la protéine basique de myéline in vitro ainsi qu'ex vivo après immunisation. Cependant, le potentiel de la trogocytose à identifier des lymphocytes T régulateurs antigène-spécifiques est limité par le fait que les lymphocytes T régulateurs Foxp3+ montrent un taux élevé de manière constitutive de trogocytose comparé aux lymphocytes T Foxp3-, Un taux localement élevé de trogocytose lors d'un état inflammatoire (observé au niveau des lymphocytes T effecteurs et régulateurs isolés du système nerveux central enflammé) empêche l'utilisation de la trogocytose dans l'évaluation de la réactivité antigénique de cellules extraites d'un site inflammatoire. Nos résultats montrent la possibilité d'enrichir des lymphocytes T conventionnels antigène- réactifs en périphérie par détection au moyen de la trogocytose. Nous avons aussi montré les limitations de cette méthode dans sa capacité d'identifier des lymphocytes T effecteurs et régulateurs antigène- réactifs extraits de sites inflammatoires. Le potentiel de trogocytose élevé dans les sites d'inflammation soulève la question de la signification biologique de ce phénomène dans l'inflammation, dans la suppression médiée par les lymphocytes T régulateurs et dans le maintien de la tolérance immunologique dans des états de santé variables.
Resumo:
Atherosclerosis is a chronic cardiovascular disease that involves the thicken¬ing of the artery walls as well as the formation of plaques (lesions) causing the narrowing of the lumens, in vessels such as the aorta, the coronary and the carotid arteries. Magnetic resonance imaging (MRI) is a promising modality for the assessment of atherosclerosis, as it is a non-invasive and patient-friendly procedure that does not use ionizing radiation. MRI offers high soft tissue con¬trast already without the need of intravenous contrast media; while modifica¬tion of the MR pulse sequences allows for further adjustment of the contrast for specific diagnostic needs. As such, MRI can create angiographic images of the vessel lumens to assess stenoses at the late stage of the disease, as well as blood flow-suppressed images for the early investigation of the vessel wall and the characterization of the atherosclerotic plaques. However, despite the great technical progress that occurred over the past two decades, MRI is intrinsically a low sensitive technique and some limitations still exist in terms of accuracy and performance. A major challenge for coronary artery imaging is respiratory motion. State- of-the-art diaphragmatic navigators rely on an indirect measure of motion, per¬form a ID correction, and have long and unpredictable scan time. In response, self-navigation (SM) strategies have recently been introduced that offer 100% scan efficiency and increased ease of use. SN detects respiratory motion di¬rectly from the image data obtained at the level of the heart, and retrospectively corrects the same data before final image reconstruction. Thus, SN holds po-tential for multi-dimensional motion compensation. To this regard, this thesis presents novel SN methods that estimate 2D and 3D motion parameters from aliased sub-images that are obtained from the same raw data composing the final image. Combination of all corrected sub-images produces a final image with reduced motion artifacts for the visualization of the coronaries. The first study (section 2.2, 2D Self-Navigation with Compressed Sensing) consists of a method for 2D translational motion compensation. Here, the use of com- pressed sensing (CS) reconstruction is proposed and investigated to support motion detection by reducing aliasing artifacts. In healthy human subjects, CS demonstrated an improvement in motion detection accuracy with simula¬tions on in vivo data, while improved coronary artery visualization was demon¬strated on in vivo free-breathing acquisitions. However, the motion of the heart induced by respiration has been shown to occur in three dimensions and to be more complex than a simple translation. Therefore, the second study (section 2.3,3D Self-Navigation) consists of a method for 3D affine motion correction rather than 2D only. Here, different techniques were adopted to reduce background signal contribution in respiratory motion tracking, as this can be adversely affected by the static tissue that surrounds the heart. The proposed method demonstrated to improve conspicuity and vi¬sualization of coronary arteries in healthy and cardiovascular disease patient cohorts in comparison to a conventional ID SN method. In the third study (section 2.4, 3D Self-Navigation with Compressed Sensing), the same tracking methods were used to obtain sub-images sorted according to the respiratory position. Then, instead of motion correction, a compressed sensing reconstruction was performed on all sorted sub-image data. This process ex¬ploits the consistency of the sorted data to reduce aliasing artifacts such that the sub-image corresponding to the end-expiratory phase can directly be used to visualize the coronaries. In a healthy volunteer cohort, this strategy improved conspicuity and visualization of the coronary arteries when compared to a con¬ventional ID SN method. For the visualization of the vessel wall and atherosclerotic plaques, the state- of-the-art dual inversion recovery (DIR) technique is able to suppress the signal coming from flowing blood and provide positive wall-lumen contrast. How¬ever, optimal contrast may be difficult to obtain and is subject to RR variability. Furthermore, DIR imaging is time-inefficient and multislice acquisitions may lead to prolonged scanning times. In response and as a fourth study of this thesis (chapter 3, Vessel Wall MRI of the Carotid Arteries), a phase-sensitive DIR method has been implemented and tested in the carotid arteries of a healthy volunteer cohort. By exploiting the phase information of images acquired after DIR, the proposed phase-sensitive method enhances wall-lumen contrast while widens the window of opportunity for image acquisition. As a result, a 3-fold increase in volumetric coverage is obtained at no extra cost in scanning time, while image quality is improved. In conclusion, this thesis presented novel methods to address some of the main challenges for MRI of atherosclerosis: the suppression of motion and flow artifacts for improved visualization of vessel lumens, walls and plaques. Such methods showed to significantly improve image quality in human healthy sub¬jects, as well as scan efficiency and ease-of-use of MRI. Extensive validation is now warranted in patient populations to ascertain their diagnostic perfor¬mance. Eventually, these methods may bring the use of atherosclerosis MRI closer to the clinical practice. Résumé L'athérosclérose est une maladie cardiovasculaire chronique qui implique le épaississement de la paroi des artères, ainsi que la formation de plaques (lé¬sions) provoquant le rétrécissement des lumières, dans des vaisseaux tels que l'aorte, les coronaires et les artères carotides. L'imagerie par résonance magné¬tique (IRM) est une modalité prometteuse pour l'évaluation de l'athérosclérose, car il s'agit d'une procédure non-invasive et conviviale pour les patients, qui n'utilise pas des rayonnements ionisants. L'IRM offre un contraste des tissus mous très élevé sans avoir besoin de médias de contraste intraveineux, tan¬dis que la modification des séquences d'impulsions de RM permet en outre le réglage du contraste pour des besoins diagnostiques spécifiques. À ce titre, l'IRM peut créer des images angiographiques des lumières des vaisseaux pour évaluer les sténoses à la fin du stade de la maladie, ainsi que des images avec suppression du flux sanguin pour une première enquête des parois des vais¬seaux et une caractérisation des plaques d'athérosclérose. Cependant, malgré les grands progrès techniques qui ont eu lieu au cours des deux dernières dé¬cennies, l'IRM est une technique peu sensible et certaines limitations existent encore en termes de précision et de performance. Un des principaux défis pour l'imagerie de l'artère coronaire est le mou¬vement respiratoire. Les navigateurs diaphragmatiques de pointe comptent sur une mesure indirecte de mouvement, effectuent une correction 1D, et ont un temps d'acquisition long et imprévisible. En réponse, les stratégies d'auto- navigation (self-navigation: SN) ont été introduites récemment et offrent 100% d'efficacité d'acquisition et une meilleure facilité d'utilisation. Les SN détectent le mouvement respiratoire directement à partir des données brutes de l'image obtenue au niveau du coeur, et rétrospectivement corrigent ces mêmes données avant la reconstruction finale de l'image. Ainsi, les SN détiennent un poten¬tiel pour une compensation multidimensionnelle du mouvement. A cet égard, cette thèse présente de nouvelles méthodes SN qui estiment les paramètres de mouvement 2D et 3D à partir de sous-images qui sont obtenues à partir des mêmes données brutes qui composent l'image finale. La combinaison de toutes les sous-images corrigées produit une image finale pour la visualisation des coronaires ou les artefacts du mouvement sont réduits. La première étude (section 2.2,2D Self-Navigation with Compressed Sensing) traite d'une méthode pour une compensation 2D de mouvement de translation. Ici, on étudie l'utilisation de la reconstruction d'acquisition comprimée (compressed sensing: CS) pour soutenir la détection de mouvement en réduisant les artefacts de sous-échantillonnage. Chez des sujets humains sains, CS a démontré une amélioration de la précision de la détection de mouvement avec des simula¬tions sur des données in vivo, tandis que la visualisation de l'artère coronaire sur des acquisitions de respiration libre in vivo a aussi été améliorée. Pourtant, le mouvement du coeur induite par la respiration se produit en trois dimensions et il est plus complexe qu'un simple déplacement. Par conséquent, la deuxième étude (section 2.3, 3D Self-Navigation) traite d'une méthode de cor¬rection du mouvement 3D plutôt que 2D uniquement. Ici, différentes tech¬niques ont été adoptées pour réduire la contribution du signal du fond dans le suivi de mouvement respiratoire, qui peut être influencé négativement par le tissu statique qui entoure le coeur. La méthode proposée a démontré une amélioration, par rapport à la procédure classique SN de correction 1D, de la visualisation des artères coronaires dans le groupe de sujets sains et des pa¬tients avec maladies cardio-vasculaires. Dans la troisième étude (section 2.4,3D Self-Navigation with Compressed Sensing), les mêmes méthodes de suivi ont été utilisées pour obtenir des sous-images triées selon la position respiratoire. Au lieu de la correction du mouvement, une reconstruction de CS a été réalisée sur toutes les sous-images triées. Cette procédure exploite la cohérence des données pour réduire les artefacts de sous- échantillonnage de telle sorte que la sous-image correspondant à la phase de fin d'expiration peut directement être utilisée pour visualiser les coronaires. Dans un échantillon de volontaires en bonne santé, cette stratégie a amélioré la netteté et la visualisation des artères coronaires par rapport à une méthode classique SN ID. Pour la visualisation des parois des vaisseaux et de plaques d'athérosclérose, la technique de pointe avec double récupération d'inversion (DIR) est capa¬ble de supprimer le signal provenant du sang et de fournir un contraste posi¬tif entre la paroi et la lumière. Pourtant, il est difficile d'obtenir un contraste optimal car cela est soumis à la variabilité du rythme cardiaque. Par ailleurs, l'imagerie DIR est inefficace du point de vue du temps et les acquisitions "mul- tislice" peuvent conduire à des temps de scan prolongés. En réponse à ce prob¬lème et comme quatrième étude de cette thèse (chapitre 3, Vessel Wall MRI of the Carotid Arteries), une méthode de DIR phase-sensitive a été implémenté et testé
Resumo:
Sur les marchés de carding en ligne, de grandes quantités d'informations financières volées sont vendues et achetées à bas prix. Ces marchés pourraient constituer une menace importante pour les établissements financiers et les victimes. Cependant, le risque pourrait être moins important qu'attendu car les membres de ces communautés sont régulièrement victimisées par leurs pairs. Le but de cette recherche est d'évaluer la stabilité de ces marchés en s'intéressant au niveau de supercherie au sein d'un forum de carding. Cet article présente une méthode de détection des participants qui possèdent plusieurs identités virtuelles (comptes utilisateurs) afin de tromper les autres. Le profil d'utilisation des différents comptes d'une même personne est analysé. L'approche présentée est discutée sous l'angle forensique, particulièrement pertinent pour interpréter les liens faits entre différents comptes utilisateurs attribués à une même personne.
Resumo:
Le nombre d'examens tomodensitométriques (Computed Tomography, CT) effectués chaque année étant en constante augmentation, différentes techniques d'optimisation, dont les algorithmes de reconstruction itérative permettant de réduire le bruit tout en maintenant la résolution spatiale, ont étés développées afin de réduire les doses délivrées. Le but de cette étude était d'évaluer l'impact des algorithmes de reconstruction itérative sur la qualité image à des doses effectives inférieures à 0.3 mSv, comparables à celle d'une radiographie thoracique. Vingt CT thoraciques effectués à cette dose effective ont été reconstruits en variant trois paramètres: l'algorithme de reconstruction, rétroprojection filtrée versus reconstruction itérative iDose4; la matrice, 5122 versus 7682; et le filtre de résolution en densité (mou) versus spatiale (dur). Ainsi, 8 séries ont été reconstruites pour chacun des 20 CT thoraciques. La qualité d'image de ces 8 séries a d'abord été évaluée qualitativement par deux radiologues expérimentés en aveugle en se basant sur la netteté des parois bronchiques et de l'interface entre le parenchyme pulmonaire et les vaisseaux, puis quantitativement en utilisant une formule de merit, fréquemment utilisée dans le développement de nouveaux algorithmes et filtres de reconstruction. La performance diagnostique de la meilleure série acquise à une dose effective inférieure à 0.3 mSv a été comparée à celle d'un CT de référence effectué à doses standards en relevant les anomalies du parenchyme pulmonaire. Les résultats montrent que la meilleure qualité d'image, tant qualitativement que quantitativement a été obtenue en utilisant iDose4, la matrice 5122 et le filtre mou, avec une concordance parfaite entre les classements quantitatif et qualitatif des 8 séries. D'autre part, la détection des nodules pulmonaires de plus de 4mm étaient similaire sur la meilleure série acquise à une dose effective inférieure à 0.3 mSv et le CT de référence. En conclusion, les CT thoraciques effectués à une dose effective inférieure à 0.3 mSv reconstruits avec iDose4, la matrice 5122 et le filtre mou peuvent être utilisés avec confiance pour diagnostiquer les nodules pulmonaires de plus de 4mm.
Resumo:
Objectif STOPP/START est un outil de détection de la prescription médicamenteuse potentiellement inappropriée chez la personne de 65 ans ou plus. La version initiale de 2008 vient d'être mise à jour et améliorée par ses auteurs. Nous en présentons l'adaptation et la validation en langue française. Méthodes L'adaptation en français de l'outil STOPP/START.v2 a été réalisée par deux experts, confirmée par la méthode de traduction-inverse, et finalisée d'après les commentaires de neufs évaluateurs francophones, gériatres, pharmaciens cliniciens, et médecin généraliste de quatre pays (France, Belgique, Suisse, Canada). La validation a été complétée par une analyse de concordance inter-juge (CCI) des critères STOPP/START.v2 appliqués à dix vignettes cliniques standardisées. Résultats Les 115 critères de STOPP/START.v2 en français sont, par rapport à la version originale anglaise, identiques par leur classification mais adaptés en termes de présentation (critères START.v2 commençant par la condition clinique, et accompagnés par une justification du caractère inapproprié de l'omission) voire de formulation de certains critères. Cette adaptation en français est validée par (i) la traduction-inverse montrant le respect du sens clinique de la version originale, (ii) l'identification semblable des critères lorsque appliqués à dix vignettes cliniques par les neuf évaluateurs, et (iii) le haut niveau de concordance de ces neuf évaluations tant pour STOPP.v2 (CCI 0,849) que pour START.v2 (CCI 0,921). Conclusion L'adaptation en langue française des critères STOPP/START.v2 fournit aux cliniciens un outil de détection de la prescription médicamenteuse potentiellement inappropriée chez les personnes de 65 ans et plus qui est logique, fiable et facile à utiliser. Objective STOPP/START is a screening tool to detect potentially inappropriate prescribing in persons aged 65 or older. Its Irish authors recently updated and improved the initially published version of 2008. We present the adaptation and validation into French language of this updated tool. Methods STOPP/START.v2 was adapted into French by two experts, then confirmed by a translation-back translation method and finalised according to the comments of nine French-speaking assessors - geriatricians, pharmacologists and a general physician - from four countries (France, Belgium, Switzerland, and Canada). The validation was completed by an inter-rater reliability (IRR) analysis of the STOPP/START.v2 criteria applied to 10 standardized clinical vignettes. Results In comparison to the original English version, the 115 STOPP/START.v2 criteria in French language classify in identical manner, but the presentation has been adjusted (START.v2 first specifies the clinical condition followed by an explanation of the inappropriateness of the prescription or omission). This adaptation into French language was validated by means of (i) the translation/back-translation, which showed that the French version complied with the clinical meaning of the original criteria; (ii) the similar screening results when applied by the nine specialists to the 10 cases; and (iii) the high level of inter-rater reliability of these 9 evaluations, for both STOPP (IRR 0.849) and START.v2 (IRR 0.921). Conclusion The adaptation into French of the STOPP/START.v2 criteria provides clinicians with a screening tool to detect potentially inappropriate prescribing in patients aged 65 and older that is more logical, more reliable and easier to use.
Resumo:
« Les yeux sont du visage humain la partie la plus noble et la plus importante, les yeux sont composés de corps, d'âme et d'esprit, ou plutôt les yeux sont la fenêtre où l'âme et l'esprit viennent se montrer » (Alphonse Karr, 1853). L'oeil est le regard, mais pour l'ophtalmologue il est aussi une fenêtre ouverte et un regard possible sur le reste du corps. Prolongement du système nerveux central en contact direct avec le monde extérieur dont il est l'un des « senseurs » le plus subtil et le plus complexe, il est sujet à des réactions inflammatoires, allergiques et toxiques chez l'enfant et chez l'adulte. Alors que notre environnement visuel change (modification des systèmes d'éclairage domestique dans les villes, écrans, mode de vie et habitudes de travail), que les polluants se multiplient et se combinent et que les environnements climatisés deviennent la règle, le nombre de patients souffrant de pathologies de la surface oculaire atteint 30 % des motifs de nos consultations et le nombre des patients myopes est en hausse. L'oeil est l'un des « senseurs » le plus subtil et le plus complexe Si la surface oculaire peut aussi être le témoin des pathologies systémiques, c'est la rétine qui en est plus fréquemment le reflet. Les atteintes du lit vasculaire, du nerf optique ou de la rétine peuvent être des manifestations de pathologies générales ou d'effets secondaires ou toxiques de médicaments. L'examen du fond d'oeil et la rétinophotographie restent les examens de dépistage de référence en particulier pour la rétinopathie diabétique, véritable fléau mondial et première cause de cécité dans les pays industrialisés chez les jeunes adultes. Mais ce n'est que par la collaboration entre ophtalmologues, médecins traitants et autres spécialistes que les pathologies rétiniennes peuvent être prises en charge de façon optimale pour qu'à des traitements oculaires spécifiques soit associée la prise en charge globale des maladies causales ou interférentes. Au-delà du fond d'oeil, les progrès technologiques contribuent au développement de multiples méthodes d'exploration des différentes structures de l'oeil offrant ainsi la possibilité d'utiliser l'oeil comme témoin de manifestations précoces de maladies neurologiques périphériques ou centrales. L'imagerie cornéenne semble aujourd'hui capable de révéler et de suivre de façon longitudinale la neuropathie diabétique périphérique et il n'est pas impossible que la rétine devienne le site de détection précoce de la maladie d'Alzheimer. Sur le plan de la prise en charge, l'ophtalmologue ne peut pas se contenter de traiter l'oeil, il doit aussi assurer une prise en charge pluridisciplinaire et accompagner le patient qui, perdant la vision, est sujet à la dépression et à la majoration de tout autre handicap. La perte visuelle est le handicap le plus redouté des populations et la perte d'autonomie qu'il induit limite l'observance et le suivi thérapeutique (comparable en termes de gravité ressentie à un « alitement brutal dans les suites d'un AVC »). La médecine personnalisée et les interactions multidisciplinaires prennent ici tout leur sens. Les développements thérapeutiques ont été majeurs ces dernières années et la cécité n'est plus une fatalité, au moins dans certains cas. Mais la rétine étant un tissu nerveux post-mitotique, les traitements et donc le dépistage doivent être précoces pour prévenir la perte visuelle irréversible. Spécifiquement, les espoirs lointains comme la thérapie génique entrent dans les essais cliniques laissant entrevoir la lumière au bout du tunnel. A portée de vue, la rétine artificielle constitue une avancée concrète, encore perfectible mais accessible dès aujourd'hui. Si les progrès sont manifestes dans le domaine de l'ophtalmologie, il reste encore beaucoup à apprendre et à comprendre en particulier dans les mécanismes pathogéniques multifactoriels des maladies oculaires plus fréquentes. Seule une exploration approfondie des maladies humaines pourra nous permettre de mieux appréhender de nouvelles stratégies thérapeutiques. Comme le disait André Isaac (1893-1975), pour voir loin, il faut regarder de près.
Resumo:
This thesis develops a comprehensive and a flexible statistical framework for the analysis and detection of space, time and space-time clusters of environmental point data. The developed clustering methods were applied in both simulated datasets and real-world environmental phenomena; however, only the cases of forest fires in Canton of Ticino (Switzerland) and in Portugal are expounded in this document. Normally, environmental phenomena can be modelled as stochastic point processes where each event, e.g. the forest fire ignition point, is characterised by its spatial location and occurrence in time. Additionally, information such as burned area, ignition causes, landuse, topographic, climatic and meteorological features, etc., can also be used to characterise the studied phenomenon. Thereby, the space-time pattern characterisa- tion represents a powerful tool to understand the distribution and behaviour of the events and their correlation with underlying processes, for instance, socio-economic, environmental and meteorological factors. Consequently, we propose a methodology based on the adaptation and application of statistical and fractal point process measures for both global (e.g. the Morisita Index, the Box-counting fractal method, the multifractal formalism and the Ripley's K-function) and local (e.g. Scan Statistics) analysis. Many measures describing the space-time distribution of environmental phenomena have been proposed in a wide variety of disciplines; nevertheless, most of these measures are of global character and do not consider complex spatial constraints, high variability and multivariate nature of the events. Therefore, we proposed an statistical framework that takes into account the complexities of the geographical space, where phenomena take place, by introducing the Validity Domain concept and carrying out clustering analyses in data with different constrained geographical spaces, hence, assessing the relative degree of clustering of the real distribution. Moreover, exclusively to the forest fire case, this research proposes two new methodologies to defining and mapping both the Wildland-Urban Interface (WUI) described as the interaction zone between burnable vegetation and anthropogenic infrastructures, and the prediction of fire ignition susceptibility. In this regard, the main objective of this Thesis was to carry out a basic statistical/- geospatial research with a strong application part to analyse and to describe complex phenomena as well as to overcome unsolved methodological problems in the characterisation of space-time patterns, in particular, the forest fire occurrences. Thus, this Thesis provides a response to the increasing demand for both environmental monitoring and management tools for the assessment of natural and anthropogenic hazards and risks, sustainable development, retrospective success analysis, etc. The major contributions of this work were presented at national and international conferences and published in 5 scientific journals. National and international collaborations were also established and successfully accomplished. -- Cette thèse développe une méthodologie statistique complète et flexible pour l'analyse et la détection des structures spatiales, temporelles et spatio-temporelles de données environnementales représentées comme de semis de points. Les méthodes ici développées ont été appliquées aux jeux de données simulées autant qu'A des phénomènes environnementaux réels; nonobstant, seulement le cas des feux forestiers dans le Canton du Tessin (la Suisse) et celui de Portugal sont expliqués dans ce document. Normalement, les phénomènes environnementaux peuvent être modélisés comme des processus ponctuels stochastiques ou chaque événement, par ex. les point d'ignition des feux forestiers, est déterminé par son emplacement spatial et son occurrence dans le temps. De plus, des informations tels que la surface bru^lée, les causes d'ignition, l'utilisation du sol, les caractéristiques topographiques, climatiques et météorologiques, etc., peuvent aussi être utilisées pour caractériser le phénomène étudié. Par conséquent, la définition de la structure spatio-temporelle représente un outil puissant pour compren- dre la distribution du phénomène et sa corrélation avec des processus sous-jacents tels que les facteurs socio-économiques, environnementaux et météorologiques. De ce fait, nous proposons une méthodologie basée sur l'adaptation et l'application de mesures statistiques et fractales des processus ponctuels d'analyse global (par ex. l'indice de Morisita, la dimension fractale par comptage de boîtes, le formalisme multifractal et la fonction K de Ripley) et local (par ex. la statistique de scan). Des nombreuses mesures décrivant les structures spatio-temporelles de phénomènes environnementaux peuvent être trouvées dans la littérature. Néanmoins, la plupart de ces mesures sont de caractère global et ne considèrent pas de contraintes spatiales com- plexes, ainsi que la haute variabilité et la nature multivariée des événements. A cet effet, la méthodologie ici proposée prend en compte les complexités de l'espace géographique ou le phénomène a lieu, à travers de l'introduction du concept de Domaine de Validité et l'application des mesures d'analyse spatiale dans des données en présentant différentes contraintes géographiques. Cela permet l'évaluation du degré relatif d'agrégation spatiale/temporelle des structures du phénomène observé. En plus, exclusif au cas de feux forestiers, cette recherche propose aussi deux nouvelles méthodologies pour la définition et la cartographie des zones périurbaines, décrites comme des espaces anthropogéniques à proximité de la végétation sauvage ou de la forêt, et de la prédiction de la susceptibilité à l'ignition de feu. A cet égard, l'objectif principal de cette Thèse a été d'effectuer une recherche statistique/géospatiale avec une forte application dans des cas réels, pour analyser et décrire des phénomènes environnementaux complexes aussi bien que surmonter des problèmes méthodologiques non résolus relatifs à la caractérisation des structures spatio-temporelles, particulièrement, celles des occurrences de feux forestières. Ainsi, cette Thèse fournit une réponse à la demande croissante de la gestion et du monitoring environnemental pour le déploiement d'outils d'évaluation des risques et des dangers naturels et anthro- pogéniques. Les majeures contributions de ce travail ont été présentées aux conférences nationales et internationales, et ont été aussi publiées dans 5 revues internationales avec comité de lecture. Des collaborations nationales et internationales ont été aussi établies et accomplies avec succès.