1000 resultados para Mesures microondes.
Resumo:
El règim d'humitat d'un sòl constitueix un condicionant pel seu us agrícola, paisatgístic o forestal. Aquest fet ha portat a voler considerar aquesta informació a l'hora de dominar un sòl, per tal que els usuaris de mapes de sòls es puguin situar immediatament en consultar la llegenda d'un mapa concret. La determinació del règim d'humitat dels sòls planteja seriosos problemes per manca de mesures referents a perfils hídrics al llarg de l'any, mesures gens habituals als observatoris meteorològics. En el present treball s'analitza el model de Newhall per estimar el règim d'humitat dels sòls, i es discuteixen les seves deficiències quan s'aplica a una zona amb règim de pluges de tipus mediterrani. Finalment, s'estableixen les bases per modificar l'esmentat model, que han servit per desenvolupar el model Newhall-Jarauta.
Resumo:
La fabrication, la distribution et l'usage de fausses pièces d'identité constituent une menace pour la sécurité autant publique que privée. Ces faux documents représentent en effet un catalyseur pour une multitude de formes de criminalité, des plus anodines aux formes les plus graves et organisées. La dimension, la complexité, la faible visibilité, ainsi que les caractères répétitif et évolutif de la fraude aux documents d'identité appellent des réponses nouvelles qui vont au-delà d'une approche traditionnelle au cas par cas ou de la stratégie du tout technologique dont la perspective historique révèle l'échec. Ces nouvelles réponses passent par un renforcement de la capacité de comprendre les problèmes criminels que posent la fraude aux documents d'identité et les phénomènes qui l'animent. Cette compréhension est tout bonnement nécessaire pour permettre d'imaginer, d'évaluer et de décider les solutions et mesures les plus appropriées. Elle requière de développer les capacités d'analyse et la fonction de renseignement criminel qui fondent en particulier les modèles d'action de sécurité les plus récents, tels que l'intelligence-led policing ou le problem-oriented policing par exemple. Dans ce contexte, le travail doctoral adopte une position originale en postulant que les fausses pièces d'identité se conçoivent utilement comme la trace matérielle ou le vestige résultant de l'activité de fabrication ou d'altération d'un document d'identité menée par les faussaires. Sur la base de ce postulat fondamental, il est avancé que l'exploitation scientifique, méthodique et systématique de ces traces au travers d'un processus de renseignement forensique permet de générer des connaissances phénoménologiques sur les formes de criminalité qui fabriquent, diffusent ou utilisent les fausses pièces d'identité, connaissances qui s'intègrent et se mettent avantageusement au service du renseignement criminel. A l'appui de l'épreuve de cette thèse de départ et de l'étude plus générale du renseignement forensique, le travail doctoral propose des définitions et des modèles. Il décrit des nouvelles méthodes de profilage et initie la constitution d'un catalogue de formes d'analyses. Il recourt également à des expérimentations et des études de cas. Les résultats obtenus démontrent que le traitement systématique de la donnée forensique apporte une contribution utile et pertinente pour le renseignement criminel stratégique, opérationnel et tactique, ou encore la criminologie. Combiné aux informations disponibles par ailleurs, le renseignement forensique produit est susceptible de soutenir l'action de sécurité dans ses dimensions répressive, proactive, préventive et de contrôle. En particulier, les méthodes de profilage des fausses pièces d'identité proposées permettent de révéler des tendances au travers de jeux de données étendus, d'analyser des modus operandi ou d'inférer une communauté ou différence de source. Ces méthodes appuient des moyens de détection et de suivi des séries, des problèmes et des phénomènes criminels qui s'intègrent dans le cadre de la veille opérationnelle. Ils permettent de regrouper par problèmes les cas isolés, de mettre en évidence les formes organisées de criminalité qui méritent le plus d'attention, ou de produire des connaissances robustes et inédites qui offrent une perception plus profonde de la criminalité. Le travail discute également les difficultés associées à la gestion de données et d'informations propres à différents niveaux de généralité, ou les difficultés relatives à l'implémentation du processus de renseignement forensique dans la pratique. Ce travail doctoral porte en premier lieu sur les fausses pièces d'identité et leur traitement par les protagonistes de l'action de sécurité. Au travers d'une démarche inductive, il procède également à une généralisation qui souligne que les observations ci-dessus ne valent pas uniquement pour le traitement systématique des fausses pièces d'identité, mais pour celui de tout type de trace dès lors qu'un profil en est extrait. Il ressort de ces travaux une définition et une compréhension plus transversales de la notion et de la fonction de renseignement forensique. The production, distribution and use of false identity documents constitute a threat to both public and private security. Fraudulent documents are a catalyser for a multitude of crimes, from the most trivial to the most serious and organised forms. The dimension, complexity, low visibility as well as the repetitive and evolving character of the production and use of false identity documents call for new solutions that go beyond the traditional case-by-case approach, or the technology-focused strategy whose failure is revealed by the historic perspective. These new solutions require to strengthen the ability to understand crime phenomena and crime problems posed by false identity documents. Such an understanding is pivotal in order to be able to imagine, evaluate and decide on the most appropriate measures and responses. Therefore, analysis capacities and crime intelligence functions, which found the most recent policing models such as intelligence-led policing or problem-oriented policing for instance, have to be developed. In this context, the doctoral research work adopts an original position by postulating that false identity documents can be usefully perceived as the material remnant resulting from the criminal activity undertook by forgers, namely the manufacture or the modification of identity documents. Based on this fundamental postulate, it is proposed that a scientific, methodical and systematic processing of these traces through a forensic intelligence approach can generate phenomenological knowledge on the forms of crime that produce, distribute and use false identity documents. Such knowledge should integrate and serve advantageously crime intelligence efforts. In support of this original thesis and of a more general study of forensic intelligence, the doctoral work proposes definitions and models. It describes new profiling methods and initiates the construction of a catalogue of analysis forms. It also leverages experimentations and case studies. Results demonstrate that the systematic processing of forensic data usefully and relevantly contributes to strategic, tactical and operational crime intelligence, and also to criminology. Combined with alternative information available, forensic intelligence may support policing in its repressive, proactive, preventive and control activities. In particular, the proposed profiling methods enable to reveal trends among extended datasets, to analyse modus operandi, or to infer that false identity documents have a common or different source. These methods support the detection and follow-up of crime series, crime problems and phenomena and therefore contribute to crime monitoring efforts. They enable to link and regroup by problems cases that were previously viewed as isolated, to highlight organised forms of crime which deserve greatest attention, and to elicit robust and novel knowledge offering a deeper perception of crime. The doctoral research work discusses also difficulties associated with the management of data and information relating to different levels of generality, or difficulties associated with the implementation in practice of the forensic intelligence process. The doctoral work focuses primarily on false identity documents and their treatment by policing stakeholders. However, through an inductive process, it makes a generalisation which underlines that observations do not only apply to false identity documents but to any kind of trace as soon as a profile is extracted. A more transversal definition and understanding of the concept and function of forensic intelligence therefore derives from the doctoral work.
Resumo:
Cette étude investigue la validité et la fidélité de la version française de l'Inventaire de Satisfaction Conjugale (MSI-R). Cet instrument multidimensionnel a montré ses apports dans les recherches internationales mais également dans la pratique clinique pour mesurer la nature et l'ampleur des conflits au sein d'un mariage ou d'une relation de couple. Les indices de consistance interne et de stabilité temporelle, calculés sur un échantillon constitué de 160 couples francophones, sont satisfaisants et similaires à ceux obtenus sur de précédentes traductions. Nous avons aussi répliqué la structure factorielle proposée récemment par Herrington et al. (2008), permettant de confirmer les deux facteurs, dysharmonie et désaffection, qui pourraient être utilisés dans de futures recherches à partir d'une version brève du MSI-R. Globalement, les résultats soutiennent la validité de construit de cette mesure pour des couples francophones. Nous avons mis en évidence des liens entre les échelles du questionnaire et d'autres mesures du fonctionnement du couple (DCI, CPQ, PFB), ainsi que des liens avec des variables socio-démographiques et des traits de personnalité mesurés à l'aide du NEO-FFI. Les résultats sont discutés à la lumière de leurs implications théoriques et pratiques.
Resumo:
Aujourd'hui encore, en Suisse, nous pouvons recenser chaque année pas moins de 600 nouveaux diagnostics de VIH (virus de l'immunodéficience humaine) [1]. Selon les définitions de l'ONUSIDA, l'épidémie du VIH en Suisse est dite concentrée [2] ; c'est-à-dire que la prévalence de l'infection au sein de la population générale est faible (0.4%), alors qu'elle touche plus fortement les groupes cibles, que sont les hommes ayant des rapports sexuels avec d'autres hommes (HSH), les consommateurs de drogues par voie intraveineuse (IDU) et les migrants en provenance de pays à haute prévalence (PHP). Il est donc primordial que l'épidémie du VIH soit surveillée et évaluée. La recherche sur le VIH ainsi que l'évaluation de son épidémie sont menées par plusieurs organismes, dont l'Etude suisse de cohorte VIH (SHCS), qui collecte avant tout des données cliniques sur le sujet. Une des tâches de cette surveillance est de pouvoir définir les groupes à risque accru d'exposition au VIH, afin qu'ils puissent bénéficier des mesures de prévention et de dépistage adéquates permettant de ralentir la propagation dudit virus [1]. En 2007, le « Clinics and Laboratories Committee » de la SHCS décide d'intégrer de nouvelles questions ciblant les circonstances de l'infection par le VIH aux formulaires adressés aux patients nouvellement inclus dans l'étude (cf annexe 1). Quatre questions sont alors sélectionnées pour explorer ce sujet : - Selon le médecin, quelle est la source probablement responsable de l'infection ? - Est-ce que le patient connaît une ou plusieurs sources potentielles de son infection ? - Est-ce que le patient connaît la période durant laquelle il a contracté le virus ? - Selon lui, où l'infection a-t-elle vraisemblablement eu lieu ?
Resumo:
Se estudia la dinámica de erosión por escorrentía superficial en unas laderas montañosas de la cabecera de la Ribera Salada (cuenca del Sagre), distinguiendo tres usos de suelo: (1) sotobosque de quejigo, (2) terrazas agrícolas y (3) márgenes de matorral. Se analiza la aplicabilidad de los modelos Erosion2D y EUROSEM. En cuanto al diseño experimental, durante seis meses se controlaron episodios naturales mediante un pluviógrafo y quince parcelas con canales Gerlach. Se realizaron, asimismo, seis simulaciones de lluvia que permitieron estudiar episodios de alta intensidad. De manera complementaria se llevaron a cabo las mediciones topográficas, los muestreos y las experimentaciones necesarias para caracterizar hidrológicamente la zona y aplicar los modelos de erosión. Como principales conclusiones se pueden señalar las siguientes: a) las tasas de escorrentía y erosión registradas fueron muy bajas, y se constató la importancia de procesos diferentes al flujo hortoniano, lo cual condiciona el uso de estos modelos, b) el modelo E2D no permite estudiar episodios de baja magnitud como los registrados, y su aplicación se debería restringir a terrenos menos porosos, c) la aplicación directa del modelo EUROSEM origina errores importantes; se ha calibrado un parámetro para reducir el error en el cálculo de la escorrentía, y d) el estudio de la variabilidad de la humedad precedente del suelo resulta de gran importancia para la modelización de estos procesos.
Resumo:
L'objectif de ce travail était d'établir une revue synthétique de la littérature concernant la situation de 3 zoonoses professionnelles en milieu forestier, à savoir la borréliose de Lyme, la tularémie et la leptospirose. Quatre-vingt-trois articles ont été utilisés pour la rédaction de ce travail, dont 30 traitaient spécifiquement de la borréliose de Lyme, 30 de la tularémie et 24 de la leptospirose. Une connaissance générale de chacune des zoonoses, notamment des vecteurs, hôtes et moyens de transmission, est nécessaire pour une bonne compréhension de la problématique et pour établir des mesures préventives adaptées. La situation épidémiologique de chacune d'entre elles est discutée à la fois chez les animaux et l'homme en Europe, puis plus spécifiquement chez les forestiers. Les études menées depuis 1995, s'appuyant principalement sur des analyses séroépidémiologiques, confirment le risque professionnel lié à ces 3 zoonoses chez les forestiers. Elles restent cependant insuffisantes pour quantifier ce risque. Le manque de données épidémiologiques à disposition, notamment pour la tularémie et la leptospirose, à la fois chez les animaux et l'homme, limite considérablement l'évaluation de leurs conséquences. Ce travail permet un aperçu rapide, clair et complet de ces 3 zoonoses professionnelles auxquelles les forestiers sont exposés en Europe et aidera à sensibiliser les professionnels de la santé et les travailleurs du secteur forestier à cette problématique ainsi qu'à la gestion et prévention des risques.
Resumo:
La protection des données est un élément essentiel d'un Etat de droit et une société démocratique, car elle accorde à chaque individu le droit de disposer de ce qui fait partie de sa sphère privée. Actuellement en Suisse, la loi fédérale sur la protection des données (LPD) est en vigueur depuis 1993. En 2010, l'Office fédéral de la justice a supervisé une évaluation de son efficacité : il en résulte que cette dernière a été prouvée, mais tendra à diminuer fortement dans les années à suivre. Pour causes principales : l'évolution des technologies, caractérisée notamment par le développement des moyens de traitement de données toujours plus variés et conséquents, et un manque d'informations des individus par rapport à la protection des données en générale et à leurs droits. Suite à l'évaluation, cinq objectifs de révision ont été formulés par le Conseil fédéral, dont celui d'intégrer la privacy by design ou « protection de la vie privée dès la conception » dans la loi. Ce concept, qui est également repris dans les travaux européens en cours, est développé à l'origine par l'Information and Privacy Commissionner de l'Ontario (Canada), Ann Cavoukian. Le principe général de la privacy by design est que la protection de la vie privée doit être incluse dans les systèmes traitant les données lors de leur conception. Souvent évoquée comme une solution idéale, répondant au problème de l'inadéquation de la loi par la logique de prévention qu'elle promeut, la privacy by design demeure toutefois un souhait dont l'application n'est que peu analysée. Ce travail cherche justement à répondre à la question de la manière de la mettre en oeuvre dans la législation suisse. Se basant sur les textes et la doctrine juridiques et une littérature dans les domaines de l'économie, l'informatique, la politique et la sociologie des données personnelles, il propose tout d'abord une revue générale des principes et définitions des concepts-clés de la protection des données en Suisse et dans le cadre international. Puis, il propose deux possibilités d'intégration de la privacy by design : la première est une solution privée non contraignante qui consiste à promouvoir le concept et faire en sorte que les responsables de traitement décident par eux-mêmes d'intégrer la privacy by design dans leurs projets ; ce procédé est possible grâce au renforcement du processus de certification déjà en cours. La deuxième option est une solution contraignante visant à intégrer le principe directement dans la loi et de prendre les mesures pour le rendre effectif ; ce travail montre que le développement de la figure du conseiller à la protection des données permet d'atteindre cet objectif. Enfin, des considérations générales sur l'application du principe sont abordées, telles que l'influence des développements en cours dans l'Union européenne sur la Suisse par rapport à la protection des données et la limite posée par le principe de territorialité.
Resumo:
La stimulation cérébrale profonde (SCP) nécessite l'implantation chirurgicale d'un système comprenant électrodes cérébrales et boîtier(s) de stimulation. Les noyaux cérébraux visés par la méthodologie stéréotaxique d'implantation doivent être visualisés au mieux par une imagerie à haute résolution. La procédure chirurgicale d'implantation des électrodes se fait si possible en anesthésie locale pour faire des mesures électro-physiologiques et tester en peropératoire l'effet de la stimulation, afin d'optimiser la position de l'électrode définitive. Dans un deuxième temps, le ou les générateur(s) d'impulsions sont implantés en anesthésie générale. La SCP pour les mouvements anormaux a une très bonne efficacité et un risque de complications graves faible quoique non nul. Les complications liées au matériel sont les plus fréquentes. Deep brain stimulation (DBS) requires the surgical implantation of a system including brain electrodes and impulsion generator(s). The nuclei targeted by the stereotaxic implantation methodology have to be visualized at best by high resolution imaging. The surgical procedure for implanting the electrodes is performed if possible under local anaesthesia to make electro-physiological measurements and to test intra-operatively the effect of the stimulation, in order to optimize the position of the definitive electrode. In a second step, the impulsion generator(s) are implanted under general anaesthesia. DBS for movement disorders has a very good efficacy and a low albeit non-zero risk of serious complications. Complications related to the material are the most common.
Resumo:
Le projet REVIAC: Le projet REVIAC (Réinsertion vie active) est un projet de collaboration entre le Service de prévoyance et d'aides sociales (SPAS) et la Policlinique médicale universitaire (PMU) pour améliorer les possibilités de démarches de réinsertion chez les bénéficiaires du revenu d'insertion (RI) avec certificat d'incapacité de travail. En effet, certains bénéficiaires ont des certificats médicaux d'incapacité récurrents et les assistants sociaux (AS) ne peuvent entreprendre les démarches nécessaires. Le projet développé par le SPAS et la PMU comprend deux axesa : ? La création à la PMU d'une consultation pour les bénéficiaires du RI dont l'état de santé compromet toute démarche d'insertion/d'activation. ? Le développement de l'information et de la formation : a) des médecins, principalement de premier recours, sur les thématiques sociales liées au RI et le réseau socio-sanitaire existant, et b) des assistants sociaux sur les pratiques des médecins traitants. Les objectifs du projet sont : Encourager l'élaboration de projets favorisant l'autonomie des bénéficiaires (autonomie sociale comme professionnelle et financière), compatibles avec leur état de santé, réalistes et réalisables ; Apporter un soutien médical aux bénéficiaires entrant dans une démarche d'insertion ou en cours d'insertion, en collaboration avec leurs médecins traitants ; Fournir aux AS les informations nécessaires leur permettant d'initier, au besoin, une collaboration avec l'AI dans le cadre de mesures de prévention et d'insertion ; Permettre aux AS de diriger et accompagner les bénéficiaires dont l'état de santé est incompatible avec une démarche d'insertion vers d'autres types de mesures ou d'autres prises en charge plus adéquates (rentes AI, etc.) ; Améliorer la collaboration entre les médecins traitants des bénéficiaires et les assistants sociaux en charge de leur dossier ; Proposer, à terme, le développement de nouvelles mesures adaptées aux problématiques de santé des bénéficiaires.
Resumo:
Contexte & Objectifs: La vancomycine (VCM) est un antibiotique utilisé pour le traitement de certaines infections sévères. C'est un candidat idéal pour le suivi thérapeutique (TDM) car il possède une forte variabilité inter-individuelle, une marge thérapeutique étroite et une relation concentration-efficacité et -toxicité établie. L'objectif de ce travail est de quantifier la variabilité inter-individuelle des concentrations et les facteurs qui l'influencent, et d'évaluer l'adéquation des posologies pour viser les cibles thérapeutiques. Méthodes: Les données ont été récoltées dans le cadre du TDM réalisé en routine au Centre Hospitalier Universitaire Vaudois. Les données pharmacocinétiques ont été analysées par régression linéaire à effet mixte (NONMEM®). Les variables d'intérêt étaient: le sexe, l'âge, le poids, la clairance à la créatinine (CLCRT) et les co-médications. Des simulations ont été réalisées à partir du modèle final afin de déterminer le pourcentage de patients en-dehors des intervalles de concentrations cibles (10-20 mg/L), et toxiques (>30 mg/L) avant et après adaptation posologique de VCM selon la fonction rénale. Résultats: 705 concentrations de VCM ont été mesurées chez 191 patients. Un modèle monocompartimental incluant une variabilité inter-individuelle sur la clairance (CL) et le volume de distribution (Vd) décrit au mieux les données. La CLCRT et la co-administration de diurétiques influencent significativement la CL, et le Vd augmente proportionnellement avec le poids. Ces covariables expliquent 50% et 27% de la variabilité, respectivement. Les simulations ont montré que pour les stades de maladie rénale 3 et 4 le pourcentage de patients en-dehors des cibles est de 51% et 45% et diminue respectivement à 40% et 37% après adaptation posologique. De plus, 15% et 8% des patients avec insuffisance rénale de stade 3 et 4 présentent des concentrations >30 mg/L, seuil qui s'abaisse environs à 5% après adaptation posologique. Discussion: L'importante variabilité des concentrations de VCM est en grande partie expliquée par la CLCRT, la co-administration de diurétiques et le poids. L'administration des posologies recommandées pour les patients avec une maladie rénale de stades 3 et 4 pourrait exposer un nombre significatif de patients à des concentrations en dehors des cibles thérapeutiques, mais paraît corrigées par une adaptation posologique basée sur le TDM.
Resumo:
L'imagerie par résonance magnétique (IRM) peut fournir aux cardiologues des informations diagnostiques importantes sur l'état de la maladie de l'artère coronarienne dans les patients. Le défi majeur pour l'IRM cardiaque est de gérer toutes les sources de mouvement qui peuvent affecter la qualité des images en réduisant l'information diagnostique. Cette thèse a donc comme but de développer des nouvelles techniques d'acquisitions des images IRM, en changeant les techniques de compensation du mouvement, pour en augmenter l'efficacité, la flexibilité, la robustesse et pour obtenir plus d'information sur le tissu et plus d'information temporelle. Les techniques proposées favorisent donc l'avancement de l'imagerie des coronaires dans une direction plus maniable et multi-usage qui peut facilement être transférée dans l'environnement clinique. La première partie de la thèse s'est concentrée sur l'étude du mouvement des artères coronariennes sur des patients en utilisant la techniques d'imagerie standard (rayons x), pour mesurer la précision avec laquelle les artères coronariennes retournent dans la même position battement après battement (repositionnement des coronaires). Nous avons découvert qu'il y a des intervalles dans le cycle cardiaque, tôt dans la systole et à moitié de la diastole, où le repositionnement des coronaires est au minimum. En réponse nous avons développé une nouvelle séquence d'acquisition (T2-post) capable d'acquérir les données aussi tôt dans la systole. Cette séquence a été testée sur des volontaires sains et on a pu constater que la qualité de visualisation des artère coronariennes est égale à celle obtenue avec les techniques standard. De plus, le rapport signal sur bruit fourni par la séquence d'acquisition proposée est supérieur à celui obtenu avec les techniques d'imagerie standard. La deuxième partie de la thèse a exploré un paradigme d'acquisition des images cardiaques complètement nouveau pour l'imagerie du coeur entier. La technique proposée dans ce travail acquiert les données sans arrêt (free-running) au lieu d'être synchronisée avec le mouvement cardiaque. De cette façon, l'efficacité de la séquence d'acquisition est augmentée de manière significative et les images produites représentent le coeur entier dans toutes les phases cardiaques (quatre dimensions, 4D). Par ailleurs, l'auto-navigation de la respiration permet d'effectuer cette acquisition en respiration libre. Cette technologie rend possible de visualiser et évaluer l'anatomie du coeur et de ses vaisseaux ainsi que la fonction cardiaque en quatre dimensions et avec une très haute résolution spatiale et temporelle, sans la nécessité d'injecter un moyen de contraste. Le pas essentiel qui a permis le développement de cette technique est l'utilisation d'une trajectoire d'acquisition radiale 3D basée sur l'angle d'or. Avec cette trajectoire, il est possible d'acquérir continûment les données d'espace k, puis de réordonner les données et choisir les paramètres temporel des images 4D a posteriori. L'acquisition 4D a été aussi couplée avec un algorithme de reconstructions itératif (compressed sensing) qui permet d'augmenter la résolution temporelle tout en augmentant la qualité des images. Grâce aux images 4D, il est possible maintenant de visualiser les artères coronariennes entières dans chaque phase du cycle cardiaque et, avec les mêmes données, de visualiser et mesurer la fonction cardiaque. La qualité des artères coronariennes dans les images 4D est la même que dans les images obtenues avec une acquisition 3D standard, acquise en diastole Par ailleurs, les valeurs de fonction cardiaque mesurées au moyen des images 4D concorde avec les valeurs obtenues avec les images 2D standard. Finalement, dans la dernière partie de la thèse une technique d'acquisition a temps d'écho ultra-court (UTE) a été développée pour la visualisation in vivo des calcifications des artères coronariennes. Des études récentes ont démontré que les acquisitions UTE permettent de visualiser les calcifications dans des plaques athérosclérotiques ex vivo. Cepandent le mouvement du coeur a entravé jusqu'à maintenant l'utilisation des techniques UTE in vivo. Pour résoudre ce problème nous avons développé une séquence d'acquisition UTE avec trajectoire radiale 3D et l'avons testée sur des volontaires. La technique proposée utilise une auto-navigation 3D pour corriger le mouvement respiratoire et est synchronisée avec l'ECG. Trois échos sont acquis pour extraire le signal de la calcification avec des composants au T2 très court tout en permettant de séparer le signal de la graisse depuis le signal de l'eau. Les résultats sont encore préliminaires mais on peut affirmer que la technique développé peut potentiellement montrer les calcifications des artères coronariennes in vivo. En conclusion, ce travail de thèse présente trois nouvelles techniques pour l'IRM du coeur entier capables d'améliorer la visualisation et la caractérisation de la maladie athérosclérotique des coronaires. Ces techniques fournissent des informations anatomiques et fonctionnelles en quatre dimensions et des informations sur la composition du tissu auparavant indisponibles. CORONARY artery magnetic resonance imaging (MRI) has the potential to provide the cardiologist with relevant diagnostic information relative to coronary artery disease of patients. The major challenge of cardiac MRI, though, is dealing with all sources of motions that can corrupt the images affecting the diagnostic information provided. The current thesis, thus, focused on the development of new MRI techniques that change the standard approach to cardiac motion compensation in order to increase the efficiency of cardioavscular MRI, to provide more flexibility and robustness, new temporal information and new tissue information. The proposed approaches help in advancing coronary magnetic resonance angiography (MRA) in the direction of an easy-to-use and multipurpose tool that can be translated to the clinical environment. The first part of the thesis focused on the study of coronary artery motion through gold standard imaging techniques (x-ray angiography) in patients, in order to measure the precision with which the coronary arteries assume the same position beat after beat (coronary artery repositioning). We learned that intervals with minimal coronary artery repositioning occur in peak systole and in mid diastole and we responded with a new pulse sequence (T2~post) that is able to provide peak-systolic imaging. Such a sequence was tested in healthy volunteers and, from the image quality comparison, we learned that the proposed approach provides coronary artery visualization and contrast-to-noise ratio (CNR) comparable with the standard acquisition approach, but with increased signal-to-noise ratio (SNR). The second part of the thesis explored a completely new paradigm for whole- heart cardiovascular MRI. The proposed techniques acquires the data continuously (free-running), instead of being triggered, thus increasing the efficiency of the acquisition and providing four dimensional images of the whole heart, while respiratory self navigation allows for the scan to be performed in free breathing. This enabling technology allows for anatomical and functional evaluation in four dimensions, with high spatial and temporal resolution and without the need for contrast agent injection. The enabling step is the use of a golden-angle based 3D radial trajectory, which allows for a continuous sampling of the k-space and a retrospective selection of the timing parameters of the reconstructed dataset. The free-running 4D acquisition was then combined with a compressed sensing reconstruction algorithm that further increases the temporal resolution of the 4D dataset, while at the same time increasing the overall image quality by removing undersampling artifacts. The obtained 4D images provide visualization of the whole coronary artery tree in each phases of the cardiac cycle and, at the same time, allow for the assessment of the cardiac function with a single free- breathing scan. The quality of the coronary arteries provided by the frames of the free-running 4D acquisition is in line with the one obtained with the standard ECG-triggered one, and the cardiac function evaluation matched the one measured with gold-standard stack of 2D cine approaches. Finally, the last part of the thesis focused on the development of ultrashort echo time (UTE) acquisition scheme for in vivo detection of calcification in the coronary arteries. Recent studies showed that UTE imaging allows for the coronary artery plaque calcification ex vivo, since it is able to detect the short T2 components of the calcification. The heart motion, though, prevented this technique from being applied in vivo. An ECG-triggered self-navigated 3D radial triple- echo UTE acquisition has then been developed and tested in healthy volunteers. The proposed sequence combines a 3D self-navigation approach with a 3D radial UTE acquisition enabling data collection during free breathing. Three echoes are simultaneously acquired to extract the short T2 components of the calcification while a water and fat separation technique allows for proper visualization of the coronary arteries. Even though the results are still preliminary, the proposed sequence showed great potential for the in vivo visualization of coronary artery calcification. In conclusion, the thesis presents three novel MRI approaches aimed at improved characterization and assessment of atherosclerotic coronary artery disease. These approaches provide new anatomical and functional information in four dimensions, and support tissue characterization for coronary artery plaques.
Resumo:
Los jóvenes a los que se les ha impuesto una medida de realización de tareas socioeducativas (RTS) o de prestaciones en beneficio de la comunidad (PBC) presentan un alto fracaso escolar, mayoritariamente con bajo rendimiento y abandono de los estudios en la mitad de los casos. Uno de cada tres jóvenes proviene de una familia con algún tipo de problemática específica o una economía insuficiente. Los resultados indican, sin embargo, que los jóvenes que realizan tareas socioeducativas suelen acumular más problemáticas que a los que se les ha impuesto una PBC, ya sea a nivel personal, familiar o social. En cuanto el perfil penal y criminológico, el 63% de los chicos y chicas de estas dos medidas tiene antecedentes. La tasa de reincidencia de la RTS es del 31,1% y la de PBC del 25,2%. Algunos de los factores que los jóvenes reincidentes muestran en mayor proporción son tener un grupo de iguales disocial, estar en contacto con los servicios sociales o tener antecedentes. Los reincidentes de RTS también presentan mayor proporción de consumo de tóxicos, problemas de salud mental, fracaso escolar y una ocupación del tiempo desestructurada y con conductas de riesgo. Comparando estos resultados con estudios respecto a otros programas y medidas de Justicia juvenil podemos concluir que la tasa de reincidencia global en Cataluña es del 28,9% y la específica de Medio abierto es del 27,8%.
Resumo:
Détecter et comprendre les formes de criminalité, notamment organisées, qui sont impliquées dans la fabrication, la diffusion et/ou l'utilisation de faux documents d'identité est un enjeu complexe et persistant, mais est une nécessité pour soutenir l'action de la sécurité et l'étude des phénomènes criminels. A cet égard, il est postulé qu'une approche traçologique s'appuyant sur un profilage systématique des caractéristiques matérielles des faux documents d'identité peut fournir des renseignements criminels originaux, utiles et pertinents. Une méthode générale a été développée pour extraire, mémoriser et comparer systématiquement les profils des faux documents d'identité saisis par les acteurs de la sécurité. Cette méthode permet de détecter et de suivre les relations entre cas, les tendances et patterns criminels, dont l'interprétation au travers de différentes formes d'analyse permet la mise en évidence de potentiels groupes criminels, d'auteurs prolifiques et de <i>modus operandi</i> récurrents. Par l'étude de centaines de faux documents d'identité saisis par la police et les garde-frontière dans deux pays distincts, cet article démontre comment le renseignement forensique peut soutenir la génération et l'étude d'hypothèses sur la criminalité, aidant par-là la compréhension des marchés et réseaux criminels sur les plans stratégique, opérationnel et tactique. L'article illustre également comment le renseignement forensique peut soutenir des mesures préventives et peut contribuer à l'analyse des risques que posent les faux documents d'identité, voire à la remise en cause de la stratégie sécuritaire et de contrôle actuelle. L'approche proposée présente un carctère essentiellement générique puisque, à l'instar de l'exemple des faux documents d'identité, n'importe quel type de trace matérielle peut être traité systématiquement et scientifiquement de sorte à contribuer à la construction structurée de connaissances sur la criminalité et la sécurité.
Resumo:
Présentation En accord avec la loi suisse, seul le patient peut décider de la notification, dans son dossier, d'un ordre de «non réanimation » (DNACPR) en cas d'arrêt cardio-respiratoire. L'équipe médicale peut exceptionnellement prendre une telle décision, si elle juge qu'une réanimation n'a aucune chance d'aboutir. Les mécanismes menant à ce processus de décision n'ont pas encore été complètement investigués, en particulier en Suisse. Enjeu Notre étude vise à déterminer la prévalence de l'ordre de «non réanimation» après l'admission, l'auteur de cette décision, ainsi que son association avec certaines caractéristiques propres aux patients : le sexe, l'âge, la situation familiale, la nationalité, la religion, le nombre et le type de comorbidités. Nous cherchons ainsi à mieux définir quels sont les facteurs importants dans ce processus décisionnel complexe où le jugement médical, ainsi que l'information apportée aux patients sont primordiaux. Contexte de recherche Nous avons effectué une étude observationnelle sur une durée de 6 semaines, en analysant les formulaires d'admission de 194 patients hospitalisés dans le service de médecine interne du CHUV, dans les 72 heures après leur admission. Résultats L'étude montre que plus de la moitié des 194 dossiers de patients analysés ont un ordre de « non réanimation » (DNACPR) (53%). 27% de ces décisions ont été prises par les patients eux-mêmes, 12% par leur représentant thérapeutique/famille et 61% par les équipes médicales. Nous trouvons une association statistiquement significative entre l'ordre DNACPR et l'âge, avec un âge moyen de 80.7 +-10.8 ans dans le groupe « non réanimation » versus 67.5 +- 15.1 ans dans le groupe « réanimation », entre l'ordre DNACPR et une pathologie oncologique, quel que soit le stade de cette dernière, ainsi qu'entre l'ordre DNACPR et la religion protestante. Une analyse de sous-groupe montre que l'âge, ainsi que la pathologie oncologique sont statistiquement significatifs lors de l'analyse des décisions prises par les équipes médicales. La religion protestante est, quant à elle, significative lors de l'analyse des décisions prises par le patient ou son représentant. Perspectives Contrairement aux publications passées, cette étude montre une prédominance de l'ordre de «non réanimation » (DNACPR) à l'admission dans un service de médecine interne, principalement sur décision médicale. La plupart des patients ont été jugés incapables de discernement sur la question ou n'ont tout simplement pas été impliqués dans le processus décisionnel. Une réflexion doit avoir lieu afin de prendre des mesures de sensibilisation auprès des équipes médicales et d'approfondir la formation médicale et éthique sur le sujet de la détermination de l'attitude de réanimation. D'autres études qualitatives permettraient de mieux comprendre les motivations ayant mené à ces nombreuses décisions médicales, ainsi que les critères importants pour les patients.
Resumo:
Le taux de réadmission à 30 jours de la sortie de l'hôpital est un indicateur de la qualité de prise en charge hospitalière pouvant refléter des soins suboptimaux ou une coordination insuffisante avec les intervenants ambulatoires. Il existe un algorithme informatisé validé dénommé SQLape® qui, basé sur des données administratives suisses, les codes diagnostiques et les codes d'interventions, permet d'identifier rétrospectivement les réadmissions potentiellement évitables (REAPE), avec une haute sensibilité (96%) et spécificité (96%). Sont considérées REAPE, les réadmissions précoces (< 30 jours), non planifiées à la sortie du séjour index et dues à un diagnostic déjà actif lors du précédent séjour ou dues à une complication d'un traitement. Le but de notre étude a été d'analyser rétrospectivement tous les séjours des patients admis dans le service de Médecine Interne du CHUV entre le 1 janvier 2009 et le 31 décembre 2011, afin de quantifier la proportion de REAPE, puis d'identifier des facteurs de risques afin d'en dériver un modèle prédictif. Nous avons analysé 11'074 séjours. L'âge moyen était de 72 +/- 16,8 ans et 50,3 % étaient des femmes. Nous avons comptabilisé 8,4 % décès durant les séjours et 14,2 % réadmissions à 30 jours de la sortie, dont la moitié (7,0 %) considérées potentiellement évitables selon SQLape®. Les facteurs de risques de REAPE que nous avons mis en évidence étaient les suivants : au moins une hospitalisation antérieure à l'admission index, un score de comorbidité de Charlson > 1, la présence d'un cancer actif, une hyponatrémie, une durée de séjour > 11 jours ou encore la prescription d'au moins 15 médicaments différents durant le séjour. Ces variables ont été utilisées pour en dériver un modèle prédictif de REAPE de bonne qualité (aire sous la courbe ROC de 0,70), plus performant pour notre population qu'un autre modèle prédictif développé et validé au Canada, dénommé score de LACE. Dans une perspective d'amélioration de la qualité des soins et d'une réduction des coûts, la capacité à identifier précocement les patients à risque élevé de REAPE permettrait d'implémenter rapidement des mesures préventives ciblées (par exemple un plan de sortie détaillé impliquant le patient, son entourage et son médecin traitant) en plus des mesures préventives générales (par exemple la réconciliation médicamenteuse)