118 resultados para Extraction semi-automatique de termes
em Université de Lausanne, Switzerland
Resumo:
Introduction: Cette étude a pour but de déterminer la fréquence de survenue de l'arrêt cardio-respiratoire (ACR) au cabinet médical qui constitue un élément de décision quant à la justification de la présence d'un défibrillateur semi-automatique (DSA) au cabinet médical. Matériel et Méthode: Analyse rétrospective des fiches d'intervention pré-hospitalière des ambulances et des SMUR (Service Mobile d'Urgence et de Réanimation) du canton de Vaud (650'000 habitants) entre 2003 et 2006 qui relataient un ACR. Les variables suivantes ont été analysées: chronologie de l'intervention, mesures de réanimation cardio-pulmonaire (RCP) appliquées, diagnostic présumé, suivi à 48 heures. Résultats: 17 ACR (9 _, 8 _) ont eu lieu dans les 1655 cabinets médicaux du canton de Vaud en 4 ans sur un total de 1753 ACR extrahospitaliers, soit 1% de ces derniers. Tous ont motivés une intervention simultanée d'une ambulance et d'un SMUR. L'âge moyen était de 70 ans. Le délai entre l'ACR et l'arrivée sur site d'un DSA était en moyenne de plus de 10 minutes (min-max: 4-25 minutes). Dans 13 cas évaluables, une RCP était en cours à l'arrivée des renforts, mais seulement 7 étaient qualifiées d'efficaces. Le rythme initial était une fibrillation ventriculaire (FV) dans 8 cas et ont tous reçu un choc électrique externe (CEE), dont 1 avant l'arrivée des secours administré dans un cabinet équipé d'un DSA. Le diagnostic était disponible pour 9 cas: 6 cardiopathies, 1 embolie pulmonaire massive, 1 choc anaphylactique et 1 tentamen médicamenteux. Le devenir de ces patients a été marqué par 6 décès sur site, 4 décès à l'admission à l'hôpital et 7 vivants à 48 heures. Les données ne permettent pas d'avoir un suivi ni à la sortie de l'hôpital ni ultérieurement. Conclusions: Bien que la survenue d'un ACR soit très rare au cabinet médical, il mérite une anticipation particulière de la part du médecin. En effet, le délai d'arrivée des services d'urgences nécessite la mise en oeuvre immédiate de mesures par le médecin. En outre, comme professionnel de la santé, il se doit d'intégrer la chaîne de survie en procédant à une alarme précoce du 144 et initier des gestes de premier secours («Basic Life Support»). La présence d'un DSA pourrait être envisagée en fonction notamment de l'éloignement de secours professionnels équipés d'un DSA.
Resumo:
Introduction : La prise en charge des patients critiques nécessite dans la majorité des situations l'obtention rapide d'un accès vasculaire, afin d'administrer des médicaments, des solutés de remplissage, ou des produits sanguins. La mise en place d'un accès vasculaire peut s'avérer difficile chez ces patients. En cas d'échec de pose d'une voie veineuse périphérique, des abords vasculaires alternatifs existent. Il s'agit essentiellement de la pose d'une voie veineuse centrale, la réalisation d'une dénudation veineuse, ou la pose d'une voie intra-osseuse. Depuis le développement de dispositifs d'insertion « semi-automatique » à la fin des années 90, la voie intra-osseuse, traditionnellement réservée aux cas pédiatriques, est de plus en plus fréquemment utilisée chez les patients adultes. Le Service des Urgences du CHUV a introduit en 2009 les dispositifs d'insertion d'aiguilles intra-osseuses de type EZ-IO® (perceuse électrique), en salle de réanimation des urgences vitales (déchoquage), ainsi qu'au sein du secteur préhospitalier pour les interventions du SMUR de Lausanne et de l'hélicoptère REGA de la base de Lausanne. Par cette étude, nous voulions mettre en évidence les aspects épidémiologiques des patients ayant dû être perfusés par cet abord dans un contexte préhospitalier, ainsi que les circonstances cliniques ayant justifié un tel usage, le taux de succès, les éventuelles complications, les médicaments perfusés et la mortalité des patients ayant bénéficié de ce dispositif. Méthode: Chaque patient ayant bénéficié de la mise en place d'une voie intra-osseuse par EZ-IO® du 1er janvier 2009 au 31 décembre 2011 a été inclus. Les données récoltées étaient l'âge, le sexe, l'indication à la mise en place de l'intra-osseuse, la localisation, le taux de succès, les médicaments et fluides administrés, les complications, la mortalité à 48 heures et à la sortie de l'hôpital. Tous les articles mentionnant l'utilisation de ΙΈΖ-ΙΟ® dans des situations cliniques ont également été analysés par une revue de littérature structurée exhaustive, afin de comparer nos résultats avec les données de la littérature. Résultats : Cinquante-huit patients, représentant 60 intra-osseuses EZ-IO®, ont été inclus. Leur âge moyen (47 ans), le taux de succès (90%), les indications, la localisation de l'aiguille (98% au niveau du tibia proximal) et le taux de complications (0%) correspondent aux valeurs trouvées dans la littérature. Le taux de survie de nos patients est de 38% à 48 heures et de 29% à la sortie de l'hôpital. De nombreux médicaments ou solutés de perfusion ont été administrés; l'adrénaline restant le médicament le plus fréquemment administré par cette voie. Dans 7 cas, les patients ont bénéficié d'une induction d'anesthésie par voie intra-osseuse. La revue de littérature a permis de compiler 30 études distinctes, représentant un total de 1603 accès vasculaires de type EZ-IO®. Conclusion : La voie intra-osseuse s'avère fiable et rapide pour obtenir un accès vasculaire, avec un taux de complications très faible et permet l'administration d'un grand nombre de substances. D'autres études sont nécessaires pour évaluer l'impact de la voie intra osseuse, notamment en termes de mortalité, de complications tardives, ainsi que d'analyse coût/bénéfice de ce matériel.
Resumo:
La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.
Resumo:
RÉSUMÉ Cette thèse porte sur le développement de méthodes algorithmiques pour découvrir automatiquement la structure morphologique des mots d'un corpus. On considère en particulier le cas des langues s'approchant du type introflexionnel, comme l'arabe ou l'hébreu. La tradition linguistique décrit la morphologie de ces langues en termes d'unités discontinues : les racines consonantiques et les schèmes vocaliques. Ce genre de structure constitue un défi pour les systèmes actuels d'apprentissage automatique, qui opèrent généralement avec des unités continues. La stratégie adoptée ici consiste à traiter le problème comme une séquence de deux sous-problèmes. Le premier est d'ordre phonologique : il s'agit de diviser les symboles (phonèmes, lettres) du corpus en deux groupes correspondant autant que possible aux consonnes et voyelles phonétiques. Le second est de nature morphologique et repose sur les résultats du premier : il s'agit d'établir l'inventaire des racines et schèmes du corpus et de déterminer leurs règles de combinaison. On examine la portée et les limites d'une approche basée sur deux hypothèses : (i) la distinction entre consonnes et voyelles peut être inférée sur la base de leur tendance à alterner dans la chaîne parlée; (ii) les racines et les schèmes peuvent être identifiés respectivement aux séquences de consonnes et voyelles découvertes précédemment. L'algorithme proposé utilise une méthode purement distributionnelle pour partitionner les symboles du corpus. Puis il applique des principes analogiques pour identifier un ensemble de candidats sérieux au titre de racine ou de schème, et pour élargir progressivement cet ensemble. Cette extension est soumise à une procédure d'évaluation basée sur le principe de la longueur de description minimale, dans- l'esprit de LINGUISTICA (Goldsmith, 2001). L'algorithme est implémenté sous la forme d'un programme informatique nommé ARABICA, et évalué sur un corpus de noms arabes, du point de vue de sa capacité à décrire le système du pluriel. Cette étude montre que des structures linguistiques complexes peuvent être découvertes en ne faisant qu'un minimum d'hypothèses a priori sur les phénomènes considérés. Elle illustre la synergie possible entre des mécanismes d'apprentissage portant sur des niveaux de description linguistique distincts, et cherche à déterminer quand et pourquoi cette coopération échoue. Elle conclut que la tension entre l'universalité de la distinction consonnes-voyelles et la spécificité de la structuration racine-schème est cruciale pour expliquer les forces et les faiblesses d'une telle approche. ABSTRACT This dissertation is concerned with the development of algorithmic methods for the unsupervised learning of natural language morphology, using a symbolically transcribed wordlist. It focuses on the case of languages approaching the introflectional type, such as Arabic or Hebrew. The morphology of such languages is traditionally described in terms of discontinuous units: consonantal roots and vocalic patterns. Inferring this kind of structure is a challenging task for current unsupervised learning systems, which generally operate with continuous units. In this study, the problem of learning root-and-pattern morphology is divided into a phonological and a morphological subproblem. The phonological component of the analysis seeks to partition the symbols of a corpus (phonemes, letters) into two subsets that correspond well with the phonetic definition of consonants and vowels; building around this result, the morphological component attempts to establish the list of roots and patterns in the corpus, and to infer the rules that govern their combinations. We assess the extent to which this can be done on the basis of two hypotheses: (i) the distinction between consonants and vowels can be learned by observing their tendency to alternate in speech; (ii) roots and patterns can be identified as sequences of the previously discovered consonants and vowels respectively. The proposed algorithm uses a purely distributional method for partitioning symbols. Then it applies analogical principles to identify a preliminary set of reliable roots and patterns, and gradually enlarge it. This extension process is guided by an evaluation procedure based on the minimum description length principle, in line with the approach to morphological learning embodied in LINGUISTICA (Goldsmith, 2001). The algorithm is implemented as a computer program named ARABICA; it is evaluated with regard to its ability to account for the system of plural formation in a corpus of Arabic nouns. This thesis shows that complex linguistic structures can be discovered without recourse to a rich set of a priori hypotheses about the phenomena under consideration. It illustrates the possible synergy between learning mechanisms operating at distinct levels of linguistic description, and attempts to determine where and why such a cooperation fails. It concludes that the tension between the universality of the consonant-vowel distinction and the specificity of root-and-pattern structure is crucial for understanding the advantages and weaknesses of this approach.
Resumo:
We present a new method for lysis of single cells in continuous flow, where cells are sequentially trapped, lysed and released in an automatic process. Using optimized frequencies, dielectrophoretic trapping allows exposing cells in a reproducible way to high electrical fields for long durations, thereby giving good control on the lysis parameters. In situ evaluation of cytosol extraction on single cells has been studied for Chinese hamster ovary (CHO) cells through out-diffusion of fluorescent molecules for different voltage amplitudes. A diffusion model is proposed to correlate this out-diffusion to the total area of the created pores, which is dependent on the potential drop across the cell membrane and enables evaluation of the total pore area in the membrane. The dielectrophoretic trapping is no longer effective after lysis because of the reduced conductivity inside the cells, leading to cell release. The trapping time is linked to the time required for cytosol extraction and can thus provide additional validation of the effective cytosol extraction for non-fluorescent cells. Furthermore, the application of one single voltage for both trapping and lysis provides a fully automatic process including cell trapping, lysis, and release, allowing operating the device in continuous flow without human intervention.
Resumo:
Ultrasound segmentation is a challenging problem due to the inherent speckle and some artifacts like shadows, attenuation and signal dropout. Existing methods need to include strong priors like shape priors or analytical intensity models to succeed in the segmentation. However, such priors tend to limit these methods to a specific target or imaging settings, and they are not always applicable to pathological cases. This work introduces a semi-supervised segmentation framework for ultrasound imaging that alleviates the limitation of fully automatic segmentation, that is, it is applicable to any kind of target and imaging settings. Our methodology uses a graph of image patches to represent the ultrasound image and user-assisted initialization with labels, which acts as soft priors. The segmentation problem is formulated as a continuous minimum cut problem and solved with an efficient optimization algorithm. We validate our segmentation framework on clinical ultrasound imaging (prostate, fetus, and tumors of the liver and eye). We obtain high similarity agreement with the ground truth provided by medical expert delineations in all applications (94% DICE values in average) and the proposed algorithm performs favorably with the literature.
Resumo:
Estimating the time since the last discharge of firearms and/or spent cartridges may be a useful piece of information in forensic firearm-related cases. The current approach consists of studying the diffusion of selected volatile organic compounds (such as naphthalene) released during the shooting using solid phase micro-extraction (SPME). However, this technique works poorly on handgun car-tridges because the extracted quantities quickly fall below the limit of detection. In order to find more effective solutions and further investigate the aging of organic gunshot residue after the discharge of handgun cartridges, an extensive study was carried out in this work using a novel approach based on high capacity headspace sorptive extraction (HSSE). By adopting this technique, for the first time 51 gunshot residue (GSR) volatile organic compounds could be simultaneously detected from fired handgun cartridge cases. Application to aged specimens showed that many of those compounds presented significant and complementary aging profiles. Compound-to-compound ratios were also tested and proved to be beneficial both in reducing the variability of the aging curves and in enlarging the time window useful in a forensic casework perspective. The obtained results were thus particularly promising for the development of a new complete forensic dating methodology.
Resumo:
From 2007 to 2010, the emergency-crisis unit of the Couple and Family Consultation Unit -UCCF (West Psychiatric Service, Prangins Psychiatric Hospital, Psychiatric Department of CHUV) has carried out a research about the relevance and usefulness of emergency-crisis, systemic-oriented treatments, for deeply distressed couples and families. Besides epidemiologic data, we present results demonstrating the efficiency of those treatments, both at short-term and at a one year's range. The global impact of such treatments in terms of public health, but also economical issues, make us believe that they should be fully included in the new trend of psychiatric ambulatory care, into the social net.
Resumo:
Invariant Valpha14 (Valpha14i) NKT cells are a murine CD1d-dependent regulatory T cell subset characterized by a Valpha14-Jalpha18 rearrangement and expression of mostly Vbeta8.2 and Vbeta7. Whereas the TCR Vbeta domain influences the binding avidity of the Valpha14i TCR for CD1d-alpha-galactosylceramide complexes, with Vbeta8.2 conferring higher avidity binding than Vbeta7, a possible impact of the TCR Vbeta domain on Valpha14i NKT cell selection by endogenous ligands has not been studied. In this study, we show that thymic selection of Vbeta7(+), but not Vbeta8.2(+), Valpha14i NKT cells is favored in situations where endogenous ligand concentration or TCRalpha-chain avidity are suboptimal. Furthermore, thymic Vbeta7(+) Valpha14i NKT cells were preferentially selected in vitro in response to CD1d-dependent presentation of endogenous ligands or exogenously added self ligand isoglobotrihexosylceramide. Collectively, our data demonstrate that the TCR Vbeta domain influences the selection of Valpha14i NKT cells by endogenous ligands, presumably because Vbeta7 confers higher avidity binding.