390 resultados para Problèmes de conduite
Resumo:
Au vu de l'augmentation de la prévalence de l'insuffisance rénale chronique (IRC), une détection précoce a été proposée. Certaines organisations de santé proposent des mesures de détection précoce (par exemple : taux de filtration glomérulaire). L'efficacité du dépistage de l'IRC n'est cependant pas connue puisqu'aucune étude randomisée contrôlée n'a été conduite. Si le test de dépistage de l'IRC est simple et peu onéreux, un dépistage n'est justifié que s'il améliore le pronostic par rapport à l'absence de dépistage avec un rapport risques-bénéfices favorable et un rapport coût-efficacité acceptable. Sur la base d'études observationnelles et de modèles de rapport coût-efficacité, le dépistage de l'IRC doit être proposé chez les patients hypertendus et/ou diabétiques mais pas dans la population générale. [Abstract] Given the increasing prevalence of chronic kidney disease (CKD), early detection has been proposed. Some organizations recommend CKD screening. Yet, the efficacy of CKD screening is unknown given the absence of randomized controlled trial conducted so far. While CKD screening tests (e.g., glomerular filtration rate) are simple and inexpensive, CKD screening can only be justified if it reduces CKD-related mortality and/or CKD-related morbidity compared to no screening. In addition, CKD screening must provide more benefits than risks to the participants and must be cost-effective. Based on observational studies and cost-effectiveness models, CKD screening has to be proposed to high risk population (patients with hypertension and/or diabetes) but not to the general population.
Resumo:
Objectifs: Exposer une nouvelle technique permettant le retrait de ciment extra-vertebral par fuite accidentelle lors du retrait du matériel. Matériels et méthodes: Nous injectons le ciment lorsque sa densité est celle d'une pâte dentifrice pour éviter les passages vasculaires. Lorsque la vertèbre est parfaitement remplie,nous patientons quelques minutes pour éviter la fuite de ciment le long du trajet (environ 4 a 6 cc en moyenne par vertèbre sont injectés). Malgré ces précautions,une fuite de ciment peut survenir lors du retrait du trocart. Cette complication est rare lorsque l'on prend les précautions nécessaires. Cependant, si la pressionintra-vertébrale est importante, le ciment peut être aspiré en dehors de la vertèbre. Résultats: L'aiguille du trocart est retirée pour être remplacée par une pince d'endoscopie 13 gauges. Sous guidage scopique, l'extraction se fait sous contrôle continu ; lapince retirant la fuite de ciment. Conclusion: La connaissance de cette intervention peut être très utile pour les équipes de radiologie interventionnelle , d'orthopédie et de neurochirurgie réalisant desvertébroplasties, pouvant être confrontées à ce type de problèmes.
Resumo:
Introduction: Les personnes âgées de 65 ans ou plus représentent 15% de la population générale dans les pays occidentaux. Le vieillissement de cette population va accroître encore cette proportion pour atteindre 20% dès 2030. Les urgences gériatriques représentent environ 15% des admissions dans les services d'accueil et de traitement des urgences (SAU), mais peu de données pré-hospitalières existent. Méthode: Etude rétrospective entre 2003 et 2007 des interventions des services d'urgences pré-hospitaliers (ambulances, SMUR) de notre région (env. 670'000 habitants) à partir des rapports de missions effectués pour chaque intervention par ces entités (n = 42'000). Extraction des données démographiques (âge, sexe), des lieux de prise en charge, des degrés de gravité (score NACA) et des catégories diagnostiques de la population âgée de 65 ans ou plus. Résultats: Les urgences gériatriques représentent entre 40 et 50% des interventions pré-hospitalières totales (ambulances, SMUR). Ces chiffres sont encore entre 4 et 8% pour les sujets très âgés de 90 ans et plus. Le sexe ratio H : F est de 0,72 pour les interventions des ambulances, alors qu'il est de 1,03 pour celles des SMUR. Le lieu de prise en charge est le domicile dans près de 70% des cas. Près des ¾ des interventions sont bénignes (degrés de gravité NACA 0-3), avec plus de 92% des interventions relevant de problèmes de type maladies (et non d'accidents). Pour les cas pris en charge par les SMUR, près de 70% sont de nature cardio-vasculaires. Discussion: La charge que représente les urgences gériatriques pour le secteur pré-hospitalier n'est pas négligeable et nécessite dès aujourd'hui une réflexion afin de dimensionner ce secteur aux exigences de ce type d'urgences pour le futur proche. Non seulement les moyens (personnel, véhicules, matériel) devront être proportionnés, mais aussi les particularités de la prise en charge, la formation spécifique et les aspects éthiques. Ce dernier aspect qui n'est pas des moindres et les limites de la prise en charge devront également être abordés. Conclusion: Les urgences gériatriques représentent près de la moitié des interventions des services pré-hospitaliers (ambulances, SMUR). Le vieillissement à venir de la population risque de mettre encore plus ces services sous «haute tension» et doit faire réfléchir ses acteurs et ses décideurs à s'adapter à cette évolution incontournable.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
Summary : International comparisons in the area of victimization, particularly in the field of violence against women, are fraught with methodological problems that previous research has not systematically addressed, and whose answer does not seem to be agreed up~n. For obvious logistic and financial reasons, international studies on violence against women (i.e. studies that administer the same instrument in different countries). are seldom; therefore, researchers are bound to resort to secondary comparisons. Many studies simply juxtapose their results to the ones of previous wòrk or to findings obtained in different contexts, in order to offer an allegedly comparative perspective to their conclusions. If, most of the time, researchers indicate the methodological limitations of a direct comparison, it is not rare that these do not result in concrete methodological controls. Yet, many studies have shown the influence of surveys methodological parameters on findings, listing recommendations fora «best practice» of research. Although, over the past decades, violence against women surveys have become more and more similar -tending towards a sort of uniformization that could be interpreted as a passive consensus -these instruments retain more or less subtle differences that are still susceptible to influence the validity of a comparison. Yet, only a small number of studies have directly worked on the comparability of violence against women data, striving to control the methodological parameters of the surveys in order to guarantee the validity of their comparisons. The goal of this work is to compare data from two national surveys on violence against women: the Swiss component of the International Violence Against Women Survey [CH-IVAWS] and the National Violence Against Women Survey [NVAWS] administered in the United States. The choice of these studies certainly ensues from the author's affiliations; however, it is far from being trivial. Indeed, the criminological field currently endows American and Anglo-Saxon literature with a predominant space, compelling researchers from other countries to almost do the splits to interpret their results in the light of previous work or to develop effective interventions in their own context. Turning to hypotheses or concepts developed in a specific framework inevitably raises the issue of their applicability to another context, i.e. the Swiss context, if not at least European. This problematic then takes on an interest that goes beyond the particular topic of violence against women, adding to its relevance. This work articulates around three axes. First, it shows the way survey characteristics influence estimates. The comparability of the nature of the CH-IVAWS and NVAWS, their sampling design and the characteristics of their administration are discussed. The definitions used, the operationalization of variables based on comparable items, the control of reference periods, as well as the nature of the victim-offender relationship are included among controlled factors. This study establishes content validity within and across studies, presenting a systematic process destined to maximize the comparability of secondary data. Implications of the process are illustrated with the successive presentation of comparable and non-comparable operationalizations of computed variables. Measuring violence against. women in Switzerland and the United-States, this work compares the prevalence of different forms (threats, physical violence and sexual violence) and types of violence (partner and nonpartner violence). Second, it endeavors to analyze concepts of multivictimization (i.e. experiencing different forms of victimization), repeat victimization (i.e. experiencing the same form of violence more than once), and revictimization (i.e. the link between childhood and adulthood victimization) in a comparative -and comparable -approach. Third, aiming at understanding why partner violence appears higher in the United States, while victims of nonpartners are more frequent in Switzerland, as well as in other European countries, different victimization correlates are examined. This research contributes to a better understanding of the relevance of controlling methodological parameters in comparisons across studies, as it illustrates, systematically, the imposed controls and their implications on quantitative data. Moreover, it details how ignoring these parameters might lead to erroneous conclusions, statistically as well as theoretically. The conclusion of the study puts into a wider perspective the discussion of differences and similarities of violence against women in Switzerland and the United States, and integrates recommendations as to the relevance and validity of international comparisons, whatever the'field they are conducted in. Résumé: Les comparaisons internationales dans le domaine de la victimisation, et plus particulièrement en ce qui concerne les violences envers les femmes, se caractérisent par des problèmes méthodologiques que les recherches antérieures n'ont pas systématiquement adressés, et dont la réponse ne semble pas connaître de consensus. Pour des raisons logistiques et financières évidentes, les études internationales sur les violences envers les femmes (c.-à-d. les études utilisant un même instrument dans différents pays) sont rares, aussi les chercheurs sont-ils contraints de se tourner vers des comparaisons secondaires. Beaucoup de recherches juxtaposent alors simplement leurs résultats à ceux de travaux antérieurs ou à des résultats obtenus dans d'autres contextes, afin d'offrir à leurs conclusions une perspective prétendument comparative. Si, le plus souvent, les auteurs indiquent les limites méthodologiques d'une comparaison directe, il est fréquent que ces dernières ne se traduisent pas par des contrôles méthodologiques concrets. Et pourtant, quantité de travaux ont mis en évidence l'influence des paramètres méthodologiques des enquêtes sur les résultats obtenus, érigeant des listes de recommandations pour une «meilleure pratique» de la recherche. Bien que, ces dernières décennies, les sondages sur les violences envers les femmes soient devenus de plus en plus similaires -tendant, vers une certaine uniformisation que l'on peut interpréter comme un consensus passif-, il n'en demeure pas moins que ces instruments possèdent des différences plus ou moins subtiles, mais toujours susceptibles d'influencer la validité d'une comparaison. Pourtant, seules quelques recherches ont directement travaillé sur la comparabilité des données sur les violences envers les femmes, ayant à coeur de contrôler les paramètres méthodologiques des études utilisées afin de garantir la validité de leurs comparaisons. L'objectif de ce travail est la comparaison des données de deux sondages nationaux sur les violences envers les femmes: le composant suisse de l'International Violence Against Women Survey [CHIVAWSj et le National Violence Against Women Survey [NVAWS) administré aux États-Unis. Le choix de ces deux études découle certes des affiliations de l'auteure, cependant il est loin d'être anodin. Le champ criminologique actuel confère, en effet, une place prépondérante à la littérature américaine et anglo-saxonne, contraignant ainsi les chercheurs d'autres pays à un exercice proche du grand écart pour interpréter leurs résultats à la lumière des travaux antérieurs ou développer des interventions efficaces dans leur propre contexte. Le fait de recourir à des hypothèses et des concepts développés dans un cadre spécifique pose inévitablement la question de leur applicabilité à un autre contexte, soit ici le contexte suisse, sinon du moins européen. Cette problématique revêt alors un intérêt qui dépasse la thématique spécifique des violences envers les femmes, ce qui ajoute à sa pertinence. Ce travail s'articule autour de trois axes. Premièrement, il met en évidence la manière dont les caractéristiques d'un sondage influencent les estimations qui en découlent. La comparabilité de la nature du CH-IVAWS et du NVAWS, de leur processus d'échantillonnage et des caractéristiques de leur administration est discutée. Les définitions utilisées, l'opérationnalisation des variables sur la base d'items comparables, le contrôle des périodes de référence, ainsi que la nature de la relation victime-auteur figurent également parmi les facteurs contrôlés. Ce travail établit ainsi la validité de contenu intra- et inter-études, offrant un processus systématique destiné à maximiser la comparabilité des données secondaires. Les implications de cette démarche sont illustrées avec la présentation successive d'opérationnalisations comparables et non-comparables des variables construites. Mesurant les violences envers les femmes en Suisse et aux États-Unis, ce travail compare la prévalence de plusieurs formes (menaces, violences physiques et violences sexuelles) et types de violence (violences partenaires et non-partenaires). 11 s'attache également à analyser les concepts de multivictimisation (c.-à-d. le fait de subir plusieurs formes de victimisation), victimisation répétée (c.-à.-d. le fait de subir plusieurs incidents de même forme) et revictimisation (c.-à-d. le lien entre la victimisation dans l'enfance et à l'âge adulte) dans une approche comparative - et comparable. Dans un troisième temps, cherchant à comprendre pourquoi la violence des partenaires apparaît plus fréquente aux États-Unis, tandis que les victimes de non-partenaires sont plus nombreuses en Suisse, et dans d'autres pays européens, différents facteurs associés à la victimisation sont évalués. Cette recherche participe d'une meilleure compréhension de la pertinence du contrôle des paramètres méthodologiques dans les comparaisons entre études puisqu'elle illustre, pas à pas, les contrôles imposés et leurs effets sur les données quantitatives, et surtout comment l'ignorance de ces paramètres peut conduire à des conclusions erronées, tant statistiquement que théoriquement. La conclusion replace, dans un contexte plus large, la discussion des différences et des similitudes observées quant à la prévalence des violences envers les femmes en Suisse et aux États-Unis, et intègre des recommandations quant à la pertinence et à la validité des comparaisons internationales, cela quel que soit le domaine considéré.
Resumo:
« Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Au travers de différents exemples américains et européens, ce premier article met en évidence le manque de consensus actuel dans les réponses données à cette question par les experts du domaine. Cette disparité dans le traitement des cas de datation de traces digitales est sans doute due au fait qu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. En effet, cet article recense les études menées sur la datation des traces digitales sous forme d'une revue critique et met ainsi en évidence le fait que la plupart de ces méthodes souffrent de problèmes limitant leur application pratique. Toutefois, cette revue permet également d'identifier une approche ayant le potentiel d'apporter des réponses pratiques aux questions de datation, à savoir l'approche se basant sur l'étude du vieillissement de composés cibles intrinsèques aux traces digitales. Cette approche prometteuse ouvre des pistes afin de proposer une méthodologique formelle de datation des traces digitales. Une telle proposition permettrait d'apporter une information pertinente à la justice et fera l'objet de la seconde partie de cet article.
Resumo:
Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.
Resumo:
Les enquêtes menées auprès des officines vaudoises en 1994 et 2003 avaient montré que les pharmacies étaient des partenaires importants dans le réseau de prise en charge des usagers de drogue par injection (UDI), en particulier en ce qui concerne la dispensation et le suivi des cures de méthadone. Elles avaient aussi mis en évidence les besoins de formation/information des pharmaciens et de leur personnel. La troisième vague de l'enquête pharmacie 2011 avait pour objectif : o de mesurer l'évolution de la remise de seringues par les pharmacies aux UDI o de repérer les lacunes éventuelles dans l'accès au matériel stérile du point de vue géographique o d'apprécier le rôle des pharmacies dans la remise de traitements de méthadone o d'identifier d'éventuels problèmes rencontrés dans ces deux activités (vente de seringues et dispensation de méthadone) o d'identifier les besoins en formation des pharmaciens et du personnel des pharmacies o d'identifier les actions qui favoriseraient une meilleure intégration des pharmacies dans le dispositif de prise en charge des personnes toxicodépendantes o de recueillir l'avis des pharmaciens sur la pose d'automates de distribution de seringues et sur la nécessité d'une extension de la remise de matériel stérile. Méthode L'enquête pharmacie 2011 comprend deux volets. Un premier volet quantitatif, sous la forme d'un questionnaire adressé à toutes les pharmacies du canton (n=248). Le taux de participation de 92% (n=227) est remarquable. Les analyses portent sur 220 questionnaires valides. Un second volet, qualitatif, permet de compléter les données statistiques. Parmi les pharmaciens disposés à s'exprimer dans le cadre d'un entretien (n=90), nous en avons échantillonné [...] [Auteurs, p. 5]
Resumo:
RÉSUMÉ L'Organisation Mondiale de la Santé (OMS) recommande d'administrer l'oxygène par concentrateurs dans les pays en voie de développement (PVD), les cylindres posant des problèmes logistiques et financiers trop importants. Cette technologie a été proposée aux enfants d'un hôpital sénégalais (Ndioum) qui présentaient les critères d'oxygénation de l'OMS. Les bénéfices cliniques et financiers ont été majeurs. En revanche, les connaissances des soignants sur les diverses techniques d'administration d'oxygène ainsi que les prestations du service de maintenance étaient insuffisantes. L'implantation de concentrateurs doit être encouragée dans les PVD, mais doit respecter une stratégie englobant enseignement, maintenance et suivi de l'opération. Diverses actions correctrices ont été entreprises à Ndioum où plusieurs concentrateurs fonctionnent désormais régulièrement. Summary: The World Health Organisation (WHO) recommends supplying oxygen in developing countries by concentra¬tors because cylinders pose considerable logistic and financial problems. This technology was employed to treat children in a hospital in Ndioum, Senegal, who met the WHO oxygenation criteria. There were clear clinical and financial benefits, but neither the nurses' knowledge of the various techniques of oxygen supply nor the maintenance service were satisfactory. The use of concentra¬tors should be encouraged in developing countries. A strategy including technical training, maintenance and monitoring should be adopted. Corrective actions were undertaken in Ndioum, and several concentrators are now being used on a regular basis.
Resumo:
RÉSUMÉ Cette thèse porte sur le développement de méthodes algorithmiques pour découvrir automatiquement la structure morphologique des mots d'un corpus. On considère en particulier le cas des langues s'approchant du type introflexionnel, comme l'arabe ou l'hébreu. La tradition linguistique décrit la morphologie de ces langues en termes d'unités discontinues : les racines consonantiques et les schèmes vocaliques. Ce genre de structure constitue un défi pour les systèmes actuels d'apprentissage automatique, qui opèrent généralement avec des unités continues. La stratégie adoptée ici consiste à traiter le problème comme une séquence de deux sous-problèmes. Le premier est d'ordre phonologique : il s'agit de diviser les symboles (phonèmes, lettres) du corpus en deux groupes correspondant autant que possible aux consonnes et voyelles phonétiques. Le second est de nature morphologique et repose sur les résultats du premier : il s'agit d'établir l'inventaire des racines et schèmes du corpus et de déterminer leurs règles de combinaison. On examine la portée et les limites d'une approche basée sur deux hypothèses : (i) la distinction entre consonnes et voyelles peut être inférée sur la base de leur tendance à alterner dans la chaîne parlée; (ii) les racines et les schèmes peuvent être identifiés respectivement aux séquences de consonnes et voyelles découvertes précédemment. L'algorithme proposé utilise une méthode purement distributionnelle pour partitionner les symboles du corpus. Puis il applique des principes analogiques pour identifier un ensemble de candidats sérieux au titre de racine ou de schème, et pour élargir progressivement cet ensemble. Cette extension est soumise à une procédure d'évaluation basée sur le principe de la longueur de description minimale, dans- l'esprit de LINGUISTICA (Goldsmith, 2001). L'algorithme est implémenté sous la forme d'un programme informatique nommé ARABICA, et évalué sur un corpus de noms arabes, du point de vue de sa capacité à décrire le système du pluriel. Cette étude montre que des structures linguistiques complexes peuvent être découvertes en ne faisant qu'un minimum d'hypothèses a priori sur les phénomènes considérés. Elle illustre la synergie possible entre des mécanismes d'apprentissage portant sur des niveaux de description linguistique distincts, et cherche à déterminer quand et pourquoi cette coopération échoue. Elle conclut que la tension entre l'universalité de la distinction consonnes-voyelles et la spécificité de la structuration racine-schème est cruciale pour expliquer les forces et les faiblesses d'une telle approche. ABSTRACT This dissertation is concerned with the development of algorithmic methods for the unsupervised learning of natural language morphology, using a symbolically transcribed wordlist. It focuses on the case of languages approaching the introflectional type, such as Arabic or Hebrew. The morphology of such languages is traditionally described in terms of discontinuous units: consonantal roots and vocalic patterns. Inferring this kind of structure is a challenging task for current unsupervised learning systems, which generally operate with continuous units. In this study, the problem of learning root-and-pattern morphology is divided into a phonological and a morphological subproblem. The phonological component of the analysis seeks to partition the symbols of a corpus (phonemes, letters) into two subsets that correspond well with the phonetic definition of consonants and vowels; building around this result, the morphological component attempts to establish the list of roots and patterns in the corpus, and to infer the rules that govern their combinations. We assess the extent to which this can be done on the basis of two hypotheses: (i) the distinction between consonants and vowels can be learned by observing their tendency to alternate in speech; (ii) roots and patterns can be identified as sequences of the previously discovered consonants and vowels respectively. The proposed algorithm uses a purely distributional method for partitioning symbols. Then it applies analogical principles to identify a preliminary set of reliable roots and patterns, and gradually enlarge it. This extension process is guided by an evaluation procedure based on the minimum description length principle, in line with the approach to morphological learning embodied in LINGUISTICA (Goldsmith, 2001). The algorithm is implemented as a computer program named ARABICA; it is evaluated with regard to its ability to account for the system of plural formation in a corpus of Arabic nouns. This thesis shows that complex linguistic structures can be discovered without recourse to a rich set of a priori hypotheses about the phenomena under consideration. It illustrates the possible synergy between learning mechanisms operating at distinct levels of linguistic description, and attempts to determine where and why such a cooperation fails. It concludes that the tension between the universality of the consonant-vowel distinction and the specificity of root-and-pattern structure is crucial for understanding the advantages and weaknesses of this approach.
Resumo:
Constatant que la formation des enseignants aux technologies de l'information et de la communication (TIC) pose des problèmes spécifiques, cet article a pour but d'engager une réflexion sur ce thème. Nos réflexions s'appuient sur une expérience de formation réalisée dans 23 écoles professionnelles suisses engagées dans un programme national de soutien à l'utilisation pédagogique des TIC. L'article décrit la manière dont le dispositif de formation prévu a été mis en pratique, les difficultés auxquelles il a donné lieu et les réponses que les acteurs ont élaborées pour faire face à ces difficultés. Nous montrons qu'une analyse du déroulement effectif d'un dispositif de formation et des transformations qu'il subit constitue un élément essentiel pour orienter les futures actions de formation et penser la place des apprenants dans un dispositif de formation.
Resumo:
Il est maintenant accepté par une large part de la communauté scientifique que le climat est en train de changer sous l'influence des gaz à effet de serre émis par les activités humaines. Pour la Suisse, cela correspond à une augmentation des températures et à une diminution probable des précipitations estivales.Etant donné le manque de recul et de données historiques précises, l'influence des changements climatiques sur la biodiversité n'est encore connue que d'études ponctuelles limitées à certaines espèces. Celles-ci nous livrent néanmoins des signaux clairs de changement dans la distribution et la phénologie des espèces, généralement cohérents avec les résultats des modèles prédictifs pour le futur.Globalement, les espèces montrent une tendance à migrer vers les altitudes supérieures. Celles qui occupent aujourd'hui les altitudes les plus élevées vont probablement voir leur domaine se rétrécir. De grands risques d'extinction planent donc sur les espèces alpines, pour lesquelles la Suisse a une responsabilité toute particulière. Parallèlement, la diminution des précipitations estivales va augmenter les problèmes de sécheresses, ce qui pourrait conduire, par exemple, à une réduction des forêts en Valais central et à un assèchement prématuré des lieux de ponte des amphibiens. Inversement, certaines espèces thermophiles de basses altitudes pourraient profiter des nouvelles conditions en accroissant leur domaine de répartition, comme déjà observé chez certains insectes.En plus des changements climatiques, d'autres facteurs menacent indirectement les espèces. La forte fragmentation du territoire limitera la capacité des espèces à coloniser de nouveaux territoires par manque de connexions entre les milieux favorables. Un climat plus chaud permettra une intensification de l'agriculture en montagne, accompagnée des effets néfastes déjà bien connus en plaine, ou pourrait favoriser certaines maladies. De plus, les printemps plus précoces décaleront le développement de certaines espèces, ce qui pourrait fortement modifier les interactions entre espèces et les chaînes trophiques.Les conséquences des changements climatiques sur la biodiversité dépendront aussi des décisions prises au niveau national et international et des mesures prises pour la protection du climat. Afin de limiter les pertes, il est important de mettre en place des corridors favorisant la colonisation de nouvelles aires par les espèces et d'utiliser les synergies possibles entre protection de la biodiversité et lutte contre les changements climatiques. De plus, le monitoring des espèces les plus sensibles aidera à développer, avant qu'il ne soit trop tard, les mesures complémentaires nécessaires à leur conservation.
Resumo:
La durée de psychose non traitée (Duration of Untreated Psychosis, DUP) est définie par le temps écoulé entre l'émergence d'un trouble psychotique et le début de son traitement. La réduction de la DUP est un des objectifs principaux des programmes spécialisés dans le traitement de la psychose émergente, de nombreux travaux de recherche suggérant qu'une DUP longue est associée à une évolution défavorable de la maladie. Ces résultats restent cependant controversés, certaines études ne démontrant pas une telle association. Cette contradiction dans les résultats pourrait être la conséquence d'un manque d'uniformité dans les définitions appliquées pour mesurer la DUP, plus particulièrement en ce qui concerne la définition de ce que l'on considère être « début » du traitement. En effet, si l'étude de la phase d'émergence de la pathologie psychotique a été le focus d'une attention considérable qui a conduit à un certain degré de consensus quant à sa définition, le concept de début du traitement n'est clairement pas défini de manière aussi homogène. Compte tenu de l'importance des enjeux relatifs à l'intervention précoce dans les troubles psychotiques, il nous a semblé utile d'explorer cette question de manière plus approfondie, considérant qu'un manque de consensus dans la définition de la DUP contribue certainement à troubler les résultats des études qui visent à évaluer son impact sur l'évolution de ces maladies. En conséquence, l'objectif premier de ce travail est d'explorer l'impact de l'application de diverses définitions de début de traitement sur l'estimation de la DUP. Dans un premier article, publié dans Acta Neuropsychiatrica en 2009 (Duration of untreated psychosis : What are we talking about ?), le focus a été placé sur une revue de littérature concernant les définitions utilisées pour caractériser la fin de la DUP ainsi que sur les conséquences possibles d'un manque de précision dans cette définition sur l'évaluation de l'impact d'un retard de traitement dans la psychose débutante. Ce travail nous a permis d'identifier trois groupes principaux de définition de fin de DUP (End of DUP ; E-DUP) parmi les multiples critères utilisés dans les études publiées. E-DUP-1 est définie par la mise en route d'un traitement antipsychotique, le plus souvent sans tenir compte ni du dosage prescrit, ni de l'adhérence au traitement. E-DUP-2 est définie par l'entrée dans un programme de traitement spécialisé, et E-DUP-3 enfin est définie par la conjonction de la prescription d'un traitement antipsychotique adapté, de l'adhérence à ce traitement, et de la mise en route d'une prise en charge dans un programme spécialisé. En conclusion, nous relevions que cette grande variété dans les définitions appliquées pour l'évaluation de la DUP avait probablement contribué à l'aspect contradictoire des résultats des études de son impact sur l'évolution des psychoses et qu'il était donc temps de proposer une définition de consensus. La deuxième étude a été conduite dans le cadre d'un suivi de cohorte mis en place dans le programme de Traitement et Intervention Précoce dans les troubles Psychotiques (TIPP) établi dans le Département de Psychiatrie du CHUV à Lausanne depuis 2004. Les objectifs de cette seconde étude étaient au nombre de trois: (1) Exploration des variations de la DUP en fonction de l'application de trois principales définitions de fin de DUP (E-DUP) identifiées dans la littérature ; (2) Evaluation de la proportion de patients remplissant au moins une fois au cours des 18 mois de traitement la définition de E-DUP la plus compatible avec les directives de traitement proposées par l'International Early Psychosis Association (patient est à la fois engagé dans le traitement et se montre compliant à la médication, E-DUP-3); (3) Enfin, identification desfacteurs qui caractérisent les patients qui ne remplissent jamais les critères de cette dernière définition. L'exploration de différentes durées de DUP en utilisant les trois définitions d'E-DUP a donné les résultats suivants : La DUP1 médiane (2.2 mois) était significativement plus courte que la DUP2 (7.4 mois), et la DUP3 (13.6 mois) était significativement la plus longue des trois. De plus, 19.7% des patients n'avaient jamais rempli les critères de E-DUP-3 ; on peut donc considérer que près de 20% des patients traités dans ce programme spécialisé ne recevaient pas un traitement adéquat selon les directives intrernationales actuellement reconnues. Sur la base de ces chiffres, il apparaît clairement que, dans les études de l'impact de la DUP sur l'évolution de la psychose débutante, bon nombre des patients pour lesquels on considère que la DUP est terminée ne sont en fait pas adéquatement traités. Il est en conséquence très probable que ceci ait faussé les résultats de ces études, et qu'une définition plus restrictive permettrait de répondre de manière plus précise à cette question. Les patients qui ne remplissaient pas les critères E-DUP3 au cours des 18 premiers mois de traitement étaient caractérisés par un moins bon niveau de fonctionnement au cours de leur vie (« lower lifetime SOFAS » ; p=0.017) et ils étaient plus susceptibles de consommer du cannabis à l'entrée du programme ???? (?2 (1, n=49)=4.241, p=0.039). Pour ceux qui avaient rempli les critères E-DUP-3 au cours des 18 mois, une longue DUP3 était associée avec un jeune âge au début des symptômes psychotiques (rs =-0.573, p<0.001), et avec un faible niveau de fonctionnement pré-morbide (score de PAS élevés (rs =0.373, p=0.001), niveau maximal au cours de la vie bas pour le GAF(rs =-0.367, p<0.001) et pour le SOFAS (rs =-0.314, p=0.003)). En conclusion, ce travail a permis de mettre en évidence une grande variabilité dans la définition de la fin de la DUP parmi les études publiées jusque à ce jour, et l'impact important que le choix d'une ou l'autre de ces définitions peut avoir sur l'estimation de la DUP. De plus, nous avons observé que malgré la mise en place d'un programme spécialisé, près de 20% des patients ne remplissent pas les critères d'exposition à un traitement adéquat au cours des 18 premiers mois de prise en charge. Il est donc probable que l'estimation de l'impact de la DUP ait été faussé par cette variabilité, et il semble important que la communauté scientifique s'accorde sur une définition plus rigoureuse de cette variable. Enfin, certaines caractéristiques permettent d'identifier les patients qui sont à risque de ne pas remplir les critères de traitement adéquat a cours des 18 premiers mois de prise en charge ; il est possible qu'une identification précoce de ceux-ci permette la mise en place de stratégies mieux adaptées pour les aider à s'engager dans les soins. Le futur développement de ce travail sera d'évaluer l'impact de la DUP sur l'évolution des patients au cours des 36 mois de traitement proposés dans le programme TIPP, en appliquant les divers critères E-DUP, afin de voir si notre hypothèse que la variation des définitions a effectivement faussé les résultats de telles études. Nous devons pour cela attendre qu'un nombre suffisant de patients ait complété les 36 mois de traitement, de manière à avoir une puissance statistique suffisante pour répondre clairement à cette question.
Resumo:
Ce texte vise à mettre en évidence les problèmes d'insertion que connaissent les personnes en situation de pauvreté. Les programmes qui oeuvrent à leur intégration s'avèrent complexes à mettre sur pied. Leurs résultats sont d'ailleurs délicats à mesurer. Lorsqu'il est question d'insertion de personnes en marge, leur motivation à se sortir de leur situation est souvent mise en évidence. Pourtant, pour qu'une intégration puisse aboutir, il est nécessaire qu'il y ait convergence d'intérêts entre, d'une part, les personnes ou les groupes à intégrer et, de l'autre, le groupe intégrant, à savoir la grande majorité de la population ou encore les employeurs potentiels. Dans une première partie, ces pages décrivent les problèmes conceptuels qui se posent lorsque l'on décrit le statut des pauvres dans les sociétés développées. Au travers du statut de pauvreté, conféré au personnes concernées, il est surtout question d'une régulation sociales. Dans une seconde partie, ce texte présente les résultats de l'observation d'une vingtaine de trajectoires de bénéficiaires de mesures d'insertion sociale dites "bas seuil" dans le canton de Vaud. Ces personnes se caractérisent par une situation de mise en marge des réseaux économiques et sociaux.