999 resultados para Point de vue
Resumo:
Des gaz anesthésiques sont souvent administrés dans le cadre de l'anesthésie générale. Cet article décrit les résultats d'une campagne de mesures de l'exposition du personnel à ces gaz. Les résultats des mesures effectuées démontrent une situation acceptable du point de vue des normes suisses. Certaines activités sont néanmoins responsables d'une exposition plus importante selon le type d'anesthésie
Resumo:
La littérature sur les transitions, en particulier entre l'école obligatoire et l'école professionnelle ou l'école et la vie professionnelle, attire l'attention sur le fait que les parcours personnels sont aujourd'hui moins linéaires. Les transitions professionnelles sont alors décrites comme des moments de difficultés, de ruptures, de vulnérabilité pour les jeunes (Pagnossin & Armi, 2011 ; Rastoldo, Amos & Davaud, 2009). Dans notre domaine en psychologie « socioculturelle », si ces aspects ne sont pas négligés, l'accent est mis sur l'importance du travail de construction de sens par la personne : indépendamment des zigzags de sa vie, l'important est la mise en cohérence, les liens de sens qu'elle peut reconstruire entre les différentes sphères d'expériences qui constituent son identité. Et pour cela, les ressources sociales et institutionnelles (parents, enseignants, groupes de pairs, dispositifs de formation...) mais aussi matérielles et culturelles (chansons, poèmes, films, romans, récits, etc.) peuvent être très importantes (Masdonati & Zittoun, 2012 ; Zittoun, 2012). L'étude-intervention qui sera présentée dans ce document, réalisée auprès d'une classe d'apprentis de l'Ecole technique de Ste-Croix par un groupe d'étudiants en Master en psychologie (UniL), s'inscrit dans un mouvement plus large qui cherche à rendre compte du point de vue des acteurs (Muller Mirza & Perret-Clermont, 2015) liés à la question des transitions des jeunes : il s'agira ici de celui des apprentis eux-mêmes, de manière à explorer ce qu'ils vivent en termes de difficultés, de ressources utilisées et d'apprentissages réalisés, ainsi que celui des personnes qui les accompagnent dans ces processus, les enseignants. Cette étude visait non seulement à recueillir des informations auprès de ces personnes mais également à réaliser un travail de type réflexif, par la mise en place d'activités en classe destinées aux apprentis, basées sur le « récit de vie » comme outil psychologique.
Resumo:
This article is part of a research focusing on the process of transition to adulthood of young people with intellectual disabilities. Specifically, this study analyses transition partnership programs, as the professionals involved in them see them. The information is obtained in two stages: in the first stage 45 interviews to professionals working in this field are conducted. In the second stage we develop a study applying the Delphi method in which two panels of experts, the first one with educational professionals and the second one with professionals working with afters chool services, were asked about several topics. The results show a lack of continuity underlying the actions taken in support of young people with ID during the transition process. Insufficient information and collaboration among services and professionals and a lack of leadership are the main problems perceived by professionals. The study helps to identify problems in the transition partnership programs and establishes actions in order to enhance the transition process
Resumo:
La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.
Resumo:
Wastewater-based epidemiology consists in acquiring relevant information about the lifestyle and health status of the population through the analysis of wastewater samples collected at the influent of a wastewater treatment plant. Whilst being a very young discipline, it has experienced an astonishing development since its firs application in 2005. The possibility to gather community-wide information about drug use has been among the major field of application. The wide resonance of the first results sparked the interest of scientists from various disciplines. Since then, research has broadened in innumerable directions. Although being praised as a revolutionary approach, there was a need to critically assess its added value, with regard to the existing indicators used to monitor illicit drug use. The main, and explicit, objective of this research was to evaluate the added value of wastewater-based epidemiology with regards to two particular, although interconnected, dimensions of illicit drug use. The first is related to trying to understand the added value of the discipline from an epidemiological, or societal, perspective. In other terms, to evaluate if and how it completes our current vision about the extent of illicit drug use at the population level, and if it can guide the planning of future prevention measures and drug policies. The second dimension is the criminal one, with a particular focus on the networks which develop around the large demand in illicit drugs. The goal here was to assess if wastewater-based epidemiology, combined to indicators stemming from the epidemiological dimension, could provide additional clues about the structure of drug distribution networks and the size of their market. This research had also an implicit objective, which focused on initiating the path of wastewater- based epidemiology at the Ecole des Sciences Criminelles of the University of Lausanne. This consisted in gathering the necessary knowledge about the collection, preparation, and analysis of wastewater samples and, most importantly, to understand how to interpret the acquired data and produce useful information. In the first phase of this research, it was possible to determine that ammonium loads, measured directly in the wastewater stream, could be used to monitor the dynamics of the population served by the wastewater treatment plant. Furthermore, it was shown that on the long term, the population did not have a substantial impact on consumption patterns measured through wastewater analysis. Focussing on methadone, for which precise prescription data was available, it was possible to show that reliable consumption estimates could be obtained via wastewater analysis. This allowed to validate the selected sampling strategy, which was then used to monitor the consumption of heroin, through the measurement of morphine. The latter, in combination to prescription and sales data, provided estimates of heroin consumption in line with other indicators. These results, combined to epidemiological data, highlighted the good correspondence between measurements and expectations and, furthermore, suggested that the dark figure of heroin users evading harm-reduction programs, which would thus not be measured by conventional indicators, is likely limited. In the third part, which consisted in a collaborative study aiming at extensively investigating geographical differences in drug use, wastewater analysis was shown to be a useful complement to existing indicators. In particular for stigmatised drugs, such as cocaine and heroin, it allowed to decipher the complex picture derived from surveys and crime statistics. Globally, it provided relevant information to better understand the drug market, both from an epidemiological and repressive perspective. The fourth part focused on cannabis and on the potential of combining wastewater and survey data to overcome some of their respective limitations. Using a hierarchical inference model, it was possible to refine current estimates of cannabis prevalence in the metropolitan area of Lausanne. Wastewater results suggested that the actual prevalence is substantially higher compared to existing figures, thus supporting the common belief that surveys tend to underestimate cannabis use. Whilst being affected by several biases, the information collected through surveys allowed to overcome some of the limitations linked to the analysis of cannabis markers in wastewater (i.e., stability and limited excretion data). These findings highlighted the importance and utility of combining wastewater-based epidemiology to existing indicators about drug use. Similarly, the fifth part of the research was centred on assessing the potential uses of wastewater-based epidemiology from a law enforcement perspective. Through three concrete examples, it was shown that results from wastewater analysis can be used to produce highly relevant intelligence, allowing drug enforcement to assess the structure and operations of drug distribution networks and, ultimately, guide their decisions at the tactical and/or operational level. Finally, the potential to implement wastewater-based epidemiology to monitor the use of harmful, prohibited and counterfeit pharmaceuticals was illustrated through the analysis of sibutramine, and its urinary metabolite, in wastewater samples. The results of this research have highlighted that wastewater-based epidemiology is a useful and powerful approach with numerous scopes. Faced with the complexity of measuring a hidden phenomenon like illicit drug use, it is a major addition to the panoply of existing indicators. -- L'épidémiologie basée sur l'analyse des eaux usées (ou, selon sa définition anglaise, « wastewater-based epidemiology ») consiste en l'acquisition d'informations portant sur le mode de vie et l'état de santé d'une population via l'analyse d'échantillons d'eaux usées récoltés à l'entrée des stations d'épuration. Bien qu'il s'agisse d'une discipline récente, elle a vécu des développements importants depuis sa première mise en oeuvre en 2005, notamment dans le domaine de l'analyse des résidus de stupéfiants. Suite aux retombées médiatiques des premiers résultats de ces analyses de métabolites dans les eaux usées, de nombreux scientifiques provenant de différentes disciplines ont rejoint les rangs de cette nouvelle discipline en développant plusieurs axes de recherche distincts. Bien que reconnu pour son coté objectif et révolutionnaire, il était nécessaire d'évaluer sa valeur ajoutée en regard des indicateurs couramment utilisés pour mesurer la consommation de stupéfiants. En se focalisant sur deux dimensions spécifiques de la consommation de stupéfiants, l'objectif principal de cette recherche était focalisé sur l'évaluation de la valeur ajoutée de l'épidémiologie basée sur l'analyse des eaux usées. La première dimension abordée était celle épidémiologique ou sociétale. En d'autres termes, il s'agissait de comprendre si et comment l'analyse des eaux usées permettait de compléter la vision actuelle sur la problématique, ainsi que déterminer son utilité dans la planification des mesures préventives et des politiques en matière de stupéfiants actuelles et futures. La seconde dimension abordée était celle criminelle, en particulier, l'étude des réseaux qui se développent autour du trafic de produits stupéfiants. L'objectif était de déterminer si cette nouvelle approche combinée aux indicateurs conventionnels, fournissait de nouveaux indices quant à la structure et l'organisation des réseaux de distribution ainsi que sur les dimensions du marché. Cette recherche avait aussi un objectif implicite, développer et d'évaluer la mise en place de l'épidémiologie basée sur l'analyse des eaux usées. En particulier, il s'agissait d'acquérir les connaissances nécessaires quant à la manière de collecter, traiter et analyser des échantillons d'eaux usées, mais surtout, de comprendre comment interpréter les données afin d'en extraire les informations les plus pertinentes. Dans la première phase de cette recherche, il y pu être mis en évidence que les charges en ammonium, mesurées directement dans les eaux usées permettait de suivre la dynamique des mouvements de la population contributrice aux eaux usées de la station d'épuration de la zone étudiée. De plus, il a pu être démontré que, sur le long terme, les mouvements de la population n'avaient pas d'influence substantielle sur le pattern de consommation mesuré dans les eaux usées. En se focalisant sur la méthadone, une substance pour laquelle des données précises sur le nombre de prescriptions étaient disponibles, il a pu être démontré que des estimations exactes sur la consommation pouvaient être tirées de l'analyse des eaux usées. Ceci a permis de valider la stratégie d'échantillonnage adoptée, qui, par le bais de la morphine, a ensuite été utilisée pour suivre la consommation d'héroïne. Combinée aux données de vente et de prescription, l'analyse de la morphine a permis d'obtenir des estimations sur la consommation d'héroïne en accord avec des indicateurs conventionnels. Ces résultats, combinés aux données épidémiologiques ont permis de montrer une bonne adéquation entre les projections des deux approches et ainsi démontrer que le chiffre noir des consommateurs qui échappent aux mesures de réduction de risque, et qui ne seraient donc pas mesurés par ces indicateurs, est vraisemblablement limité. La troisième partie du travail a été réalisée dans le cadre d'une étude collaborative qui avait pour but d'investiguer la valeur ajoutée de l'analyse des eaux usées à mettre en évidence des différences géographiques dans la consommation de stupéfiants. En particulier pour des substances stigmatisées, telles la cocaïne et l'héroïne, l'approche a permis d'objectiver et de préciser la vision obtenue avec les indicateurs traditionnels du type sondages ou les statistiques policières. Globalement, l'analyse des eaux usées s'est montrée être un outil très utile pour mieux comprendre le marché des stupéfiants, à la fois sous l'angle épidémiologique et répressif. La quatrième partie du travail était focalisée sur la problématique du cannabis ainsi que sur le potentiel de combiner l'analyse des eaux usées aux données de sondage afin de surmonter, en partie, leurs limitations. En utilisant un modèle d'inférence hiérarchique, il a été possible d'affiner les actuelles estimations sur la prévalence de l'utilisation de cannabis dans la zone métropolitaine de la ville de Lausanne. Les résultats ont démontré que celle-ci est plus haute que ce que l'on s'attendait, confirmant ainsi l'hypothèse que les sondages ont tendance à sous-estimer la consommation de cannabis. Bien que biaisés, les données récoltées par les sondages ont permis de surmonter certaines des limitations liées à l'analyse des marqueurs du cannabis dans les eaux usées (i.e., stabilité et manque de données sur l'excrétion). Ces résultats mettent en évidence l'importance et l'utilité de combiner les résultats de l'analyse des eaux usées aux indicateurs existants. De la même façon, la cinquième partie du travail était centrée sur l'apport de l'analyse des eaux usées du point de vue de la police. Au travers de trois exemples, l'utilisation de l'indicateur pour produire du renseignement concernant la structure et les activités des réseaux de distribution de stupéfiants, ainsi que pour guider les choix stratégiques et opérationnels de la police, a été mise en évidence. Dans la dernière partie, la possibilité d'utiliser cette approche pour suivre la consommation de produits pharmaceutiques dangereux, interdits ou contrefaits, a été démontrée par l'analyse dans les eaux usées de la sibutramine et ses métabolites. Les résultats de cette recherche ont mis en évidence que l'épidémiologie par l'analyse des eaux usées est une approche pertinente et puissante, ayant de nombreux domaines d'application. Face à la complexité de mesurer un phénomène caché comme la consommation de stupéfiants, la valeur ajoutée de cette approche a ainsi pu être démontrée.
Resumo:
Cet article esquisse la situation actuelle des relations entre les sciences sociales et les neurosciences, dans une perspective épistémologique, historique et critique. Il aborde dans un premier temps les conditions d'émergence, le succès et les effets contrastés de la cérébralisation du sujet dans les sciences humaines et sociales, partagées entre neuro-scepticisme et neuro-optimisme. Dans un second temps, les auteurs proposent de déplacer le point de vue de la question classique du déterminisme biologique vers celle de la performativité sociale des sciences du cerveau. Ils analysent notamment la construction expérimentale et parfois problématique des inférences neuro-sociales qui sont au coeur des explications cérébralistes des comportements des sujets sociaux. L'article conclut sur une discussion de l'éventuelle complémentarité entre neurosciences et sciences sociales et humaines.
Resumo:
Le rôle du médecin psychiatre, lorsqu'il intervient comme expert dans le domaine pénal, répond à des impératifs spécifiques, tant du point de vue de la clinique que du positionnement éthique. L'appréciation du degré de responsabilité pénale repose sur le diagnostic rétrospectif et la compréhension du processus de passage à l'acte. L'évaluation du risque de récidive est devenue une question cruciale de l'expertise. Elle peut justifier l'usage d'outils standardisés, pondéré de l'appréciation clinique du médecin. Si la préconisation de mesures thérapeutiques relève du rôle du psychiatre, il est plus discutable que ce soit le cas pour l'internement.
Resumo:
A partir d'une base de données originale sur les professeurs de droit et de sciences économiques des universités suisses sur l'ensemble du XXe siècle, cet article rend compte des diverses dynamiques d'internationalisation de ces élites. Trois enseignements majeurs peuvent être tirés de nos analyses. D'abord, d'un point de vue diachronique, il est possible de diviser le XXe siècle en trois phases historiques : une internationalité forte des élites académiques au début du siècle, une nationalisation ou « relocalisation » suite à la Première Guerre mondiale, puis une « ré-internationalisation » à partir des années 1960 et de manière accélérée depuis les années 1980. Ensuite, les professeurs de sciences économiques, en terme de nationalités ou de lieu de formation, sont plus cosmopolites et ont moins d'ancrage local que leurs homologues juristes. Enfin, la prédominance germanique parmi les professeurs des universités suisses au début du siècle, qui s'explique autant par une internationalité d'« excellence » que de « proximité », laisse place, surtout en sciences économiques, à une montée de l'influence des Etats-Unis, révélatrice d'un effritement de l'internationalité de « proximité ».
Resumo:
Avec cette thèse de doctorat nous proposons une réflexion transversale concernant les relations entre infrastructures de transport et développement territorial dans des espaces dits « intermédiaires ». Le concept d'espace intermédiaire, relativement nouveau en géographie, est conçu en fonction d'une double approche : celle des infrastructures où les espaces intermédiaires constituent des zones de transit obligées entre des pôles urbains hiérarchiquement supérieurs (par rapport une échelle horizontale) et celle des frontières où les espaces intermédiaires constituent des territoires de coopération entre différents niveaux politico-institutionnels (par rapport à une échelle verticale). Cette problématique de recherche est traitée aussi bien du point de vue théorique qu'avec des études de cas portant sur les effets des nouvelles infrastructures de transports dans la région transfrontalière insubrique (entre le Canton du Tessin et la Lombardie). L'objectif visé est de défendre un scénario d'organisation spatiale polycentrique à plusieurs niveaux comme solution pour le développement durable et cohérent de ces espaces intermédiaires. Ainsi, pour le « niveau macro », nous proposons une analyse des changements d'accessibilité spatiale et des potentiels de développement territorial pour les agglomérations concernées par la mise en service du nouveau tunnel ferroviaire de base du Monte Ceneri (TBC) et de la nouvelle ligne Lugano/Como-Mendrisio-Varese-Malpensa (FMV) à l'horizon 2020. Pour le « niveau meso », nous analysons les effets de la nouvelle ligne FMV en termes de potentiel de densification polycentrique autours des gares ferroviaires. Pour le « niveau micro », nous proposons une analyse sur les comportements de mobilité ainsi que des améliorations ciblées du système de transport pour la ville de Mendrisio visant à promouvoir le développement polycentrique de cette commune. De plus, un système d'analyse permettant de mettre en lien les divers facteurs explicatifs dans l'analyse des relations entre les nouvelles infrastructures de transport et les effets sur la mobilité et le développement territorial est également élaboré et testé dans notre recherche. -- With this Ph.D. thesis we investigate the relationship between transport infrastructures and territory development inside the so called "in-between spaces". The idea of "in-between space", relatively novel in geography, is the formal outcome of a double approach: the one of the infrastructures, saying that these spaces can be described as areas of constrained transit between urban centres of superior hierarchical level (on a horizontal scale), and the one of the borders, stating that in-between spaces are areas of cooperation between various political-institutional levels. The above mentioned research issues are deepened both at theoretical and empirical level, being the latter based on field studies of the cross-boundary Western-Lombard area (between the Swiss canton of Ticino and the Italian region of Lombardy). This research pursues the goal of defending the argument that a multi-level polycentric spatial scenario can be a possible solution fora sustainable development of the above described in- between areas. From a "macro" perspective, what we submit here is an analysis on the expected changes in spatial accessibility and on the potential territorial development for the built-up areas influenced by the construction of the new train tunnel of the Monte Ceneri (TBC) and of the new railway line Lugano/Como-Mendrisio-Varese-Malpensa (FMV). At a "meso" level we analyse the effects exerted by the new FMV line taking into account the potential densification of the areas surrounding the railway stations. Finally, at a "micro" level, we analyse the mobility behaviours in the town of Mendrisio and we propose some possible improvements to the local public transport system, with the scope to promote a polycentric development of this municipality. Moreover, we developed and tested an analytic system able to define the existing links between the various explaining factors characterizing the relationship between new transport infrastructures and effects on mobility. -- With this Ph.D. thesis we investigate the relationship between transport infrastructures and territory development inside the so called "in-between spaces". The idea of "in-between space", relatively novel in geography, is the formal outcome of a double approach: the one of the infrastructures, saying that these spaces can be described as areas of constrained transit between urban centres of superior hierarchical level (on a horizontal scale), and the one of the borders, stating that in-between spaces are areas of cooperation between various political-institutional levels. The above mentioned research issues are deepened both at theoretical and empirical level, being the latter based on field studies of the cross-boundary Western-Lombard area (between the Swiss canton of Ticino and the Italian region of Lombardy). This research pursues the goal of defending the argument that a multi-level polycentric spatial scenario can be a possible solution for a sustainable development of the above described in- between areas. From a "macro" perspective, what we submit here is an analysis on the expected changes in spatial accessibility and on the potential territorial development for the built-up areas influenced by the construction of the new train tunnel of the Monte Ceneri (TBC) and of the new railway line Lugano/Como-Mendrisio-Varese-Malpensa (FMV). At a "meso" level we analyse the effects exerted by the new FMV line taking into account the potential densification of the areas surrounding the railway stations. Finally, at a "micro" level, we analyse the mobility behaviours in the town of Mendrisio and we propose some possible improvements to the local public transport system, with the scope to promote a polycentric development of this municipality. Moreover, we developed and tested an analytic system able to define the existing links between the various explaining factors characterizing the relationship between new transport infrastructures and effects on mobility.
Resumo:
La dermatite irritative est décrite comme une réaction réversible, non immunologique caractérisée par des lésions d'aspect très variable, allant de la simple rougeur jusqu'à la formation de bulles voire d'une nécrose, accompagnée de prurit ou d'une sensation de brûlure suite à I' application d'une substance chimique. Le teste de prédiction d'irritation cutanée est traditionnellement depuis les années 1940 le Test de Draize. Ce test consiste en l'application d'une substance chimique sur une peau rasée de lapin pendant 4h et de regarder à 24h si des signes cliniques d'irritations sont présents. Cette méthode critiquable autant d'un point de vue éthique que qualitative reste actuellement le teste le plus utilisé. Depuis le début des années 2000 de nouvelles méthodes in vitro se sont développées tel que le model d'épiderme humain recombiné (RHE). Il s agit d'une multicouche de kératinocyte bien différencié obtenu depuis une culture de don d'ovocyte. Cependant cette méthode en plus d'être très couteuse n'obtient au mieux que 76% de résultat similaire comparé au test in vivo humain. Il existe donc la nécessité de développer une nouvelle méthode in vitro qui simulerait encore mieux la réalité anatomique et physiologique retrouvée in vivo. Notre objectif a été de développer cette nouvelle méthode in vitro. Pour cela nous avons travaillé avec de la peau humaine directement prélevée après une abdominoplastie. Celle ci après préparation avec un dermatome, un couteau dont la lame est réglable pour découper l'épaisseur souhaitée de peau, est montée dans un système de diffusion cellulaire. La couche cornée est alors exposée de manière optimale à 1 ml de la substance chimique testée pendant 4h. L'échantillon de peau est alors fixé dans du formaldéhyde pour permettre la préparation de lames standards d'hématoxyline et éosine. L'irritation est alors investiguée selon des critères histopathologiques de spongioses, de nécroses et de vacuolisations cellulaires. Les résultats de ce.tte première batterie de testes sont plus que prometteurs. En effet, comparé au résultat in vivo, nous obtenons 100% de concordance pour les 4 même substances testes irritantes ou non irritantes, ce qui est supérieur au model d épiderme humain recombiné (76%). De plus le coefficient de variation entre les 3 différentes séries est inférieur à 0.1 ce qui montre une bonne reproductibilité dans un même laboratoire. Dans le futur cette méthode va devoir être testée avec un plus grand nombre de substances chimiques et sa reproductibilité évaluée dans différents laboratoires. Mais cette première evaluation, très encourageante, ouvre des pistes précieuses pour l'avenir des tests irritatifs.
Resumo:
Ce chapitre analyse la façon dont l'exercice du jugement par les juges contribue à dessiner les contours de la communauté politique, l'inclusion ou l'exclusion des pratiques minoritaires religieuses. On se propose ainsi d'étudier la place que les décisions juridiques font à l'expression de la subjectivité minoritaire en France et au Canada : est-elle considérée avec bienveillance, incluse dans l'exercice du jugement comme un point de vue légitime, ou rejetée dans un au-dehors de la loi et du commun ? Comme on le verra, les deux traditions juridiques n'offrent pas aux juges les mêmes outils pour prendre en compte le point de vue minoritaire dans l'exercice du jugement : alors que l'analyse contextuelle canadienne laisse une grande place à l'expression du point de vue minoritaire et de sa subjectivité religieuse, le mode de raisonnement du juge français tend à favoriser le point de vue majoritaire et la norme dominante.
Resumo:
La lithiase rénale est une pathologie connue depuis très longtemps. Elle est très intéressante d'un point de vue épidémiologique car elle est présente dans le monde entier et reflète les habitudes alimentaires, les conditions sanitaires et le niveau de vie des populations. En effet, sa localisation, sa nature et son âge d'apparition sont associés au niveau économique d'une population donnée. Dans les pays ayant un niveau socioéconomique bas, les enfants jusqu'à 10 ans sont plus touchés que les adultes, avec un rapport garçons/filles très élevé, atteignant plus de 10. La localisation des calculs rénaux est surtout vésicale et ils sont composés majoritairement de phosphate ou d'acide urique. Par contre, dans les populations avec un niveau socioéconomique plus élevé comme c'est le cas actuellement en Europe, les adultes entre 30 et 50 ans sont majoritairement touchés avec un rapport hommes/femmes situé entre 1.5 et 2.5. La lithiase est essentiellement rénale et composée d'oxalate de calcium. Actuellement, dans la plupart des pays du monde, le calcul a une localisation rénale et est de nature oxalo-calcique, reflétant une amélioration des conditions de vie et un meilleur niveau de médicalisation. Peu de pays possèdent les moyens d'effectuer de larges études pour estimer la prévalence de la lithiase rénale. Cependant, toutes les études effectuées confirment que les calculs rénaux sont en progression dans le monde entier. Une forte augmentation de la prévalence de la lithiase rénale a notamment été observée depuis la fin de la deuxième guerre mondiale avec une mise sur le marché plus importante ainsi qu'une consommation croissante de boissons sucrées, de protéines animales et de chocolat riche en oxalate avec en parallèle une diminution de la consommation de produits laitiers et une sédentarisation de la population. La lithiase rénale comprend en effet des facteurs de risques environnementaux et sa progression est donc en grande partie due aux changements des habitudes de vie. Au cours des dernières décennies, les changements de mode de vie ont également favorisé l'augmentation de l'hypertension artérielle, de l'obésité ainsi que du diabète dans la population générale, eux-mêmes associés à la lithiase rénale. Différentes études illustrent la prévalence croissante des calculs rénaux. Des études scandinaves datant de 1970-1980 démontrent que 19% des hommes de plus de 60 ans avaient des antécédents de lithiase urinaire. Aux États-Unis, l'étude de Stamatelou et al. (1) a démontré une progression de la lithiase rénale de 3.2% entre 1976 et 1980 et de 5.2% entre 1988 et 1994. En Allemagne, la prévalence de la lithiase rénale a augmenté de 17% entre 1980 et 2000. En 2001 en Espagne, 10% des sujets de plus de 60 ans avaient une lithiase rénale. L'étude française SU.VI.MAX a notamment révélé une prévalence de calculs rénaux de 9.5% chez les personnes de plus de 45 ans avec une prédominance masculine, 13.6% chez les hommes et 7.6% chez les femmes. Le rapport hommes/femmes était de 2.35 avec une tendance à la baisse. L'âge du premier calcul était en moyenne à 35 ans chez les hommes et à 30 ans chez les femmes. Plus de la moitié des patients lithiasiques de l'étude SU.VI.MAX récidivent au cours de leur vie, 54% des hommes et 52% des femmes. Le nombre d'épisodes dans la vie d'une personne ayant eu une fois un calcul rénal était en moyenne de 3, avec un intervalle moyen de 3.5 ans entre deux récidives.
Resumo:
Que ce soit d'un point de vue, urbanistique, social, ou encore de la gouvernance, l'évolution des villes est un défi majeur de nos sociétés contemporaines. En offrant la possibilité d'analyser des configurations spatiales et sociales existantes ou en tentant de simuler celles à venir, les systèmes d'information géographique sont devenus incontournables dans la gestion et dans la planification urbaine. En cinq ans la population de la ville de Lausanne est passée de 134'700 à 140'570 habitants, alors que les effectifs de l'école publique ont crû de 12'200 à 13'500 élèves. Cet accroissement démographique associé à un vaste processus d'harmonisation de la scolarité obligatoire en Suisse ont amené le Service des écoles à mettre en place et à développer en collaboration avec l'université de Lausanne des solutions SIG à même de répondre à différentes problématiques spatiales. Établies en 1989, les limites des établissements scolaires (bassins de recrutement) ont dû être redéfinies afin de les réadapter aux réalités d'un paysage urbain et politique en pleine mutation. Dans un contexte de mobilité et de durabilité, un système d'attribution de subventions pour les transports publics basé sur la distance domicile-école et sur l'âge des écoliers, a été conçu. La réalisation de ces projets a nécessité la construction de bases de données géographiques ainsi que l'élaboration de nouvelles méthodes d'analyses exposées dans ce travail. Cette thèse s'est ainsi faite selon une dialectique permanente entre recherches théoriques et nécessités pratiques. La première partie de ce travail porte sur l'analyse du réseau piéton de la ville. La morphologie du réseau est investiguée au travers d'approches multi-échelles du concept de centralité. La première conception, nommée sinuo-centralité ("straightness centrality"), stipule qu'être central c'est être relié aux autres en ligne droite. La deuxième, sans doute plus intuitive, est intitulée centricité ("closeness centrality") et exprime le fait qu'être central c'est être proche des autres (fig. 1, II). Les méthodes développées ont pour but d'évaluer la connectivité et la marchabilité du réseau, tout en suggérant de possibles améliorations (création de raccourcis piétons). Le troisième et dernier volet théorique expose et développe un algorithme de transport optimal régularisé. En minimisant la distance domicile-école et en respectant la taille des écoles, l'algorithme permet de réaliser des scénarios d'enclassement. L'implémentation des multiplicateurs de Lagrange offre une visualisation du "coût spatial" des infrastructures scolaires et des lieux de résidence des écoliers. La deuxième partie de cette thèse retrace les aspects principaux de trois projets réalisés dans le cadre de la gestion scolaire. À savoir : la conception d'un système d'attribution de subventions pour les transports publics, la redéfinition de la carte scolaire, ou encore la simulation des flux d'élèves se rendant à l'école à pied. *** May it be from an urbanistic, a social or from a governance point of view, the evolution of cities is a major challenge in our contemporary societies. By giving the opportunity to analyse spatial and social configurations or attempting to simulate future ones, geographic information systems cannot be overlooked in urban planning and management. In five years, the population of the city of Lausanne has grown from 134'700 to 140'570 inhabitants while the numbers in public schools have increased from 12'200 to 13'500 students. Associated to a considerable harmonisation process of compulsory schooling in Switzerland, this demographic rise has driven schooling services, in collaboration with the University of Lausanne, to set up and develop GIS capable of tackling various spatial issues. Established in 1989, the school districts had to be altered so that they might fit the reality of a continuously changing urban and political landscape. In a context of mobility and durability, an attribution system for public transport subventions based on the distance between residence and school and on the age of the students was designed. The implementation of these projects required the built of geographical databases as well as the elaboration of new analysis methods exposed in this thesis. The first part of this work focuses on the analysis of the city's pedestrian network. Its morphology is investigated through multi-scale approaches of the concept of centrality. The first conception, named the straightness centrality, stipulates that being central is being connected to the others in a straight line. The second, undoubtedly more intuitive, is called closeness centrality and expresses the fact that being central is being close to the others. The goal of the methods developed is to evaluate the connectivity and walkability of the network along with suggesting possible improvements (creation of pedestrian shortcuts).The third and final theoretical section exposes and develops an algorithm of regularised optimal transport. By minimising home to school distances and by respecting school capacity, the algorithm enables the production of student allocation scheme. The implementation of the Lagrange multipliers offers a visualisation of the spatial cost associated to the schooling infrastructures and to the student home locations. The second part of this thesis recounts the principal aspects of three projects fulfilled in the context of school management. It focuses namely on the built of an attribution system for public transport subventions, a school redistricting process and on simulating student pedestrian flows.
Resumo:
Dans L'anthropologie du point de vue pragmatique Kant répond à la question « Qu'est-ce que l'homme ? » d'une manière descriptive et empirique en caractérisant le phénomène « homme » comme membre d'une communauté humaine sous des conditions sociales et culturelles. - Dans la deuxième partie de la Critique de la faculté de juger Kant cherche, au contraire, à démontrer la dimension nouménale de l'être humain par la « conclusion [...] à partir de la téléologie morale [...] à un but final de la création » (AA 05 : 455) dont un fondement de preuve « se trouvait déjà dans la faculté rationnelle de l'homme avant sa plus matinale germination, et il continuera à se développer davantage avec la culture de celle- ci » (AA 05 : 458). - La mise en relief du rapport entre la « Méthodologie du jugement téléologique » et la fonction didactique de l'Anthropologie pourrait servir d'illustrer l'idée de l'homme comme but final qui « est une fin qui n'a besoin d'aucune autre comme condition de sa possibilité » (AA 05 : 434) - qui est, par cela, l'expression de l'inconditionné dans les limites de la nature sensible.
Resumo:
This paper proposes finite-sample procedures for testing the SURE specification in multi-equation regression models, i.e. whether the disturbances in different equations are contemporaneously uncorrelated or not. We apply the technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] to obtain exact tests based on standard LR and LM zero correlation tests. We also suggest a MC quasi-LR (QLR) test based on feasible generalized least squares (FGLS). We show that the latter statistics are pivotal under the null, which provides the justification for applying MC tests. Furthermore, we extend the exact independence test proposed by Harvey and Phillips (1982) to the multi-equation framework. Specifically, we introduce several induced tests based on a set of simultaneous Harvey/Phillips-type tests and suggest a simulation-based solution to the associated combination problem. The properties of the proposed tests are studied in a Monte Carlo experiment which shows that standard asymptotic tests exhibit important size distortions, while MC tests achieve complete size control and display good power. Moreover, MC-QLR tests performed best in terms of power, a result of interest from the point of view of simulation-based tests. The power of the MC induced tests improves appreciably in comparison to standard Bonferroni tests and, in certain cases, outperforms the likelihood-based MC tests. The tests are applied to data used by Fischer (1993) to analyze the macroeconomic determinants of growth.