535 resultados para informatique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le modèle développé à l'Institut universitaire de médecine sociale et préventive de Lausanne utilise un programme informatique pour simuler les mouvements d'entrées et de sorties des hôpitaux de soins généraux. Cette simulation se fonde sur les données récoltées de routine dans les hôpitaux; elle tient notamment compte de certaines variations journalières et saisonnières, du nombre d'entrées, ainsi que du "Case-Mix" de l'hôpital, c'est-à-dire de la répartition des cas selon les groupes cliniques et l'âge des patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME Les améliorations méthodologiques des dernières décennies ont permis une meilleure compréhension de la motilité gastro-intestinale. Il manque toutefois une méthode qui permette de suivre la progression du chyme le long du tube gastro-intestinal. Pour permettre l'étude de la motilité de tout le tractus digestif humain, une nouvelle technique, peu invasive, a été élaborée au Département de Physiologie, en collaboration avec l'EPFL. Appelée "Magnet Tracking", la technique est basée sur la détection du champ magnétique généré par des matériaux ferromagnétiques avalés. A cet usage, une pilule magnétique, une matrice de capteurs et un logiciel ont été développés. L'objet de ce travail est de démontrer la faisabilité d'un examen de la motilité gastro-intestinale chez l'Homme par cette méthode. L'aimant est un cylindre (ø 6x7 mm, 0.2 cm3) protégé par une gaine de silicone. Le système de mesure est constitué d'une matrice de 4x4 capteurs et d'un ordinateur portable. Les capteurs fonctionnent sur l'effet Hall. Grâce à l'interface informatique, l'évolution de la position de l'aimant est suivie en temps réel à travers tout le tractus digestif. Sa position est exprimée en fonction du temps ou reproduite en 3-D sous forme d'une trajectoire. Différents programmes ont été crées pour analyser la dynamique des mouvements de l'aimant et caractériser la motilité digestive. Dix jeunes volontaires en bonne santé ont participé à l'étude. L'aimant a été avalé après une nuit de jeûne et son séjour intra digestif suivi pendant 2 jours consécutifs. Le temps moyen de mesure était de 34 heures. Chaque sujet a été examiné une fois sauf un qui a répété sept fois l'expérience. Les sujets restaient en décubitus dorsal, tranquilles et pouvaient interrompre la mesure s'ils le désiraient. Ils sont restés à jeûne le premier jour. L'évacuation de l'aimant a été contrôlée chez tous les sujets. Tous les sujets ont bien supporté l'examen. Le marqueur a pu être détecté de l'oesophage au rectum. La trajectoire ainsi constituée représente une conformation de l'anatomie digestive : une bonne superposition de celle-ci à l'anatomie est obtenue à partir des images de radiologie conventionnelle (CT-scan, lavement à la gastrografine). Les mouvements de l'aimant ont été caractérisés selon leur périodicité, leur amplitude ou leur vitesse pour chaque segment du tractus digestif. Ces informations physiologiques sont bien corrélées à celles obtenues par des méthodes établies d'étude de la motilité gastro-intestinale. Ce travail démontre la faisabilité d'un examen de la motilité gastro-intestinal chez l'Homme par la méthode de Magnet Tracking. La technique fournit les données anatomiques et permet d'analyser en temps réel la dynamique des mouvements du tube digestif. Cette méthode peu invasive ouvre d'intéressantes perspectives pour l'étude de motilité dans des conditions physiologiques et pathologiques. Des expériences visant à valider cette approche en tant que méthode clinique sont en voie de réalisation dans plusieurs centres en Suisse et à l'étranger. SUMMARY Methodological improvements realised over the last decades have permitted a better understanding of gastrointestinal motility. Nevertheless, a method allowing a continuous following of lumina' contents is still lacking. In order to study the human digestive tract motility, a new minimally invasive technique was developed at the Department of Physiology in collaboration with Swiss Federal Institute of Technology. The method is based on the detection of magnetic field generated by swallowed ferromagnetic materials. The aim of our work was to demonstrate the feasibility of this new approach to study the human gastrointestinal motility. The magnet used was a cylinder (ø6x7mm, 0.2 cm3) coated with silicon. The magnet tracking system consisted of a 4x4 matrix of sensors based on the Hall effect Signals from the sensors were digitised and sent to a laptop computer for processing and storage. Specific software was conceived to analyse in real time the progression of the magnet through the gastrointestinal tube. Ten young and healthy volunteers were enrolled in the study. After a fasting period of 12 hours, they swallowed the magnet. The pill was then tracked for two consecutive days for 34 hours on average. Each subject was studied once except one who was studied seven times. Every subject laid on his back for the entire experiment but could interrupt it at anytime. Evacuation of the magnet was controlled in all subjects. The examination was well tolerated. The pill could be followed from the esophagus to the rectum. The trajectory of the magnet represented a "mould" of the anatomy of the digestive tube: a good superimposition with radiological anatomy (gastrografin contrast and CT) was obtained. Movements of the magnet were characterized by periodicity, velocity, and amplitude of displacements for every segment of the digestive tract. The physiological information corresponded well to data from current methods of studying gastrointestinal motility. This work demonstrates the feasibility of the new approach in studies of human gastrointestinal motility. The technique allows to correlate in real time the dynamics of digestive movements with the anatomical data. This minimally invasive method is ready for studies of human gastrointestinal motility under physiological as well as pathological conditions. Studies aiming at validation of this new approach as a clinically relevant tool are being realised in several centres in Switzerland and abroad. Abstract: A new minimally invasive technique allowing for anatomical mapping and motility studies along the entire human digestive system is presented. The technique is based on continuous tracking of a small magnet progressing through the digestive tract. The coordinates of the magnet are calculated from signals recorded by 16 magnetic field sensors located over the abdomen. The magnet position, orientation and trajectory are displayed in real time. Ten young healthy volunteers were followed during 34 h. The technique was well tolerated and no complication was encountered, The information obtained was 3-D con-figuration of the digestive tract and dynamics of the magnet displacement (velocity, transit time, length estimation, rhythms). In the same individual, repea-ted examination gave very reproducible results. The anatomical and physiological information obtained corresponded well to data from current methods and imaging. This simple, minimally invasive technique permits examination of the entire digestive tract and is suitable for both research and clinical studies. In combination with other methods, it may represent a useful tool for studies of Cl motility with respect to normal and pathological conditions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Si l'impact de l'informatique ne fait généralement pas de doute, il est souvent plus problématique d'en mesurer sa valeur. Les Directeurs des Systèmes d'Information (DSI) expliquent l'absence de schéma directeur et de vision à moyen et long terme de l'entreprise, par un manque de temps et de ressources mais aussi par un défaut d'implication des directions générales et des directions financières. L'incapacité de mesurer précisément la valeur du système d'information engendre une logique de gestion par les coûts, néfaste à l'action de la DSI. Alors qu'une mesure de la valeur économique de l'informatique offrirait aux directions générales la matière leur permettant d'évaluer réellement la maturité et la contribution de leur système d'information. L'objectif de cette thèse est d'évaluer à la fois l'alignement de l'informatique avec la stratégie de l'entreprise, la qualité du pilotage (mesure de performance) des systèmes d'information, et enfin, l'organisation et le positionnement de la fonction informatique dans l'entreprise. La mesure de ces trois éléments clés de la gouvernance informatique a été réalisée par l'intermédiaire de deux vagues d'enquêtes successives menées en 2000/2001 (DSI) et 2002/2003 (DSI et DG) en Europe francophone (Suisse Romande, France, Belgique et Luxembourg). Abstract The impact of Information Technology (IT) is today a clear evidence to company stakeholders. However, measuring the value generated by IT is a real challenge. Chief Information Officers (CIO) explain the absence of solid IT Business Plans and clear mid/long term visions by a lack of time and resources but also by a lack of involvement of business senior management (e.g. CEO and CFO). Thus, being not able to measure the economic value of IT, the CIO will have to face the hard reality of permanent cost pressures and cost reductions to justify IT spending and investments. On the other side, being able to measure the value of IT would help CIO and senior business management to assess the maturity and the contribution of the Information System and therefore facilitate the decision making process. The objective of this thesis is to assess the alignment of IT with the business strategy, to assess the quality of measurement of the Information System and last but not least to assess the positioning of the IT organisation within the company. The assessment of these three key elements of the IT Governance was established with two surveys (first wave in 2000/2001 for CIO, second wave in 2002/2003 for CIO and CEO) in Europe (French speaking countries namely Switzerland, France, Belgium and Luxembourg).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quatre cristaux du canal ASIC1a ont été publiés et soutiennent une stoechiométrie trimérique. Cependant, ces données contredisant de précédentes analyses fonctionnelles effectuées sur des canaux de la même famille, notre intérêt fut porté sur l'oligomérisation d'ASIC1a. Dans ce sens, un nouvel essai couplant la méthode d'analyse par substitution de cystéines (SCAM) avec l'utilisation de réactifs sulfhydryls bifonctionnels (crosslinkers) a été mis en place. Le but étant de stabiliser, puis sélectionner les canaux fonctionnels, pour ensuite les séparer selon leur taille par SDS-PAGE. Grâce à cette technique, nous avons démontré que le complexe stabilisé a une taille coïncidant avec une organisation tétramérique. En plus de son oligomérisation, le chemin emprunté par les ions pour traverser le canal n'est pas clairement défini dans ces structures. De ce fait, utilisant une approche électrophysiologique, nous avons étudié le lien entre la structure et la fonction du vestibule extracellulaire d'ASIC1a. Dans ce but, nous nous sommes intéressés l'accessibilité de cystéines spécifiques localisées dans ce vestibule pour des réactifs méthanethiosulfonates (MTS). Ainsi, nous avons pu corréler les cinétiques de modification de ces cystéines par les MTS avec les effets sur le courant sodique, et donc avoir des informations supplémentaires sur la voie empruntée par les ions. De plus, la simulation informatique de liaison de ces réactifs illustre le remplissage total de ce vestibule. Fonctionnellement, cette interaction ne perturbe pas le passage de ions, c'est pourquoi il nous apparaît probable que le vestibule présente une taille plus large que celle illustrée par les cristaux. Dans un deuxième temps, notre intérêt fut porté sur ENaC. Ce canal est composé des trois sous-unités (a, ß et y) et est exprimé dans divers épithéliums, dont les tubules des reins. Il participe à l'homéostasie sodique et est essentiellement régulé par voie hormonale via l'aldostérone et la Vasopressine, mais également par des sérines protéases ou le Na+. Nous avons étudié la répercussion fonctionnelle de la mutation aS243P, découverte chez un nouveau-né prématuré atteint de pseudohypoaldostéronisme de type 1. Cette maladie autosomale récessive se caractérise, généralement, par une hyponatrémie liée à d'importantes pertes de sel dans les urines, une hyperkaliémie, ainsi qu'un niveau élevé d'aldostérone. Tout d'abord aucune des expériences biochimiques et électrophysiologiques n'a pu démontrer un défaut d'expression ou une forte diminution de l'activité soutenant les données cliniques. Cependant, en challengeant aS243PßyENaC avec une forte concentration de Na+ externe, une hypersensibilité de canal fut observée. En effet, ni les phénomènes régulateurs de « feedback inhibition » ou de « Na+ self-inhibition » n'étaient semblables au canal sauvage. De ce fait, ils apparaissaient exacerbés en présence de la mutation, amenant ainsi à une diminution de la réabsorption de Na+. Ceci corrobore entièrement l'hyponatrémie diagnostiquée. Le rein d'un prématuré étant immature, la quantité de Na+ atteignant la partie distale du néphron est plus élevée, du fait que les autres mécanismes de réabsorption en amont ne sont probablement pas encore en place. Cette hypothèse est renforcée par l'existence d'un frère présentant la même mutation, mais qui, né à terme, ne présentait aucun signe d'hyponatrémie. - The main topic of my thesis is the structure-function relationship of the ENaC/Deg family of ion channels, namely the Acid-Sensing Ion Channel ASIC1a and the Epithelial Na Channel ENaC. The primary part of this research is dedicated to the structure of ASIC1a. Four channel crystals have been published, which support a trimeric stoichiometry, although these data contradict previous functional experiments on other ENaC/Deg members. We are therefore interested in ASIC1a oligomerization and have set up a new assay combining the Substituted- Cysteine Accessibility Method (SCAM) with Afunctional sulfhydryl reagents (crosslinkers) allowing its study. The aim was to first stabilize the channels, then select those that are functional and then resolve them according to their size on SDS-PAGE. We demonstrated that the stabilized complex has a molecular weight corresponding to a tetrameric stoichiometry. In addition to our interest in the oligomerization of the ENaC/Deg family of ion channels, we also wanted to investigate the thus far undefined way of permeation for these channels. Therefore, taking the advantage of a more electrophysiological approach, we studied the accessibility of specific cysteines for methanethiosulfonate reagents (MTS) and were able to correlate the MTS association kinetics on cysteine residues with Na+ currents. These results have given us an insight into ion permeation and our functional evidence indicates that the extracellular is larger than that depicted by the crystal structures. As a side project, we focused on ENaC, which is made up of three subunits (a, ß and y) and is expressed in various epithelia, especially in the distal nephron of the kidneys. It plays a role in Na+ homeostasis and is essentially regulated by hormones via aldosterone and vasopressin, but also by serine proteases or Na+. We have studied the functional impact of the aS243P mutation, discovered in a premature baby suffering from pseudohypoaldosteronism of type 1. This autosomal recessive disease is characterized by hyponatremia, hyperkalemia and high aldosterone levels. Firstly, neither biochemical nor electrophysiological experiments indicated an expression defect or a strong decrease in activity. However, challenging aS243PßyENaC with increased external Na+ concentration showed channel hypersensitivity. Indeed, both the "feedback inhibition" and the "Na+ self-inhibition" regulatory mechanisms are impaired, leading to a decrease in Na+ reabsorption, entirely supports the diagnosis. The kidneys in preterm infants are immature and Na+ levels reaching the distal nephron are higher than normally observed. We hypothesize that the upstream reabsorption machinery is unlikely to be sufficiently matured and this assumption is supported by an asymptomatic sibling carrying the same mutation, but born at term. - La cellule, unité fonctionnelle du corps humain, est délimitée par une membrane plasmique servant de barrière biologique entre les milieux intra et extracellulaires. Une communication entre cellules est indispensable pour un fonctionnement adéquat. Sa survie dépend, entre autres, du maintien de la teneur en ions dans chacun des milieux qui doivent pouvoir être réabsorbés, ou sécrétés, selon les besoins. Les protéines insérées dans la membrane forment un canal et sont un moyen de communication permettant spécifiquement à des ions tel que le sodium (Na+) de traverser. Le Na+ se trouve dans la plupart des aliments et le sel, et est spécifiquement réabsorbé au niveau des reins grâce au canal sodique épithélial ENaC. Cette réabsorption se fait de l'urine primaire vers l'intérieur de la cellule, puis est transporté vers le sang. Pour maintenir un équilibre, une régulation de ce canal est nécessaire. En effet, des dysfonctionnements impliquant la régulation ou l'activité d'ENaC lui-même sont à l'origine de maladies telles que la mucoviscidose, l'hypertension ou encore, le pseudohypoaldostéronisme (PHA). Cette maladie est caractérisée, notamment, par d'importantes pertes de sel dans les urines. Des pédiatres ont diagnostiqué un PHA chez un nouveau-né, ce dernier présentant une modification du canal ENaC, nous avons recréé cette protéine afin d'étudier l'impact de ce changement sur son activité. Nous avons démontré que la régulation d'ENaC était effectivement perturbée, conduisant ainsi à une forte réduction de la réabsorption sodique. Afin de développer des molécules capables de moduler l'activité de protéines. Il est nécessaire d'en connaître la structure. Celle du canal sodique sensible à l'acidification ASIC1, un canal cousin d'ENaC, est connue. Ces données structurales contredisant cependant les analyses fonctionnelles, nous nous sommes penchés une nouvelle fois sur ASIC1. Une protéine est une macromolécule biologique composée d'une chaîne d'acides aminés (aa). De l'enchaînement d'aa à la protéine fonctionnelle, quatre niveaux de structuration existent. Chaque aa donne une indication quant au repliement et plus particulièrement la cystéine. Arborant un groupe sulfhydryle (SH) capable de former une liaison spécifique et stable avec un autre SH, celle-ci est souvent impliquée dans la structure tridimensionnelle de la protéine. Ce type de liaison intervient également dans la stabilisation de la structure quaternaire, qui est l'association de plusieurs protéines identiques (homomère), ou pas (hétéromère). Dans cette partie, nous avons remplacé des aa par des cystéines à des endroits spécifiques. Le but était de stabiliser plusieurs homomères d'ASICl ensemble avec des réactifs créant des ponts entre deux SH. Ainsi, nous avons pu déterminer le nombre de protéines ASIC1 participant à la formation d'un canal fonctionnel. Nos résultats corroborent les données fonctionnelles soutenant un canal tétramérique. Nous avons également étudié l'accessibilité de ces nouvelles cystéines afin d'obtenir des informations supplémentaires sur la structure du chemin emprunté par le Na+ à travers ASIC1 et plus particulièrement du vestibule extracellulaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le projet pilote e-Portfolio offre aux étudiant-e-s la possibilité de créer un dossier portfolio personnalisé et disponible en ligne sur une plateforme informatique. Les dossiers portfolio se partagent en deux familles : les dossiers d'apprentissage (a.), permettant de documenter un cheminement d'apprentissage, et les dossiers de présentation(b.), ayant pour rôle de valoriser les acquis d'une formation ou d'un parcours professionnel. Un e-Portfolio, par la plasticité des outils informatiques qui en forment le support, permet de combiner les deux approches - pédagogique et biographique - en intégrant sur un mode dynamique le parcours de formation, le questionnement des acquis et la présentation curriculaire. (http://www3.unil.ch/wpmu/riset-notice/2010/09/)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le modèle développé à l'Institut universitaire de médecine sociale et préventive de Lausanne utilise un programme informatique pour simuler les mouvements d'entrées et de sorties des hôpitaux de soins généraux. Cette simulation se fonde sur les données récoltées de routine dans les hôpitaux; elle tient notamment compte de certaines variations journalières et saisonnières, du nombre d'entrées, ainsi que du "Case-Mix" de l'hôpital, c'est-à-dire de la répartition des cas selon les groupes cliniques et l'âge des patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction. - « Ostéo-Mobile Vaud » est un projet pilote visant àinformer et promouvoir les mesures générales de prévention del'ostéoporose chez les femmes vaudoises de 60 ans et plus. Son butest également d'évaluer le risque de fracture dans cette populationen associant les facteurs de risque cliniques, la mesure de la DMOpar DXA de la colonne lombaire et du fémur proximal (Hologic Discovery),la recherche des fractures vertébrales préexistantes parVFA et une appréciation de la « qualité osseuse » par TBS. Une phaseprospective de 5 ans est prévue. Le Trabecular Bone Score (TBS) estun procédé qui consiste à appliquer un traitement informatique àl'image 2D de projection de la DXA basé sur la quantification desvariations locales de niveaux de gris. Un modèle mathématiquerelie le paramètre TBS avec des paramètres de microarchitecture 3Dtels la connectivité 3D, le nombre de travées et l'espace inter-trabéculaire.Ce modèle fait de TBS une mesure indirecte de microarchitectureosseuse.Résultats. - Fin juillet 2011, 510 femmes de ± 67 ans, IMC ± 26 kg/m2,ont été évaluées. Une ou plusieurs fractures de fragilité ont été rapportéeschez 72 femmes, parmi lesquelles 39 avec fractures vertébrales.TBS diminue avec l'âge (-0.005 par année, p < 0,001) etdiminue en fonction de l'IMC (- 0,011 par kg/m2, p < 0,001). La corrélationentre TBS et la DMO de la colonne lombaire est faible(r = 0,4, p < 0,001) et un grand pourcentage de la variabilité du TBSest indépendant de la DMO (> 84%). TBS discrimine les femmes avecfractures vertébrales des femmes sans fracture vertébrale et lesfemmes avec OP clinique (fractures de fragilité) de celles sans OPclinique. Ce pouvoir discriminatif est indépendant de la DMO de lacolonne lombaire ou du T-score le plus bas, après ajustement pourl'âge et l'IMC.Odd ratio (OR, 95 % IC) pour une diminution d'une déviation standarddu TBS, ajusté pour l'âge, l'IMC et la mesure de DMO :Conclusion. - TBS représente une plus-value par rapport à la DMOdans l'appréciation du risque de fracture chez les femmes vaudoisesde 60 ans et plus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ : Le bullying est un type de comportement agressif qu'un élève (ou plusieurs) fait subir à un autre et qui se manifeste par des agressions verbales, physiques et/ou psychologiques. Les caractéristiques du bullying sont la répétitivité d'actions négatives sur le long terme et une relation de pouvoir asymétrique. Pour la victime, ce type de comportement peut avoir des conséquences graves telles qu'échec scolaire, dépression, troubles alimentaires, ou idées suicidaires. De plus, les auteurs de bullying commettent plus de comportements déviants au sein de l'école ou à l'extérieur de cette dernière. La mise en place d'actions ciblées auprès des auteurs de bullying pourrait donc non seulement prévenir une victimisation, mais aussi réduire les actes de délinquance en général. Hormis quelques études locales ou cantonales, aucune recherche nationale auprès d'adolescents n'existait dans le domaine. Ce travail propose de combler cette lacune afin d'obtenir une compréhension suffisante du phénomène qui permet de donner des pistes pour définir des mesures de prévention appropriées. Afin d'appréhender la problématique du bullying dans les écoles secondaires suisses, deux sondages de délinquance juvénile autoreportée ont été effectués. Le premier a eu lieu entre 2003 et 2005 dans le canton de Vaud auprès de plus de 4500 écoliers. Le second a été administré en 2006 dans toute la Suisse et environ 3600 jeunes y ont participé. Les jeunes ont répondu au sondage soit en classe (questionnaire papier) soit en salle d'informatique (questionnaire en ligne). Les jeunes ayant répondu avoir sérieusement harcelé un autre élève est d'environ 7% dans le canton de Vaud et de 4% dans l'échantillon national. Les analyses statistiques ont permis tout d'abord de sélectionner les variables les plus fortement liées au bullying. Les résultats montrent que les jeunes avec un bas niveau d'autocontrôle et ayant une attitude positive envers la violence sont plus susceptibles de commettre des actes de bullying. L'importance des variables environnementales a aussi été démontrée: plus le jeune est supervisé et encadré par des adultes, plus les autorités (école, voisinage) jouent leur rôle de contrôle social en faisant respecter les règles et en intervenant de manière impartiale, moins le jeune risque de commettre des actes de bullying. De plus, l'utilisation d'analyses multiniveaux a permis de montrer l'existence d'effets de l'école sur le bullying. En particulier, le taux de bullying dans une école donnée augmente lorsque les avis des jeunes divergent par rapport à leur perception du climat scolaire. Un autre constat que l'on peut mettre en évidence est que la réaction des enseignants lors de bagarres a une influence différente sur le taux de bullying en fonction de l'établissement scolaire. ABSTRACT : Bullying is the intentional, repetitive or persistent hurting of one pupil by another (or several), where the relationship involves an imbalance of power. Bullying is a type of aggressive behaviour and the act can be verbal, physical and/or psychological. The consequences on the victims are serious: school failure, depressive symptomatology, eating disorders, or suicidal ideation. Moreover, the authors of bullying display more delinquent behaviour within or outside the school. Thus, preventive programmes targeting bullying could not only prevent victimisation, but also reduce delinquency in general. Very little data concerning bullying had been collected in Switzerland and, except some local or cantonal studies, no national research among teenagers existed in the field. This work intends to fill the gap in order to provide sufficient understanding of the phenomenon and to suggest some tracks for defining appropriate measures of prevention. In order to understand the problems of bullying in Swiss secondary schools better, two surveys of self-reported juvenile delinquency were carried out. The first one took place between 2003 and 2005 in the canton Vaud among more than 4500 pupils, the second in 2006 across Switzerland with about 3600 youths taking part. The pupils answered to the survey either in the classroom (paper questionnaire) or in the computer room (online questionnaire). The youths that answered having seriously bullied another pupil are about 7% in canton Vaud and 4% in the national sample. Statistical analyses have selected the variables most strongly related to bullying. The results show that the youths with a low level of self-control and adopting a positive attitude towards violence are more likely to bully others. The importance of the environmental variables was also shown: the more that youth is supervised and monitored by adults, and the more the authorities (school, neighbourhood) play their role of social control by making the rules be respected through intervening in an impartial way, the less the youth bully. Moreover, the use of multilevel analyses permitted to show the existence of effects of the school on bullying. In particular, the rate of bullying in a given school increases when there is a wide variation among students of the same school in their perception of their school climate. Another important aspect concerns teachers' reactions when pupils fight: this variable does not influence the bullying rate to the same extent, and depends on the school.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèseApproche et objectifL'objectif de la recherche était de préciser les relations existant entre l'insuffisance rénale chronique, l'anémie et l'accident vasculaire cérébral parmi des patients hospitalisés au Centre Hospitalier Universitaire Vaudois (CHUV) pour un accident vasculaire cérébral (AVC). Les auteurs ont déterminé la prévalence de l'anémie et de l'insuffisance rénale chronique parmi ces patients et examiné s'ils sont des facteurs de risque indépendants de la mortalité suite à un AVC.L'insuffisance rénale chronique est associée à un risque élevé de développer un AVC. L'anémie est une complication et une conséquence fréquente qui découle de l'insuffisance rénale chronique et est également un facteur de risque pour les maladies cérébro- et cardiovasculaires.MéthodeLa présente étude de cohorte rétrospective se base sur le registre des AVC du CHUV et inclut tous les patients traités suite à un premier AVC au service de neurologie du CHUV entre les années 2000 et 2003.Les variables utilisées pour l'analyse sont les caractéristiques démographiques, l'insuffisance rénale chronique, le débit de filtration glomérulaire.(GFR), l'anémie et d'autres facteurs de risque d'AVC. Ils ont été récoltés au moyen du système informatique du laboratoire du CHUV, d'entretiens téléphoniques (patients ou proches) et du registre des AVC du CHUV.L'insuffisance rénale chronique a été calculée sur base de la ,,Kidney Disease Outcomes Quality Initiative (K/DOQI)-CKD Classification", laquelle est divisée en cinq stades. L'anémie a été définie par une hémoglobine de < 120g/L pour les femmes et < 130g/L pour les hommes.Les analyses statistiques réalisées sont des tests Chi-carré, des tests de Τ ainsi que des courbes de Kaplan-Meier et le modèle de régression de Cox.RésultatsParmi 890 patients adultes avec un AVC, le GFR moyen était de 64.3 ml/min/1.73 m2, 17% souffraient d'anémie et 10% sont décédés pendant la première année après la sortie de l'hôpital, suite à l'"AVC index". Parmi ceux-ci, 61% avaient une insuffisance rénale chronique de stade 3-5 et 39% de stade 1 ou 2 selon les critères de K/DOQI.D'autre part un taux d'hémoglobine élevé a pu être associé à un risque moins élevé de mortalité un an après la sortie de l'hôpital.Conclusion et perspectiveNous avons constaté que l'anémie ainsi que l'insuffisance rénale chronique sont fréquents parmi les patients souffrant d'un AVC et qu'ils sont des facteurs de risque d'un taux de mortalité élevé après un an. En conséquence, il pourrait être utile de traiter les patients souffrant d'anémie et d'insuffisance rénale dès que possible afin de diminuer les complications et comorbidités résultants de ces maladies.La perspective est de rendre les cliniciens attentif à l'importance de l'insuffisance rénale et de l'anémie parmi les patients ayants développé un AVC, ainsi que d'initier le traitement approprié afin de diminuer les complications, les comorbidités ainsi que les récidives d'un AVC. L'efficacité et l'économicité des interventions visant à améliorer le pronostic chez les patients présentant un AVC et souffrant d'une insuffisance rénale chronique et / ou d'une anémie doivent être évaluées par des études appropriées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME L'objectif de cette étude est d'évaluer comment de jeunes médecins en formation perçoivent le risque cardiovasculaire de leurs patients hypertendus en se basant sur les recommandations médicales (« guidelines ») et sur leur jugement clinique. Il s'agit d'une étude transversale observationnelle effectuée à la Policlinique Médicale Universitaire de Lausanne (PMU). 200 patients hypertendus ont été inclus dans l'étude ainsi qu'un groupe contrôle de 50 patients non hypertendus présentant au moins un facteur de risque cardiovasculaire. Nous avons comparé le risque cardiovasculaire à 10 ans calculé par un programme informatique basé sur l'équation de Framingham. L'équation a été adaptée pour les médecins par l'OMS-ISH au risque perçu, estimé cliniquement par les médecins. Les résultats de notre étude ont montrés que les médecins sous-estiment le risque cardiovasculaire à 10 ans de leurs patients, comparé au risque calculé selon l'équation de Framingham. La concordance entre les deux méthodes était de 39% pour les patients hypertendus et de 30% pour le groupe contrôle de patients non hypertendus. La sous-estimation du risque. cardiovasculaire pour les patients hypertendus était corrélée au fait qu'ils avaient une tension artérielle systolique stabilisée inférieure a 140 mmHg (OR=2.1 [1.1 ;4.1]). En conclusion, les résultats de cette étude montrent que les jeunes médecins en formation ont souvent une perception incorrecte du risque cardiovasculaire de leurs patients, avec une tendance à sous-estimer ce risque. Toutefois le risque calculé pourrait aussi être légèrement surestimé lorsqu'on applique l'équation de Framingham à la population suisse. Pour mettre en pratique une évaluation systématique des facteurs de risque en médecine de premier recours, un accent plus grand devrait être mis sur l'enseignement de l'évaluation du risque cardiovasculaire ainsi que sur la mise en oeuvre de programme pour l'amélioration de la qualité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we propose a novel unsupervised approach to learning domain-specific ontologies from large open-domain text collections. The method is based on the joint exploitation of Semantic Domains and Super Sense Tagging for Information Retrieval tasks. Our approach is able to retrieve domain specific terms and concepts while associating them with a set of high level ontological types, named supersenses, providing flat ontologies characterized by very high accuracy and pertinence to the domain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

On the efficiency of recursive evaluations with applications to risk theoryCette thèse est composée de trois essais qui portent sur l'efficacité des évaluations récursives de la distribution du montant total des sinistres d'un portefeuille de polices d'assurance au cours d'un période donnée. Le calcul de sa fonction de probabilité ou de quantités liées à cette distribution apparaît fréquemment dans la plupart des domaines de la pratique actuarielle.C'est le cas notamment pour le calcul du capital de solvabilité en Suisse ou pour modéliser la perte d'une assurance vie au cours d'une année. Le principal problème des évaluations récursives est que la propagation des erreurs provenant de la représentation des nombres réels par l'ordinateur peut être désastreuse. Mais, le gain de temps qu'elles procurent en réduisant le nombre d'opérations arithmétiques est substantiel par rapport à d'autres méthodes.Dans le premier essai, nous utilisons certaines propriétés d'un outil informatique performant afin d'optimiser le temps de calcul tout en garantissant une certaine qualité dans les résultats par rapport à la propagation de ces erreurs au cours de l'évaluation.Dans le second essai, nous dérivons des expressions exactes et des bornes pour les erreurs qui se produisent dans les fonctions de distribution cumulatives d'un ordre donné lorsque celles-ci sont évaluées récursivement à partir d'une approximation de la transformée de De Pril associée. Ces fonctions cumulatives permettent de calculer directement certaines quantités essentielles comme les primes stop-loss.Finalement, dans le troisième essai, nous étudions la stabilité des évaluations récursives de ces fonctions cumulatives par rapport à la propagation des erreurs citées ci-dessus et déterminons la précision nécessaire dans la représentation des nombres réels afin de garantir des résultats satisfaisants. Cette précision dépend en grande partie de la transformée de De Pril associée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the advancement of high-throughput sequencing and dramatic increase of available genetic data, statistical modeling has become an essential part in the field of molecular evolution. Statistical modeling results in many interesting discoveries in the field, from detection of highly conserved or diverse regions in a genome to phylogenetic inference of species evolutionary history Among different types of genome sequences, protein coding regions are particularly interesting due to their impact on proteins. The building blocks of proteins, i.e. amino acids, are coded by triples of nucleotides, known as codons. Accordingly, studying the evolution of codons leads to fundamental understanding of how proteins function and evolve. The current codon models can be classified into three principal groups: mechanistic codon models, empirical codon models and hybrid ones. The mechanistic models grasp particular attention due to clarity of their underlying biological assumptions and parameters. However, they suffer from simplified assumptions that are required to overcome the burden of computational complexity. The main assumptions applied to the current mechanistic codon models are (a) double and triple substitutions of nucleotides within codons are negligible, (b) there is no mutation variation among nucleotides of a single codon and (c) assuming HKY nucleotide model is sufficient to capture essence of transition- transversion rates at nucleotide level. In this thesis, I develop a framework of mechanistic codon models, named KCM-based model family framework, based on holding or relaxing the mentioned assumptions. Accordingly, eight different models are proposed from eight combinations of holding or relaxing the assumptions from the simplest one that holds all the assumptions to the most general one that relaxes all of them. The models derived from the proposed framework allow me to investigate the biological plausibility of the three simplified assumptions on real data sets as well as finding the best model that is aligned with the underlying characteristics of the data sets. -- Avec l'avancement de séquençage à haut débit et l'augmentation dramatique des données géné¬tiques disponibles, la modélisation statistique est devenue un élément essentiel dans le domaine dé l'évolution moléculaire. Les résultats de la modélisation statistique dans de nombreuses découvertes intéressantes dans le domaine de la détection, de régions hautement conservées ou diverses dans un génome de l'inférence phylogénétique des espèces histoire évolutive. Parmi les différents types de séquences du génome, les régions codantes de protéines sont particulièrement intéressants en raison de leur impact sur les protéines. Les blocs de construction des protéines, à savoir les acides aminés, sont codés par des triplets de nucléotides, appelés codons. Par conséquent, l'étude de l'évolution des codons mène à la compréhension fondamentale de la façon dont les protéines fonctionnent et évoluent. Les modèles de codons actuels peuvent être classés en trois groupes principaux : les modèles de codons mécanistes, les modèles de codons empiriques et les hybrides. Les modèles mécanistes saisir une attention particulière en raison de la clarté de leurs hypothèses et les paramètres biologiques sous-jacents. Cependant, ils souffrent d'hypothèses simplificatrices qui permettent de surmonter le fardeau de la complexité des calculs. Les principales hypothèses retenues pour les modèles actuels de codons mécanistes sont : a) substitutions doubles et triples de nucleotides dans les codons sont négligeables, b) il n'y a pas de variation de la mutation chez les nucléotides d'un codon unique, et c) en supposant modèle nucléotidique HKY est suffisant pour capturer l'essence de taux de transition transversion au niveau nucléotidique. Dans cette thèse, je poursuis deux objectifs principaux. Le premier objectif est de développer un cadre de modèles de codons mécanistes, nommé cadre KCM-based model family, sur la base de la détention ou de l'assouplissement des hypothèses mentionnées. En conséquence, huit modèles différents sont proposés à partir de huit combinaisons de la détention ou l'assouplissement des hypothèses de la plus simple qui détient toutes les hypothèses à la plus générale qui détend tous. Les modèles dérivés du cadre proposé nous permettent d'enquêter sur la plausibilité biologique des trois hypothèses simplificatrices sur des données réelles ainsi que de trouver le meilleur modèle qui est aligné avec les caractéristiques sous-jacentes des jeux de données. Nos expériences montrent que, dans aucun des jeux de données réelles, tenant les trois hypothèses mentionnées est réaliste. Cela signifie en utilisant des modèles simples qui détiennent ces hypothèses peuvent être trompeuses et les résultats de l'estimation inexacte des paramètres. Le deuxième objectif est de développer un modèle mécaniste de codon généralisée qui détend les trois hypothèses simplificatrices, tandis que d'informatique efficace, en utilisant une opération de matrice appelée produit de Kronecker. Nos expériences montrent que sur un jeux de données choisis au hasard, le modèle proposé de codon mécaniste généralisée surpasse autre modèle de codon par rapport à AICc métrique dans environ la moitié des ensembles de données. En outre, je montre à travers plusieurs expériences que le modèle général proposé est biologiquement plausible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ Cette thèse porte sur le développement de méthodes algorithmiques pour découvrir automatiquement la structure morphologique des mots d'un corpus. On considère en particulier le cas des langues s'approchant du type introflexionnel, comme l'arabe ou l'hébreu. La tradition linguistique décrit la morphologie de ces langues en termes d'unités discontinues : les racines consonantiques et les schèmes vocaliques. Ce genre de structure constitue un défi pour les systèmes actuels d'apprentissage automatique, qui opèrent généralement avec des unités continues. La stratégie adoptée ici consiste à traiter le problème comme une séquence de deux sous-problèmes. Le premier est d'ordre phonologique : il s'agit de diviser les symboles (phonèmes, lettres) du corpus en deux groupes correspondant autant que possible aux consonnes et voyelles phonétiques. Le second est de nature morphologique et repose sur les résultats du premier : il s'agit d'établir l'inventaire des racines et schèmes du corpus et de déterminer leurs règles de combinaison. On examine la portée et les limites d'une approche basée sur deux hypothèses : (i) la distinction entre consonnes et voyelles peut être inférée sur la base de leur tendance à alterner dans la chaîne parlée; (ii) les racines et les schèmes peuvent être identifiés respectivement aux séquences de consonnes et voyelles découvertes précédemment. L'algorithme proposé utilise une méthode purement distributionnelle pour partitionner les symboles du corpus. Puis il applique des principes analogiques pour identifier un ensemble de candidats sérieux au titre de racine ou de schème, et pour élargir progressivement cet ensemble. Cette extension est soumise à une procédure d'évaluation basée sur le principe de la longueur de description minimale, dans- l'esprit de LINGUISTICA (Goldsmith, 2001). L'algorithme est implémenté sous la forme d'un programme informatique nommé ARABICA, et évalué sur un corpus de noms arabes, du point de vue de sa capacité à décrire le système du pluriel. Cette étude montre que des structures linguistiques complexes peuvent être découvertes en ne faisant qu'un minimum d'hypothèses a priori sur les phénomènes considérés. Elle illustre la synergie possible entre des mécanismes d'apprentissage portant sur des niveaux de description linguistique distincts, et cherche à déterminer quand et pourquoi cette coopération échoue. Elle conclut que la tension entre l'universalité de la distinction consonnes-voyelles et la spécificité de la structuration racine-schème est cruciale pour expliquer les forces et les faiblesses d'une telle approche. ABSTRACT This dissertation is concerned with the development of algorithmic methods for the unsupervised learning of natural language morphology, using a symbolically transcribed wordlist. It focuses on the case of languages approaching the introflectional type, such as Arabic or Hebrew. The morphology of such languages is traditionally described in terms of discontinuous units: consonantal roots and vocalic patterns. Inferring this kind of structure is a challenging task for current unsupervised learning systems, which generally operate with continuous units. In this study, the problem of learning root-and-pattern morphology is divided into a phonological and a morphological subproblem. The phonological component of the analysis seeks to partition the symbols of a corpus (phonemes, letters) into two subsets that correspond well with the phonetic definition of consonants and vowels; building around this result, the morphological component attempts to establish the list of roots and patterns in the corpus, and to infer the rules that govern their combinations. We assess the extent to which this can be done on the basis of two hypotheses: (i) the distinction between consonants and vowels can be learned by observing their tendency to alternate in speech; (ii) roots and patterns can be identified as sequences of the previously discovered consonants and vowels respectively. The proposed algorithm uses a purely distributional method for partitioning symbols. Then it applies analogical principles to identify a preliminary set of reliable roots and patterns, and gradually enlarge it. This extension process is guided by an evaluation procedure based on the minimum description length principle, in line with the approach to morphological learning embodied in LINGUISTICA (Goldsmith, 2001). The algorithm is implemented as a computer program named ARABICA; it is evaluated with regard to its ability to account for the system of plural formation in a corpus of Arabic nouns. This thesis shows that complex linguistic structures can be discovered without recourse to a rich set of a priori hypotheses about the phenomena under consideration. It illustrates the possible synergy between learning mechanisms operating at distinct levels of linguistic description, and attempts to determine where and why such a cooperation fails. It concludes that the tension between the universality of the consonant-vowel distinction and the specificity of root-and-pattern structure is crucial for understanding the advantages and weaknesses of this approach.