1000 resultados para modèle de données objet relationnel
Resumo:
Chaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes. Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée.
Resumo:
Les gestionnaires des ventes peuvent se servir de modèles de décision pour répartir de façon optimale les ressources marketing entre les produits et territoires. Ces modèles sont des équations mathématiques qui représentent la façon dont les ventes réagissent aux efforts marketing et peuvent être calibrés à partir de données objectives ou subjectives. Little (1971) affirme que les données subjectives sont plus efficaces parce qu'elles contiennent toute l'expérience des gestionnaires. À partir des recommandations de Little, Lodish (1971) a développé le modèle CALLPLAN afin d'aider les gestionnaires à répartir le temps de visites des représentants entre les clients ou les produits, de façon à maximiser les profits de l'entreprise. Pour calibrer ce modèle, les utilisateurs doivent utiliser les cinq données suivantes : les ventes prévues si aucune visite n'est effectuée, les ventes prévues avec une réduction de 50% des visites actuellement effectuées, les ventes actuelles, les ventes prévues si le nombre de visites est augmenté de 50% et les ventes prévues en effectuant un nombre infiniment grand de visites. Nous avons constaté que les modèles de répartition se basent tous sur les mêmes données pour estimer les paramètres des fonctions de réponse des ventes et que la valeur de ces données n'a jamais été évaluée empiriquement. Cette étude visait donc à évaluer la valeur des données subjectives utilisées dans la procédure d'estimation des paramètres du modèle CALLPLAN. À l'aide de simulations de jugements sur ordinateur, nous avons vérifié si la procédure d'estimation, telle que proposée par Lodish, peut être améliorée. Nous avons trouvé en essayant différentes combinaisons de cinq points, qu'effectivement la combinaison de Lodish n'est pas la meilleure pour estimer adéquatement les paramètres du modèle CALLPLAN. Quand la fonction de réponse des ventes est à priori en forme de S, les points utilisés devraient être les suivants ; les ventes prévues si aucune visite n'est effectuée (min), les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué (max), les ventes prévues avec le nombre de visites qui correspond au point d'inflexion (P.l.) de la fonction de réponse et les ventes prévues avec le nombre de visites qui correspond à la mi-distance du point d'inflexion et du niveau de ressource min. Quand la fonction de réponse est à priori concave, la combinaison de points utilisée devrait être ; les ventes prévues si aucune visite n'est effectuée, les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué, les ventes prévues en réduisant au quart le nombre de visites actuellement effectué et les ventes prévues en diminuant de 50% le nombre de visite actuellement utilisé. Nous avons également observé que les jugements concernant les ventes minimales et les ventes maximales influencent grandement les estimés. Nous avons donc trouvé un moyen d'atténuer leur impact en calculant des estimés moyens générés par les jugements individuels d'un groupe déjugés.
Resumo:
Les termes et les conditions de notre sécurité à tous, de nos rapports sociaux, politiques, économiques et de notre développement doivent être repensés et le temps nous semble compté. Les problèmes qui nous assaillent de toutes parts apparaissent parfois tellement définitifs qu'il ne faut pas s'étonner de voir notre société effectuer un repli narcissique. La tentation est grande, pour celui qui en a les moyens, de couper le contact et de bâtir, ailleurs, potager biologique et microcosme humanisé. Il pourrait d'ailleurs en émerger un modèle de société, à la mesure de l'homme, qui, ultimement, pourrait transformer l'ensemble des rapports humains, sociaux et politiques. Cette utopie, nous devons y travailler, et elle semble devoir passer dès maintenant par le potager biologique et le microcosme humanisé. Mais le problème global, planétaire, demeure entier. D'où l'importance inestimable, aussi, du mouvement pour la paix. Son étendue à travers le monde autorise peut-être à entretenir l'espoir que, pour paraphraser Albert Jacquard, à l'hominisation succédera l’humanisation. Cet espoir est peut-être encore plus fondé depuis que le thème de la paix a gagné les classes et les salles de cours d'un façon explicite et importante. L'enseignement relatif à la paix occupe une place importante au sein des efforts globaux de paix. Cet exposé porte sur les "études sur la paix". Par "études sur la paix", il faut entendre un ensemble de cours collégiaux et universitaires, parfois accompagnés d'activités ou de recherches, visant à explorer académiquement des connaissances, des habiletés et des valeurs pertinentes au problème global de la paix. Il s'agit d'un ensemble de cours spécifiques, mais ceux-ci s'inscrivent aussi dans une démarche globale qui peut pratiquement être assimilée à un "mouvement". La définition qui précède n'est, en fait, qu'exploratoire. L'objet, essentiel de ce mémoire est, justement, de décrire le plus adéquatement possible ce phénomène, ce qui n'est pas du tout évident à première vue. [...]
Resumo:
Le partage des données de façon confidentielle préoccupe un bon nombre d’acteurs, peu importe le domaine. La recherche évolue rapidement, mais le manque de solutions adaptées à la réalité d’une entreprise freine l’adoption de bonnes pratiques d’affaires quant à la protection des renseignements sensibles. Nous proposons dans ce mémoire une solution modulaire, évolutive et complète nommée PEPS, paramétrée pour une utilisation dans le domaine de l’assurance. Nous évaluons le cycle entier d’un partage confidentiel, de la gestion des données à la divulgation, en passant par la gestion des forces externes et l’anonymisation. PEPS se démarque du fait qu’il utilise la contextualisation du problème rencontré et l’information propre au domaine afin de s’ajuster et de maximiser l’utilisation de l’ensemble anonymisé. À cette fin, nous présentons un algorithme d’anonymat fortement contextualisé ainsi que des mesures de performances ajustées aux analyses d’expérience.
Resumo:
Le partage des données de façon confidentielle préoccupe un bon nombre d’acteurs, peu importe le domaine. La recherche évolue rapidement, mais le manque de solutions adaptées à la réalité d’une entreprise freine l’adoption de bonnes pratiques d’affaires quant à la protection des renseignements sensibles. Nous proposons dans ce mémoire une solution modulaire, évolutive et complète nommée PEPS, paramétrée pour une utilisation dans le domaine de l’assurance. Nous évaluons le cycle entier d’un partage confidentiel, de la gestion des données à la divulgation, en passant par la gestion des forces externes et l’anonymisation. PEPS se démarque du fait qu’il utilise la contextualisation du problème rencontré et l’information propre au domaine afin de s’ajuster et de maximiser l’utilisation de l’ensemble anonymisé. À cette fin, nous présentons un algorithme d’anonymat fortement contextualisé ainsi que des mesures de performances ajustées aux analyses d’expérience.
Resumo:
Dans ce mémoire de maîtrise, nous utilisons les microdonnées de l’Enquête sur les dépenses des ménages de Statistique Canada en 2009 pour tester la validité empirique du modèle unitaire de dépense des ménages. En s’inspirant de l’étude conduite par Phipps et Burton en 1998, nous tentons une actualisation de leurs résultats ainsi qu’une analyse de l’évolution du comportement des ménages canadiens entre 1992 et 2009. La nouveauté présentée dans ce mémoire de maîtrise tient justement dans ces résultats. Dans la majorité des catégories de dépenses, nous ne rejetons plus le modèle unitaire et nous en mesurons les implications. Entre ces deux études, les différences entre l’homme et la femme dans les couples canadiens se sont atténuées, ils ont de plus en plus les mêmes préférences en terme de consommation. Enfin, nous poursuivons en apportant un test du modèle coopératif développé par Browning, Bourguignon, Chiappori et Lechene (1994) sur la demande en biens exclusifs. Nous en déduisons un aperçu de la répartition du pouvoir de dépense au sein des ménages canadiens.
Resumo:
Ce travail traite de la catégorie du « héros » et s'articule autour d'une comparaison entre les récits de la Grèce antique, principalement la poésie épique, et le Proche-Orient ancien, essentiellement les textes vétérotestamentaires - une étude dont l'objet est dès lors principalement textuel. Partant du constat, si simple mais lourd de conséquence, que le mot français « héros » vient du substantif grec rjpcoç, le texte débute par un travail de décentrement face aux référents contemporains liés à l'emploi du terme dans nos langues modernes : le « héros » n'est pas forcément le rjpcoç. Riche de cette analyse, la deuxième partie du travail se tourne vers l'Antiquité grecque, et plus précisément vers les poésies homérique et hésiodique. L'analyse de l'emploi du vocabulaire héroïque au sein de ces récits permet de cerner plus précisément les diverses figures appelées rjpcoç - figures qui semblent si différentes les unes des autres alors qu'elles partagent un qualificatif commun. Fort de cet apport quant à la compréhension du rjpcoç épique grec, une troisième partie questionne la présence de la catégorie du « héros » dans la Bible hébraïque mais aussi dans ses traductions en langues modernes. Constatant que le mot « héros » n 'apparaît jamais dans les langues anciennes que sont le grec de la LXX ou le latin de la Vulgate, les figures vétérotestamentaires sont repensées dans leur contexte proche- oriental, les voyant sous la lumière du Levant - lumière qui est la leur - et ce grâce au vocabulaire somme toute fort précis de la langue hébraïque. Finalement, une partie conclusive tente de mettre en exergue ce que la comparaison des récits grecs épiques et vétérotestamentaires a permis de soulever quant à leurs catégories « héroïques » respectives. L'enjeu est également de penser de manière critique ce que les cultures occidentales contemporaines nomment « héros », s'appuyant si souvent sur un « double héritage » gréco-romain et judéo-chrétien.
Resumo:
Rapport de synthèse Enjeux et contexte: L'hyponatrémie est un trouble électrolytique fréquent et associé à un pronostic défavorable dans de nombreuses affections card iovascu lai res (1-5), pour lesquelles il est un marqueur de l'activation neurohumorale (6). Sa valeur pronostique chez les patients se présentant avec une emboîie pulmonaire était jusque là inconnue ; elle fait l'objet de la présente étude.Objectifs: Examiner chez les patients hospitalisés pour une embolie pulmonaire, les associations entre hyponatrémie et mortalité ainsi qu'avec le taux de réhospitalisation. Méthodes: Nous avons étudié les données de 13728 patients avec un diagnostic principal d'embolie pulmonaire provenant de 185 hôpitaux en Pennsylvanie (janvier 2000 à novembre 2002.) Nous avons utilisé un modèle de régression logistique afin d'établir l'association indépendante entre le niveau de sodium lors de la présentation aux urgences et la mortalité ainsi que le taux de ^hospitalisation durant 30 jours. Nous avons ajusté pour les caractéristiques du patient (race, assurance, sévérité de la maladie, usage de la thrombolyse) et de l'hôpital (région, taille, avec ou sans médecins en formation.)Résultats principaux: Une hyponatrémie (sodium £ 135 mmol/l) était présente chez 2907 patients (21.1%). Les patients avec un sodium >135, 130-135, et <130 mmol/l avaient une mortalité cumulée à 30 jours de 8.0%, 13.6%, et 28.5% (P <0.001), et un taux de réadmission de 11.8%, 15.6%, et 19.3% (P <0.001), respectivement. Comparés aux patients avec un sodium >135 mmol/l, les odd ratios ajustés concernant la mortalité étaient significativement plus important pour les patients avec un sodium compris entre 130 et 135 mmol/l (OR 1.53, 95% Cl: 1.33-1.76) ou <130 mmol/l (OR 3.26, 95% Cl: 2.48-4.29). Les odd ratios ajustés concernant la réhospitalisation étaient également augmentés pour les patients présentant un sodium entre 130 et 135 mmol/l (OR 1.28, 95% Cl: 1.12-1.46) ou <130 mmol/l (OR 1.44, 95% Cl: 1.02-2.02). Conclusions et perspectives: L'hyponatrémie est fréquente chez les patients se présentant avec une embolie pulmonaire, de plus elle est un prédicateur indépendant de la mortalité à court terme, ainsi que du taux de réhospitalisation. La natrémie est une information généralement disponible lors de l'établissement d'un pronostic. Bien que cette association soit compatible avec une activation neurohumorale, nous ne pouvons pas attester des mécanismes impliqués, du fait que notre étude ne donne pas d'informations sur d'autres étapes de la physiologie de cette association.
Resumo:
Il y a environ 125 millions d'années, au Crétacé inférieur, la position des continents et le climat terrestre étaient bien différents de ce que l'on connait aujourd'hui. Le Sud-Est de la France, secteur de cette étude, était alors recouvert d'eau, sous un climat chaud et humide. Sur la bordure de cette étendue d'eau (appelée bassin Vocontien), qui correspond aujourd'hui aux régions de la Provence, du Vaucluse, du Gard, de l'Ardèche et du Vercors, des plateformes carbonatées, (telles que les Bahamas), se développaient. Le calcaire, formé à partir des sédiments accumulés sur ces plateformes, est appelé Urgonien. L'objectif de cette étude est de définir les facteurs qui ont influencé le développement de cette plateforme carbonatée dite « urgonienne » et dans quelle mesure. Plusieurs missions de terrain ont permis de récolter de nombreux échantillons de roche en 52 lieux répartis sur l'ensemble du Sud-Est de la France. Les observations réalisées sur le terrain ainsi que les données acquises en laboratoire (microfaune, microfacies et données géo-chimiques) ont permis, de subdiviser chacune des 52 séries urgoniennes en séquences stratigraphiques et cortèges sédimentaires. La comparaison des épaisseurs et des faciès de chaque cortège sédimentaire permet de concevoir la géométrie et l'évolution paléogéographique de la plateforme urgonienne. Les résultats de cette étude démontrent que son organisation est principalement dirigée par des failles qui ont jouées pendant le dépôt des sédiments. Sur la bordure nord du bassin Vocontien, trois failles subméridiennes contrôlent la géométrie et la répartition des environnements de dépôt. Sur sa bordure sud, ces failles synsédimentaires d'orientation N30° et N110° délimitent des blocs basculés. En tête de bloc, des séries d'épaisseurs réduites à faciès de lagon interne se sont déposées alors que les pieds de blocs sont caractérisés par des épaisseurs importantes et la présence de faciès plus externes. Ces concepts ont ensuite été testés en construisant un modèle numérique en trois dimensions de l'Urgonien du Sud-Est de la France. Sa cohérence avec les données acquises tout au long de cette étude d'une part, et sa cohérence géométrique d'autre part, valide les théories avancées. Des formations équivalentes à l'Urgonien sont réparties dans le monde entier et notamment au Moyen-Orient où elles constituent les réservoirs pétroliers les plus importants. Etre capable de caractériser les facteurs ayant influencé son architecture permet par la suite une meilleure exploitation de ses ressources énergétiques. -- Au Crétacé inférieur, l'intense activité magmatique due à la dislocation du super-continent Pangée influence fortement les conditions environnementales globales. Au Barrémien terminal et Aptien basal, période géologique dont fait l'objet cette étude, le bassin Vocontien, puis Bédoulien, recouvre le Sud-Est de la France, sous un climat chaud et humide. Sur les bordures de ces bassins, des plateformes carbonatées se mettent en place. Les sédiments qui se déposent sur ces plateformes sont à l'origine de la formation urgonienne. Afin d'étudier cette formation, une charte biostratigraphique, principalement basée sur les Orbitolinidés, et un modèle de faciès ont été développés. Les assemblages faunistiques, la succession des faciès, les observations de terrain ainsi que l'étude de signaux géochimiques ont permis le découpage séquentiel de la série urgonienne le long de 54 coupes et puis, répartis sur l'ensemble du Sud-Est de la France. Les corrélations induites par cette étude stratigraphique ont mis en évidence d'importantes variations d'épaisseur et d'environnements de dépôt au sein même de la plateforme urgonienne. Ces variations sont expliquées par le jeu de failles syn-sédimentaires qui ont compartimentées la plateforme urgonienne en blocs. Sur la bordure sud du bassin Vocontien, ces failles d'orientation N30° et N110° délimitent six blocs basculés. Au sommet du Barrémien terminal, la subsidence des blocs situés le plus au sud s'amplifie jusqu'à provoquer l'ouverture du bassin de la Bédoule au sud du secteur d'étude. Cette théorie d'évolution a ensuite été testée par l'élaboration d'un modèle numérique en trois dimensions de l'Urgonien du Sud-Est de la France. Sa cohérence avec les données acquises tout au long de cette étude d'une part, et sa cohérence géométrique d'autre part, valide les théories avancées. Des analogues de l'Urgonien sont répartis dans le monde entier et notamment au Moyen-Orient où ils représentent d'importants réservoirs pétroliers. Être capable de caractériser les facteurs ayant influencé l'architecture de l'Urgonien du Sud-Est de la France permet par la suite une meilleure exploitation de ses ressources énergétiques. -- During the Early Cretaceous epoch, intensive magmatic activity due to the dislocation of the super-continent Pangaea, highly influenced global environmental conditions, which were characterized by a warm and generally humic climate. In this context, carbonate platforms were important in tropical and subtropical shallow-water regions, and especially during the late Barremian and early Aptian, platform carbonates of so-called Urgonian affinity are widespread. In southeastern France, the Urgonian platform was part of the northern Tethyan margin and bordered the Vocontian and the Bedoulian basins. The goal of this thesis was the systematic study of the Urgonian Formation in this region, and in order to achieve this goal, a biostratigraphic chart and a facies model were developed. The faunistic assemblages, the facies succession, the field observations and the study of geochemical signals lead to a sequential subdivision of the Urgonian series along 54 sections and wells allocated in five different regions in southeastern France (Gard, Ardèche, Vercors, Vaucluse and Provence). Correlations from this stratigraphic study highlight important variations in thickness and depositional environments of the Urgonian series. These variations are explained by relative movements induced by syn-sedimentary faults, which divided the Urgonian platforms into blocks. On the southern border of the Vocontian basin, these faults, oriented N30° and N110°, delineate six tilted blocks. At the top of the upper Barremian carbonates, subsidence of the two southern blocks accelerated leading to the opening of the Bedoulian basin. The reconstruction of the sequence-stratigraphic and paleoenvironmental evolution of the Urgonian platforms was then tested by the construction of a 3D numerical model of the Urgonian formation of southeastern France. Firstly, its consistency with the data collected during this study, and secondly, its geometrical coherence validate the proposed theory. Urgonian analogs exist all over the world and particularly in Middle East where they constitute important oil reservoirs. The exact reconstruction of the major factors, which influenced the architecture of these formations, will allow for a better exploitation of these energy resources.
Resumo:
Le forensicien joue fréquemment le rôle d'expert judiciaire. Dans cette responsabilité, il doit par exemple évaluer le lien qu'est susceptible d'entretenir une trace avec une source putative (une personne, un objet) donnée. L'expert examine aussi parfois la relation entre deux traces (proviennent-elles de la même source ?), combine les indices, ou interprète les activités possibles en regard des traces recueillies. Un mouvement dominant et intégrateur préconise d'effectuer cette évaluation au moyen de probabilités qui expriment dans un cadre formel les incertitudes inhérentes à ce genre de questions. Basé sur le théorème découvert par le révérend Bayes sur la probabilité des causes, le rapport de vraisemblance équilibre le point de vue de l'accusation (par exemple, probabilité de la trace, sachant que x en est à l'origine) et de la défense (la probabilité de la trace si la source n'est pas x). L'exploitation de ce modèle fait appel à l'expérience de l'expert, mais aussi à de grandes quantités de données représentatives qui doivent encore être rassemblées. Une tendance consiste aussi à exploiter pour cela les données stockées par l'utilisation de systèmes automatisés (empreintes digitales, projectiles, etc.). De nouvelles possibilités d'extraire des caractéristiques encore inexplorées à partir des traces sont susceptibles d'augmenter considérablement les moyens pour les experts judiciaires d'apporter des réponses probabilistes dans des circonstances toujours plus variées aux autorités judiciaires qui les mandatent.
Resumo:
Le modèle développé à l'Institut universitaire de médecine sociale et préventive de Lausanne utilise un programme informatique pour simuler les mouvements d'entrées et de sorties des hôpitaux de soins généraux. Cette simulation se fonde sur les données récoltées de routine dans les hôpitaux; elle tient notamment compte de certaines variations journalières et saisonnières, du nombre d'entrées, ainsi que du "Case-Mix" de l'hôpital, c'est-à-dire de la répartition des cas selon les groupes cliniques et l'âge des patients.
Resumo:
Abstract Stroke or cerebrovascular accident, whose great majority is of ischemic nature, is the third leading cause of mortality and long lasting disability in industrialised countries. Resulting from the loss of blood supply to the brain depriving cerebral tissues of oxygen and glucose, it induces irreversible neuronal damages. Despite the large amount of research carried out into the causes and pathogenic features of cerebral ischemia the progress toward effective treatments has been poor. Apart the clot-busting drug tissue-type plasminogen activator (tPA) as effective therapy for acute stroke (reperfusion by thrombolysis) but limited to a low percentage of patients, there are currently no other approved medical treatments. The need for new therapy strategies is therefore imperative. Neuronal death in cerebral ischemia is among others due to excitotoxic mechanisms very early after stroke onset. One of the main involved molecular pathways leading to excitotoxic cell death is the c-Jun NH2-terminal kinase (JNK) pathway. Several studies have already shown the efficacy of a neuroprotective agent of a new type, a dextrogyre peptide synthesized in the retro inverso form (XG102, formerly D-JNKI1), which is protease-resistant and cell-penetrating and that selectively and strongly blocks the access of JNK to many of its targets. A powerful protection was observed with this compound in several models of ischemia (Borsello et al. 2003;Hirt et al. 2004). This chimeric compound, made up of a 10 amino acid TAT transporter sequence followed by a 20 amino acids JNK binding domain (JBD) sequence from JNK inhibitor protein (JIP) molecule, induced both a major reduction in lesion size and improved functional outcome. Moreover it presents a wide therapeutic window. XG-102 has proved its powerful efficacy in an occlusion model of middle cerebral artery in mice with intracérebroventricular (i.c.v.) injection but in order to be able to consider the development of this drug for human ischemic stroke it was therefore necessary to determine the feasibility of its systemic administration. The studies being the subject of this thesis made it possible to show a successful neuroprotection with XG-102 administered systemically after transient mouse middle cerebral artery occlusion (MCAo). Moreover our data. provided information about the feasibility to combine XG-102 with tPA without detrimental action on cell survival. By combining the benefits from a reperfusion treatment with the effects of a neuroprotective compound, it would represent the advantage of bringing better chances to protect the cerebral tissue. Résumé L'attaque cérébrale ou accident vasculaire cérébral, dont la grande majorité est de nature ischémique, constitue la troisième cause de mortalité et d'infirmité dans les pays industrialisés. Résultant de la perte d'approvisionnement de sang au cerveau privant les tissus cérébraux d'oxygène et de glucose, elle induit des dommages neuronaux irréversibles. En dépit du nombre élevé de recherches effectuées pour caractériser les mécanismes pathogènes de l'ischémie. cérébrale, les progrès vers des traitements efficaces restent pauvres. Excepté l'activateur tissulaire du plasminogène (tPA) dont le rôle est de désagréger les caillots sanguins et employé comme thérapie efficace contre l'attaque cérébrale aiguë (reperfusion par thrombolyse) mais limité à un faible pourcentage de patients, il n'y a actuellement aucun autre traitement médical approuvé. Le besoin de nouvelles stratégies thérapeutiques est par conséquent impératif. La mort neuronale dans l'ischémie cérébrale est entre autres due à des mécanismes excitotoxiques survenant rapidement après le début de l'attaque cérébrale. Une des principales voies moléculaires impliquée conduisant à la mort excitotoxique des cellules est la voie de la c-Jun NH2terminal kinase (JNK). Plusieurs études ont déjà montré l'efficacité d'un agent neuroprotecteur d'un nouveau type, un peptide dextrogyre synthétisé sous la forme retro inverso (XG-102, précédemment D-JNKI1) résistant aux protéases, capable de pénétrer dans les cellules et de bloquer sélectivement et fortement l'accès de JNK à plusieurs de ses cibles. Une puissante protection a été observée avec ce composé dans plusieurs modèles d'ischémie (Borsello et al. 2003;Hirt et al. 2004). Ce composé chimérique, construit à partir d'une séquence TAT de 10 acides aminés suivie par une séquence de 20 acides aminés d'un domaine liant JNK (JBD) issu de la molécule JNK protéine inhibitrice. (JIP), induit à la fois une réduction importante de la taille de lésion et un comportement fonctionnel amélioré. De plus il présente une fenêtre thérapeutique étendue. XG-102 a prouvé sa puissante efficacité dans un modèle d'occlusion de l'artère cérébrale moyenne chez la souris avec injection intracerebroventriculaire (i.c.v.) mais afin de pouvoir envisager le développement de ce composé pour l'attaque cérébrale chez l'homme, il était donc nécessaire de déterminer la faisabilité de son administration systémique. Les études faisant l'objet de cette thèse ont permis de montrer une neuroprotection importante avec XG-102 administré de façon systémique après l'occlusion transitoire de l'artère cérébrale moyenne chez la souris (MCAo). De plus nos données ont fourni des informations quant à la faisabilité de combiner XG-102 et tPA, démontrant une protection efficace par XG-102 malgré l'action nuisible du tPA sur la survie des cellules. En combinant les bénéfices de la reperfusion avec les effets d'un composé neurooprotecteur, cela représenterait l'avantage d'apporter des meilleures chances de protéger le tissu cérébral.
Resumo:
Résumé tout public : Le développement du diabète de type II et de l'obésité est causé par l'interaction entre des gènes de susceptibilité et des facteurs environnementaux, en particulier une alimentation riche en calories et une activité physique insuffisante. Afín d'évaluer le rôle de l'alimentation en absence d'hétérogénéité génétique, nous avons nourri une lignée de souris génétiquement pure avec un régime extrêmement gras. Ce régime a conduit à l'établissement de différents phénotypes parmi ces souris, soit : un diabète et une obésité (ObD), un diabète mais pas d'obésité (LD) ou ni un diabète, ni une obésité (LnD). Nous avons fait l'hypothèse que ces adaptations différentes au stress nutritionnel induit par le régime gras étaient dues à l'établissement de programmes génétiques différents dans les principaux organes impliqués dans le maintien de l'équilibre énergétique. Afin d'évaluer cette hypothèse, nous avons développé une puce à ADN contenant approximativement 700 gènes du métabolisme. Cette puce à ADN, en rendant possible la mesure simultanée de l'expression de nombreux gènes, nous a permis d'établir les profils d'expression des gènes caractéristiques de chaque groupe de souris nourries avec le régime gras, dans le foie et le muscle squelettique. Les données que nous avons obtenues à partir de ces profils d'expression ont montré que des changements d'expression marqués se produisaient dans le foie et le muscle entre les différents groupes de souris nourries avec le régime gras. Dans l'ensemble, ces changements suggèrent que l'établissement du diabète de type II et de l'obésité induits par un régime gras est associé à une synthèse accrue de lipides par le foie et à un flux augmenté de lipides du foie jusqu'à la périphérie (muscles squelettiques). Dans un deuxième temps, ces profils d'expression des gènes ont été utilisés pour sélectionner un sous-ensemble de gènes suffisamment discriminants pour pouvoir distinguer entre les différents phénotypes. Ce sous-ensemble de gènes nous a permis de construire un classificateur phénotypique capable de prédire avec une précision relativement élevée le phénotype des souris. Dans le futur, de tels « prédicteurs » basés sur l'expression des gènes pourraient servir d'outils pour le diagnostic de pathologies liées au métabolisme. Summary: Aetiology of obesity and type II diabetes is multifactorial, involving both genetic and environmental factors, such as calory-rich diets or lack of exercice. Genetically homogenous C57BL/6J mice fed a high fat diet (HFD) up to nine months develop differential adaptation, becoming either obese and diabetic (ObD) or remaining lean in the presence (LD) or absence (LnD) of diabetes development. Each phenotype is associated with diverse metabolic alterations, which may result from diverse molecular adaptations of key organs involved in the control of energy homeostasis. In this study, we evaluated if specific patterns of gene expression could be associated with each different phenotype of HFD mice in the liver and the skeletal muscles. To perform this, we constructed a metabolic cDNA microarray containing approximately 700 cDNA representing genes involved in the main metabolic pathways of energy homeostasis. Our data indicate that the development of diet-induced obesity and type II diabetes is linked to some defects in lipid metabolism, involving a preserved hepatic lipogenesis and increased levels of very low density lipoproteins (VLDL). In skeletal muscles, an increase in fatty acids uptake, as suggested by the increased expression of lipoprotein lipase, would contribute to the increased level of insulin resistance observed in the ObD mice. Conversely, both groups of lean mice showed a reduced expression in lipogenic genes, particularly stearoyl-CoA desaturase 1 (Scd-1), a gene linked to sensitivity to diet-induced obesity. Secondly, we identified a subset of genes from expression profiles that classified with relative accuracy the different groups of mice. Such classifiers may be used in the future as diagnostic tools of each metabolic state in each tissue. Résumé Développement d'une puce à ADN métabolique et application à l'étude d'un modèle murin d'obésité et de diabète de type II L'étiologie de l'obésité et du diabète de type II est multifactorielle, impliquant à la fois des facteurs génétiques et environnementaux, tels que des régimes riches en calories ou un manque d'exercice physique. Des souris génétiquement homogènes C57BL/6J nourries avec un régime extrêmement gras (HFD) pendant 9 mois développent une adaptation métabolique différentielle, soit en devenant obèses et diabétiques (ObD), soit en restant minces en présence (LD) ou en absence (LnD) d'un diabète. Chaque phénotype est associé à diverses altérations métaboliques, qui pourraient résulter de diverses adaptations moléculaires des organes impliqués dans le contrôle de l'homéostasie énergétique. Dans cette étude, nous avons évalué si des profils d'expression des gènes dans le foie et le muscle squelettique pouvaient être associés à chacun des phénotypes de souris HFD. Dans ce but, nous avons développé une puce à ADN métabolique contenant approximativement 700 ADNc représentant des gènes impliqués dans les différentes voies métaboliques de l'homéostasie énergétique. Nos données indiquent que le développement de l'obésité et du diabète de type II induit par un régime gras est associé à certains défauts du métabolisme lipidique, impliquant une lipogenèse hépatique préservée et des niveaux de lipoprotéines de très faible densité (VLDL) augmentés. Au niveau du muscle squelettique, une augmentation du captage des acides gras, suggéré par l'expression augmentée de la lipoprotéine lipase, contribuerait à expliquer la résistance à l'insuline plus marquée observée chez les souris ObD. Au contraire, les souris minces ont montré une réduction marquée de l'expression des gènes lipogéniques, en particulier de la stéaroyl-CoA désaturase 1 (scd-1), un gène associé à la sensibilité au développement de l'obésité par un régime gras. Dans un deuxième temps, nous avons identifié un sous-ensemble de gènes à partir des profils d'expression, qui permettent de classifier avec une précision relativement élevée les différents groupes de souris. De tels classificateurs pourraient être utilisés dans le futur comme outils pour le diagnostic de l'état métabolique d'un tissu donné.
Resumo:
Le modèle développé à l'Institut universitaire de médecine sociale et préventive de Lausanne utilise un programme informatique pour simuler les mouvements d'entrées et de sorties des hôpitaux de soins généraux. Cette simulation se fonde sur les données récoltées de routine dans les hôpitaux; elle tient notamment compte de certaines variations journalières et saisonnières, du nombre d'entrées, ainsi que du "Case-Mix" de l'hôpital, c'est-à-dire de la répartition des cas selon les groupes cliniques et l'âge des patients.
Resumo:
Résumé : La clozapine (Leponex®) est un neuroleptique atypique utilisé depuis une quarantaine d'années (synthétisée en 1959) dans le traitement de la schizophrénie résistante. Son utilisation a fait l'objet de controverses importantes en raison de son profil d'effets secondaires, potentiellement fatals (agranulocytose), et a entraîné son retrait de certains pays pendant de nombreuses années, malgré certaines caractéristiques qui en font une molécule très intéressante sur le plan clinique. On peut citer à cet égard une efficacité antipsychotique importante tant sur les symptômes positifs que sur les symptômes négatifs de la maladie, ainsi que l'absence d'effets secondaires extrapyramidaux, tels que ceux entraînés par les neuroleptiques classiques. Depuis la réadmission de la clozapine par la FDA aux Etats-Unis en 1990, suite notamment aux travaux montrant l'amélioration, grâce à cette molécule, des dyskinésies tardives induites par les neuroleptiques classiques, on assiste à un regain d'intérêt marqué pour ses possibilités thérapeutiques. L'indication reste toutefois limitée à l'heure actuelle au traitement de la schizophrénie résistante à d'autres neuroleptiques, donc un traitement en deuxième intention. Sachant que l'évolution de la schizophrénie est influencée, entre autres facteurs, par la durée des manifestations symptomatiques, il nous a semblé intéressant d'évaluer le devenir de jeunes patients schizophrènes mis d'emblée au bénéfice d'un traitement par la clozapine. C'est le sujet de la présente étude. Cette étude a été initialement conçue comme une étude de cohorte, randomisée, en double aveugle, multi-site à l'échelle romande, avec un suivi des patients sur une année. Les difficultés rencontrées, qui ont abouti à une interruption précoce ne permettant le relevé que des observations de six patients, sont détaillées. Après une brève introduction sur la schizophrénie et sur la clozapine, ce travail décrit l'historique de l'étude, ses buts et sa méthodologie. Suit une description des six patients et leur évolution au cours de l'étude. Dans le chapitre IV, les résultats sont analysés et discutés dans une perspective descriptive. Précédant la bibliographie et les annexes, la conclusion fournit l'opportunité de discuter les apports et les limites de ce travail, en le resituant dans le contexte international actuel de regain d'intérêt pour l'utilisation de la clozapine dans le traitement de la schizophrénie.