993 resultados para Inverse Problem


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Réovirus, connu sous le nom REOLYSIN®, est présentement à l'étude à titre d'agent oncolytique. Or, la spécificité du virus pour les cellules cancéreuses pourrait être optimisée par une modification au niveau de la protéine d'attachement σ1. La présente étude vise à démontrer qu'une telle amélioration est possible par l'utilisation de la méthode nouvellement décrite de génétique inverse. Par cette technique, il est possible d'ajouter un polypeptide d'une longueur de quarante acides aminés à l'extrémité C-terminale de σ1. Il est aussi possible d'engendrer des virus mutés en leur site d'activité mucinolytique. Les virus nouvellement créés démontrent une efficacité de réplication diminuée, mais demeurent infectieux. Contrairement aux méthodes traditionnellement utilisées avec réovirus, la méthode de génétique inverse permet de conserver les mutations engendrées, par substitution ou addition, au cours des cycles de réplication. Une telle étude démontre qu'il serait possible de modifier le tropisme de réovirus.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La douleur post-opératoire chez les patients constitue un défi thérapeutique important pour les cliniciens. Le traitement de la douleur post-opératoire n’est pas accessoire ni optionnel, puisqu’il permet de donner un congé de l’hôpital plus rapide aux patients et ainsi, il contribue à des économies importantes pour notre système de santé. Parmi les approches thérapeutiques utilisées pour la prise en charge de la douleur post-opératoire, cette thèse s’intéresse particulièrement aux blocs de nerfs périphériques par les anesthésiques locaux et à l’administration de la néostigmine par voie épidurale. Ces médicaments sont utilisés en clinique sans avoir préalablement établi, en se basant sur leur propriétés pharmacocinétiques et pharmacodynamiques spécifiques, leurs doses optimales. Ces doses devraient également tenir en considération les particularités anatomiques du site d’injection par rapport au site d’action. Cette thèse inclut des études exploratoires qui ont contribué à caractériser la pharmacocinétique de la ropivacaïne et de la bupivacaïne ainsi que la pharmacocinétique et la pharmacodynamie de la néostigmine. La première étude portait sur seize patients subissant une chirurgie orthopédique avec un bloc combiné des nerfs fémoral et sciatique par la ropivacaïne (n=8) ou la bupivacaïne (n=8). C’était la première étude qui a inclu des temps d’échantillons pharmacocinétiques allant jusqu’à 32 h après le bloc et ces résultats ont démontré une variabilité interindividuelle considérable. La modélisation par approche de population a aidé à expliquer les sources de la variabilité et démontré que l’absorption systémique des anesthésiques locaux était très lente. De plus, les concentrations plasmatiques demeuraient mesurables, et dans certains cas présentaient un plateau, 32 h après le bloc. Dans les prochaines études, un échantillonnage allant jusqu’à 4 ou 5 jours sera nécessaire afin d’atteindre la fin de l’absorption. La deuxième étude a établi le développement d’un modèle animal en étudiant la pharmacocinétique de la ropivacaïne après administration intraveineuse ainsi que son degré de liaison aux protéines plasmatiques chez le lapin (n=6). Les résultats ont démontré que, chez le lapin la ropivacaïne est beaucoup moins liée aux protéines plasmatiques comparativement à l’humain. Ce résultat important sera utile pour planifier les prochaines études précliniques. La troisième étude a exploré, pour la première fois, la pharmacocinétique et la pharmacodynamie de la néostigmine administrée par voie épidurale et a essayé de caractériser la courbe dose-réponse en utilisant trois doses différentes : 0.5, 1 et 1.5 mg. Bien que les concentrations de la néostigmine dans le liquide céphalo-rachidien fussent très variables une relation inverse entre la consommation de mépéridine et la dose de néostigmine a été démontrée. La dose de 1.5 mg a donné une meilleure réponse pharmacodynamique sur la douleur, mais elle a été considérée comme dangereuse puisqu’elle a résulté en deux cas d’hypertension. Nous avons conclu que des doses plus faibles que 1.5 mg devront être utilisées lors de l’utilisation de la néostigmine par voie épidurale. En conclusion, les études rapportées dans cette thèse ont exploré les propriétés pharmacocinétiques et/ou pharmacodynamiques de certains médicaments utilisés pour le traitement de la douleur post-opératoire. Ceci mènera au but ultime qui est la meilleure prise en charge de la douleur post-opératoire chez les patients.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le sujet sur lequel porte la présente étude est inspiré de la problématique à la base du développement du commerce électronique : la confiance. En effet, l’accroissement exponentiel du nombre d’internautes et des sites Web commerciaux pose un sérieux problème à ce niveau. Ces sites présentent au public une information et des services divers, mais peu vérifiables. Ainsi, le principal obstacle au développement du commerce électronique avec les particuliers est le manque de confiance qu’inspirent les lieux visités. En effet, comment savoir si l’entreprise existe, quelles sont ses politiques concernant la sécurité ou la gestion des renseignements personnels, etc. La vérification et la certification des sites apparaissent comme une solution de plus en plus attrayante et utilisée pour ajouter cet élément de confiance. Déjà, de nombreux sceaux de qualité sont apparus sur les sites commerciaux. Certains sceaux portent sur la confidentialité tandis que d’autres ciblent la protection des consommateurs. La certification peut provenir de la compagnie même, d’un tiers certificateur ou d’un organisme public. Ces éléments constituent des balises et repères importants pour le consommateur sur Internet. Toutefois, les incidences légales sont multiples et certains concepts demeurent flous. Pour apporter une réponse à ces questions, nous définirons le concept de certification des sites Web et ses enjeux dont plus particulièrement la problématique de la confiance des consommateurs. Les différents objets de la certification seront analysés, tant au niveau de l’entité, du contenu du site que de la dimension transactionnelle de celui-ci. Les processus possibles et les impacts de la certification occupent la seconde partie du travail. Il s’agit d’examiner successivement les étapes menant à la certification, soit l’établissement des standards, de l’évaluation de l’entité et de la certification elle-même. L’analyse des impacts de la certification, tant sur le plan de la portée, de la responsabilité légale et des effets sur la concurrence de la certification constitue quant à eux, l’aboutissement de la recherche, soit de savoir quel est l’impact juridique d’un tel mécanisme. Le but de la recherche est de permettre au lecteur de mieux cerner ce phénomène de l’utilisation de la certification sur Internet avec ses avantages et ses limites. Certes, cet outil peut s’avérer très utile pour bâtir la confiance des consommateurs, promouvoir l’essor du commerce électronique et constituer une forme d’autoréglementation. Toutefois, mal utilisé ou mal encadré, il peut engendrer l’effet inverse et détruire cette confiance si fragile à construire dans un environnement dématérialisé.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette étude vise à tester la pertinence des images RSO - de moyenne et de haute résolution - à la caractérisation des types d’occupation du sol en milieu urbain. Elle s’est basée sur des approches texturales à partir des statistiques de deuxième ordre. Plus spécifiquement, on recherche les paramètres de texture les plus pertinents pour discriminer les objets urbains. Il a été utilisé à cet égard des images Radarsat-1 en mode fin en polarisation HH et Radarsat-2 en mode fin en double et quadruple polarisation et en mode ultrafin en polarisation HH. Les occupations du sol recherchées étaient le bâti dense, le bâti de densité moyenne, le bâti de densité faible, le bâti industriel et institutionnel, la végétation de faible densité, la végétation dense et l’eau. Les neuf paramètres de textures analysés ont été regroupés, en familles selon leur définition mathématique. Les paramètres de ressemblance/dissemblance regroupent l’Homogénéité, le Contraste, la Similarité et la Dissimilarité. Les paramètres de désordre sont l’Entropie et le Deuxième Moment Angulaire. L’Écart-Type et la Corrélation sont des paramètres de dispersion et la Moyenne est une famille à part. Il ressort des expériences que certaines combinaisons de paramètres de texture provenant de familles différentes utilisés dans les classifications donnent de très bons résultants alors que d’autres associations de paramètres de texture de définition mathématiques proches génèrent de moins bons résultats. Par ailleurs on constate que si l’utilisation de plusieurs paramètres de texture améliore les classifications, la performance de celle-ci plafonne à partir de trois paramètres. Malgré la bonne performance de cette approche basée sur la complémentarité des paramètres de texture, des erreurs systématiques dues aux effets cardinaux subsistent sur les classifications. Pour pallier à ce problème, il a été développé un modèle de compensation radiométrique basé sur la section efficace radar (SER). Une simulation radar à partir du modèle numérique de surface du milieu a permis d'extraire les zones de rétrodiffusion des bâtis et d'analyser les rétrodiffusions correspondantes. Une règle de compensation des effets cardinaux fondée uniquement sur les réponses des objets en fonction de leur orientation par rapport au plan d'illumination par le faisceau du radar a été mise au point. Des applications de cet algorithme sur des images RADARSAT-1 et RADARSAT-2 en polarisations HH, HV, VH, et VV ont permis de réaliser de considérables gains et d’éliminer l’essentiel des erreurs de classification dues aux effets cardinaux.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avec l’avancement en âge, les personnes âgées qui vivent à domicile ont besoin du soutien des membres de leur entourage, notamment d’un aidant familial dont le rôle n’est toutefois pas sans conséquence sur sa santé. Les écrits empiriques ont montré que certains aidants sont résilients, c’est-à-dire qu’ils s’adaptent à leur situation et continuent leur développement. Toutefois, aucune étude n’a été effectuée au Liban auprès des aidantes familiales pour expliquer la résilience dans ce contexte et, plus spécifiquement, pour déterminer les facteurs qui pourraient l’influencer. Cette étude à devis corrélationnel de prédiction avait pour but de vérifier certaines des relations postulées par un modèle empirique découlant des écrits, soit la contribution de facteurs personnels (stratégies de coping et auto-efficacité) et de facteurs contextuels (relations familiales, perception du soutien de l’entourage, et sens accordé au « prendre soin »),à la résilience des aidantes familiales libanaises qui prennent soin d’un proche âgé à domicile. L’étude a été effectuée au Liban auprès d’un échantillon de convenance composé de 140 aidantes familiales principales cohabitant à domicile avec un parent âgé de 65 ans et plus ayant une perte d’autonomie fonctionnelle ou cognitive. La collecte des données a été réalisée en arabe en utilisant un guide d’entrevue standardisé regroupant des instruments nord-américains traduits selon la méthode de traduction inversée parallèle, de même qu’une question ouverte portant sur la perception des aidantes de la résilience, soit des facteurs qui les aident à continuer à prendre soin de leur proche âgé tout en continuant à se développer. Une analyse de régression hiérarchique a permis de vérifier la contribution unique des facteurs personnels et contextuels à expliquer la résilience des aidantes familiales, en contrôlant pour l’âge et le niveau de scolarité des aidantes et pour le niveau de perte d’autonomie et la fréquence des comportements dysfonctionnels de leurs parents âgés. Une analyse de contenu a permis de décrire la perception des aidantes eu égard à la résilience. Les résultats ont montré que le modèle empirique, incluant les variables de contrôle explique 54% de la variance de la résilience et que quatre des facteurs considérés, soit les stratégies de coping centrées sur le problème, les stratégies de coping centrées sur les émotions, le sentiment d’auto-efficacité et le sens du « prendre soin » ont une contribution statistiquement significative à la résilience des aidantes. Parmi ces quatre facteurs, le sens du « prendre soin » et le sentiment d’auto-efficacité expliquent davantage de variance, soit 11% et 5% respectivement. L’analyse qualitative du discours des aidantes a montré qu’elles prennent soin de leur proche âgé surtout par souci de réciprocité, mais également parce qu’il s’agit d’un membre de la famille et par respect pour Dieu. Ce sont par ailleurs leurs croyances et la satisfaction liée au prendre soin qui les aident à continuer et à se développer. Cette étude offre une meilleure compréhension du concept de la résilience des aidantes familiales au Liban et de certains facteurs qui en sont des prédicteurs significatifs. Elle offre des pistes pour l’intervention infirmière dans le but de promouvoir la santé de la personne/famille en tant que partenaire de soins. Des recommandations pour la pratique, la formation et la recherche sont proposées.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans ce mémoire, on étudie les extensions galoisiennes finies de C(x). On y démontre le théorème d'existence de Riemann. Les notions de rigidité faible, rigidité et rationalité y sont développées. On y obtient le critère de rigidité qui permet de réaliser certains groupes comme groupes de Galois sur Q. Plusieurs exemples de types de ramification sont construis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les animaux font face à des changements environnementaux brutaux dus aux modifications de milieux liés à l'activité humaine et aux changements climatiques, et doivent s'ajuster rapidement à leur nouvel environnement. Certains processus cognitifs comme l'innovation et l'apprentissage permettent aux animaux d'intégrer de nouveaux comportements à leur répertoire comportemental (flexibilité comportementale), leur donnant l'opportunité d'intégrer un comportement plus optimal pour s'ajuster. Les performances cognitives varient entre espèces et les individus d'une même population et bien que des études récentes se soient intéressées aux causes des variations interindividuelles des performances cognitives, les conséquences restent peu explorées. Dans cette thèse, les questions des pressions de sélection s'exerçant sur les capacités cognitives sont abordées afin de mieux comprendre l'évolution de ces traits au sein d'une population naturelle de mésange charbonnière Parus major. Un nouveau test de résolution de problème a tout d'abord été présenté à des couples reproducteurs directement en milieu naturel. Les résultats ont montré que les couples les plus performants à résoudre la tâche surpassaient les couples les moins performants sur plusieurs mesures de succès reproducteur. Afin de vérifier que la motivation à nourrir les poussins ne biaisait pas cette relation, la taille de nichée a ensuite été manipulée, ce qui n'a pas affecté la performance subséquente des parents. Les couples innovateurs démontraient un meilleur succès reproducteur quel que soit le changement de la taille de nichée subit, ce qui suggère que cette performance influence bien le succès de reproduction, et non l'inverse. De plus, les couples innovateurs approvisionnaient leurs poussins plus souvent que les couples non innovateurs, suggérant que les innovateurs pourraient exploiter leur habitat de façon plus optimale. Dans un troisième temps, plusieurs caractéristiques morphologiques, dont la coloration des plumes, ont été reliées aux performances de résolution de problème et d'apprentissage. Ces liens, bien que complexes et condition-dépendants, pourraient indiquer un rôle de ces performances lors de la sélection sexuelle. Enfin, afin de tester l'effet du parasite sanguin du paludisme sur les traits comportementaux, un médicament contre le paludisme a été injecté à des femelles reproductrices. Cette injection n'a pas modifié leurs performances cognitives mais a augmenté leur niveau d'activité et d'exploration du nichoir en réponse à la tâche de résolution de problème. Ce parasite sanguin, très présent chez les populations depassereaux, pourrait donc expliquer les variations interindividuelles et interpopulationnelles de certains traits comportementaux en milieu naturel, au même titre que dans nombreux autres systèmes hôte-parasites étudiés. Les travaux présentés dans cette thèse ont permis de détailler pour la première fois la relation entre une performance cognitive et le succès reproducteur chez une population aviaire naturelle, une relation robuste et non influencée par la motivation à nourrir la couvée. Cette performance cognitive est reliée à plusieurs traits morphologiques, mais non à la charge parasitaire. Une meilleure exploitation de l'habitat et habileté à s'occuper des poussins pourrait expliquer cette relation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le réovirus de mammifères se multiplie et détruit préférentiellement les cellules cancéreuses. Il est d’ailleurs actuellement à l’étude pour traiter divers types de cancers chez l’humain. L’objectif de cette étude était de mieux comprendre les diverses composantes impliquées dans le cycle viral de réovirus qui pourraient potentiellement être importantes dans le contexte d’optimisation de son potentiel oncolytique, ceci en utilisant une combinaison d’approches classiques ainsi que de génétique inverse.L’approche par persistance virale est classiquement utilisée pour identifier de nouveaux mutants de réovirus. Celle-ci a surtout mené à la sélection de mutants de décapsidation chez les cellules L929. Ici, des virus adaptés furent récupérés de cellules Vero (VeroAV) et contrairement aux autres mutants de persistance, ce virus possède des substitutions d’acides aminés sur les protéines mu1 et sigma1. L’approche par génétique inverse a permis de démontrer que la fixation de VeroAV sur les acides sialiques des cellules Vero était favorisée. Les substitutions sur sigma1 seraient principalement responsables de ce phénotype quoique le contexte de la substitution de mu1 puisse affecter l’infectivité du virus. Dans un deuxième volet, il a été remarqué que le virus de type sauvage utilisé pour la génétique inverse (T3DK) était plus sensible à l’interféron comparativement au virus de type sauvage de notre laboratoire (T3DS). Après séquençage complet du virus T3DS nous avons reconstruit, par génétique inverse, le virus T3DS. Nous avons donc pu poursuivre nos études sur le virus P4L-12 précédemment isolé au laboratoire par mutagenèse chimique. Il a été préalablement démontré que P4L-12 possède une meilleure réplication chez les cellules transformées et un blocage plus complet chez les cellules parentales, phénotype relié à une sensibilité accrue à l’interféron. Dans cette étude, des substitutions d’acides aminés sur les protéines sigma3, mu1, muNS et lambda2 furent identifiés. Nous avons démontré, par génétique inverse, que la substitution sur la protéine lambda2 était principalement responsable du phénotype de sensibilité à l’interféron. Ces approches de persistance ou de sélection de mutants sensibles à l’interféron, suivies d’une caractérisation par génétique inverse seront certainement utiles à une meilleure compréhension de réovirus et pourraient contribuer à améliorer son potentiel oncolytique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le problème d'allocation de postes d'amarrage (PAPA) est l'un des principaux problèmes de décision aux terminaux portuaires qui a été largement étudié. Dans des recherches antérieures, le PAPA a été reformulé comme étant un problème de partitionnement généralisé (PPG) et résolu en utilisant un solveur standard. Les affectations (colonnes) ont été générées a priori de manière statique et fournies comme entrée au modèle %d'optimisation. Cette méthode est capable de fournir une solution optimale au problème pour des instances de tailles moyennes. Cependant, son inconvénient principal est l'explosion du nombre d'affectations avec l'augmentation de la taille du problème, qui fait en sorte que le solveur d'optimisation se trouve à court de mémoire. Dans ce mémoire, nous nous intéressons aux limites de la reformulation PPG. Nous présentons un cadre de génération de colonnes où les affectations sont générées de manière dynamique pour résoudre les grandes instances du PAPA. Nous proposons un algorithme de génération de colonnes qui peut être facilement adapté pour résoudre toutes les variantes du PAPA en se basant sur différents attributs spatiaux et temporels. Nous avons testé notre méthode sur un modèle d'allocation dans lequel les postes d'amarrage sont considérés discrets, l'arrivée des navires est dynamique et finalement les temps de manutention dépendent des postes d'amarrage où les bateaux vont être amarrés. Les résultats expérimentaux des tests sur un ensemble d'instances artificielles indiquent que la méthode proposée permet de fournir une solution optimale ou proche de l'optimalité même pour des problème de très grandes tailles en seulement quelques minutes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans des contextes de post-urgence tels que le vit la partie occidentale de la République Démocratique du Congo (RDC), l’un des défis cruciaux auxquels font face les hôpitaux ruraux est de maintenir un niveau de médicaments essentiels dans la pharmacie. Sans ces médicaments pour traiter les maladies graves, l’impact sur la santé de la population est significatif. Les hôpitaux encourent également des pertes financières dues à la péremption lorsque trop de médicaments sont commandés. De plus, les coûts du transport des médicaments ainsi que du superviseur sont très élevés pour les hôpitaux isolés ; les coûts du transport peuvent à eux seuls dépasser ceux des médicaments. En utilisant la province du Bandundu, RDC pour une étude de cas, notre recherche tente de déterminer la faisabilité (en termes et de la complexité du problème et des économies potentielles) d’un problème de routage synchronisé pour la livraison de médicaments et pour les visites de supervision. Nous proposons une formulation du problème de tournées de véhicules avec capacité limitée qui gère plusieurs exigences nouvelles, soit la synchronisation des activités, la préséance et deux fréquences d’activités. Nous mettons en œuvre une heuristique « cluster first, route second » avec une base de données géospatiales qui permet de résoudre le problème. Nous présentons également un outil Internet qui permet de visualiser les solutions sur des cartes. Les résultats préliminaires de notre étude suggèrent qu’une solution synchronisée pourrait offrir la possibilité aux hôpitaux ruraux d’augmenter l’accessibilité des services médicaux aux populations rurales avec une augmentation modique du coût de transport actuel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse a pour point de départ l’idée du jeune Heidegger selon laquelle le sens de l’être doit être recherché au moyen d’une phénoménologie ontologique, plus précisément par l’analytique existentiale du Dasein et la destruction de l’histoire de l’ontologie ; ou, comme nous l’interprétons, dans la transcendance du Dasein et la transcendance de l’être. L’étude du problème de la transcendance fait l’objet d’une approche phénoménologique, laquelle porte une attention particulière au vécu en tant que tel ainsi qu’aux conditions de possibilité de ce vécu, et repose sur une lecture attentive et critique des œuvres de Heidegger. C’est une telle approche phénoménologique qui nous permettra de mener à bien notre analyse du problème de la transcendance dans le corpus heideggérien. Nous serons par ailleurs en mesure d’aborder le débat opposant à ce sujet la tradition analytique (plus particulièrement l’approche pragmatiste) et la tradition continentale, notre étude s’inscrivant dans le cadre de cette dernière. Nous proposons ici une phénoménologie du problème de la transcendance qui fait également figure de phénoménologie du sens, de la possibilité et de la normativité. Prenant pour point de départ certaines contributions issues de la tradition continentale, nous soutenons que le sens de l’être peut être compris comme le problème de la transcendance. L’histoire de la philosophie doit être perturbée, déconstruite et repensée afin que le chemin de la philosophie, encore non pensé, puisse être mis au jour. L’accès à cet autre commencement doit être recherché dans la transcendance en tant que telle – de l’appel de la conscience fondé dans la nullité à l’encontre authentique avec la mort et l’ouverture de la temporalité ; de l’avènement historial de l’être jusqu’à, ultimement, le i! ! ! ! refus de l’être et le retrait du rien. L’événement (Ereignis) de l’être est donc compris comme processus de dépassement de soi à partir duquel la transcendance de l’être – ou, comme le formule Heidegger, la fin des questions – est possible.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En génétique dite « classique », l’examen d’un phénotype conduit à l’étude des gènes impliqués dans son obtention. La génétique inverse est une méthode expérimentale très puissante dans laquelle, au contraire, le matériel génétique est modifié et utilisé pour reconstruire un organisme complet, afin de déterminer le résultat de ces modifications. Cette approche est spécialement bien adaptée à l'étude des virus, compte tenu de la relative simplicité et de la petite taille de leurs génomes; l’obstacle principal demeure de récupérer des virus infectieux à partir de génomes viraux clonés. Au cours des années, cet exploit a été accompli pour des représentants de presque toutes les familles de virus de mammifères. Jusqu’à récemment, les Reoviridae, virus à génome d'ARN bicaténaire segmenté, faisaient toutefois exception. Dans cette revue, les progrès réalisés vers la mise au point de la génétique inverse pour l'étude du réovirus seront discutés. La génétique inverse pourrait avoir un impact majeur dans l'optimisation de nouvelles souches de réovirus pour leur utilisation en thérapie comme agents oncolytiques et pour le développement de vaccins dans le cas des rotavirus et des orbivirus. Les travaux actuels font toutefois ressortir les limites de l'approche, la nécessité d’une analyse prudente des résultats obtenus, ainsi que le besoin de développer des systèmes plus efficaces et polyvalents.