13 resultados para the SIMPLE algorithm

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Le récepteur DcR3 (Decoy receptor 3) est un membre de la famille des récepteurs aux facteurs de nécrose tumorale (TNF). Il est fortement exprimé dans les tissus humains normaux ainsi que les tumeurs malignes. DcR3 est un récepteur pour trois ligands de la famille du TNF tels que FasL, LIGHT et TL1A. Étant une protéine soluble donc dépourvue de la portion transmembranaire et intracytoplasmique, le récepteur DcR3 est incapable d’effectuer une transduction de signal intracellulaire à la suite de son interaction avec ses ligands. De ce fait, DcR3 joue un rôle de compétiteur pour ces derniers, afin d’inhiber la signalisation via leurs récepteurs fonctionnels tels que Fas, HVEM/LTbetaR et DR3. Lors de nos précédentes études, nous avons pu démontrer, que DcR3 pouvaist moduler la fonction des cellules immunitaires, et aussi protéger la viabilité des îlots de Langerhans. À la suite de ces résultats, nous avons généré des souris DcR3 transgéniques (Tg) en utilisant le promoteur du gène β-actine humaine afin d’étudier plus amplement la fonction de ce récepteur. Les souris Tg DcR3 ont finalement développé le syndrome lupus-like (SLE) seulement après l’âge de 6 mois. Ces souris présentent une variété d'auto-anticorps comprenant des anticorps anti-noyaux et anti-ADN. Elles ont également manifesté des lésions rénales, cutanées, hépatiques et hématopoïétiques. Contrairement aux modèles de lupus murin lpr et gld, les souris DcR3 sont plus proche du SLE humain en terme de réponse immunitaire de type Th2 et de production d'anticorps d'anti-Sm. En péus, nous avons constaté que les cellules hématopoïétiques produisant DcR3 sont suffisantes pour causer ces pathologies. DcR3 peut agir en perturbant l’homéostasie des cellules T pour interférer avec la tolérance périphérique, et ainsi induire l'autoimmunité. Chez l'humain, nous avons détecté dans le sérum de patients SLE des niveaux élevés de la protéine DcR3. Chez certains patients, comme chez la souris, ces niveaux sont liés directement aux titres élevés d’IgE. Par conséquent, DcR3 peut représenter un facteur pathogénique important du SLE humain. L’étude des souris Tg DcR3, nous a permis aussi d’élucider le mécanisme de protection des îlots de Langerhans. Le blocage de la signalisation des ligands LIGHT et TL1A par DcR3 est impliqué dans une telle protection. D'ailleurs, nous avons identifié par ARN microarray quelques molécules en aval de cette interaction, qui peuvent jouer un rôle dans le mécanisme d’action. Nous avons par la suite confirmé que Adcyap1 et Bank1 joue un rôle critique dans la protection des îlots de Langerhans médiée par DcR3. Notre étude a ainsi élucidé le lien qui existe entre la signalisation apoptotique médiée par Fas/FasL et la pathogénèse du SLE humain. Donc, malgré l’absence de mutations génétiques sur Fas et FasL dans le cas de cette pathologie, DcR3 est capable de beoquer cette signalisation et provoquer le SLE chez l’humain. Ainsi, DcR3 peut simultanément interférer avec la signalisation des ligands LIGHT et TL1A et causer un phénotype plus complexe que les phénotypes résultant de la mutation de Fas ou de FasL chez certains patients. DcR3 peut également être utilisé comme paramètre diagnostique potentiel pour le SLE. Les découvertes du mécanisme de protection des îlots de Langerhans par DcR3 ouvrent la porte vers de nouveaux horizons afin d'explorer de nouvelles cibles thérapeutiques pour protéger la greffe d'îlots.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité. Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs. Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions. Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios. Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La technique du laser femtoseconde (fs) a été précédemment utilisée pour la production de nanoparticules d'or dans un environnement aqueux biologiquement compatible. Au cours de ce travail de maîtrise, cette méthode a été investiguée en vue d'une application pour la fabrication de nanocristaux de médicament en utilisant le paclitaxel comme modèle. Deux procédés distincts de cette technologie à savoir l'ablation et la fragmentation ont été étudiés. L'influence de la puissance du laser, de point de focalisation, et de la durée du traitement sur la distribution de taille des particules obtenues ainsi que leur intégrité chimique a été évaluée. Les paramètres ont ainsi été optimisés pour la fabrication des nanoparticules. L’évaluation morphologique et chimique a été réalisée par microscopie électronique et spectroscopie infrarouge respectivement. L'état cristallin des nanoparticules de paclitaxel a été caractérisé par calorimétrie differentielle et diffraction des rayons X. L'optimisation du procédé de production de nanoparticules par laser fs a permis d'obtenir des nanocristaux de taille moyenne (400 nm, polydispersité ≤ 0,3). Cependant une dégradation non négligeable a été observée. La cristallinité du médicament a été maintenue durant la procédure de réduction de taille, mais le paclitaxel anhydre a été transformé en une forme hydratée. Les résultats de cette étude suggèrent que le laser fs peut générer des nanocristaux de principe actif. Cependant cette technique peut se révéler problématique pour des médicaments sensibles à la dégradation. Grâce à sa facilité d'utilisation et la possibilité de travailler avec des quantités restreintes de produit, le laser fs pourrait représenter une alternative valable pour la production de nanoparticules de médicaments peu solubles lors des phases initiales de développement préclinique. Mots-clés: paclitaxel, nanocristaux, laser femtoseconde, ablation, fragmentation

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Au cours d'une transaction portant sur une acceptation bancaire (ci-après «BA» tel que dénommée dans le jargon juridique) différents types de relations peuvent s'établir entre les parties impliquées, certaines plus directes que d'autres. Dans une transaction donnée, à part le client et la banque, on peut trouver une ou plusieurs banques participantes et un ou plusieurs investisseurs, qui deviennent détenteurs de BA. La situation peut devenir complexe et les relations légales risquent de devenir assez compliquées. Cependant, il est important d'identifier si la relation s'est établie à travers l'instrument de BA, si elle existe par le biais d'une relation contractuelle ordinaire ou encore, si elle existe par le fait de la loi. Une bonne analyse des circonstances entourant la transaction, des facteurs connexes à la transaction et des droits et obligations qui existent entre les parties, sera nécessaire pour déterminer laquelle de la loi provinciale ou fédérale s'appliquera, et dans quelle mesure. Une fois accordée, la BA est gouvernée par la Loi sur les lettres de change. Toutes solutions apportées à un problème qui implique des BA, doivent, en principe, respecter la nature inhérente de la BA en tant qu'effet de commerce, gouverné par la loi fédérale. En matière de BA, c'est, soit la Loi sur les lettres de change soit la Loi sur les lettres et billets de dépôt (Depository Bills and Note Act) qui s'appliqueront à l'acte. Comme il existe des lois fédérales applicables à la BA, l'objet de notre étude est de déterminer si, et dans quelle circonstance la loi de la province, tel que le Code civil du Québec, trouvera application et éclaircira dans certains cas la disposition contenue dans la Loi sur les lettres de change, notamment lorsque les dispositions de ladite loi sont silencieuses ou ambigües. La solution la plus simple serait d'appliquer la loi provinciale aux matières qui ne sont pas traitées dans la loi, étant donné que les lois provinciales apportent souvent un complément à la législation fédérale. Cependant, la Loi sur les lettres de change contient des dispositions spéciales, tel que l'article 9 qui stipule : « 9. Les règles de la common law d'Angleterre, y compris en droit commercial, s'appliquent aux lettres, billets et chèques dans la mesure de leur compatibilité avec les dispositions expresses de la présente loi. » Cette disposition a crée une certaine confusion relativement à l'application du droit civil du Québec en matière de Lettres de change. En effet, il existe un doute quant à savoir si l'application de l'article 9 est une incorporation par référence qui exclue totalement l'application du droit civil. Cette question continue de se poser inexorablement dans la doctrine et la jurisprudence. Elle a en effet donné lieu à une série de théories quand au degré d'application de la common law en matière de lettres de change. Une revue de la jurisprudence dominante nous permet de conclure que les tribunaux ont accepté l'application du droit provinciale dans certaines questions impliquant les lettres de change. La question essentielle traitée lors de notre analyse est la suivante: lorsqu'un litige prend naissance dans une transaction de BA, quelle est la règle qui devra s'appliquer? Quel sera le droit qui gouvernera les problèmes émergeant dans une BA, celui du Code Civil du Québec ou celui de la common law d'Angleterre? Étant donne le nombre de cas qui sont portés devant les cours de justice en rapport avec des transactions de BA, comprendre quelle sera la loi applicable est d'une importance fondamentale. Pour répondre à cette question, nous commencerons par un examen de l'historique, du développement et de l'évolution de la BA. Afin de mieux comprendre la BA, nous débuterons par un bref survol des origines de cet instrument juridique. Dans le deuxième chapitre, nous analyserons la nature et le caractère légal de la BA. Cela constituera le cadre aux travers duquel nous pourrons identifier les règles et les principes qui s'appliquent aux différents aspects de la transaction de BA. Le chapitre trois fera l'objet d'un examen détaillé des mécanismes de l'opération de BA tout en étudiant de près les exigences imposées par la législation applicable. Après avoir examine l'aspect légal de la BA, nous procéderons au chapitre quatre, à l'étude de l'applicabilité de la loi provinciale relativement à certains aspects de la transaction de BA. A cet effet, nous examinerons les différentes approches de compréhension de la Loi sur les lettres de change et plus particulièrement la problématique rencontrée à l'article 9. Nous étudierons aussi l'application et l'interprétation de cette loi par les tribunaux du Québec au cours du siècle dernier. Les juges et les juristes se sont penchés sur les sens qu'a voulu donner le législateur lorsqu'il a stipulé dans l'article 9 «Le règles de la common law d'Angleterre, y compris en droit commercial, s appliquent aux lettres, billets et chèques dans la mesure de leur compatibilité avec les dispositions expresses de la présente loi ». Cette section doit-elle être appliquée à la lettre, nous obligeant à appliquer la common law d'Angleterre a chaque problème qui peut se poser en relation avec les lettres et les billets? Le Parlement a-t-il l'intention que cette disposition s'applique également au Québec, dont le droit privé est basé sur le système du Code Civil? Notre étude portera sur les différentes approches d'interprétation qui offrent une diversité de solutions au problème posé par l'article 9. Finalement, compte tenu des nouveaux développements législatifs, au chapitre cinq, nous proposons une méthode en vue de déterminer la loi applicable aux différents aspects de la transaction de BA. Notre analyse nous a conduit à adopter la solution proposée par la majorité des juristes, à la différence que notre approche de l'article 9 est basée sur des raisons de politique. Nous avons donc adopté la stricte dichotomie (en tant qu'effet négociable d'une part, et d'une sorte de contrat et de propriété de l'autre) en prenant en compte les difficultés inhérentes à déterminer quand l'un finit et l'autre commence. En conclusion, selon notre opinion, il existe deux solutions. Premièrement, il y a la possibilité que l'article 9 puisse être écarté. Dans ce cas, toutes les matières qui ne sont pas expressément évoquées dans la loi tomberont dans la compétence de la loi provinciale, comme c'est le cas dans d'autres types de législations fédérales. Dans ces situations, le droit civil du Québec joue un rôle supplétif dans les applications d'une loi fédérale au Québec. Deuxièmement, modifier l'article 9 plutôt que d'en écarter son application offre une autre possibilité. Incorporer la large stricte dichotomie dans l'article 9 nous semble être une solution préférable. La disposition pourrait se lire comme suit: « Les règles de la common law d'Angleterre incluant le droit commercial dans la mesure ou elles ne sont pas incompatibles avec les dispositions expresses de la Loi, s’appliquent aux lettres, billets, et chèques au sens stricte. Pour plus de certitude, les lettres et les billets au sens strict, incluent la forme, la délivrance et I’émission des lettres, billets, et chèques.» Ce type de changement se révélera être un pas important dans le but de clarifier la loi et déterminer l'équilibre à trouver entre l'application des lois fédérales et provinciales en matière de BA.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Cette thèse se propose de fournir une analyse comparative de la poétique de la rétrospective traumatique et les dispositifs littéraires que trois textes - Fugitive Pieces d’Anne Michaels, Solar Storms de Linda Hogan, et Beloved de Toni Morrison - utilisent pour signifier la nécessité du recul, d'un regard rétrospectif, sur le passé atroce. La thèse étudie les façons dont chaque texte négocie la fragmentation qui caractérise la suite traumatique, notamment en raison du caractère incomplet de l'histoire traumatique inscrite comme l'absence de savoir. La thèse explore également le positionnement d'un tel passé, dans un contexte intersubjectif, qui va au-delà du simple sort individuel pour essayer de comprendre la nécessité d'être un agent moralement responsable de la sauvegarde de la mémoire dans le présent. Cette étude met ainsi l'accent sur la façon dont la mémoire et le témoignage sont intimement liés aux outils langagiers, qui, par implosion poétique, offrent la possibilité de concilier l’intervention imaginative avec le référentiel (oblique).

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les problèmes de satisfaction de contraintes, qui consistent à attribuer des valeurs à des variables en respectant un ensemble de contraintes, constituent une large classe de problèmes naturels. Pour étudier la complexité de ces problèmes, il est commode de les voir comme des problèmes d'homomorphismes vers des structures relationnelles. Un axe de recherche actuel est la caractérisation des classes de complexité auxquelles appartient le problème d'homomorphisme, ceci dans la perspective de confirmer des conjectures reliant les propriétés algébriques des structures relationelles à la complexité du problème d'homomorphisme. Cette thèse propose dans un premier temps la caractérisation des digraphes pour lesquels le problème d'homomorphisme avec listes appartient à FO. On montre également que dans le cas du problèmes d'homomorphisme avec listes sur les digraphes télescopiques, les conjectures reliant algèbre et complexité sont confirmées. Dans un deuxième temps, on caractérise les graphes pour lesquels le problème d'homomorphisme avec listes est résoluble par cohérence d'arc. On introduit la notion de polymorphisme monochromatique et on propose un algorithme simple qui résoud le problème d'homomorphisme avec listes si le graphe cible admet un polymorphisme monochromatique TSI d'arité k pour tout k ≥ 2.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

We study the simple model of assigning indivisible and heterogenous objects (e.g., houses, jobs, offi ces, etc.) to agents. Each agent receives at most one object and monetary compensations are not possible. For this model, known as the house allocation model, we characterize the class of rules satisfying unavailable object invariance, individual rationality, weak non-wastefulness, resource-monotonicity, truncation invariance, and strategy-proofness: any rule with these properties must allocate objects based on (implicitly induced) objects' priorities over agents and the agent-proposing deferred-acceptance-algorithm.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

À mesure que la population des personnes agées dans les pays industrialisés augmente au fil de années, les ressources nécessaires au maintien du niveau de vie de ces personnes augmentent aussi. Des statistiques montrent que les chutes sont l’une des principales causes d’hospitalisation chez les personnes agées, et, de plus, il a été démontré que le risque de chute d’une personne agée a une correlation avec sa capacité de maintien de l’équilibre en étant debout. Il est donc d’intérêt de développer un système automatisé pour analyser l’équilibre chez une personne, comme moyen d’évaluation objective. Dans cette étude, nous avons proposé l’implémentation d’un tel système. En se basant sur une installation simple contenant une seule caméra sur un trépied, on a développé un algorithme utilisant une implémentation de la méthode de détection d’objet de Viola-Jones, ainsi qu’un appariement de gabarit, pour suivre autant le mouvement latéral que celui antérieur-postérieur d’un sujet. On a obtenu des bons résultats avec les deux types de suivi, cependant l’algorithme est sensible aux conditions d’éclairage, ainsi qu’à toute source de bruit présent dans les images. Il y aurait de l’intérêt, comme développement futur, d’intégrer les deux types de suivi, pour ainsi obtenir un seul ensemble de données facile à interpréter.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La révision du code est un procédé essentiel quelque soit la maturité d'un projet; elle cherche à évaluer la contribution apportée par le code soumis par les développeurs. En principe, la révision du code améliore la qualité des changements de code (patches) avant qu'ils ne soient validés dans le repertoire maître du projet. En pratique, l'exécution de ce procédé n'exclu pas la possibilité que certains bugs passent inaperçus. Dans ce document, nous présentons une étude empirique enquétant la révision du code d'un grand projet open source. Nous investissons les relations entre les inspections des reviewers et les facteurs, sur les plans personnel et temporel, qui pourraient affecter la qualité de telles inspections.Premiérement, nous relatons une étude quantitative dans laquelle nous utilisons l'algorithme SSZ pour détecter les modifications et les changements de code favorisant la création de bogues (bug-inducing changes) que nous avons lié avec l'information contenue dans les révisions de code (code review information) extraites du systéme de traçage des erreurs (issue tracking system). Nous avons découvert que les raisons pour lesquelles les réviseurs manquent certains bogues était corrélées autant à leurs caractéristiques personnelles qu'aux propriétés techniques des corrections en cours de revue. Ensuite, nous relatons une étude qualitative invitant les développeurs de chez Mozilla à nous donner leur opinion concernant les attributs favorables à la bonne formulation d'une révision de code. Les résultats de notre sondage suggèrent que les développeurs considèrent les aspects techniques (taille de la correction, nombre de chunks et de modules) autant que les caractéristiques personnelles (l'expérience et review queue) comme des facteurs influant fortement la qualité des revues de code.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Full Text / Article complet