182 resultados para Programmation
Resumo:
A presente dissertação teve como finalidade analisar os Problemas Ambientais em Cabo Verde, com destaque para as polÃticas e medidas implementadas no perÃodo que decorre de 1975 a 2010. Para tal, centrou-se no confronto de resultados de estudos que permitiram uma comparação entre os Concelhos da Praia e de São Salvador do Mundo, localizados no sul e no centro da ilha de Santiago, respectivamente. Como ponto de partida, fez-se uma caracterização climática/ambiental do paÃs, salientando a sua fragilidade ambiental através de uma estreita ligação entre as suas caracterÃsticas naturais e o estado de ambiente para delinear a evolução das medidas polÃticas e jurÃdicas tomadas no sentido de combater ou minimizar os problemas existentes. Todo o trabalho empÃrico foi realizado nos concelhos acima referidos, com base nos inquéritos efectuados junto dos moradores, escolas, técnicos e polÃticos que lidam com a problemática ambiental nesses Concelhos. Posteriormente, foi possÃvel analisar profundamente as principais causas da degradação ambiental nos dois Concelhos como a pobreza, a escassez de água, o saneamento básico, o aumento da população, o êxodo rural e as construções clandestinas, estabelecendo uma correlação entre estas e o desenvolvimento económico-social e a qualidade de vida dos seus habitantes. Finalmente, expôs-se o trabalho realizado e o que se perspectiva fazer para sua mitigação, privilegiando a vertente pedagógica, destacando a importância do envolvimento de grupos comunitários para prossecução de acções diversificadas de sensibilização, de programação e da formação em paralelo com o reforço de fiscalização para melhor aplicação de normas existentes.
Resumo:
Abstract in English : Ubiquitous Computing is the emerging trend in computing systems. Based on this observation this thesis proposes an analysis of the hardware and environmental constraints that rule pervasive platforms. These constraints have a strong impact on the programming of such platforms. Therefore solutions are proposed to facilitate this programming both at the platform and node levels. The first contribution presented in this document proposes a combination of agentoriented programming with the principles of bio-inspiration (Phylogenesys, Ontogenesys and Epigenesys) to program pervasive platforms such as the PERvasive computing framework for modeling comPLEX virtually Unbounded Systems platform. The second contribution proposes a method to program efficiently parallelizable applications on each computing node of this platform. Résumé en Français : Basée sur le constat que les calculs ubiquitaires vont devenir le paradigme de programmation dans les années à venir, cette thèse propose une analyse des contraintes matérielles et environnementale auxquelles sont soumises les plateformes pervasives. Ces contraintes ayant un impact fort sur la programmation des plateformes. Des solutions sont donc proposées pour faciliter cette programmation tant au niveau de l'ensemble des noeuds qu'au niveau de chacun des noeuds de la plateforme. La première contribution présentée dans ce document propose d'utiliser une alliance de programmation orientée agent avec les grands principes de la bio-inspiration (Phylogénèse, Ontogénèse et Épigénèse). Ceci pour répondres aux contraintes de programmation de plateformes pervasives comme la plateforme PERvasive computing framework for modeling comPLEX virtually Unbounded Systems . La seconde contribution propose quant à elle une méthode permettant de programmer efficacement des applications parallélisable sur chaque noeud de calcul de la plateforme
Resumo:
Rapport de synthèseDes événements pathologiques survenant pendant la période foetale prédisposent la descendance aux maladies cardiovasculaires systémiques. Il existe peu de connaissances au sujet de la circulation pulmonaire et encore moins quant aux mécanismes sous-jacents. La sous-alimentation maternelle pendant la grossesse peut représenter un modèle d'investigation de ces mécanismes, parce que chez l'animal et l'homme elle est associée à une dysfonction vasculaire systémique chez la progéniture. Chez le rat, la diète restrictive pendant la grossesse induit une augmentation du stress oxydatif dans le placenta. Les dérivés de l'oxygène sont connus pour induire des altérations épigénétiques et peuvent traverser la barrière placentaire. Nous avons dès lors spéculé que chez la souris la diète restrictive pendant la grossesse induit une dysfonction vasculaire pulmonaire chez sa progéniture qui serait liée à un mécanisme épigénétique.Pour tester cette hypothèse, nous avons examiné la fonction vasculaire pulmonaire et la méthylation de l'ADN pulmonaire à la fin de 2 semaines d'exposition à l'hypoxie chez la progéniture de souris soumises à une diète restrictive pendant la grossesse et des souris contrôles. Nous avons trouvé que la vasodilatation endothélium-dépendante de l'artère pulmonaire in vitro était défectueuse, et que l'hypertension pulmonaire et l'hypertrophie ventriculaire droite induites par l'hypoxie in vivo étaient exagérées chez la progéniture de souris soumises à une diète restrictive pendant la grossesse. Cette dysfonction vasculaire pulmonaire était associée avec une altération de la méthylation de l'ADN pulmonaire. L'administration d'inhibiteurs de la déacétylase des histones, le Butyrate et la Trichostatine-A à la progéniture de souris soumises à une diète restrictive pendant la grossesse a normalisé la méthylation de l'ADN et la fonction vasculaire pulmonaire. Finalement, l'administration du nitroxyde Tempol aux mères durant la diète restrictive pendant la grossesse a prévenu la dysfonction vasculaire et la dysméthylation chez la progéniture.Ces découvertes démontrent que chez la souris la sous-alimentation pendant la gestation induit une dysfonction vasculaire chez la progéniture qui est causée par un mécanisme épigénétique. Il est possible qu'un mécanisme similaire soit impliqué dans la programmation foetale de la dysfonction vasculaire chez les humains.
Resumo:
La dialectique entre radiodiffusion et histoire des relations culturelles internationales est un domaine largement inexploré. L'objectif de cette thèse est d'analyser le rôle de la Société suisse de radiodiffusion (SSR), société privée qui exerce jusqu'en 1983 le monopole sur l'ensemble des stations de radio suisses, dans l'intensification des relations culturelles internationales de la Confédération. Pour examiner cette dimension des activités de la SSR, je me suis prioritairement penchée sur l'étude de la radio internationale helvétique, dénommée alors « Service suisse d'ondes courtes » (SOC). A l'instar de plusieurs organismes similaires à l'étranger, le SOC remplit dès ses débuts une double mission : resserrer les liens avec la diaspora et faire rayonner le pays hors des frontières nationales. Cette recherche met sur le devant de la scène un acteur médiatique aujourd'hui totalement oublié, le Service suisse d'ondes courtes. Par rapport à l'historiographie des radios internationales, elle mêle approche institutionnelle et, dans la mesure des sources disponibles, l'analyse de la programmation. Elle complète aussi l'histoire de la diplomatie culturelle suisse en rappelant la place du service public audiovisuel parmi les institutions chargées de promouvoir le pays à l'étranger. Pour finir, cette étude constitue également un apport à l'histoire des organisations internationales liées à la radiodiffusion (UIR, UIT). L'analyse du volet international des activités de la SSR a permis de dépasser la seule notion de « puissance » qui a été jusqu'à ces dernières années au coeur des ouvrages dévolus aux radios internationales. L'objectif poursuivi par la SSR ne réside pas tellement dans la diplomatie d'influence (l'exercice d'un « soft power »), qui tend à imposer ses valeurs et un mode de vie, mais plutôt dans la volonté de faire comprendre et reconnaître la culture politique de la Suisse dans le but de renforcer et pérenniser la place de celle-ci dans le concert des nations. Dans cette perspective, la culture devient un moyen utilisé pour transmettre à l'étranger une représentation valorisante du pays, une image de marque (une forme de « Nation Branding » avant l'heure) également utile au secteur touristique et à l'industrie d'exportation. Le Service suisse d'ondes courtes fait ainsi avant tout des relations publiques, un avant-goût de ce que les Américains appelleront dans les années 1960 la « public diplomacy »
Resumo:
Ce diplôme présente les marchés prédictifs, qui sont un moyen d'agréger l'information en utilisant les processus à la base des marchés financiers et en proposant des contrats à termes représentant la probabilité de survenance d'une proposition. Des publications dans le domaine de la finance, du management ou de l'informatique font référence à l'utilisation des marchés prédictifs et démontrent les bons résultats obtenus par cette méthode. Nous nous sommes demandé s'il était possible de concevoir et utiliser un tel marché dans un milieu académique, pour prédire l'émergence de nouvelles théories et applications dans le domaine des communications mobiles. Pour supporter notre réflexion, nous avons mis en place un prototype qui devrait pouvoir nous permettre de tester le concept, d'étudier les fonctions de calcul de prix et les mécanismes d'agrégation de l'information. Pour débuter, nous présentons l'état de l'art en nous appuyant sur la littérature parue depuis 1988 lorsque l'University of Iowa a lancé sa plate-forme Iowa Electronic Market (IEM) dans le cadre de l'élection présidentielle Bush-Dukakis. Depuis, plusieurs chercheurs se sont penchés sur les marchés prédictifs comme instrument de prévision dans de nombreux domaines: politique, sport, cinéma, marketing, ... Nous allons comparer les marchés prédictifs à d'autres outils de prévision puis nous présenterons en détail les marchés prédictifs ainsi qu'un essai d'en formaliser les spécifications. Nous illustrerons alors ceci par des exemples tirés des principales plates-formes en activité pour le moment. S'ensuit une discussion sur l'orientation ludique des plates-formes actuelles et une présentation des utilisations que l'on pourrait en faire et qui apporteraient un réel bénéfice. Nous nous penchons alors sur l'analyse des besoins tant de l'expérimentateur que des utilisateurs. Cherchant des raisons à l'absence totale de telles plates-formes dans le cadre de la recherche, nous avons mené une série d'entretiens avec des professeurs de l'EPFL engagés dans la direction du projet MICS. Leurs réticences et craintes ont été prises en compte pour la définition des spécifications du prototype. Nous utilisons la méthode de (Spann and Skiera 2003) pour définir les spécifications de la plate-forme. Ces spécifications comprennent le choix du but prévisionnel, qui dans notre cas découle directement de notre proposition de recherche, des mécanismes financiers à la base des transactions, ainsi que des moyens incitatifs mis en place pour amener les utilisateurs à utiliser la plate-forme et surtout, pour amener les plus éclairés d'entre eux à transmettre leurs informations au marché. Ces spécifications débouchent sur la présentation de quatre cas d'utilisation. Notre objectif étant de développer un prototype pour y tester nos hypothèses, nous faisons un tour d'horizon des plates-formes à disposition et présentons l'architecture de ce dernier, basé sur les développements à la base d'USIFEX, qui n'est plus en activité depuis quatre ans. Le prototype utilise la souplesse de la programmation objet en se basant sur le langage Python dans sa version 2.3. Nous nous attardons ensuite sur la présentation de l'interface du prototype et des interactions avec les utilisateurs. Il faudra par la suite s'attacher à refondre l'interface pour le faire évoluer vers plus de convivialité, et nous permettre de guider l'utilisateur lors de ses sessions sur la plate-forme. Les parties théoriques et logicielles sous toit il nous reste encore à décrire les contrats et la manière de les formuler. A nouveau nous nous penchons sur les marchés actuels pour y tirer des enseignements qui pourraient nous être utiles. N'ayant malheureusement pas fait l'objet de publications, la définition des contrats est intimement liée avec les auteurs qui les rédigent. Nous tentons de tirer quelques enseignements provenant des contrats actifs sur les marchés des matières premières pour proposer un cadre nous permettant de formaliser la rédaction d'un contrat. Ne s'agissant que d'une proposition, il faudra encore tester et compléter ce cadre pour pouvoir s'assurer que la manière de rédiger les contrats n'influence pas sur la pertinence des prédictions. Finalement, nous esquissons les travaux qu'il reste à accomplir avant de pouvoir mener les premiers tests réels de la plate-forme. De la formulation des contrats à l'étude des mécanismes combinatoires d'agrégation de l'information en passant par les fonctions de fixation du prix. Nous revenons sur les travaux effectués dans le cadre de ce diplôme et présentons quelques idées de recherche futures.
Resumo:
In a recent paper, Bai and Perron (1998) considered theoretical issues related to the limiting distribution of estimators and test statistics in the linear model with multiple structural changes. In this companion paper, we consider practical issues for the empirical applications of the procedures. We first address the problem of estimation of the break dates and present an efficient algorithm to obtain global minimizers of the sum of squared residuals. This algorithm is based on the principle of dynamic programming and requires at most least-squares operations of order O(T 2) for any number of breaks. Our method can be applied to both pure and partial structural-change models. Secondly, we consider the problem of forming confidence intervals for the break dates under various hypotheses about the structure of the data and the errors across segments. Third, we address the issue of testing for structural changes under very general conditions on the data and the errors. Fourth, we address the issue of estimating the number of breaks. We present simulation results pertaining to the behavior of the estimators and tests in finite samples. Finally, a few empirical applications are presented to illustrate the usefulness of the procedures. All methods discussed are implemented in a GAUSS program available upon request for non-profit academic use.
Resumo:
We characterize Paretian quasi-orders in the two-agent continuous case.
Resumo:
Un fichier intitulé Charbonneau_Nathalie_2008_AnimationAnnexeT accompagne la thèse. Il contient une séquence animée démontrant le type de parcours pouvant être effectué au sein des environnements numériques développés. Il s'agit d'un fichier .wmv qui a été compressé.
Resumo:
La présente recherche a pour objet la pratique orthophonique en suppléance à la communication (SC) auprès de personnes qui ont une déficience intellectuelle (DI). Des recherches ont montré que les aides à la communication à sortie vocale (ACSV) pouvaient améliorer la communication des personnes ayant une DI. Cependant, la plupart de ces recherches ont été menées dans des conditions idéales qui ne reflètent pas nécessairement celles que l’on retrouve dans les milieux cliniques typiques. On connaît peu de choses sur les pratiques professionnelles en SC auprès des personnes ayant une DI. Le but de cette recherche est de décrire la pratique orthophonique, de documenter les perspectives des utilisateurs sur les résultats des interventions et de décrire l’implication des parents et leurs habiletés à soutenir leur enfant dans l’utilisation d’une ACSV afin de proposer un modèle d’intervention en SC auprès de cette clientèle qui tienne compte de ces différentes perspectives. Une méthode qualitative a été choisie pour réaliser la recherche. Des entrevues individuelles semi-structurées ont été réalisées avec onze orthophonistes francophones et avec des parents ou familles d’accueil de dix utilisateurs d’ACSV et des entrevues structurées ont été menées avec huit utilisateurs d’ACSV. Un outil d’entrevue a été conçu à l’aide de pictogrammes pour permettre aux utilisateurs d’ACSV de répondre à des questions portant sur leur appréciation et utilisation de leur ACSV, leur satisfaction et priorités de communication. Un cadre conceptuel a été conçu à partir des guides de pratique clinique et un codage semi-ouvert a été utilisé pour réaliser les analyses thématiques des données provenant des orthophonistes. Un codage ouvert a servi à analyser les données provenant des parents. Des analyses descriptives ont servi à examiner les réponses des utilisateurs. Diverses procédures ont assuré la crédibilité des analyses. Entre autres, les analyses des entrevues des orthophonistes ont été validées lors d’un groupe de discussion avec sept participantes orthophonistes. Les résultats montrent que les ACSV sont utilisées surtout dans le milieu scolaire. Elles sont parfois utilisées lors des loisirs et dans la communauté, mais ces contextes sont ceux où les utilisateurs ont exprimé le plus d’insatisfaction et où se situe la majeure partie des priorités qu’ils ont identifiées. Les analyses ont permis d’identifier les facteurs qui rendent compte de ces résultats. Les orthophonistes manquent d’outils pour réaliser des évaluations exhaustives des capacités des clients et elles manquent de procédures pour impliquer les parents et obtenir d’eux une description complète des besoins de communication de leur enfant. Conséquemment, l’ACSV attribuée et le vocabulaire programmé ne répondent pas à l’ensemble des besoins de communication. Certaines orthophonistes manquent de connaissances sur les ACSV ou n’ont pas le matériel pour faire des essais avec les clients. Il en résulte un appariement entre la personne et l’ACSV qui n’est pas toujours parfait. À cause d’un manque de ressources en orthophonie, les parents sont parfois laissés sans soutien pour apporter les changements à la programmation lors des transitions dans la vie de leur enfant et certains ne reçoivent pas d’entraînement visant à soutenir l’utilisation de l’ACSV. Un modèle d’intervention en SC est proposé afin d’améliorer la pratique orthophonique auprès de cette population.
Resumo:
L'épidémie de l'infection au virus de l'immunodéficience humaine (VIH) constitue une crise majeure en santé publique de nos jours. Les efforts de la communauté internationale visent à rendre les traitements antirétroviraux (TARV) plus accessibles aux personnes vivant avec le VIH, particulièrement dans les contextes à ressources limitées. Une observance quasi-parfaite aux TARV est requise pour tirer le maximum de bénéfices thérapeutiques à l'échelle individuelle et à l'échelle populationnelle. Cependant, l’accroissement de la disponibilité des TARV s'effectue dans des pays africains qui disposent de systèmes de santé fragiles et sous-financés. Ceux-ci souffrent également d'une pénurie de personnel de santé, lequel joue un rôle central dans la mise en oeuvre et la pérennité des interventions, notamment celle du soutien à l'observance thérapeutique. La présente étude ethnographique relate l'expérience de personnel de santé dans la fourniture des services de soutien à l'observance dans un contexte de ressources limitées et d'accroissement de l'accès aux TARV. L'étude a été menée dans deux centres hospitaliers de la capitale du Burkina Faso, Ouagadougou. Trois conclusions principales sont mises au jour. Tout d'abord, une bonne organisation – tant logistique que matérielle – dans la provision de services de soutien à l'observance est capitale. L’infrastructure d’observance doit aller au-delà des unités de prise en charge et s’intégrer au sein du système de santé pour assurer un impact durable. De plus, la provision des TARV dans le cadre d'une prise en charge médicale exhaustive est essentielle pour un soutien à l'observance efficace. Ceci implique la présence de professionnelles de santé en nombre suffisant et disposant d‘outils pour soutenir leur pratique clinique (tests de laboratoire, traitements pour infections opportunistes), ainsi que des mécanismes pour leur permettre d’aider les patients à gérer la vie quotidienne (gratuité des services, programmes d’alphabétisation et soutien psychosociale). Enfin, une amélioration de la coordination des programmes VIH au niveau national et international est nécessaire pour assurer une prise en charge cohérente au niveau local. La programmation conçue dans les pays étrangers qui est incomplète et de courte durée a un impact majeur sur la disponibilité de ressources humaines et matérielles à long terme, ainsi que sur les conditions de travail et de prestation de services dans les unités de soins.
Resumo:
En raison de la prématurité ou de conditions médicales, un grand nombre de nouveau-nés reçoivent de la nutrition parentérale totale (NPT) en période néonatale. Durant la période d’administration, l’impact métabolique et les effets néfastes de la NPT et celui de son administration avec des sacs exposés à la lumière sont en grande partie connus. Il est admis que des évènements se produisant in utero ou en période néonatale entraînent des modifications métaboliques chez l'adulte. Mais on ignore si la nutrition parentérale possède des effets à long terme. Le but de notre étude est donc d’évaluer l'effet d'une courte période néonatale de NPT sur le métabolisme énergétique de l’adulte. De J3 à J7, des cochons d'Inde sont nourris par NPT dont le sac et la tubulure sont exposés ou protégés de la lumière et sont comparés à des animaux nourris par voie entérale. Après J7, les trois groupes sont nourris de la même façon, par voie entérale exclusivement. Les animaux nourris par NPT montrent une prise pondérale inférieure, un catabolisme plus marqué et des concentrations de substrats énergétiques abaissées (glucose, cholestérol et triglycérides). À 3 mois, le foie des groupes NPT montre des concentrations de triglycérides et de cholestérol abaissées et des changements d'activité enzymatique. La photoprotection de la NPT néonatale diminue la prise pondérale et les concentrations de triglycérides et de cholestérol hépatiques. Notre étude est la première à explorer l’effet à long terme de la NPT néonatale. Elle ouvre la porte à des études humaines qui permettront, nous l’espérons, d’améliorer la prise en charge des nouveau-nés les plus fragiles et les plus immatures.
Resumo:
La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité. Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs. Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions. Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios. Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème.
Resumo:
Cette thèse envisage un ensemble de méthodes permettant aux algorithmes d'apprentissage statistique de mieux traiter la nature séquentielle des problèmes de gestion de portefeuilles financiers. Nous débutons par une considération du problème général de la composition d'algorithmes d'apprentissage devant gérer des tâches séquentielles, en particulier celui de la mise-à -jour efficace des ensembles d'apprentissage dans un cadre de validation séquentielle. Nous énumérons les desiderata que des primitives de composition doivent satisfaire, et faisons ressortir la difficulté de les atteindre de façon rigoureuse et efficace. Nous poursuivons en présentant un ensemble d'algorithmes qui atteignent ces objectifs et présentons une étude de cas d'un système complexe de prise de décision financière utilisant ces techniques. Nous décrivons ensuite une méthode générale permettant de transformer un problème de décision séquentielle non-Markovien en un problème d'apprentissage supervisé en employant un algorithme de recherche basé sur les K meilleurs chemins. Nous traitons d'une application en gestion de portefeuille où nous entraînons un algorithme d'apprentissage à optimiser directement un ratio de Sharpe (ou autre critère non-additif incorporant une aversion au risque). Nous illustrons l'approche par une étude expérimentale approfondie, proposant une architecture de réseaux de neurones spécialisée à la gestion de portefeuille et la comparant à plusieurs alternatives. Finalement, nous introduisons une représentation fonctionnelle de séries chronologiques permettant à des prévisions d'être effectuées sur un horizon variable, tout en utilisant un ensemble informationnel révélé de manière progressive. L'approche est basée sur l'utilisation des processus Gaussiens, lesquels fournissent une matrice de covariance complète entre tous les points pour lesquels une prévision est demandée. Cette information est utilisée à bon escient par un algorithme qui transige activement des écarts de cours (price spreads) entre des contrats à terme sur commodités. L'approche proposée produit, hors échantillon, un rendement ajusté pour le risque significatif, après frais de transactions, sur un portefeuille de 30 actifs.
Resumo:
De nos jours, les logiciels doivent continuellement évoluer et intégrer toujours plus de fonctionnalités pour ne pas devenir obsolètes. C'est pourquoi, la maintenance représente plus de 60% du coût d'un logiciel. Pour réduire les coûts de programmation, les fonctionnalités sont programmées plus rapidement, ce qui induit inévitablement une baisse de qualité. Comprendre l’évolution du logiciel est donc devenu nécessaire pour garantir un bon niveau de qualité et retarder le dépérissement du code. En analysant à la fois les données sur l’évolution du code contenues dans un système de gestion de versions et les données quantitatives que nous pouvons déduire du code, nous sommes en mesure de mieux comprendre l'évolution du logiciel. Cependant, la quantité de données générées par une telle analyse est trop importante pour être étudiées manuellement et les méthodes d’analyses automatiques sont peu précises. Dans ce mémoire, nous proposons d'analyser ces données avec une méthode semi automatique : la visualisation. Eyes Of Darwin, notre système de visualisation en 3D, utilise une métaphore avec des quartiers et des bâtiments d'une ville pour visualiser toute l'évolution du logiciel sur une seule vue. De plus, il intègre un système de réduction de l'occlusion qui transforme l'écran de l'utilisateur en une fenêtre ouverte sur la scène en 3D qu'il affiche. Pour finir, ce mémoire présente une étude exploratoire qui valide notre approche.
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.