956 resultados para Partage confidentiel de données
Resumo:
Cette thèse porte sur le comportement des élites politiques durant les périodes de crise nationale et plus particulièrement sur leurs réactions aux attentats terroristes. Elle démontre que les crises terroristes sont tout comme les conflits militaires ou diplomatiques propices aux unions nationales et notamment aux ralliements des partis d’opposition auprès du gouvernement. L’analyse statistique d’actes terroristes s’étant produits dans cinq états démocratiques (Allemagne, Espagne, États-Unis d’Amérique, France et Royaume-Uni) entre 1990 et 2006 révèle que l’ampleur d’un attentat en termes de pertes humaines ainsi que la répétition de ces attentats influencent dans une large mesure la réaction des élites politiques. Ainsi plus l’ampleur d’un attentat est élevée, plus la probabilité d’un ralliement est grande. En revanche, la multiplication des attentats augmente la possibilité de dissension entre l’opposition et le gouvernement. Par ailleurs, l’opposition est plus susceptible de se rallier au gouvernement lorsque l’attentat est perpétré par des terroristes provenant de l’étranger. L’analyse quantitative indique également que l’existence d’un accord formel de coopération dans la lutte antiterroriste entre le gouvernement et l’opposition favorise l’union des élites. Enfin, les données analysées suggèrent que la proportion des ralliements dans les cinq pays est plus importante depuis les attentats du 11 septembre 2001. Une analyse qualitative portant exclusivement sur la France et couvrant la période 1980-2006 confirme la validité des variables identifiées dans la partie quantitative, mais suggère que les élites réagissent au nombre total de victimes (morts mais aussi blessés) et que la répétition des actes terroristes a moins d’impact lors des vagues d’attentats. Par ailleurs, les analyses de cas confirment que les élites politiques françaises sont plus susceptibles de se rallier quand un attentat vise un haut-fonctionnaire de l’État. Il apparaît également que les rivalités et rancœurs politiques propre à la France (notamment suite à l’arrivée de la gauche au pouvoir en 1981) ont parfois empêché le ralliement des élites. Enfin, cette analyse qualitative révèle que si l’extrême gauche française soutient généralement le gouvernement, qu’il soit de gauche ou de droite, en période de crise terroriste, l’extrême droite en revanche saisit quasi systématiquement l’opportunité offerte par l’acte terroriste pour critiquer le gouvernement ainsi que les partis de l’establishment. La thèse est divisée en sept chapitres. Le premier chapitre suggère que le comportement des élites politiques en période de crises internationales graves (guerres et conflits diplomatiques) est souvent influencé par la raison d’État et non par l’intérêt électoral qui prédomine lors des périodes plus paisibles. Le second chapitre discute du phénomène terroriste et de la littérature afférente. Le troisième chapitre analyse les causes du phénomène d’union nationale, soumet un cadre pour l’analyse de la réaction des élites aux actes terroristes, et présente une série d’hypothèses. Le quatrième chapitre détaille la méthodologie utilisée au cours de cette recherche. Les chapitres cinq et six présentent respectivement les résultats des analyses quantitatives et qualitatives. Enfin, le chapitre sept conclut cette thèse en résumant la contribution de l’auteur et en suggérant des pistes de recherche.
Resumo:
Dans la population générale plusieurs études ont démontré que les hommes ont, par comparaison aux femmes, de meilleures performances dans les tâches de rotation mentale à trois dimensions. A l’aide de l’imagerie par résonnance magnétique fonctionnelle, on a pu observer que l’exécution de cette tâche de rotation mentale s’accompagnait d’une activation du cortex pariétal chez l’homme mais du cortex prefrontal chez la femme. Ces différences entre les deux sexes suggèrent un fonctionnement neuronal différent dans l’appréhension des habiletés cognitives et comportementales. De fait, de nombreuses études ont signalé des différences notables entre les deux sexes quant à leur fonctionnement cérébral tant sur le plan émotionnel que de leurs habiletés visuo spatiales. La schizophrénie est un trouble grave et persistant de la santé mentale dont l’origine est certes multifactorielle et dont les facteurs de protection sont partiellement biologiques, psychologiques et sociales. Cette maladie requiert une approche thérapeutique à la fois clinique médicamenteuse, psychologique et sociale visant à une réintégration des malades dans leur communauté. Le pronostic de cette maladie varie en fonction du sexe ainsi que les atteintes neurologiques, neuropsychologiques et socioculturelles. Il est donc surprenant que l’exploration des mécanismes neuronaux sous-tendant les anomalies fonctionnelles cognitivo-comportementales n’ait point, en schizophrénie, adressé à date la fonctionnalité différente de l’homme et de la femme. Une étude pilote, réalisée dans mon laboratoire d’accueil, ayant suggéré chez le schizophrène, lors du traitement cognitif de stimuli émotionnels, une altération du dimorphisme sexuel observé dans la population normale, il devenait impératif de confirmer ces observations. Ce mémoire vise à vérifier par résonnance magnétique fonctionnelle l’activité neuronale cérébrale témoignant de la performance neuropsychologique de schizophrènes des deux sexes et de la comparer à celle de sujets témoins sains appareillés pour l’âge, la dominance hémisphérique et le statut familial socio-économique. A cette fin, nous avons enregistré, lors d’une tâche de rotation mentale à trois dimensions, les variables neurocognitives traduisant la validité des réponses ainsi que leur rapidité d’exécution. Simultanément, nous avons enregistré, par résonnance magnétique fonctionnelle, les sites d’activation cérébrale ainsi que leur degré d’activation corticale. Les données expérimentales, neurocognitives et cérébro-fonctionnelles, furent analysées en comparant les deux sexes d’une part et les deux états de santé d’autre part. Les résultats de ce mémoire ont fait l’objet de deux articles qui sont inclus. Les résultats obtenus confirment l’hypothèse d’un dimorphisme homme/femme dans la population générale ainsi que chez le schizophrène. Ces résultats appuient aussi l’hypothèse de l’altération, chez le schizophrène, du dimorphisme observé dans la population générale.
Resumo:
De nos jours, les logiciels doivent continuellement évoluer et intégrer toujours plus de fonctionnalités pour ne pas devenir obsolètes. C'est pourquoi, la maintenance représente plus de 60% du coût d'un logiciel. Pour réduire les coûts de programmation, les fonctionnalités sont programmées plus rapidement, ce qui induit inévitablement une baisse de qualité. Comprendre l’évolution du logiciel est donc devenu nécessaire pour garantir un bon niveau de qualité et retarder le dépérissement du code. En analysant à la fois les données sur l’évolution du code contenues dans un système de gestion de versions et les données quantitatives que nous pouvons déduire du code, nous sommes en mesure de mieux comprendre l'évolution du logiciel. Cependant, la quantité de données générées par une telle analyse est trop importante pour être étudiées manuellement et les méthodes d’analyses automatiques sont peu précises. Dans ce mémoire, nous proposons d'analyser ces données avec une méthode semi automatique : la visualisation. Eyes Of Darwin, notre système de visualisation en 3D, utilise une métaphore avec des quartiers et des bâtiments d'une ville pour visualiser toute l'évolution du logiciel sur une seule vue. De plus, il intègre un système de réduction de l'occlusion qui transforme l'écran de l'utilisateur en une fenêtre ouverte sur la scène en 3D qu'il affiche. Pour finir, ce mémoire présente une étude exploratoire qui valide notre approche.
Resumo:
Ce travail a été réalisé avec l'appui du Centre Collaborateur de l'OMS sur la Transition Nutritionnelle et le Développement (TRANSNUT) de l'Université de Montréal, en collaboration avec deux parténaires du Bénin: l'Institut de Sciences Biomédicales Appliquées (ISBA) de Cotonou et l'Institut Régional de Santé Publique de Ouidah.
Resumo:
Eurybia et ses proches parents Oreostemma, Herrickia et Triniteurybia sont appelés le grade des eurybioïdes. Comprenant 31 espèces vivaces, ce grade appartient au clade Nord-américain de la tribu des Astereae. Les analyses moléculaires antérieures ont montré que ce groupe est à la fois paraphylétique aux Machaerantherinae et un groupe frère aux Symphyotrichinae. Les relations infragénériques partiellement résolues et faiblement supportées empêchent d’approfondir l'histoire évolutive des groupes et ce, particulièrement dans le genre principal Eurybia. Le but de cette étude est de reconstruire les relations phylogénétiques au sein des eurybioïdes autant par l'inclusion de toutes les espèces du grade que par l’utilisation de différents types de régions et de méthodes d'inférence phylogénétique. Cette étude présente des phylogénies basées sur l'ADN ribosomal nucléaire (ITS, ETS), de l'ADN chloroplastique (trnL-F, trnS-G, trnC-ycf6) et d’un locus du génome nucléaire à faible nombre de copie (CNGC4). Les données sont analysées séparément et combinées à l’aide des approches de parcimonie, bayesienne et de maximum de vraisemblance. Les données ADNnr n’ont pas permis de résoudre les relations entre les espèces polyploïdes des Eurybia. Les analyses combinées avec des loci d’ADNnr et d’ADNnr+cp ont donc été limitées à des diploïdes. Les analyses combinées ont montré une meilleure résolution et un meilleur support que les analyses séparées. La topologie de l’ADNnr+cp était la mieux résolue et supportée. La relation phylogénétique de genres appartenant au grade des eurybioïdes est comme suit : Oreostemma (Herrickia s.str. (Herrickia kingii (Eurybia (Triniteurybia - Machaerantherinae)))). Basé sur la topologie combinée de l’ADNnr+cp, nous avons effectué des analyses de biogéographie à l’aide des logiciels DIVA et LaGrange. Ces analyses ont révélé une première radiation des eurybioïdes dans l’Ouest de l’Amérique du Nord, suivi de deux migrations indépendantes dans l’Est de l’Amérique du Nord chez les Eurybia. Due au relatif manque de variabilité de l’ADNnr, l’ADNcp et CNGC4, où le triage de lignés incomplet était dominant, l'origine du grade est interprétée comme récente, possiblement du Pliocène. La diversification du groupe a été probablement favorisée par les glaciations Pléistocènes.
Resumo:
Dans la France de l’Ancien Régime, si les représentations de la condition féminine légitiment les valeurs d’une traditionnelle phallocratie, on note néanmoins que le dogme chrétien accorde aux femmes une place dans l’économie du salut. Dans un contexte de Contre-Réforme, celle-ci déterminera notamment, sur le plan socio-littéraire, les modalités de l’expérience mystique et de l’héroïsme au féminin : l’éthique chrétienne érige paradoxalement en modèle des figures féminines qui transcendent leur humanité dans le sacrifice et la mort. Mais au XVIIe siècle, l’évolution des notions d’abnégation et d’amour-propre éradique ce triomphe éphémère. En nous intéressant plus particulièrement aux remaniements de l’hypotexte euripidien dans l’Iphygenie de Rotrou (1640) et dans l’Iphigénie de Racine (1674), nous verrons comment les deux pièces traduisent ce déclin. Au premier chapitre de notre mémoire, nous nous intéresserons à l’espace de liberté que le discours chrétien confère aux femmes à travers le culte de la virginité et l’hypothétique transfiguration des corps célestes. Réintégrant ces données théologiques, la mystique marque l’essor d’un charisme féminin que la notion d’amour-propre déconstruira à l’ère classique. Dans un second chapitre, nous explorerons les développements de l’éthique héroïque qui ont servi à l’essor d’un héroïsme au féminin. Le troisième chapitre portera enfin sur l’échec d’une héroïne mythique qui, mettant à profit le dogme chrétien, menace dangereusement l’équilibre d’un ordre patriarcal. La critique littéraire convient généralement de l’irréfutable vertu de l’héroïne de Rotrou et de Racine. Au terme de notre analyse, nous entendons démontrer qu’Iphigénie est, a contrario, tragiquement reconnue coupable d’amour-propre par les deux dramaturges.
Resumo:
Cette recherche-action vise à déterminer par quels moyens les enseignants de français peuvent contribuer à favoriser le transfert de connaissances grammaticales en situation d’écriture chez leurs élèves de niveau secondaire. Nous avons d’abord constaté que, chez les élèves du secondaire en général, les accords sont plus facilement réussis en contexte d’exercice qu’en contexte de production écrite. Sur la base de propositions didactiques pertinentes concernant l’orthographe grammaticale et/ou le transfert de connaissances, propositions fondées notamment sur une approche inductive, centrée sur le questionnement de l’élève et sur l’analyse de phrases, nous avons conçu et élaboré une séquence didactique portant sur l’accord du participe passé employé avec être ou avec un verbe attributif. Dans un deuxième temps, nous l’avons mise à l’essai auprès d’un groupe d’élèves de troisième secondaire, puis nous en avons vérifié les effets à l’aide d’un prétest et d’un posttest composés respectivement d’un questionnaire, d’un exercice et d’une production écrite. Les résultats révélés par l’analyse des données démontrent l’efficacité de la série de cours. En effet, le taux moyen de réussite des accords en contexte d’exercice passe de 53% à 75%, alors que, pour les productions écrites, il est de 48% avant la série de cours contre 82% après. Les questionnaires recueillis nous portent à attribuer en partie cette forte augmentation du taux de réussite des accords en contexte de production écrite au bon déroulement du processus de transfert grâce au travail effectué en cours de séquence sur les connaissances conditionnelles.
Resumo:
Afin de mieux comprendre l'évolution des étoiles jeunes, nous avons utilisé un code Monte Carlo simulant leur environnement afin d'étudier une nouvelle distribution chez les étoiles Herbig Ae/Be et pour reproduire des cartes d'intensité et de polarisation linéaire obtenues au télescope Canada-France-Hawaii (TCFH) en novembre 2003. Le code datant de la fin des années 80, nous avons dû non seulement le corriger, mais aussi ajouter quelques éléments afin de tenir compte des dernières avancées dans le domaine de la polarisation provenant du milieu circumstellaire. Les étoiles à l'étude étant jeunes (moins de quelques millions d'années), leur voisinage est toujours constitué de grains de poussière mélangés avec du gaz. Selon leur âge, nous retrouvons cette poussière sous différentes structures soit, par exemple, par un disque entouré d'une enveloppe (objets jeunes de classe I) ou par un simple disque (objets de classe II et III). Selon la structure que prend la poussière, les cartes de polarisation et d'intensité qui en résultent vont changer. Nous allons discuter de cette variation des cartes de polarisation selon la distribution de poussière. Suite aux modifications apportées au code, il a fallu s'assurer que celui-ci fonctionne bien. Pour ce faire, nous avons mis au point quelques critères qui nous assurent, s'ils sont satisfaits, que le code Monte Carlo produit de bons résultats. Après avoir validé le code, il est maintenant possible de l'utiliser aux fins d'avancer le domaine de la polarisation. En effet, Dullemond et al.(2001) proposent une nouvelle distribution de grain autour des étoiles Herbig Ae/Be afin de mieux expliquer leur distribution d'énergie spectrale. Par contre, qu'en est-il des cartes de polarisation résultantes? C'est sur cette question que nous nous sommes arrêtés. Par la suite, nous avons essayé de reproduire du mieux possible, tenant compte des limitations du code, les cartes de polarisation obtenues au TCFH. Nous avons étudié en détail les données de R Mon (résultats qui seront présentés sous forme d'article pour fin de publication) et de V376 Cas. De plus, notre étude de V376 Cas nous a permis d'amener des conclusions sur les processus causant les vecteurs parallèles aux disques des étoiles jeunes.
Resumo:
Face à l’incapacité de l’État à offrir des services de base aux ménages pauvres des zones urbaines périphériques et marginales, ce sont les opérateurs informels (individuels et collectifs) qui s’activent à répondre aujourd’hui aux besoins croissants des ménages. Mais leurs actions sont ponctuelles, éparpillées sur le territoire, non intégrées dans un plan de développement local, et beaucoup de ménages n’ont toujours pas accès à l’eau potable. Cette recherche, de type exploratoire, porte donc sur l’examen d’un type de partenariat entre les acteurs publics et les opérateurs informels collectifs, susceptible de créer la synergie entre les partenaires locaux et de pérenniser la fourniture de l’eau potable. Elle vise à analyser et à comprendre les mécanismes de collaboration entre l’État et les opérateurs informels collectifs en vue d’améliorer la qualité de la vie dans les quartiers urbains pauvres grâce à la résolution des problèmes d’accès à l’eau potable. À partir de l’étude de cas d’une zone pauvre de la ville de Kinshasa (République Démocratique du Congo), nous avons donc cherché à dégager ce qui peut éclairer le fonctionnement du partenariat État-opérateurs informels collectifs. Comme cadre d’analyse, nous avons recouru à l’analyse stratégique et, pour l’examen des expériences de partenariat, nous avons utilisé le modèle de Coston (1998) et recouru aux approches de régulation État-tiers secteur (approche socio-étatique et approche socio-communautaire). La méthode qualitative a été privilégiée. Les données analysées proviennent d’entrevues semi-dirigées, de la recherche documentaire et de l’observation. À partir du modèle de Coston (1998), les résultats obtenus montrent que les relations qui correspondent le mieux au partenariat entre les acteurs publics et les opérateurs informels collectifs sont de type « contractuel » et correspondent à l’orientation socio-étatique. Mais le système formel actuel de gestion de l’eau potable et les relations de pouvoir sont plus proches du type « rivalité ». Notre étude montre également que les partenariats, entre les acteurs publics et les opérateurs informels collectifs, sont très difficiles à instituer, car il n’existe pas encore d’environnement socio-politique solidaire. Le contexte institutionnel n’est pas propice à l’émergence d’un partenariat dynamique. Les déficiences structurelles, humaines et institutionnelles constatées sont la résultante directe de la pauvreté dont sont victimes les individus et les institutions. Les réseaux sociaux (à base de parenté, ethnique ou religieux) affectent les relations entre les individus, membres d’une association locale et les représentants des institutions locales ou nationales. Une complémentarité, négociée entre l’État et les opérateurs informels collectifs, ne pourra se réaliser que par la mise en place de nouvelles politiques favorisant la démocratie, la décentralisation et la promotion du mouvement associatif avec une société civile forte, dynamique, soucieuse du bien commun, privilégiant les qualités managériales plutôt que l’assistance perpétuelle.
Resumo:
Le rôle important joué par la mitochondrie dans la cellule eucaryote est admis depuis longtemps. Cependant, la composition exacte des mitochondries, ainsi que les processus biologiques qui sy déroulent restent encore largement inconnus. Deux facteurs principaux permettent dexpliquer pourquoi létude des mitochondries progresse si lentement : le manque defficacité des méthodes didentification des protéines mitochondriales et le manque de précision dans lannotation de ces protéines. En conséquence, nous avons développé un nouvel outil informatique, YimLoc, qui permet de prédire avec succès les protéines mitochondriales à partir des séquences génomiques. Cet outil intègre plusieurs indicateurs existants, et sa performance est supérieure à celle des indicateurs considérés individuellement. Nous avons analysé environ 60 génomes fongiques avec YimLoc afin de lever la controverse concernant la localisation de la bêta-oxydation dans ces organismes. Contrairement à ce qui était généralement admis, nos résultats montrent que la plupart des groupes de Fungi possèdent une bêta-oxydation mitochondriale. Ce travail met également en évidence la diversité des processus de bêta-oxydation chez les champignons, en corrélation avec leur utilisation des acides gras comme source dénergie et de carbone. De plus, nous avons étudié le composant clef de la voie de bêta-oxydation mitochondriale, lacyl-CoA déshydrogénase (ACAD), dans 250 espèces, couvrant les 3 domaines de la vie, en combinant la prédiction de la localisation subcellulaire avec la classification en sous-familles et linférence phylogénétique. Notre étude suggère que les gènes ACAD font partie dune ancienne famille qui a adopté des stratégies évolutionnaires innovatrices afin de générer un large ensemble denzymes susceptibles dutiliser la plupart des acides gras et des acides aminés. Finalement, afin de permettre la prédiction de protéines mitochondriales à partir de données autres que les séquences génomiques, nous avons développé le logiciel TESTLoc qui utilise comme données des Expressed Sequence Tags (ESTs). La performance de TESTLoc est significativement supérieure à celle de tout autre outil de prédiction connu. En plus de fournir deux nouveaux outils de prédiction de la localisation subcellulaire utilisant différents types de données, nos travaux démontrent comment lassociation de la prédiction de la localisation subcellulaire à dautres méthodes danalyse in silico permet daméliorer la connaissance des protéines mitochondriales. De plus, ces travaux proposent des hypothèses claires et faciles à vérifier par des expériences, ce qui présente un grand potentiel pour faire progresser nos connaissances des métabolismes mitochondriaux.
Resumo:
La théorie de l'information quantique étudie les limites fondamentales qu'imposent les lois de la physique sur les tâches de traitement de données comme la compression et la transmission de données sur un canal bruité. Cette thèse présente des techniques générales permettant de résoudre plusieurs problèmes fondamentaux de la théorie de l'information quantique dans un seul et même cadre. Le théorème central de cette thèse énonce l'existence d'un protocole permettant de transmettre des données quantiques que le receveur connaît déjà partiellement à l'aide d'une seule utilisation d'un canal quantique bruité. Ce théorème a de plus comme corollaires immédiats plusieurs théorèmes centraux de la théorie de l'information quantique. Les chapitres suivants utilisent ce théorème pour prouver l'existence de nouveaux protocoles pour deux autres types de canaux quantiques, soit les canaux de diffusion quantiques et les canaux quantiques avec information supplémentaire fournie au transmetteur. Ces protocoles traitent aussi de la transmission de données quantiques partiellement connues du receveur à l'aide d'une seule utilisation du canal, et ont comme corollaires des versions asymptotiques avec et sans intrication auxiliaire. Les versions asymptotiques avec intrication auxiliaire peuvent, dans les deux cas, être considérées comme des versions quantiques des meilleurs théorèmes de codage connus pour les versions classiques de ces problèmes. Le dernier chapitre traite d'un phénomène purement quantique appelé verrouillage: il est possible d'encoder un message classique dans un état quantique de sorte qu'en lui enlevant un sous-système de taille logarithmique par rapport à sa taille totale, on puisse s'assurer qu'aucune mesure ne puisse avoir de corrélation significative avec le message. Le message se trouve donc «verrouillé» par une clé de taille logarithmique. Cette thèse présente le premier protocole de verrouillage dont le critère de succès est que la distance trace entre la distribution jointe du message et du résultat de la mesure et le produit de leur marginales soit suffisamment petite.
Resumo:
Les raves sont des événements festifs dédiés à la musique techno et à la danse qui se distinguent des autres lieux de rassemblement tels que les bars et les discothèques notamment par le fait qu’ils se déroulent toute la nuit dans un lieu aménagé pour l’occasion et qu’il n’y a généralement pas de vente d’alcool. La consommation de drogues de synthèse telles que l’ecstasy et les speeds y est toutefois largement répandue. La tenue de ces rassemblements pose une série de problèmes du point de vue des autorités policières, tels que la présence de trafiquants de drogues ainsi que la sécurité des lieux où se déroulent les raves. Dans le contexte particulier de ces événements, les pratiques de contrôle social sont soumises à un certain nombre d’ambiguïtés. Le but général de l’étude est de permettre une compréhension de la façon dont se déterminent et s’appliquent les règles qui visent à encadrer la tenue de ce type de rassemblements. Trois objectifs spécifiques sont poursuivis, soit 1) de comprendre comment on a tenté de réguler ce type d’événements à Montréal, 2) de comprendre comment les différents acteurs responsables de l’organisation et du bon déroulement des événements établissent une série de règles, aussi bien formelles qu’informelles, et négocient leur application dans le cadre de leur pratique, et 3) de comprendre comment ces acteurs identifient certaines situations comme constituant un problème et éventuellement, y réagissent. La principale méthode de recueil des données a consisté à réaliser des entretiens semi-dirigés avec des promoteurs d’événements rave, des agents de sécurité ainsi que d’autres personnes impliquées dans le milieu telles que policier, pompier, artistes de la scène rave et intervenants. L’observation participante lors d’événements rave fut utilisée comme méthode complémentaire. L’étude démontre comment le service de police s’est vu confronté avec les raves à un vide juridique et comment l’encadrement de ce type d’événements s’est plutôt exercé par le service de prévention des incendies. Les autorités ont également tenté d’encadrer le phénomène par des modifications à certaines règlementations, dont celles sur les permis d’alcool. L’étude démontre également de quelle manière et en fonction de quoi les différents acteurs du milieu négocient les règles en cours d’action dans un contexte où la frontière entre le licite et l’illicite est floue.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.
Resumo:
Cette thèse examine les impacts sur la morphologie des tributaires du fleuve Saint-Laurent des changements dans leur débit et leur niveau de base engendrés par les changements climatiques prévus pour la période 2010–2099. Les tributaires sélectionnés (rivières Batiscan, Richelieu, Saint-Maurice, Saint-François et Yamachiche) ont été choisis en raison de leurs différences de taille, de débit et de contexte morphologique. Non seulement ces tributaires subissent-ils un régime hydrologique modifié en raison des changements climatiques, mais leur niveau de base (niveau d’eau du fleuve Saint-Laurent) sera aussi affecté. Le modèle morphodynamique en une dimension (1D) SEDROUT, à l’origine développé pour des rivières graveleuses en mode d’aggradation, a été adapté pour le contexte spécifique des tributaires des basses-terres du Saint-Laurent afin de simuler des rivières sablonneuses avec un débit quotidien variable et des fluctuations du niveau d’eau à l’aval. Un module pour simuler le partage des sédiments autour d’îles a aussi été ajouté au modèle. Le modèle ainsi amélioré (SEDROUT4-M), qui a été testé à l’aide de simulations à petite échelle et avec les conditions actuelles d’écoulement et de transport de sédiments dans quatre tributaires du fleuve Saint-Laurent, peut maintenant simuler une gamme de problèmes morphodynamiques de rivières. Les changements d’élévation du lit et d’apport en sédiments au fleuve Saint-Laurent pour la période 2010–2099 ont été simulés avec SEDROUT4-M pour les rivières Batiscan, Richelieu et Saint-François pour toutes les combinaisons de sept régimes hydrologiques (conditions actuelles et celles prédites par trois modèles de climat globaux (MCG) et deux scénarios de gaz à effet de serre) et de trois scénarios de changements du niveau de base du fleuve Saint-Laurent (aucun changement, baisse graduelle, baisse abrupte). Les impacts sur l’apport de sédiments et l’élévation du lit diffèrent entre les MCG et semblent reliés au statut des cours d’eau (selon qu’ils soient en état d’aggradation, de dégradation ou d’équilibre), ce qui illustre l’importance d’examiner plusieurs rivières avec différents modèles climatiques afin d’établir des tendances dans les effets des changements climatiques. Malgré le fait que le débit journalier moyen et le débit annuel moyen demeurent près de leur valeur actuelle dans les trois scénarios de MCG, des changements importants dans les taux de transport de sédiments simulés pour chaque tributaire sont observés. Ceci est dû à l’impact important de fortes crues plus fréquentes dans un climat futur de même qu’à l’arrivée plus hâtive de la crue printanière, ce qui résulte en une variabilité accrue dans les taux de transport en charge de fond. Certaines complications avec l’approche de modélisation en 1D pour représenter la géométrie complexe des rivières Saint-Maurice et Saint-François suggèrent qu’une approche bi-dimensionnelle (2D) devrait être sérieusement considérée afin de simuler de façon plus exacte la répartition des débits aux bifurcations autour des îles. La rivière Saint-François est utilisée comme étude de cas pour le modèle 2D H2D2, qui performe bien d’un point de vue hydraulique, mais qui requiert des ajustements pour être en mesure de pleinement simuler les ajustements morphologiques des cours d’eau.