1000 resultados para conception du réseau en fonction du temps
Resumo:
La qualification est centrale à l'activité du juriste. Les règles de droit positif ne reçoivent application qu'au moment où les faits reçoivent une certaine qualification. Cette réalité prend une dimension particulière face au contrat, lequel est l'objet de multiples dispositions législatives. Le législateur a cru bon au fil du temps, de réglementer diverses formes contractuelles, les contrats nommés. On oppose à ceux-ci les contrats innommés, pure création extra-législative. La détermination de la nature du contrat passe par un processus de qualification indépendant de notions connexes et qui doit s'éloigner d'une méthode intuitive. La qualification du contrat passera principalement par l’analyse des obligations en vue d'identifier l'obligation fondamentale ou la prestation caractéristique du contrat. Il s'agit d'une analyse qu'on veut objective. Les parties auront peu d'influence sur la qualification qui sera ultérieurement donnée à leur contrat, celle-ci étant une question de droit en principe réservée au juge. Le juriste tentera d'abord de lier le contrat aux modèles nommés connus et prévus par le législateur, soit en lui donnant un seul nom ou en reconnaissant la nature mixte de la convention. Dans l'éventualité où ces tentatives ne sont pas concluantes, une qualification innommée devra être choisie. La distinction entre les différentes qualifications possible sera réalisée en fonction de la hiérarchie des obligations au contrat et par l'écart de celle-ci avec les modèles connus.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Nous investiguons dans ce travail la dynamique des excitons dans une couche mince d’agrégats H autoassemblés hélicoïdaux de molécules de sexithiophène. Le couplage intermoléculaire (J=100 meV) place ce matériau dans la catégorie des semi-conducteurs à couplage de type intermédiaire. Le désordre énergétique et la forte interaction électronsphonons causent une forte localisation des excitons. Les espèces initiales se ramifient en deux états distincts : un état d’excitons autopiégés (rendement de 95 %) et un état à transfert de charge (rendement de 5%). À température de la pièce (293K), les processus de sauts intermoléculaires sont activés et l’anisotropie de la fluorescence décroît rapidement à zéro en 5 ns. À basse température (14K), les processus de sauts sont gelés. Pour caractériser la dynamique de diffusion des espèces, une expérience d’anisotropie de fluorescence a été effectuée. Celle-ci consiste à mesurer la différence entre la photoluminescence polarisée parallèlement au laser excitateur et celle polarisée perpendiculairement, en fonction du temps. Cette mesure nous donne de l’information sur la dépolarisation des excitons, qui est directement reliée à leur diffusion dans la structure supramoléculaire. On mesure une anisotropie de 0,1 après 20 ns qui perdure jusqu’à 50ns. Les états à transfert de charge causent une remontée de l’anisotropie vers une valeur de 0,15 sur une plage temporelle allant de 50 ns jusqu’à 210 ns (période entre les impulsions laser). Ces résultats démontrent que la localisation des porteurs est très grande à 14K, et qu’elle est supérieure pour les espèces à transfert de charge. Un modèle numérique simple d’équations différentielles à temps de vie radiatif et de dépolarisation constants permet de reproduire les données expérimentales. Ce modèle a toutefois ses limitations, notamment en ce qui a trait aux mécanismes de dépolarisation des excitons.
Resumo:
Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 131–1275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets.
Resumo:
Les personnes atteintes de schizophrénie peuvent présenter un sommeil anormal même lorsqu’elles sont stables cliniquement sous traitements pharmacologiques. Les études présentées dans cette thèse ont pour but de mesurer le sommeil afin de mieux comprendre les dysfonctions des mécanismes cérébraux pouvant être impliqués dans la physiopathologie de la schizophrénie. Les trois études présentées dans cette thèse rapportent des résultats sur le sommeil dans la schizophrénie à trois niveaux d’analyse chez trois groupes différents de patients. Le premier niveau est subjectif et décrit le sommeil à l’aide d’un questionnaire administré chez des personnes atteintes de schizophrénie cliniquement stables sous traitements pharmacologiques. Le deuxième niveau est objectif et évalue le sommeil par une méta-analyse des études polysomnographiques chez des patients atteints de schizophrénie ne recevant pas de traitement pharmacologique. Le troisième niveau est micro-structurel et utilise l’analyse spectrale de l’électroencéphalogramme (EEG) afin de caractériser le sommeil paradoxal de patients en premier épisode aigu de schizophrénie avant le début du traitement pharmacologique. La première étude montre que, lorsqu’évaluées par un questionnaire de sommeil, les personnes atteintes de schizophrénie cliniquement stables sous traitements pharmacologiques rapportent prendre plus de temps à s’endormir, se coucher plus tôt et se lever plus tard, passer plus de temps au lit et faire plus de siestes comparativement aux participants sains. Aussi, tout comme les participants sains, les personnes atteintes de schizophrénie rapportent un nombre normal d’éveils nocturnes, se disent normalement satisfaites de leur sommeil et se sentent normalement reposées au réveil. La deuxième étude révèle qu’objectivement, lorsque les études polysomnographiques effectuées chez des patients non traités sont soumises à une méta-analyse, les personnes atteintes de schizophrénie montrent une augmentation du délai d’endormissement, une diminution du temps total en sommeil, une diminution de l’efficacité du sommeil et une augmentation de la durée des éveils nocturnes comparativement aux participants sains. Les patients en arrêt aigu de traitement ont des désordres plus sévères au niveau de ces variables que les patients jamais traités. Seulement les patients jamais traités ont une diminution du pourcentage de stade 2 comparativement aux participants sains. La méta-analyse ne révèle pas de différence significative entre les groupes en ce qui concerne le sommeil lent profond et le sommeil paradoxal. La troisième étude, portant sur l’analyse spectrale de l’EEG en sommeil paradoxal, montre une diminution de l’amplitude relative de la bande de fréquence alpha dans les régions frontales, centrales et temporales et montre une augmentation de l’amplitude relative de la bande de fréquence bêta2 dans la région occipitale chez les personnes en premier épisode de schizophrénie jamais traitées comparativement aux participants sains. L’activité alpha absolue est positivement corrélée aux symptômes négatifs dans les régions frontales, centrales et temporales et négativement corrélée aux symptômes positifs dans la région occipitale. L’activité beta2 absolue ne montre pas de corrélation significative avec les symptômes positifs et négatifs de la schizophrénie. Ces résultats sont discutés suivant la possibilité que des dysfonctions au niveau des mécanismes de la vigilance seraient impliquées dans la physiopathologie de la schizophrénie.
Resumo:
L’endothéline-1 (ET-1) est un puissant agent vasoconstricteur dont la production est dérégulée dans plusieurs maladies inflammatoires où l’expression des cyclooxygénases-1/2 (COX-1/2) est augmentée. Puisqu’il est connu que la voie p38 MAPK est impliquée dans la régulation de l’ET-1 au niveau de l’ARNm, nous avons étudié le rôle de l’un de ses substrats, la kinase MK2 dans la régulation post-transcriptionnelle de l’ET-1 et des COX. Pour ce faire, nous avons utilisé des souris MK2-déficientes (MK2-/-) ainsi que des contrôles (MK2+/+) issus de la même portée. Des paramètres de la fonction cardiaque ont été mesurés sous anesthésie à l’aide d’un cathéter Millar et la réactivité vasculaire de l’artère fémorale a été mesurée par myographe. L’expression de ET-1, COX-1 et COX-2 a été quantifiée dans la cellule endothéliale aortique (CE) par qPCR. En réponse à l’ET-1 (100 nM), l’expression de la préproET-1 dans les CE augmente en fonction du temps (p<0.05) : cette variation est accentuée chez les souris MK2-/-. Bien que la pression artérielle soit similaire entre les souris MK2+/+ et MK2-/-, l’inhibition de COX (indométacine, 1 μM) augmente (p<0.05) la contraction à l’ET-1 des vaisseaux isolés provenant de souris MK2+/+ mais pas des MK2-/-. Ces données suggèrent un rôle de MK2 dans la réponse vasculaire à l’ET-1 et possiblement dans la signalisation post-récepteur de l’ET-1 en général.
Resumo:
La victimisation au sein du groupe de pairs est un facteur de risque associé à l’augmentation des symptômes dépressifs au début de l’adolescence. En contrepartie, le fait d’entretenir des relations d’amitié constitue un facteur protecteur important susceptible de modérer les conséquences négatives associées à la victimisation par les pairs. Toutefois, les bénéfices associés aux relations d’amitié peuvent varier en fonction de certaines caractéristiques de celles-ci. Cette étude a pour but d’évaluer dans quelle mesure les caractéristiques des relations d’amitié (c.-à-d., le caractère intime et soutenant de la relation et la propension des amis à co-ruminer) modèrent l’association entre la victimisation par les pairs et l’augmentation des symptômes dépressifs sur une période d’un an. L'échantillon est composé de 536 élèves du secondaire auprès de qui la victimisation et les caractéristiques des relations d’amitié ont été évaluées au premier temps de mesure de façon auto-rapportée. Les symptômes dépressifs des élèves ont également été mesurés lors de deux années consécutives. Les résultats démontrent que le niveau de victimisation des élèves, la qualité des relations d’amitié et la tendance des amis à co-ruminer sont respectivement associés de façon concomitante à l’expression des symptômes dépressifs. En contrepartie, seule la co-rumination entre amis permet de rendre compte de l’augmentation des symptômes dépressifs sur une période d’un an. L’association entre la victimisation par les pairs et le développement des symptômes dépressifs n’est toutefois pas modérée par les caractéristiques des relations d’amitié.
Resumo:
Ce mémoire porte sur le rôle que jouent les médias de masse dans la construction de la personnalité publique des nouveaux chefs de partis politiques. Lorsqu’un individu est nommé à la tête d’un parti politique, il est la plupart du temps peu connu du grand public. Or, comme une écrasante majorité de citoyens n’a jamais l’occasion d’entrer en contact directement avec les hommes et les femmes politiques, c’est exclusivement par le biais des médias que la plupart des gens apprennent à connaître leurs représentants politiques – ou ceux qui aspirent à jouer ce rôle. Or les médias ne se contentent pas de répéter ce que les politiciens disent. Les informations qu’ils décident d’inclure dans leurs reportages, les mots qu’ils utilisent et les cadrages qu’ils retiennent contribuent à définir la personnalité des leaders émergents dont ils parlent. Les médias choisissent aussi de mettre l’accent sur certains traits de personnalité et décident d’en ignorer d’autres. Afin de mieux comprendre ce phénomène, nous avons étudié le cas de l’ex-chef du Parti québécois, André Boisclair. Nous avons cherché à savoir si la couverture dont ce dernier a fait l’objet a été stable ou si elle a suivi certains cycles, et nous nous sommes intéressés aux critères retenus par les médias pour évaluer sa personnalité. Pour ce faire, nous avons étudié le volume, le format, le ton, les objets et les cadrages qui caractérisent la couverture dont a été l’objet André Boisclair à l’antenne de la Société Radio-Canada et du Réseau TVA entre le 4 juin 2005 et le 21 février 2007. Nos conclusions sont à l’effet que la couverture a bel et bien suivi un cycle, et que les critères retenus par les médias sont très similaires à ceux qui sont réputés être importants pour la population dans le choix d’un leader politique.
Resumo:
Cette recherche s’inscrit dans le cadre de l’évaluation des compétences langagières en français chez des adultes immigrants en vue de leur placement dans des cours de français. Elle porte sur la dimensionnalité, de même que sur la difficulté objective et subjective de tâches discrètes ou intégrées de compréhension écrite, à différents niveaux de maîtrise. Elle propose des analyses de l’estimation de la maîtrise linguistique en fonction de l’appartenance des candidats à des groupes linguistiques distincts. Pour mener à bien la recherche, un test de six textes et de 30 items a été créé. Il a été administré à 118 immigrants. Ces immigrants suivaient les cours de français proposés par le Ministère de l’immigration et des communautés culturelles du Québec (MICC) dans les écoles de langues de l’Université de Montréal et de l’Université du Québec à Montréal. Après administration, ce test a été soumis à des analyses portant sur la dimensionnalité et la difficulté des tâches discrètes et intégrées ainsi que sur les interactions entre ces tâches et les différents groupes de candidats. Des études plus précises ont été faites sur l’interaction entre le type de tâche, l’appartenance à un groupe linguistique pour des candidats et des items de niveau similaire. Enfin, des analyses ont permis d’étudier la perception de la difficulté des tâches par les candidats. L’étude, même si elle porte sur un test en rodage, permet de distinguer la dimensionnalité de tâches discrètes de celle de tâches intégrées. Elle permet également de constater les différences de fonctionnement entre ces deux types de tâches. Enfin, elle permet de comprendre l’interprétation de la difficulté par les candidats et, par ricochet, leur vision du test. In fine, des propositions sont formulées quant à l’opportunité d’utiliser des tâches discrètes et intégrées dans un test de positionnement adaptatif en français langue seconde.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
Thèse réalisée en cotutelle avec l'Université Paris-Sorbonne (Paris IV), sous la direction de M. Michel Delon.
Resumo:
L’utilisation des services de santé est au centre de l’organisation des soins. La compréhension des processus qui déterminent cette utilisation est essentielle pour agir sur le système de santé et faire en sorte qu’il réponde mieux aux besoins de la population. L’objectif de cette thèse est de comprendre le phénomène complexe qu’est l’utilisation des services de santé en s’intéressant à la pratique des médecins omnipraticiens. En nous appuyant sur le cadre théorique de Donabedian, nous décomposons les déterminants de l’utilisation des services de santé en trois niveaux : le niveau individuel, le niveau organisationnel, et le niveau environnemental. Pour tenir compte de la complexité des phénomènes de cette étude nous proposons de nous appuyer sur l’approche configurationnelle. Notre question de recherche est la suivante : dans quelle mesure le mode d’exercice des omnipraticiens influence-t-il la prestation des services et comment l’environnement géographique et la patientèle modulent-ils cette relation ? Nous avons utilisé des bases de données jumelées du Collège des médecins du Québec, de la Régie d’assurance maladie du Québec et de la banque de données iCLSC. Notre échantillon est constitué des médecins omnipraticiens de l’année 2002, ayant satisfait aux critères d’inclusion, ce qui représente près de 70% de la population totale. Des analyses de correspondances multiples et des classifications ascendantes hiérarchiques ont été utilisées pour réaliser la taxonomie des modes d’exercice et des contextes géographiques. Nous avons construit des indicateurs d’utilisation des services de santé pour apprécier la continuité, la globalité, l’accessibilité et la productivité. Ces indicateurs ont été validés en les comparant à ceux d’une enquête populationnelle. Nous présentons tout d’abord les modes d’exercice des médecins qui sont au nombre de sept. Deux modes d’exercice à lieu unique ont émergé : le mode d’exercice en cabinet privé d'une part, caractérisé par des niveaux de continuité et productivité élevés, le mode d’exercice en CLSC d'autre part présentant un niveau de productivité faible et des niveaux de globalité et d'accessibilité légèrement au-dessus de la moyenne. Dans les cinq autres modes d’exercice, les médecins exercent leur pratique dans une configuration de lieux. Deux modes d’exercice multi-institutionnel réunissent des médecins qui partagent leur temps entre les urgences, les centres hospitaliers et le cabinet privé ou le CLSC. Les médecins de ces deux groupes présentent des niveaux d’accessibilité et de productivité très élevés. Le mode d’exercice le moins actif réunit des médecins travaillant en cabinet privé et en CHLSD. Leur niveau d’activité est inférieur à la moyenne. Ils sont caractérisés par un niveau de continuité très élevé. Le mode d’exercice ambulatoire regroupe des médecins qui partagent leur pratique entre le CLSC, le cabinet privé et le CHLSD. Ces médecins présentent des résultats faibles sur tous les indicateurs. Finalement le mode d’exercice hospitaliste réunit des médecins dont la majorité de la pratique s’exerce en milieu hospitalier avec une petite composante en cabinet privé. Dans ce mode d’exercice tous les indicateurs sont faibles. Les analyses ont mis en évidence quatre groupes de territoires de CSSS : les ruraux, les semi-urbains, les urbains et les métropolitains. La prévalence des modes d’exercice varie selon les contextes. En milieu rural, le multi-institutionnel attire près d’un tiers des médecins. En milieu semi-urbain, les médecins se retrouvent de façon plus prédominante dans les modes d’exercice ayant une composante CLSC. En milieu urbain, les modes d’exercice ayant une composante cabinet privé attirent plus de médecins. En milieu métropolitain, les modes d’exercice moins actif et hospitaliste attirent près de 40% des médecins. Les omnipraticiens se répartissent presque également dans les autres modes d’exercice. Les niveaux des indicateurs varient en fonction de l’environnement géographique. Ainsi l’accessibilité augmente avec le niveau de ruralité. De façon inverse, la productivité augmente avec le niveau d’urbanité. La continuité des soins est plus élevée en régions métropolitaines et rurales. La globalité varie peu d’un contexte à l’autre. Pour pallier à la carence de l’analyse partielle de l’organisation de la pratique des médecins dans la littérature, nous avons créé le concept de mode d’exercice comme la configuration de lieux professionnels de pratique propre à chaque médecin. A notre connaissance, il n’existe pas dans la littérature, d’étude qui ait analysé simultanément quatre indicateurs de l’utilisation des services pour évaluer la prestation des services médicaux, comme nous l’avons fait. Les résultats de nos analyses montrent qu’il existe une différence dans la prestation des services selon le mode d’exercice. Certains des résultats trouvés sont documentés dans la littérature et plus particulièrement quand il s’agit de mode d’exercice à lieu unique. La continuité et la globalité des soins semblent évoluer dans le même sens. De même, la productivité et l’accessibilité sont corrélées positivement. Cependant il existe une tension, entre les premiers indicateurs et les seconds. Seuls les modes d’exercice à lieu unique déjouent l’arbitrage entre les indicateurs, énoncé dans l’état des connaissances. Aucun mode d’exercice ne présente de niveaux élevés pour les quatre indicateurs. Il est donc nécessaire de travailler sur des combinaisons de modes d’exercice, sur des territoires, afin d’offrir à la population les services nécessaires pour l’atteinte concomitante des quatre objectifs de prestation des services. Les modes d’exercice émergents (qui attirent les jeunes médecins) et les modes d’exercice en voie de disparition (où la prévalence des médecins les plus âgés est la plus grande) sont préoccupants. A noter que les modes d’exercice amenés à disparaître répondent mieux aux besoins de santé de la population que les modes d’exercice émergents, au regard de tous nos indicateurs. En conclusion, cette thèse présente trois contributions théoriques et trois contributions méthodologiques. Les implications pour les recherches futures et la décision indiquent que, si aucune mesure n’est mise en place pour renverser la tendance, le Québec risque de vivre des pénuries dans la prestation des services en termes de continuité, globalité et accessibilité.
Resumo:
Dans l’optique que la télésurveillance est devenue un outil indispensable en matière de sécurité, notre projet de recherche porte sur la manière dont elle est utilisée à des fins de gestion de l’ordre dans une propriété privée de masse (propriété privée que le public général est invité à visiter). Il s’agit de comprendre le rôle du centre de contrôle de télésurveillance dans la gestion d’un centre commercial. De façon plus spécifique, nous voulons décrire le fonctionnement et les objectifs des technologies de télésurveillance et les méthodes de contrôle utilisées dans un espace privé de masse. Nous voulons décrire les pratiques des agents affectés au centre de contrôle de télésurveillance ainsi que leur perception des notions de sécurité et d’ordre, avec une attention particulière accordée à la surveillance des lieux. Le site que nous avons sélectionné est un édifice situé en plein cœur du centre-ville de Montréal, où nous retrouvons des galeries commerciales abritant plusieurs restaurants et boutiques. Afin d’atteindre nos objectifs de recherche, nous avons fait plus de 150 heures d’observation participante dans le centre de contrôle de télésurveillance. Nos observations étaient complétées par des entretiens spontanés, afin de bien comprendre la dynamique et les interactions entre les agents, les autres employés et les visiteurs. Ainsi, notre matériel empirique est surtout de nature qualitative, mais nous avons complété ces données avec une grille d’analyse quantitative permettant une analyse minutieuse de l’emploi du temps des agents de sécurité à l’aide d’un fichier informatisé. Nous sommes en mesure d’établir que la surveillance dans une propriété privée de masse vise, à biens des égards, la gestion de l’image. La sécurité proprement dite est reléguée au second plan, derrière tout ce qui est relatif au marketing et à l’encouragement à la consommation. De plus, nous avons constaté que les agents de sécurité dans de tels lieux servent surtout à répondre à des besoins organisationnels ponctuels, leur quotidien n’étant guidé par aucune mission globale. Quant au centre de contrôle de vidéosurveillance, nous pouvons affirmer que son rôle est de s’assurer que toutes les activités au centre se déroulent comme convenu par les gestionnaires de l’établissement.
Resumo:
The attached file is created with Scientific Workplace Latex
La rencontre des contraires : attraction/narration et immersion/réflexivité dans le film en IMAX 3-D
Resumo:
Ce mémoire est consacré à la question de la réception spectatorielle des films en IMAX 3-D. Dans un premier temps, nous retracerons l’histoire du cinéma stéréoscopique, des origines jusqu’à l’inauguration de l’IMAX 3-D en 1986. Nous verrons que le modèle de l’attraction cinématographique s’est maintenu de tout temps dans l’économie de ce format, ce qui a contribué aux échecs de son institutionnalisation dans les années 50 et 80. En un deuxième temps, nous nous intéresserons à l’« expérience IMAX », afin de cerner la position qui y est attribuée au spectateur. Nous montrerons que les films IMAX misent à la fois sur leur potentiel immersif et sur la mise en évidence du dispositif. L’état d’immersion du spectateur entre donc en dialogue avec la réflexivité du médium. Par l’analyse des films Sea Monsters : A Prehistoric Adventure et Haunted Castle, il sera démontré que cette tension entre immersion et réflexivité sert un discours de glorification de l’IMAX. Aussi, nous interrogeons les liens entre la structure ponctuelle imposée par le modèle attractionnel et le fil narratif immanquablement mis en place dans les films IMAX.