294 resultados para Planification du mouvement


Relevância:

30.00% 30.00%

Publicador:

Resumo:

ARF6 et ARF1 sont des petites GTPases de la famille des ARF(s) qui régulent plusieurs voies de signalisation comprenant, la formation et le mouvement des vésicules, la transformation des lipides membranaires et la réorganisation du cytosquelette d’actine. À ce jour, le rôle de la protéine ARF6 et de la protéine ARF1 dans la signalisation des récepteurs couplés aux protéines G (RCPG) et des récepteurs à activité tyrosine kinase (RTK) dans les cellules endothéliales est encore très peu étudié. Le but de cette étude a été de caractériser le rôle de la protéine ARF6 dans la migration des cellules endothéliales induite par l’endothéline-1, ainsi que le rôle de la protéine ARF1 dans la sécrétion du monoxyde d’azote (NO) stimulées par le VEGF. Dans cette étude, nous montrons qu’ARF6 est essentielle à la migration des cellules endothéliales induite par l’endotheline-1. L’inhibition de l’expression d’ARF6 par interférence à l’ARN entraîne une activation marquée de la kinase FAK et son association constitutive avec Src. Par ailleurs, cette inhibition affecte l’association entre GIT1 et la kinase FAK. Ceci se traduit par une inhibition du désassemblage des contacts focaux et une augmentation de l’adhésion cellulaire menant à une diminution de la motilité. De plus, nos résultats montrent que la protéine ARF1 est essentielle à l’activation d’eNOS et à la sécrétion du NO suite à l’activation du VEGFR2 dans les cellules endothéliales BAEC. En effet, l’inhibition de l’expression d’ARF1 par interférence à l’ARN entraîne une inhibition du recrutement de la kinase Akt à la membrane plasmique et une inhibition de son activation induite par le VEGF. L’inhibition de l’activation de la kinase Akt par le VEGF conduit à une inhibition de l’activation de eNOS et de la sécrétion du NO. Dans l’ensemble, nos résultats montrent que les protéines ARF6 et ARF1 sont essentielles à la signalisation de l’ETB et du VEGFR2 pour les processus menant à la migration cellulaire et à la sécrétion du NO respectivement, deux évènements essentiels à l’angiogenèse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’industrie forestière est un secteur qui, même s’il est en déclin, se trouve au cœur du débat sur la mondialisation et le développement durable. Pour de nombreux pays tels que le Canada, la Suède et le Chili, les objectifs sont de maintenir un secteur florissant sans nuire à l’environnement et en réalisant le caractère fini des ressources. Il devient important d’être compétitif et d’exploiter de manière efficace les territoires forestiers, de la récolte jusqu’à la fabrication des produits aux usines, en passant par le transport, dont les coûts augmentent rapidement. L’objectif de ce mémoire est de développer un modèle de planification tactique/opérationnelle qui permet d’ordonnancer les activités pour une année de récolte de façon à satisfaire les demandes des usines, sans perdre de vue le transport des quantités récoltées et la gestion des inventaires en usine. L’année se divise en 26 périodes de deux semaines. Nous cherchons à obtenir les horaires et l’affectation des équipes de récolte aux blocs de coupe pour une année. Le modèle mathématique développé est un problème linéaire mixte en nombres entiers dont la structure est basée sur chaque étape de la chaine d’approvisionnement forestière. Nous choisissons de le résoudre par une méthode exacte, le branch-and-bound. Nous avons pu évaluer combien la résolution directe de notre problème de planification était difficile pour les instances avec un grand nombre de périodes. Cependant l’approche des horizons roulants s’est avérée fructueuse. Grâce à elle en une journée, il est possible de planifier les activités de récolte des blocs pour l’année entière (26 périodes).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction : Les résultats de recherches ont démontré que la cessation tabagique augmente là où des interventions professionnelles préventives sont appliquées avec constance. On rapporte qu’au Québec, 62 % des infirmières (toutes pratiques confondues) évaluent le statut tabagique de leurs clients et 38 % suggèrent la cessation tabagique. En milieu hospitalier, l’évaluation du statut tabagique diminue à 30 %. Or, le personnel infirmier hospitalier est présent dans les unités de soins 24 heures sur 24, ce qui laisse prévoir une influence potentielle non négligeable dans la décision des patients de cesser de fumer. Objectif : La présente recherche a pour objectif de comparer, avec un groupe contrôle, l’efficacité de stratégies (formation interactive, rappel, multiple) pour augmenter les interventions réalisées en cessation tabagique dans des unités de médecine et de chirurgie. Le choix de ces stratégies repose sur leur efficacité et leur potentiel d’implantation dans d’autres centres. Méthodologie : Un devis expérimental avec randomisation par groupe a été choisi. Le modèle factoriel permet d’évaluer l’effet de chacun des groupes expérimentaux en regard du groupe contrôle. Des mesures préstratégies et poststratégies (à 1 mois et à 3 mois) sont privilégiées. Plusieurs outils permettent de mesurer les effets des stratégies et ce, avec des sources diversifiées (personnel infirmier, patients, dossiers des patients, gestionnaires et responsables des centres d’abandon du tabac). Résultats : Au total, 156 infirmières et infirmières-auxiliaires ont répondu à des questionnaires au temps 1, 78 au temps 2 et 69 au temps 3. Parallèlement au personnel infirmier, 156 patients ont été rejoints au temps 1, 89 au temps 2 et 98 au temps 3. Les résultats démontrent que le personnel infirmier évalue le statut tabagique chez 35,7 % de la clientèle seulement et la motivation à cesser de fumer chez 17,6 % des patients. Au cours de notre recherche, peu d’interventions en cessation tabagique ont été réalisées dans les unités de médecine et de chirurgie; la présence de plusieurs obstacles de même qu’une perception d’inefficacité des interventions de la part du personnel infirmier semblent en être les causes. Les résultats de notre recherche ne nous a pas permis d’appuyer nos hypothèses. Cependant, des analyses complémentaires ont démontré que la stratégie de formation interactive a permis d’augmenter certaines pratiques cliniques à court terme et de diminuer la perception d’obstacles à l’intervention. Le rappel n’a pas fonctionné correctement et n’a pu être évalué. Conclusion : En considérant les résultats modestes des stratégies implantées, la formation interactive a eu un impact à très court terme sur les interventions courtes en cessation tabagique réalisées par le personnel infirmier d’unités de soins en médecine et en chirurgie. Les difficultés rencontrées lors de l’implantation des stratégies ont été expliquées, ce qui permettra une planification plus éclairée de futures recherches dans le domaine.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le programme -Une école adaptée à tous ses élèves-, qui s'inscrit dans la réforme actuelle de l'éducation au Québec, nous a amenée à nous intéresser aux représentations dans les grandeurs en mesure en mathématiques des élèves en difficulté d'apprentissage. Nous nous sommes proposés de reconduire plusieurs paramètres de la recherche de Brousseau (1987, 1992) auprès de cette clientèle. La théorie des champs conceptuels (TCC) de Vergnaud (1991), appliquée aux structures additives, a été particulièrement utile pour l'analyse et l'interprétation de leurs représentations. Comme méthode de recherche, nous avons utilisé la théorie des situations didactiques en mathématiques (TSDM), réseau de concepts et de méthode de recherche appuyé sur l'ingénierie didactique qui permet une meilleure compréhension de l'articulation des contenus à enseigner. Grâce à la TSDM, nous avons observé les approches didactiques des enseignants avec leurs élèves. Notre recherche est de type exploratoire et qualitatif et les données recueillies auprès de 26 élèves de deux classes spéciales du deuxième cycle du primaire ont été traitées selon une méthode d'analyse de contenu. Deux conduites ont été adoptées par les élèves. La première, de type procédural a été utilisée par presque tous les élèves. Elle consiste à utiliser des systèmes de comptage plus ou moins sophistiqués, de la planification aux suites d'actions. La deuxième consiste à récupérer directement en mémoire à long terme le résultat associé à un couple donné et au contrôle de son exécution. L'observation des conduites révèle que les erreurs sont dues à une rupture du sens. Ainsi, les difficultés d'ordre conceptuel et de symbolisation nous sont apparues plus importantes lorsque l'activité d'échange demandait la compétence "utilisation" et renvoyait à la compréhension de la tâche, soit les tâches dans lesquelles ils doivent eux-mêmes découvrir les rapports entre les variables à travailler et à simuler les actions décrites dans les énoncés. En conséquence, les problèmes d'échanges se sont révélés difficiles à modéliser en actes et significativement plus ardus que les autres. L'étude des interactions enseignants et élèves a démontré que la parole a été presque uniquement le fait des enseignants qui ont utilisé l'approche du contrôle des actes ou du sens ou les deux stratégies pour aider des élèves en difficulté. Selon le type de situation à résoudre dans ces activités de mesurage de longueur et de masse, des mobilisations plurielles ont été mises en oeuvre par les élèves, telles que la manipulation d'un ou des étalon(s) par superposition, par reports successifs, par pliage ou par coupure lorsque l'étalon dépassait; par retrait ou ajout d'un peu de sable afin de stabiliser les plateaux. Nous avons également observé que bien que certains élèves aient utilisé leurs doigts pour se donner une perception globale extériorisée des quantités, plusieurs ont employé des procédures très diverses au cours de ces mêmes séances. Les résultats présentés étayent l'hypothèse selon laquelle les concepts de grandeur et de mesure prennent du sens à travers des situations problèmes liées à des situations vécues par les élèves, comme les comparaisons directes. Eles renforcent et relient les grandeurs, leurs propriétés et les connaissances numériques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'amélioration de la maitrise du français langue première chez les élèves du primaire au Québec dépend de plusieurs facteurs. L'enseignant peut jouer un rôle dans ce processus, sa formation universitaire lui fournissant les connaissances nécessaires afin d'encadrer le développement des compétences langagières de l'élève. Une de ces compétences joue un rôle privilégié dans l'utilisation et la maitrise de la langue, il s'agit de la compétence lexicale, la capacité à comprendre et à utiliser les unités du lexique, aussi bien à l'oral qu'à l'écrit. Afin d'encadrer le développement de la compétence lexicale en français langue première des élèves du primaire, les enseignants doivent eux-mêmes posséder un bon niveau de compétence lexicale, mais aussi détenir un certain nombre de connaissances sur le fonctionnement du lexique lui-même, c'est-à-dire des connaissances métalexicales. Le référentiel québécois de la profession enseignante (MEQ, 2001b) ne détaille pas les connaissances métalexicales que doit posséder l'enseignant pour mener les tâches associées à ses activités d'enseignement/apprentissage du lexique. En outre, la plupart des universités québécoises n'offrent pas de cours dédiés explicitement à la didactique du lexique. Pourtant, ce sont dans les cours de didactique que sont dispensées les connaissances théoriques et pratiques nécessaires au futur enseignant pour assumer les tâches de planification et de pilotage des activités d'apprentissage et d'évaluation des compétences des élèves. La relative absence de cours de didactique du lexique en formation initiale pourrait s'expliquer par le fait qu'il s'agit d'une discipline encore jeune dont les fondements théoriques et pratiques sont en cours de développement. Cette thèse en didactique du français langue première s’intéresse donc aux contenus linguistiques de référence de la didactique du lexique, ainsi qu’à la formation des maitres au primaire dans cette même discipline. Le travail de recherche effectué afin de tenter de remédier au problème soulevé a permis la réalisation de deux objectifs complémentaires. Le premier a consisté en la construction d’une ontologie des savoirs lexicologiques, qui permet de représenter à l’intérieur d’une hiérarchie de notions l’ensemble des connaissances disciplinaires de référence de la didactique du lexique. Cette représentation a ensuite été utilisée pour spécifier et structurer les contenus d’un module de cours en didactique du lexique visant le développement des connaissances métalexicales chez les futurs enseignants du primaire au Québec. L’ontologie et le module de cours produits ont été évalués et validés par des experts de chacun des domaines concernés. L’évaluation de l’ontologie a permis de vérifier la méthode de construction de celle-ci, ainsi que différents aspects relatifs à la structuration des concepts dans l’ontologie. L’évaluation du module de cours a quant à elle montré que les contenus de cours étaient pertinents, les méthodes pédagogiques employées appropriées et le matériel de cours développé bien conçu. Cela nous permet d'affirmer que le module de cours en didactique du lexique se présente comme un apport intéressant à la formation des futurs enseignants du primaire en français langue première au Québec. La recherche dans son ensemble présente enfin une contribution pertinente à la didactique du lexique, son caractère original résidant entre autres dans le fait d’avoir développé un mécanisme d’exploitation d’une base de connaissances (ontologie des savoirs lexicologiques) pour la conception didactique (module de cours en didactique du lexique).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Plusieurs études ont révélé des problèmes récurrents au niveau de la performance et de la gestion des projets de reconstruction à la suite des catastrophes dans les pays en voie de développement (PEVD). Ces projets doivent faire face à des conditions de vulnérabilité des habitants, engendrées par des facteurs politiques, économiques, sociaux et culturels. Les divers participants - contraints par un accès limité à l’information - sont confrontés à travailler dans un contexte hostile ayant un niveau d’incertitude élevé. Ce niveau d’incertitude augmente les risques du projet de reconstruction, particulièrement le risque d’insatisfaction des usagers. Ce travail vise à mettre en parallèle l’analyse du système organisationnel adopté pour la conduite d’un projet de reconstruction et celle du niveau de satisfaction des usagers. Il émet l’hypothèse suivante: deux facteurs organisationnels influencent largement le niveau de satisfaction de la part des bénéficiaires d’un projet de reconstruction de logements à la suite d’un désastre en PEVD: (i) le niveau de centralisation de la prise de décisions (jumelée au manque d’information) au sein de la Multi-Organisation Temporaire (MOT); et (ii) la capacité de la structure organisationnelle de la MOT d’impliquer la participation active des usagers au niveau de la planification, de la gestion, du financement et du design du projet. Afin d’atteindre cet objectif, une recherche empirique fut menée pour analyser le cas des inondations ayant eu lieu en 2003 dans une ville dans la région du Maghreb. Le niveau de satisfaction des usagers a été déterminé grâce à des indicateurs de transfert de technologie qui se basent sur l’analyse du « Cadre Logique » - une méthode d’évaluation largement utilisée dans le domaine du développement international. Les résultats de la recherche ne visent pas à identifier une relation de cause à effet entre les deux variables étudiées (la structure organisationnelle et la satisfaction des usagers). Cependant, ils mettent en évidence certains principes du montage et de la gestion des projets qui peuvent être mis en place pour l’amélioration des pratiques de reconstruction.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Qu’il s’agisse d’une signature monochrome ("tag"), de lettres rondes à deux couleurs ("throw-up") ou d’un enchevêtrement calligraphique multicolore ("piece"), les formes caractéristiques du graffiti hip-hop font aujourd’hui partie du paysage urbain des grandes villes du monde. Né aux États-Unis dans les années 1960 et diffusé à l’extérieur des frontières américaines dans les années 1980, le graffiti hip-hop peut être perçu comme un exemple à la fois de l’américanisation et de l’homogénéisation des pratiques culturelles des jeunes à travers le monde. À partir d'une comparaison entre des graffiteurs francophones de Montréal et des graffiteurs lusophones de São Paulo, cette thèse décrit le processus d'appropriation d'un mouvement culturel d’origine américaine et montre les similitudes et les différences retrouvées au niveau local de cette forme d'expression mondialisée. L’étude de l’appropriation culturelle proposée dans cette thèse se compose de deux niveaux d’analyse. Le premier – qualifié de micro – touche le domaine personnel et se penche sur le processus de production de graffitis de style hip-hop (type de graffitis d’origine new-yorkaise basé sur l’écriture de pseudonymes). Ce niveau d’analyse me permet de démontrer comment les mécanismes de l’imitation et de la transformation se mélangent et renvoient aux processus de l’apprentissage et de l’inventivité individuels. Pour l’analyse du second niveau – qualifié de macro –, je tiens compte de l’ensemble des forces qui, au plan de la collectivité, forge l’appropriation. Ceci me permet de tracer des liens causaux entre les particularités locales du graffiti hip-hop et certains paramètres relevant du politique, de l’économique, de l’histoire et du culturel.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'avènement des nouvelles technologies a modifié considérablement le marché des valeurs mobilières. Le certificat représentant les actions de personnes morales s'est dématérialisé, facilitant et augmentant la rapidité des échanges, mais en causant de nouveaux problèmes, notamment à cause de l'incertitude juridique entourant les transferts et les sûretés sur les valeurs mobilières et autres actifs financiers. Pour répondre à ces problématiques, le Uniform Commercial Code américain a créé de nouveaux concepts et de nouvelles règles applicables au régime de détention indirecte. S'inspirant du modèle américain, un effort international d'harmonisation a été déployé, comme en témoignent, entre autres, les initiatives de la Conférence de La Haye, d'UNIDROIT et de la Conférence pour l'harmonisation des lois au Canada. C'est ainsi que le Québec a adopté la Loi sur le transfert de valeurs mobilières et l'obtention de titres intermédiés, afin de combler les lacunes d'un régime devenu désuet. Toutefois, le projet de loi s'inscrit-il avec le régime civiliste du Québec? Le particulier peut-il hypothéquer des valeurs mobilières? Où se situent les titres dématérialisés et intermédiés? Nous tenterons de répondre à ces questions en deux temps ; premièrement, nous étudierons l'évolution des régimes de transfert et de sûretés sur les valeurs mobilières et autres actifs financiers ainsi que leurs particularités. Ensuite, nous étudierons la loi québécoise en parallèle avec les différents instruments d'harmonisation et avec le régime civiliste québécois des sûretés.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche explore le journalisme indépendant dans le contexte contemporain de convergences socio-techno-médiatiques. Je questionne ici l’existence d’un lien entre les pratiques de pige et de convergence en journalisme et son apport dans le développement de l’univers journalistique. Il s’agit d’une étude exploratoire et empirique, consacrée aux expériences des journalistes indépendants et développée autour des concepts de tactique, résistance, liberté et gouvernance. J’ai constitué ainsi un cadre théorique à partir de l’articulation théorique de Michel Foucault relative au pouvoir. Je défends l’idée selon laquelle la pige et la convergence en journalisme sont chacun des mouvements libres qui coexistent et qui, ensemble, constituent une force motrice pour le dispositif de pouvoir que le journalisme représente dans un système démocratique avancé. La liberté de mouvement des journalistes indépendants leur permet de mener plus loin le journalisme dans le contexte actuel de convergences et d’augmenter l’horizon d’applicabilité de ce domaine de la communication de masse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Depuis l’avènement de l’agriculture productiviste, les paysages des zones d’intensification agricole des pays industrialisés ont été marqués par la perte sévère de leur diversité et la dégradation de leurs fonctions environnementales, récréatives, esthétiques et sociales. Au moment où la qualité des paysages constitue un facteur clé du dynamisme des collectivités rurales, il devient urgent de développer des stratégies d’aménagement aptes à réintroduire le caractère multifonctionnel de ces paysages. Dans ce contexte, cette thèse propose un éclairage sur les enjeux d’aménagement de ces paysages sous l’angle des approches dialectiques en paysage issues de la Holistic Landscape Ecology. En développant un modèle conceptuel des trajectoires des paysages s’inscrivant dans les approches intégrées en paysage, elle établit une double lecture des dynamiques physico-spatiale et socioculturelle des paysages des zones d’intensification agricole afin d’en arriver à qualifier les écarts entre celles-ci. Pour y parvenir, elle prend appui sur une étude de cas d’un bassin versant agricole du sud du Québec. En puisant tantôt dans l’écologie du paysage, tantôt dans la sociologie du paysage, les résultats de cette thèse soulignent d’une part le poids des forces politiques et économiques dans le façonnement de ces paysages. Mais ils révèlent également le rôle des valorisations paysagères des agriculteurs dans la modulation de ces forces. Plus encore, l’étude des dynamiques socioculturelles révèle une diversité au sein des populations locales au plan des valorisations de ces paysages et des pratiques qui les façonnent qui vient renouveler l’image d’uniformité de ces territoires. Le maintien et l’accentuation de cette diversité apparaissent susceptibles de contribuer significativement à la réintroduction du caractère multifonctionnel des paysages au sein des zones d’intensification agricole. Des pistes concrètes pour l’aménagement concluent cette thèse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Débat public, participation, délibération, autant de termes utilisés pour parler de normes et de dispositifs qui participeraient au nouvel « impératif délibératif » (Blondiaux et Sintomer 2002). Ce mémoire présente une analyse du débat public sur le plan d'urbanisme de Montréal avec un schéma d'analyse inspiré de celui de Simard et Fourniau (2007). Notre discussion du processus de débat porte non seulement sur la phase formelle des audiences publiques, mais aussi sur les étapes de concertation en amont et sur divers processus plus ou moins publicisés en aval. Ceci permet une réflexion d'ordre procédural plus riche qui considère la diversité des dispositifs dans une perspective de complémentarité. Pour chercher des effets du débat public sur le plan d'urbanisme, nous adoptons le parti de la congruence (Offner 1993), ce qui nous amène à une analyse de l'interaction entre des dynamiques contextuelles et des mobilisations des participants au débat. Certaines de ces congruences concordent avec des modifications au plan d'urbanisme. Notre étude propose aussi des implications du contexte particulier de la nouvelle ville de Montréal (avec la création des arrondissements) sur le contenu du débat public, sur certaines de ses manifestations procédurales ainsi que sur sa portée. Notre dernier chapitre montre que la dynamique du débat public en aval, dans la phase de mise en oeuvre du plan d'urbanisme, se déploie beaucoup plus dans les débats sur les grands projets que sur les mécanismes prévus à cette fin, qui comportent des embûches de par leur faible publicité et le caractère technique du processus réglementaire. Dans l'ensemble, notre étude met en lumière l'importance du contexte : autant le processus de débat que ses effets s'inscrivent dans des dynamiques contextuelles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche porte sur la mise en oeuvre de stratégies visant à stimuler le développement résidentiel au centre-ville de Montréal depuis la fin des années 1980 . En nous appuyant sur une double étude de cas portant sur le redéveloppement de deux friches périphériques à la vieille ville, le faubourg Québec et le faubourg des Récollets, nous montrons comment les pouvoirs publics locaux peuvent, par le biais de diverses mesures incitatives, faire converger les stratégies d’affaires des promoteurs immobiliers avec les objectifs urbanistiques de l’administration. D’une manière parfois improvisée, les pouvoirs publics montréalais ont ainsi mis en place un système d’opportunités et de contraintes dans le but d’inciter les promoteurs à investir dans les faubourgs. Notre recherche constate que bien que le système mis en place par les pouvoirs publics ait laissée indifférente une majorité de promoteurs, il a néanmoins permis à un petit nombre d’entre eux de se tailler une place sur le marché, ceux-ci pouvant maintenant jouer un rôle actif dans le renouvellement du centre-ville, et ce bien au-delà des limites des faubourgs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le but de ce mémoire est de poser un regard comparatiste sur les conséquences éventuelles de la politique eugénique totalitaire du Troisième Reich, et ce, dans l’optique où ce régime aurait eu la chance de poursuivre ses ambitions à ce niveau. En portant respectivement notre attention sur la structure organisationnelle du NSDAP, de l’État et de l’autorité, sur les étapes spécifiques de l’établissement du totalitarisme hitlérien, sur les diverses techniques de propagande et d’endoctrinement utilisées par les nazis pour accomplir l’unification du peuple allemand, ainsi que sur l’application pratique et le discours relatif à la politique eugénique dans le Reich et sur les territoires occupés, nous comprendrons que le mouvement propre au totalitarisme hitlérien, en changeant constamment sa définition respective de l’« élite » et de l’être « dépravé », n’aurait jamais mis fin à la purge raciale de la population sous son joug. Par conséquent, la place de l’« allemand moyen » aurait été quasi inexistante. Le Troisième Reich, par élimination et élevage social constant, aurait donc créé un « homme nouveau », basé sur l’idéologie arbitraire et instable du régime et pigé dans les peuples occupés à divers degré. Au bout de plusieurs générations, cet être nouveau aurait constitué le « noyau racial » de la population d’une nouvelle Europe aryanisée, construite sur le cadavre de la plus grande partie des anciens peuples du continent, incluant le peuple allemand.