972 resultados para rupture numérique
Resumo:
L'accès généralisé à Internet a remis en question le droit d'auteur. Au milieu des années 90, il s'en trouvait plusieurs pour annoncer la mort de cette institution vieille de quelques siècles. Force est aujourd'hui de constater que le droit d'auteur est toujours bien vivant bien qu'il ait changé. Les droits économiques, qui ont rapidement été appliqués dans l'environnement numérique, témoignent de ces changements. L'analyse de la transmission numérique des fichiers audio expose les mutations qui affectent deux droits économiques en particulier: le droit de reproduction et le droit de communication au public par télécommunication. Ces mutations résultent tantôt de l'intervention du législateur, tantôt de la façon dont on choisit d'appliquer ces droits dans ce nouvel environnement. Elles ont souvent pour effet d'étendre la portée traditionnelle de ces droits économiques. Cela se fait parfois au détriment des rationalités qui en justifient l'existence. De plus, la nouvelle interaction entre ces droits mutés entraîne des effets sur les différents acteurs du droit d'auteur qui sont parfois discutables. Le droit d'auteur a toujours sa raison d'être. Reste à savoir si la forme actuelle des droits économiques est toujours le meilleur véhicule pour atteindre les objectifs sous-jacents. À l'heure où le législateur envisage une simplification du droit d'auteur, une réflexion s'impose au sujet de la forme des droits économiques. Il est grand temps, du moins dans l'environnement numérique, d'adopter une approche qui se fonde plus sur les effets des actes posés que sur leur nature. L'examen des mutations qui affectent les droits économiques dans cet environnement fait d'ailleurs prendre conscience des limites de notre façon positiviste d'envisager ces droits.
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maître en droit (L.L.M.) option Technologies de l'information"
Resumo:
"Mémoire présenté à la Faculté des études supérieures En vue de l'obtention du grade de Maîtrise en droit LL.M. (2-325-1-0)"
Resumo:
Il existe somme toute peu de théories du projet offrant une modélisation construite à partir de la complexité et de la diversité du projet d’architecture. Pourtant,certaines situations rassemblant parfois plusieurs dizaines de projets s’offrent d’elles-mêmes comme des situations comparatives et expérimentales : les concours d’architecture, d’urbanisme et de paysage. Le Laboratoire d’étude de l’architecture potentielle de l’Université de Montréal (Aménagement), après avoir développé un système d’archivage numérique des concours canadiens, a entrepris, avec le soutien du Groupement d’intérêt public « Europe des projets architecturaux et urbains », de développer la base de données documentaire des concours d’idées Europan. Au-delà des questions d’archivage numérique, se profilent clairement des possibilités de théorisation s’appuyant sur les logiques d’une base de données, en particulier sur la constitution du diagramme entités et relations, modélisation indispensable à sa traduction informatique. Cette recherche entreprend une première mise à jour de ces éléments conceptuels et tend à montrer que la base de données est un véritable modèle théorique du projet ouvrant sur de nouvelles avenues de recherche et de connaissance.
Resumo:
Comprend une bibliographie.
Resumo:
Travail de recherche sur le thème de l'évaluation des archives à l'ère du numérique réalisé à l'hiver 2009 dans le cadre du cours BLT6112 L'évaluation des archives sous la direction du professeur Yvon Lemay.
Resumo:
Travail réalisé à l'École de bibliothéconomie et des sciences de l'information (EBSI), sous la direction de M. Yvon Lemay dans le cadre du cours BLT6850 Recherche individuelle, à l'hiver 2009.
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
Le programme -Une école adaptée à tous ses élèves-, qui s'inscrit dans la réforme actuelle de l'éducation au Québec, nous a amenée à nous intéresser aux représentations dans les grandeurs en mesure en mathématiques des élèves en difficulté d'apprentissage. Nous nous sommes proposés de reconduire plusieurs paramètres de la recherche de Brousseau (1987, 1992) auprès de cette clientèle. La théorie des champs conceptuels (TCC) de Vergnaud (1991), appliquée aux structures additives, a été particulièrement utile pour l'analyse et l'interprétation de leurs représentations. Comme méthode de recherche, nous avons utilisé la théorie des situations didactiques en mathématiques (TSDM), réseau de concepts et de méthode de recherche appuyé sur l'ingénierie didactique qui permet une meilleure compréhension de l'articulation des contenus à enseigner. Grâce à la TSDM, nous avons observé les approches didactiques des enseignants avec leurs élèves. Notre recherche est de type exploratoire et qualitatif et les données recueillies auprès de 26 élèves de deux classes spéciales du deuxième cycle du primaire ont été traitées selon une méthode d'analyse de contenu. Deux conduites ont été adoptées par les élèves. La première, de type procédural a été utilisée par presque tous les élèves. Elle consiste à utiliser des systèmes de comptage plus ou moins sophistiqués, de la planification aux suites d'actions. La deuxième consiste à récupérer directement en mémoire à long terme le résultat associé à un couple donné et au contrôle de son exécution. L'observation des conduites révèle que les erreurs sont dues à une rupture du sens. Ainsi, les difficultés d'ordre conceptuel et de symbolisation nous sont apparues plus importantes lorsque l'activité d'échange demandait la compétence "utilisation" et renvoyait à la compréhension de la tâche, soit les tâches dans lesquelles ils doivent eux-mêmes découvrir les rapports entre les variables à travailler et à simuler les actions décrites dans les énoncés. En conséquence, les problèmes d'échanges se sont révélés difficiles à modéliser en actes et significativement plus ardus que les autres. L'étude des interactions enseignants et élèves a démontré que la parole a été presque uniquement le fait des enseignants qui ont utilisé l'approche du contrôle des actes ou du sens ou les deux stratégies pour aider des élèves en difficulté. Selon le type de situation à résoudre dans ces activités de mesurage de longueur et de masse, des mobilisations plurielles ont été mises en oeuvre par les élèves, telles que la manipulation d'un ou des étalon(s) par superposition, par reports successifs, par pliage ou par coupure lorsque l'étalon dépassait; par retrait ou ajout d'un peu de sable afin de stabiliser les plateaux. Nous avons également observé que bien que certains élèves aient utilisé leurs doigts pour se donner une perception globale extériorisée des quantités, plusieurs ont employé des procédures très diverses au cours de ces mêmes séances. Les résultats présentés étayent l'hypothèse selon laquelle les concepts de grandeur et de mesure prennent du sens à travers des situations problèmes liées à des situations vécues par les élèves, comme les comparaisons directes. Eles renforcent et relient les grandeurs, leurs propriétés et les connaissances numériques.
Resumo:
Ce mémoire aborde la question de la responsabilité précontractuelle en regardant son incidence en droit québécois ainsi qu'en droit international. Plus précisément, il s'agit de savoir comment est traitée la rupture des négociations lorsqu'aucun avant-contrat n'a été rédigé à cet effet. Afin de pouvoir déterminer ses grands paramètres, le texte aborde dans un premier temps la nature de cette responsabilité. N'étant pas codifiée en droit québécois et ne faisant l'objet d'aucune spécification dans les grands instruments internationaux, cette nature doit être associée à l'un des deux grands régimes de responsabilité soit: contractuel ou extracontractuel. L'importance de cette détermination n'est pas simplement théorique puisqu'elle a une influence directe sur plusieurs éléments comme la prescription ou le droit international privé. Au Québec, la doctrine et la jurisprudence ont choisi d'associer la responsabilité précontractuelle au domaine extracontractuel. Ainsi, elle devra suivre le modèle classique de faute, dommage et lien causal. Cependant, en droit international, la question de la nature reste encore nébuleuse compte tenu de la diversité des membres qui composent les comités d'élaboration des normes. Tous s'entendent pourtant sur un concept fondamental entourant la responsabilité précontractuelle : la bonne foi. Elle est au centre de la faute et dicte une éthique des pourparlers. Ainsi, dans un deuxième temps, la mise en œuvre de la responsabilité est abordée. De cette notion de bonne foi découlent de nombreux devoirs que les parties négociantes se doivent de respecter. Ils sont de création jurisprudentielle et demandent une étude au cas par cas. La liberté contractuelle étant le principe de base dans la formation des contrats, les tribunaux québécois sanctionnent rarement les cas de rupture des négociations. C'est ce principe de liberté qui empêche les pays de common law d'accepter le concept de bonne foi et de responsabilité précontractuelle, même s'ils sanctionnent, par l'intermédiaire de mécanismes, les comportements fautifs dans les pourparlers. Finalement, les dommages et les intérêts pouvant être réclamés varient. Au Québec et en France, autant les pertes subies que les gains manqués sont indemnisés tandis que les instruments internationaux sont plus réticents pour accorder un montant pour le gain manqué. Bref, la responsabilité précontractuelle est en pleine construction et son utilisation devant les tribunaux est encore peu fréquente.
Resumo:
Suite à un infarctus du myocarde, la formation d’une cicatrice, nommée fibrose de réparation, représente un processus adaptatif et essentiel empêchant la rupture du myocarde. La cicatrice est constituée de myofibroblastes, de cellules vasculaires, de fibres sympathiques ainsi que de cellules souches neuronales cardiaques exprimant la nestine. Une perturbation au niveau de ces constituants cellulaires résulte en une formation maladaptative de la cicatrice et éventuellement, une diminution de la fonction cardiaque. La compréhension des événements cellulaires ainsi que les mécanismes sous-jacents participant à cette fibrose est alors d’une importance primordiale. Cette thèse est axée sur l’identification du rôle du système sympathique et des cellules souches neuronales cardiaques exprimant la nestine dans la formation de la cicatrice ainsi que leur interaction potentielle. Nos travaux examinent l’hypothèse que les cellules souches neuronales exprimant la nestine sont endogènes au cœur et que suite à un dommage ischémique, elles contribuent à la réponse angiogénique et à la réinnervation sympathique du tissu lésé. Les cellules souches neuronales exprimant la nestine sont retrouvées dans les cœurs de différentes espèces incluant le cœur infarci humain. Elles sont résidentes dans le cœur, proviennent de la crête neurale lors du développement et sont intercalées entre les cardiomyocytes n’exprimant pas la nestine. Suite à leur isolation de cœurs infarcis de rats, les cellules souches neuronales cardiaques prolifèrent sous forme de neurosphères et, dans des conditions appropriées in vitro, se différencient en neurones exprimant le neurofilament-M. Suite à un infarctus du myocarde, les niveaux de l’ARNm de nestine sont significativement augmentés au niveau de la région infarcie et non-infarcie. Nos résultats suggèrent que cette augmentation de l’expression de nestine dans la cicatrice reflète en partie la migration des cellules souches neuronales cardiaques exprimant la nestine de la région non-infarcie vers la région infarcie. Lors de la fibrose de réparation, ces cellules représentent un substrat cellulaire pour la formation de nouveaux vaisseaux et contribuent aussi à la croissance des fibres sympathiques dans la région infarcie. Finalement, nous démontrons que la formation de la cicatrice est associée à une innervation sympathique de la région infarcie et péri-infarcie. De plus, les fibres sympathiques présentes dans la région infarcie sont observées à proximité de vaisseaux de petits calibres. Ces données suggèrent indirectement que l’innervation de la cicatrice par les fibres sympathiques peut jouer un rôle dans la réponse angiogénique suite à un infarctus du myocarde. Suite à l’administration du corticostéroïde dexaméthasone, nous détectons un amincissement de la cicatrice, associé à une réduction significative des fibres sympathiques exprimant le neurofilament-M dans la région infarcie et péri-infarcie. La diminution de la densité de ces fibres par le dexaméthasone peut être reliée à une diminution de la prolifération des myofibroblastes et de la production de l’ARNm du facteur neurotrophique nerve growth factor.
Resumo:
Ce mémoire s'attarde à la notion d'hyperréalisme en littérature contemporaine et à son incarnation spécifique dans trois romans de Suzanne Jacob : L'Obéissance (1991), Rouge mère et fils (2001) et Fugueuses (2005). Le recours à la théorie et à l'histoire de la peinture est essentiel puisque l'hyperréalisme est d'abord endossé par l'art pictural. De plus, la peinture, la photographie, le cinéma, la musique, la télévision, la sculpture, l'architecture et la littérature sont autant de médiations fortement présentes dans le roman hyperréaliste. Cette présence multiple des médias est essentielle au caractère hyperréaliste d'une œuvre ; la tentative d'intégrer le réel passe par un détour représentationnel. Les manifestations stylistiques et narratives de l'hyperréalisme sont associées à l'intégration de formes empruntées à d'autres arts ou médias comme la fugue et le fait divers. Les effets de l'hyperréalisme sur la narration se manifestent également par un éclatement des focalisations, en témoignent la fragmentation narrative ainsi que l'importance accordée au détail. Enfin, l'hyperréalisme joue sur une tension constante entre continuité et rupture. Les conséquences sont à envisager dans une sorte d'appréhension du réel, tant par le personnage que par le roman, qui doivent composer avec une multiplicité de représentations.
Resumo:
Ce travail présente une technique de simulation de feux de forêt qui utilise la méthode Level-Set. On utilise une équation aux dérivées partielles pour déformer une surface sur laquelle est imbriqué notre front de flamme. Les bases mathématiques de la méthode Level-set sont présentées. On explique ensuite une méthode de réinitialisation permettant de traiter de manière robuste des données réelles et de diminuer le temps de calcul. On étudie ensuite l’effet de la présence d’obstacles dans le domaine de propagation du feu. Finalement, la question de la recherche du point d’ignition d’un incendie est abordée.
Resumo:
L’entérotoxine stable à la chaleur STb est produite par les Escherichia coli entérotoxinogènes (ETEC). Son rôle dans la diarrhée post-sevrage porcine est établi. L’internalisation de STb a été observée dans des cellules épithéliales intestinales humaines et de rat. Cependant, le mécanisme d’internalisation n’est pas totalement compris, particulièrement dans le jéjunum porcin, la cible in vivo de STb. Par la cytométrie en flux, nous avons examiné l’internalisation de STb couplée à un marqueur fluorescent dans les cellules épithéliales intestinales porcines IPEC-J2 et les fibroblastes murins NIH3T3. Nos résultats révèlent que l’internalisation de STb est températureindépendante dans les IPEC-J2 tandis qu’elle est température-dépendante dans les NIH3T3, où la réorganisation de l’actine est aussi nécessaire. Toutefois, les niveaux de sulfatide, le récepteur de STb, sont semblables à la surface des deux lignées. Le sulfatide est internalisé à 37°C de façon similaire entre les deux types cellulaires. La rupture des lipid rafts, les microdomaines membranaires contenant le sulfatide, par la méthyl-βcyclodextrine ou la génistéine, n’affecte pas l’internalisation de STb dans les deux lignées. Notre étude indique que le mécanisme d’internalisation de STb est dépendant du type cellulaire. L’activité de la cellule hôte peut être requise ou non. Le récepteur de STb, le sulfatide, n’est pas directement impliqué dans ces mécanismes. L’internalisation activité cellulaire-dépendante suggère une endocytose, nécessitant la réorganisation de l’actine mais pas les lipid rafts. L’internalisation de STb est donc un processus complexe dépendant du type cellulaire, qu’il apparait plus relevant d’étudier dans des modèles cellulaires représentatifs des conditions in vivo.
Resumo:
Thèse réalisée en cotutelle avec l'Université Paris-Sorbonne (Paris IV), sous la direction de M. Michel Delon.