18 resultados para Aqueous two-phase micellar systems

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La lecture numérique prend de plus en plus de place dans l'espace global de la lecture des étudiants. Bien que les premiers systèmes de lecture numérique, communément appelés livres électroniques, datent déjà de plusieurs années, les opinions quant à leur potentiel divergent encore. Une variété de contenus universitaires numériques s’offre aujourd’hui aux étudiants, entraînant par le fait même une multiplication d'usages ainsi qu'une variété de modes de lecture. Les systèmes de lecture numérique font maintenant partie intégrante de l’environnement électronique auquel les étudiants ont accès et méritent d’être étudiés plus en profondeur. Maintes expérimentations ont été menées dans des bibliothèques publiques et dans des bibliothèques universitaires sur les livres électroniques. Des recherches ont été conduites sur leur utilisabilité et sur le degré de satisfaction des lecteurs dans le but d’en améliorer le design. Cependant, très peu d’études ont porté sur les pratiques de lecture proprement dites des universitaires (notamment les étudiants) et sur leurs perceptions de ces nouveaux systèmes de lecture. Notre recherche s’intéresse à ces aspects en étudiant deux systèmes de lecture numérique, une Tablet PC (dispositif nomade) et un système de livres-Web, NetLibrary (interface de lecture intégrée à un navigateur Web). Notre recherche étudie les pratiques de lecture des étudiants sur ces systèmes de lecture numérique. Elle est guidée par trois questions de recherche qui s’articulent autour (1) des stratégies de lecture employées par des étudiants (avant, pendant et après la lecture), (2) des éléments du système de lecture qui influencent (positivement ou négativement) le processus de lecture et (3) des perceptions des étudiants vis-à-vis la technologie du livre électronique et son apport à leur travail universitaire. Pour mener cette recherche, une approche méthodologique mixte a été retenue, utilisant trois modes de collecte de données : un questionnaire, des entrevues semi-structurées avec les étudiants ayant utilisé l’un ou l’autre des systèmes étudiés, et le prélèvement des traces de lecture laissées par les étudiants dans les systèmes, après usage. Les répondants (n=46) étaient des étudiants de l’Université de Montréal, provenant de trois départements (Bibliothéconomie & sciences de l’information, Communication et Linguistique & traduction). Près de la moitié d’entre eux (n=21) ont été interviewés. Parallèlement, les traces de lecture laissées dans les systèmes de lecture par les étudiants (annotations, surlignages, etc.) ont été prélevées et analysées. Les données des entrevues et des réponses aux questions ouvertes du questionnaire ont fait l'objet d'une analyse de contenu et un traitement statistique a été réservé aux données des questions fermées du questionnaire et des traces de lecture. Les résultats obtenus montrent que, d’une façon générale, l’objectif de lecture, la nouveauté du contenu, les habitudes de lecture de l’étudiant de même que les possibilités du système de lecture sont les éléments qui orientent le choix et l’application des stratégies de lecture. Des aides et des obstacles à la lecture ont été identifiés pour chacun des systèmes de lecture étudiés. Les aides consistent en la présence de certains éléments de la métaphore du livre papier dans le système de lecture numérique (notion de page délimitée, pagination, etc.), le dictionnaire intégré au système, et le fait que les systèmes de lecture étudiés facilitent la lecture en diagonale. Pour les obstacles, l’instrumentation de la lecture a rendu l’appropriation du texte par le lecteur difficile. De plus, la lecture numérique (donc « sur écran ») a entraîné un manque de concentration et une fatigue visuelle notamment avec NetLibrary. La Tablet PC, tout comme NetLibrary, a été perçue comme facile à utiliser mais pas toujours confortable, l’inconfort étant davantage manifeste dans NetLibrary. Les étudiants considèrent les deux systèmes de lecture comme des outils pratiques pour le travail universitaire, mais pour des raisons différentes, spécifiques à chaque système. L’évaluation globale de l’expérience de lecture numérique des répondants s’est avérée, dans l’ensemble, positive pour la Tablet PC et plutôt mitigée pour NetLibrary. Cette recherche contribue à enrichir les connaissances sur (1) la lecture numérique, notamment celle du lectorat universitaire étudiant, et (2) l’impact d’un système de lecture sur l’efficacité de la lecture, sur les lecteurs, sur l’atteinte de l’objectif de lecture, et sur les stratégies de lecture utilisées. Outre les limites de l’étude, des pistes pour des recherches futures sont présentées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures En vue de l'obtention du grade de Maître en droit (LL.M.)"

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Notre recherche a pour but de déterminer comment les genres textuels peuvent être exploités dans le design des environnements numériques de travail afin de faciliter l’accomplissement des pratiques textuelles de cadres et de secrétaires dans une municipalité et une administration fédérale canadiennes. À cet effet, le premier objectif consiste à évaluer l’aptitude des environnements numériques de travail à supporter les pratiques textuelles (lecture, écriture et manipulation des textes) de ces employés. Le deuxième objectif est de décrire les rôles des genres textuels au cours des pratiques textuelles. Avec l’exemple du courriel, le troisième objectif vise à examiner comment le genre peut être exploité dans une perspective d’assistance à la réalisation des pratiques textuelles dans les environnements numériques de travail. Cette recherche de nature qualitative comporte une méthodologie en deux étapes. La première étape consiste en un examen minutieux des pratiques textuelles, des difficultés rencontrées au cours de celles-ci, du rôle du genre dans les environnements numériques de travail, ainsi que des indices sollicités au cours de la gestion du courriel. Trois modes de collecte des données qualitatives sont utilisés auprès de 17 cadres et de 17 secrétaires issus de deux administrations publiques : l’entrevue semi-dirigée, le journal de bord et l’enquête cognitive. Les résultats sont examinés à l’aide de stratégies d’analyse de contenu qualitative. La deuxième phase comprend la mise au point d’une chaîne de traitement du courriel, visant à étayer notre réflexion sur le genre textuel et son exploitation dans la conception des environnements numériques de travail. Un corpus de 1703 messages est élaboré à partir d’un échantillon remis par deux cadres gouvernementaux. Les résultats permettent d’abord de dresser un portrait général des pratiques de lecture, d’écriture et de manipulation des textes communes et spécifiques aux cadres et aux secrétaires. L’importance du courriel, qui constitue environ 40% des systèmes notés dans les journaux de bord, est soulignée. Les difficultés rencontrées dans les environnements numériques de travail sont également décrites. Dans un deuxième temps, les rôles du genre au cours des pratiques textuelles sont examinés en fonction d’une matrice tenant à la fois compte de ses dimensions individuelles et collectives, ainsi que de ses trois principales facettes ; la forme, le contenu et la fonction. Ensuite, nous présentons un cadre d’analyse des indices affectant la gestion du courriel qui synthétise le processus d’interprétation des messages par le destinataire. Une typologie des patrons de catégorisation des cadres est également définie, puis employée dans une expérimentation statistique visant la description et la catégorisation automatique du courriel. Au terme de ce processus, on observe des comportements linguistiques marqués en fonction des catégories du courriel. Il s’avère également que la catégorisation automatique basée sur le lexique des messages est beaucoup plus performante que la catégorisation non lexicale. À l’issue de cette recherche, nous suggérons d’enrichir le paradigme traditionnel relevant de l’interaction humain-ordinateur par une sémiotique du genre dans les environnements numériques de travail. L’étude propose également une réflexion sur l’appartenance du courriel à un genre, en ayant recours aux concepts théoriques d’hypergenre, de genre et de sous-genre. Le succès de la catégorisation automatique du courriel en fonction de facettes tributaires du genre (le contenu, la forme et la fonction) offre des perspectives intéressantes sur l’application de ce concept au design des environnements numériques de travail en vue de faciliter l’accomplissement des pratiques textuelles par les employés.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lors du phénomène d’hémostase primaire ou de thrombose vasculaire, les plaquettes sanguines doivent adhérer aux parois afin de remplir leur fonction réparatrice ou pathologique. Pour ce faire, certains facteurs rhéologiques et hémodynamiques tels que l’hématocrite, le taux de cisaillement local et les contraintes de cisaillement pariétal, entrent en jeu afin d’exclure les plaquettes sanguines de l’écoulement principal et de les transporter vers le site endommagé ou enflammé. Cette exclusion pourrait aussi être influencée par l’agrégation de globules rouges qui est un phénomène naturel présent dans tout le système cardiovasculaire selon les conditions d’écoulement. La dérive de ces agrégats de globules rouges vers le centre des vaisseaux provoque la formation de réseaux d’agrégats dont la taille et la complexité varient en fonction de l’hématocrite et des conditions de cisaillement présentes. Il en résulte un écoulement bi-phasique avec un écoulement central composé d’agrégats de globules rouges avoisinés par une région moins dense en particules où l’on peut trouver des globules rouges singuliers, des petits rouleaux de globules rouges et une importante concentration en plaquettes et globules blancs. De ce fait, il est raisonnable de penser que plus la taille des agrégats qui occupent le centre du vaisseau augmente, plus il y aura de plaquettes expulsées vers les parois vasculaires. L'objectif du projet est de quantifier, in vitro, la migration des plaquettes sanguines en fonction du niveau d’agrégation érythrocytaire présent, en faisant varier l’hématocrite, le taux de cisaillement et en promouvant l’agrégation par l’ajout d’agents tels que le dextran à poids moléculaire élevé. Cependant, le comportement non Newtonien du sang dans un écoulement tubulaire peut être vu comme un facteur confondant à cause de son impact sur l’organisation spatiale des agrégats de globules rouges. De ce fait, les études ont été réalisées dans un appareil permettant de moduler, de façon homogène, la taille et la structure de ces agrégats et de quantifier ainsi leur effet sur la migration axiale des plaquettes. Du sang de porc anti coagulé a été ajusté à différents taux d’hématocrite et insérer dans un appareil à écoulement de Couette, à température ambiante. Les plaquettes sanguines, difficilement isolables in vitro sans en activer certains ligands membranaires, ont été remplacées par des fantômes en polystyrène ayant un revêtement de biotine. La quantification de la migration de ces fantômes de plaquettes a été réalisée grâce à l’utilisation de membranes biologiques fixées sur les parois internes de l’entrefer du rhéomètre de Couette. Ces membranes ont un revêtement de streptavidine assurant une très forte affinité d’adhésion avec les microparticules biotynilées. À 40% d’hématocrite, à un cisaillement de 2 s-1, 566 ± 53 microparticules ont été comptées pour un protocole préétabli avec du sang non agrégeant, comparativement à 1077 ± 229 pour du sang normal et 1568 ± 131 pour du sang hyper agrégeant. Les résultats obtenus suggèrent une nette participation de l’agrégation érythrocytaire sur le transport des fantômes de plaquettes puisque l’adhésion de ces derniers à la paroi du rhéomètre de Couette augmente de façon quasi exponentielle selon le niveau d’agrégation présent.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nous présentons dans cette thèse des théorèmes d’existence pour des systèmes d’équations différentielles non-linéaires d’ordre trois, pour des systèmes d’équa- tions et d’inclusions aux échelles de temps non-linéaires d’ordre un et pour des systèmes d’équations aux échelles de temps non-linéaires d’ordre deux sous cer- taines conditions aux limites. Dans le chapitre trois, nous introduirons une notion de tube-solution pour obtenir des théorèmes d’existence pour des systèmes d’équations différentielles du troisième ordre. Cette nouvelle notion généralise aux systèmes les notions de sous- et sur-solutions pour le problème aux limites de l’équation différentielle du troisième ordre étudiée dans [34]. Dans la dernière section de ce chapitre, nous traitons les systèmes d’ordre trois lorsque f est soumise à une condition de crois- sance de type Wintner-Nagumo. Pour admettre l’existence de solutions d’un tel système, nous aurons recours à la théorie des inclusions différentielles. Ce résultat d’existence généralise de diverses façons un théorème de Grossinho et Minhós [34]. Le chapitre suivant porte sur l’existence de solutions pour deux types de sys- tèmes d’équations aux échelles de temps du premier ordre. Les résultats d’exis- tence pour ces deux problèmes ont été obtenus grâce à des notions de tube-solution adaptées à ces systèmes. Le premier théorème généralise entre autre aux systèmes et à une échelle de temps quelconque, un résultat obtenu pour des équations aux différences finies par Mawhin et Bereanu [9]. Ce résultat permet également d’obte- nir l’existence de solutions pour de nouveaux systèmes dont on ne pouvait obtenir l’existence en utilisant le résultat de Dai et Tisdell [17]. Le deuxième théorème de ce chapitre généralise quant à lui, sous certaines conditions, des résultats de [60]. Le chapitre cinq aborde un nouveau théorème d’existence pour un système d’in- clusions aux échelles de temps du premier ordre. Selon nos recherches, aucun résultat avant celui-ci ne traitait de l’existence de solutions pour des systèmes d’inclusions de ce type. Ainsi, ce chapitre ouvre de nouvelles possibilités dans le domaine des inclusions aux échelles de temps. Notre résultat a été obtenu encore une fois à l’aide d’une hypothèse de tube-solution adaptée au problème. Au chapitre six, nous traitons l’existence de solutions pour des systèmes d’équations aux échelles de temps d’ordre deux. Le premier théorème d’existence que nous obtenons généralise les résultats de [36] étant donné que l’hypothèse que ces auteurs utilisent pour faire la majoration a priori est un cas particulier de notre hypothèse de tube-solution pour ce type de systèmes. Notons également que notre définition de tube-solution généralise aux systèmes les notions de sous- et sur-solutions introduites pour les équations d’ordre deux par [4] et [55]. Ainsi, nous généralisons également des résultats obtenus pour des équations aux échelles de temps d’ordre deux. Finalement, nous proposons un nouveau résultat d’exis- tence pour un système dont le membre droit des équations dépend de la ∆-dérivée de la fonction.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'imputation est souvent utilisée dans les enquêtes pour traiter la non-réponse partielle. Il est bien connu que traiter les valeurs imputées comme des valeurs observées entraîne une sous-estimation importante de la variance des estimateurs ponctuels. Pour remédier à ce problème, plusieurs méthodes d'estimation de la variance ont été proposées dans la littérature, dont des méthodes adaptées de rééchantillonnage telles que le Bootstrap et le Jackknife. Nous définissons le concept de double-robustesse pour l'estimation ponctuelle et de variance sous l'approche par modèle de non-réponse et l'approche par modèle d'imputation. Nous mettons l'emphase sur l'estimation de la variance à l'aide du Jackknife qui est souvent utilisé dans la pratique. Nous étudions les propriétés de différents estimateurs de la variance à l'aide du Jackknife pour l'imputation par la régression déterministe ainsi qu'aléatoire. Nous nous penchons d'abord sur le cas de l'échantillon aléatoire simple. Les cas de l'échantillonnage stratifié et à probabilités inégales seront aussi étudiés. Une étude de simulation compare plusieurs méthodes d'estimation de variance à l'aide du Jackknife en terme de biais et de stabilité relative quand la fraction de sondage n'est pas négligeable. Finalement, nous établissons la normalité asymptotique des estimateurs imputés pour l'imputation par régression déterministe et aléatoire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire porte sur l’étude de deux réseaux d’eau distincts, soit celui de la ville d’Arthabaska et celui de la ville de Victoriaville. Nous souhaitons éclairer le rôle joué par les facteurs environnementaux, naturels et urbains, au cours du processus ayant mené à l’implantation de réseaux d’eau potable et d’eaux usées dans les deux villes à l’étude. Divers travaux ont traité de la mise en place des réseaux d’aqueduc et d’égout à la grandeur du Canada. Toutefois, ce sont essentiellement les grandes villes comme Montréal ou Toronto qui ont retenu l’attention de l’histoire urbaine, politique et environnementale canadienne. L’objectif de cette démarche consiste à montrer que le milieu physique rural doit être incorporé à l’analyse comme élément vivant qui se transforme, qui influence et qui est influencé à son tour par l’être humain, puisqu’un et l’autre sont en constante interaction. Nous soutenons que la mise en place et le développement de réseaux d’eau sont influencés par le territoire dans lequel ils sont implantés et qu’ils ne peuvent pas être correctement analysés sans celui-ci. Afin de mettre l’espace au cœur de l’étude, nous avons mené une analyse des villes d’Arthabaska et de Victoriaville en considérant la géographie de la région à l’aide des cartes et des plans d’assurance-incendie, en plus de consulter des documents officiels et des articles tirés des journaux locaux.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans ce mémoire, nous étudions le problème de l'estimation de la variance pour les estimateurs par double dilatation et de calage pour l'échantillonnage à deux phases. Nous proposons d'utiliser une décomposition de la variance différente de celle habituellement utilisée dans l'échantillonnage à deux phases, ce qui mène à un estimateur de la variance simplifié. Nous étudions les conditions sous lesquelles les estimateurs simplifiés de la variance sont valides. Pour ce faire, nous considérons les cas particuliers suivants : (1) plan de Poisson à la deuxième phase, (2) plan à deux degrés, (3) plan aléatoire simple sans remise aux deux phases, (4) plan aléatoire simple sans remise à la deuxième phase. Nous montrons qu'une condition cruciale pour la validité des estimateurs simplifiés sous les plans (1) et (2) consiste à ce que la fraction de sondage utilisée pour la première phase soit négligeable (ou petite). Nous montrons sous les plans (3) et (4) que, pour certains estimateurs de calage, l'estimateur simplifié de la variance est valide lorsque la fraction de sondage à la première phase est petite en autant que la taille échantillonnale soit suffisamment grande. De plus, nous montrons que les estimateurs simplifiés de la variance peuvent être obtenus de manière alternative en utilisant l'approche renversée (Fay, 1991 et Shao et Steel, 1999). Finalement, nous effectuons des études par simulation dans le but d'appuyer les résultats théoriques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les systèmes cholinergique et dopaminergique jouent un rôle prépondérant dans les fonctions cognitives. Ce rôle est exercé principalement grâce à leur action modulatrice de l’activité des neurones pyramidaux du cortex préfrontal. L’interaction pharmacologique entre ces systèmes est bien documentée mais les études de leurs interactions neuroanatomiques sont rares, étant donné qu’ils sont impliqués dans une transmission diffuse plutôt que synaptique. Ce travail de thèse visait à développer une expertise pour analyser ce type de transmission diffuse en microscopie confocale. Nous avons étudié les relations de microproximité entre ces différents systèmes dans le cortex préfrontal médian (mPFC) de rats et souris. En particulier, la densité des varicosités axonales en passant a été quantifiée dans les segments des fibres cholinergiques et dopaminergiques à une distance mutuelle de moins de 3 µm ou à moins de 3 µm des somas de cellules pyramidales. Cette microproximité était considérée comme une zone d’interaction probable entre les éléments neuronaux. La quantification était effectuée après triple-marquage par immunofluorescence et acquisition des images de 1 µm par microscopie confocale. Afin d’étudier la plasticité de ces relations de microproximité, cette analyse a été effectuée dans des conditions témoins, après une activation du mPFC et dans un modèle de schizophrénie par déplétion des neurones cholinergiques du noyau accumbens. Les résultats démontrent que 1. Les fibres cholinergiques interagissent avec des fibres dopaminergiques et ce sur les mêmes neurones pyramidaux de la couche V du mPFC. Ce résultat suggère différents apports des systèmes cholinergique et dopaminergique dans l’intégration effectuée par une même cellule pyramidale. 2. La densité des varicosités en passant cholinergiques et dopaminergiques sur des segments de fibre en microproximité réciproque est plus élevée comparé aux segments plus distants les uns des autres. Ce résultat suggère un enrichissement du nombre de varicosités axonales dans les zones d’interaction. 3. La densité des varicosités en passant sur des segments de fibre cholinergique en microproximité de cellules pyramidales, immunoúactives pour c-Fos après une stimulation visuelle et une stimulation électrique des noyaux cholinergiques projetant au mPFC est plus élevée que la densité des varicosités de segments en microproximité de cellules pyramidales non-activées. Ce résultat suggère un enrichissement des varicosités axonales dépendant de l’activité neuronale locale au niveau de la zone d'interaction avec d'autres éléments neuronaux. 4. La densité des varicosités en passant des fibres dopaminergiques a été significativement diminuée dans le mPFC de rats ayant subi une déplétion cholinergique dans le noyau accumbens, comparée aux témoins. Ces résultats supportent des interrelations entre la plasticité structurelle des varicosités dopaminergiques et le fonctionnement cortical. L’ensemble des donneès démontre une plasticité de la densité locale des varicosités axonales en fonction de l’activité neuronale locale. Cet enrichissement activité-dépendant contribue vraisemblablement au maintien d’une interaction neurochimique entre deux éléments neuronaux.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les nouvelles technologies de l’information et des communications occupent aujourd’hui une place importante dans les entreprises, quelle que soit la taille ou le(s) domaine(s) d’activité de ces dernières. Elles participent de manière positive au développement de la vie économique. Elles sont toutefois à l’origine d’une nouvelle forme de criminalité qui menace la sécurité et l’intégrité des systèmes informatiques dans l’entreprise. Celle-ci est d’une ampleur difficile à évaluer, mais surtout difficile à maîtriser avec les dispositions législatives déjà en place, laissant par là même apparaître qu’une adaptation au niveau juridique est inévitable. Certains pays industrialisés ont ainsi décidé de mettre en place un cadre juridique adéquat pour garantir aux entreprises la sécurité de leurs systèmes informatiques. Notre étude va justement porter sur les dispositifs mis en place par deux systèmes juridiques différents. Forcés de prendre en compte une réalité nouvelle – qui n’existait pas nécessairement il y a plusieurs années –, la France et le Canada ont décidé de modifier respectivement leurs codes pénal et criminel en leur ajoutant des dispositions qui répriment de nouvelles infractions. À travers cet exposé, nous allons analyser les infractions qui portent atteinte à la sécurité du système informatique de l’entreprise à la lumière des outils juridiques mis en place. Nous allons mesurer leur degré d’efficacité face à la réalité informatique. En d’autres termes, il s’agit pour nous de déterminer si le droit va répondre ou non aux besoins de l’informatique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La préparation de polymères à base d’acides biliaires, molécules biologiques, a attiré l'attention des chercheurs en raison des applications potentielles dans les domaines biomédicaux et pharmaceutiques. L’objectif de ce travail est de synthétiser de nouveaux biopolymères dont la chaîne principale est constituée d’unités d’acides biliaires. La polymérisation par étapes a été adoptée dans ce projet afin de préparer les deux principales classes de polymères utilisés en fibres textiles: les polyamides et les polyesters. Des monomères hétéro-fonctionnels à base d’acides biliaires ont été synthétisés et utilisés afin de surmonter le déséquilibre stoechiométrique lors de la polymérisation par étapes. Le dérivé de l’acide lithocholique modifié par une fonction amine et un groupement carboxylique protégé a été polymérisé en masse à températures élevées. Les polyamides obtenus sont très peu solubles dans les solvants organiques. Des polyamides et des polyesters solubles en milieu organique ont pu être obtenus dans des conditions modérées en utilisant l’acide cholique modifié par des groupements azide et alcyne. La polymérisation a été réalisée par cycloaddition azoture-alcyne catalysée par l'intermédiaire du cuivre(Ι) avec deux systèmes catalytiques différents, le bromure de cuivre(I) et le sulfate de cuivre(II). Seul le bromure de cuivre(Ι) s’est avéré être un catalyseur efficace pour le système, permettant la préparation des polymères avec un degré de polymérisation égale à 50 et une distribution monomodale de masse moléculaire (PDI ˂ 1.7). Les polymères synthétisés à base d'acide cholique sont thermiquement stables (307 °C ≤ Td ≤ 372 °C) avec des températures de transition vitreuse élevées (137 °C ≤ Tg ≤ 167 °C) et modules de Young au-dessus de 280 MPa, dépendamment de la nature chimique du lien.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Influencée par la critique postmoderne et les études postcoloniales, cette recherche exploratoire invite à une réflexion sur le rôle et la place des ONG comme acteurs du développement des « pays du Sud », dans un monde de plus en plus globalisé. Les données empiriques, d’une part, récoltées suite à une enquête ethnographique au sein du siège social de l’une des ONG les plus influente de Montréal, Oxfam-Québec, et les données théoriques interdisciplinaires, d’autre part, ont permis une analyse en deux temps. Premièrement, il s’agit de comprendre le fonctionnement interne de ces puissantes ONG ainsi que leurs liens avec l’État et les marchés. La seconde partie sera consacrée à l’analyse de la mission de développement ainsi que la constitution du pouvoir et de la légitimité grandissante sur la scène politique mondiale de ces ONG transnationales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'ADN de chaque cellule est constamment soumis à des stress pouvant compromettre son intégrité. Les bris double-brins sont probablement les dommages les plus nocifs pour la cellule et peuvent être des sources de réarrangements chromosomiques majeurs et mener au cancer s’ils sont mal réparés. La recombinaison homologue et la jonction d’extrémités non-homologues (JENH) sont deux voies fondamentalement différentes utilisées pour réparer ce type de dommage. Or, les mécanismes régulant le choix entre ces deux voies pour la réparation des bris double-brins demeurent nébuleux. Le complexe Mre11-Rad50-Xrs2 (MRX) est le premier acteur à être recruté à ce type de bris où il contribue à la réparation par recombinaison homologue ou JENH. À l’intersection de ces deux voies, il est donc idéalement placé pour orienter le choix de réparation. Ce mémoire met en lumière deux systèmes distincts de phosphorylation du complexe MRX régulant spécifiquement le JENH. L’un dépend de la progression du cycle cellulaire et inhibe le JENH, tandis que l’autre requiert la présence de dommages à l’ADN et est nécessaire au JENH. Ensembles, nos résultats suggèrent que le complexe MRX intègre différents phospho-stimuli pour réguler le choix de la voie de réparation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les polymères semi-conducteurs semicristallins sont utilisés au sein de diodes électroluminescentes, transistors ou dispositifs photovoltaïques organiques. Ces matériaux peuvent être traités à partir de solutions ou directement à partir de leur état solide et forment des agrégats moléculaires dont la morphologie dicte en grande partie leurs propriétés optoélectroniques. Le poly(3-hexylthiophène) est un des polymères semi-conducteurs les plus étudiés. Lorsque le poids moléculaire (Mw) des chaînes est inférieur à 50 kg/mol, la microstructure est polycristalline et composée de chaînes formant des empilements-π. Lorsque Mw>50 kg/mol, la morphologie est semicristalline et composée de domaines cristallins imbriquées dans une matrice de chaînes amorphes. À partir de techniques de spectroscopie en continu et ultrarapide et appuyé de modèles théoriques, nous démontrons que la cohérence spatiale des excitons dans ce matériau est légèrement anisotrope et dépend de Mw. Ceci nous permet d’approfondir la compréhension de la relation intime entre le couplage inter et intramoléculaire sur la forme spectrale en absorption et photoluminescence. De plus, nous démontrons que les excitations photogénérées directement aux interfaces entre les domaines cristallins et les régions amorphes génèrent des paires de polarons liés qui se recombinent par effet tunnel sur des échelles de temps supérieures à 10ns. Le taux de photoluminescence à long temps de vie provenant de ces paires de charges dépend aussi de Mw et varie entre ∼10% et ∼40% pour les faibles et hauts poids moléculaires respectivement. Nous fournissons un modèle permettant d’expliquer le processus de photogénération des paires de polarons et nous élucidons le rôle de la microstructure sur la dynamique de séparation et recombinaison de ces espèces.