858 resultados para Prolongement analytique
Resumo:
Dans ce mémoire, nous étudions le problème centre-foyer sur un système polynomial. Nous développons ainsi deux mécanismes permettant de conclure qu’un point singulier monodromique dans ce système non-linéaire polynomial est un centre. Le premier mécanisme est la méthode de Darboux. Cette méthode utilise des courbes algébriques invariantes dans la construction d’une intégrale première. La deuxième méthode analyse la réversibilité algébrique ou analytique du système. Un système possédant une singularité monodromique et étant algébriquement ou analytiquement réversible à ce point sera nécessairement un centre. Comme application, dans le dernier chapitre, nous considérons le modèle de Gauss généralisé avec récolte de proies.
Resumo:
Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.
Resumo:
Le sujet principal de cette thèse est la distribution des nombres premiers dans les progressions arithmétiques, c'est-à-dire des nombres premiers de la forme $qn+a$, avec $a$ et $q$ des entiers fixés et $n=1,2,3,\dots$ La thèse porte aussi sur la comparaison de différentes suites arithmétiques par rapport à leur comportement dans les progressions arithmétiques. Elle est divisée en quatre chapitres et contient trois articles.
Le premier chapitre est une invitation à la théorie analytique des nombres, suivie d'une revue des outils qui seront utilisés plus tard. Cette introduction comporte aussi certains résultats de recherche, que nous avons cru bon d'inclure au fil du texte.
Le deuxième chapitre contient l'article \emph{Inequities in the Shanks-Rényi prime number
race: an asymptotic formula for the densities}, qui est le fruit de recherche conjointe avec le professeur Greg Martin. Le but de cet article est d'étudier un phénomène appelé le <
Resumo:
Les biocapteurs sont utilisés quotidiennement pour déterminer la présence de molécules biologiques dans une matrice complexe, comme l’urine pour les tests de grossesses ou le sang pour les glucomètres. Les techniques courantes pour la détection des autres maladies nécessitent fréquemment le marquage de l’analyte avec une autre molécule, ce qui est à éviter pour fin de simplicité d’analyse. Ces travaux ont pour but la maximisation de la sensibilité d’une surface d’or ou d’argent nanotrouée, afin de permettre la détection de la liaison de molécules biologiques par résonance des plasmons de surface localisés (LSPR), en utilisant la spectroscopie de transmission. Un biocapteur portable, rapide et sans marquage pour quantifier des analytes d’intérêt médical ou environnemental pourrait être construit à partir de ces travaux. Dans l’objectif d’étudier de nombreuses configurations pour maximiser la sensibilité, le temps et le coût des méthodes de fabrication de nanostructures habituelles auraient limité le nombre de surfaces nanotrouées pouvant être étudiées. Un autre objectif du projet consiste donc au développement d’une technique de fabrication rapide de réseaux de nanotrous, et à moindres coûts, basée sur la lithographie de nanosphères (NSL) et sur la gravure au plasma à l’oxygène (RIE). La sensibilité à la variation d’indice de réfraction associée aux liaisons de molécules sur la surface du métal noble et la longueur d’onde d’excitation du plasmon de surface sont influencées par les caractéristiques des réseaux de nanotrous. Dans les travaux rapportés ici, la nature du métal utilisé, le diamètre ainsi que la périodicité des trous sont variés pour étudier leur influence sur les bandes LSPR du spectre en transmission pour maximiser cette sensibilité, visant la fabrication d’un biocapteur. Les surfaces d’argent, ayant un diamètre de nanotrous inférieur à 200 nm pour une périodicité de 450 nm et les nanotrous d’une périodicité de 650 nm démontre un potentiel de sensibilité supérieur.
Resumo:
Ces travaux visent à étendre les applications de la résonance de plasmons de surface (SPR) L’objectif est d’offrir des outils diagnostics plus rapides, efficaces et simple d’utilisation pour diagnostiquer ou effectuer le suivi de conditions cliniques. Pour se faire, un nouveau type d’instrumentation SPR basé sur l’utilisation d’un prisme d’inversion (dove) a permis d’atteindre une limite de détection (LOD) de 10-6 unité d’indice de réfraction (RIU), une valeur comparable aux instruments commerciaux complexes tout en demeurant peu dispendieux, robuste et simple d’utilisation. Les travaux présentés dans cet ouvrage visent, dans un second temps, à réduire les interactions nonspécifiques (NSB) entre la surface des biocapteurs SPR et les composants de la matrice biologique complexe telles que: l’urine, le lysat cellulaire, le sérum et le sang. Ces dernières induisent des réponses empêchant l’utilisation de biocapteurs SPR en milieux complexes. Les acides aminés (AA) offrent une grande variété de propriétés physico-chimiques permettant la mise au point de monocouches auto-assemblées (SAM) aux propriétés diverses. Initialement, 19 des 20 acides aminés naturels ont été attachés à l’acide 3-mercaptopropionique (3-MPA) formant des SAMs peptidomimétiques. La quantité d’interactions nonspécifiques engendrées par ces différentes surfaces a été mesurée en exposant ces surfaces au sérum sanguin bovin complet variant de 400 ng/cm² jusqu’à 800 ng/cm². La détection à l’aide de ces surfaces de la β-lactamase (une enzyme responsable de la résistance aux antibiotiques au niveau μM) a démontré la possibilité d’employer ces surfaces pour bâtir des biocapteurs SPR. Des peptides de longueur allant de 2 à 5 résidus attachés à 3-MPA ont été synthétisés sur support solide. Cette étude a démontré que l’augmentation de la longueur des peptides formés d’AA résistants aux NBS accroit leur résistance jusqu’à 5 résidus. Le composé le plus performant de ce type (3-MPA-(Ser)5-OH) a permis d’atteindre 180 ng/cm². Cette valeur est similaire à celle des meilleures surfaces disponibles commercialement, notamment les surfaces de polyethylène glycol (PEG) à 100 ng/cm². Des surfaces de 3-MPA-(Ser)5-OH ont permis l’étalonnage de la β-lactamase et sa quantification directe dans un lysat cellulaire. La LOD pour ces biocapteurs est de 10 nM. Une troisième génération de surfaces peptidiques binaires a permis la réduction de la NSB jusqu’à un niveau de 23±10 ng/cm² une valeur comparable aux meilleures surfaces disponibles. Ces surfaces ont permis l’étalonnage d’un indicateur potentiel du cancer la metalloprotéinase-3 de matrice (MMP-3). Les surfaces formées de peptides binaires (3-MPA-H3D2-OH) ont permis la quantification directe de la MMP-3 dans le sérum sanguin complet. Une quatrième génération de surfaces peptidiques a permis de réduire davantage le niveau de NSB jusqu’à une valeur de 12 ± 11 ng/cm². Ces surfaces ont été modifiées en y attachant une terminaison de type acide nitriloacétique (NTA) afin d’y attacher des biomolécules marquées par six résidus histidines terminaux. Ces surfaces ont permis le développement d’une méthode rapide de balayage des ligands ciblant le « cluster of differenciation-36 » (CD36). L’étude d’électroformation des monocouches de peptide a permis de déterminer les conditions de formation optimales d’une couche de 3-MPA-HHHDD-OH permettant ainsi la formation de monocouches résistantes au NSB en moins de 6 minutes en appliquant un potentiel de formation de 200mV vs Ag/AgCl.
Resumo:
Les propriétés d'une nouvelle classe de chimie de surface basée sur les monocouches auto-assemblées de liquides ioniques (ILs-SAMs), ont été étudiées pour une utilisation dans la construction de biocapteurs basés sur la résonance des plasmons de surface (SPR). Les biocapteurs sont utiles pour détecter des biomolécules spécifiques dans une matrice biologique complexe. Cependant, le signal analytique de la biomolécule spécifique peut être masqué par l’adsorption non spécifique de la matrice biologique, produisant une réponse faussement positive. Par ailleurs, l'activité des récepteurs moléculaires est souvent réduite par des techniques d'immobilisation chimique. Ainsi, il est essentiel de déterminer une surface idéale pour la préparation de biocapteurs. Les liquides ioniques sont bien connus pour favoriser l'activité des récepteurs moléculaires et cette étude enquête si cette propriété importante peut se traduire sur des capteurs SPR. Différents liquides ioniques ont été utilisés pour former des monocouches auto-assemblées sur une surface d'or. Les ILs-SAMs sont tous basés sur les sels de mercapto-(chaîne alkyle)nCH2-méthylimidazolium avec différentes chaînes alkyles (n = 3, 6, 9, 12) et différents contre-anions (Br-, BF4-, PF6-, NTf2-). Des études cinétiques de l'adsorption non spécifique de sérum bovin ont été réalisées sur des capteurs SPR avec un instrument construit sur mesure, basé sur l'interrogation des longueurs d’ondes SPR sur un prisme d’inversion d’image (dove). Par la suite, l’anti-IgG de chèvre sélective à l’IgG humain a été utilisé en tant que modèle pour la confection de biocapteurs sur les ILs-SAMs. En solution, il est possible d’effectuer des échanges du contre-anion des liquides ioniques pour un contre-anion de plus en plus hydrophobe. Cependant, l’échange inverse, soit vers des anions de plus en plus hydrophile, s’avère impossible. Toutefois, il a été observé par les travaux présentés dans ce mémoire, que les liquides ioniques immobilisés sur une surface d'or ont la capacité d'échanger leurs contre-anions réversiblement, procurant une méthode simple de moduler leurs propriétés physico-chimiques. Ce phénomène a été observé par la mesure d’angles de contacts et par les techniques spectroscopiques de l’infrarouge moyen (mid-IR), des photoélectrons de rayon-X (XPS) et par la diffusion Raman exaltée par les surfaces (SERS) ii ainsi que par la spectrométrie de masse (MS). La connaissance des propriétés d’échange d’anion est importante pour prédire le comportement de ces surfaces de liquides ioniques dans les tampons et fluides biologiques.
Resumo:
Le but de ce mémoire est d’effectuer une analyse détaillée de ce chapitre de la Critique de la raison pure de Kant à partir de l’idée qu’il présente les « résultats » de la démarche critique menée jusque-là concernant les limites de la connaissance. Le mémoire sera divisé en deux parties. Dans la première partie, nous montrerons que ce chapitre dresse un bilan provisoire et que pour cette raison il soulève deux enjeux : 1 – montrer que les concepts purs de l'entendement – en dépit de leur caractère a priori et de leur origine dans l'entendement pur – ne sont susceptibles d'un usage objectif qu'appliqués aux données de la sensibilité (A 246/B 303 : « L'Analytique transcendantale a donc cet important résultat... ») ; 2 – montrer que, à son tour, la sensibilité est elle-même limitée par l'entendement et qu'elle ne renferme pas la totalité des objets possibles (A 251 : « Tel a été le résultat de toute l'Esthétique transcendantale... »). Dans la seconde partie, nous analyserons les différences entre les deux éditions de la Critique de la raison pure concernant ce chapitre en insistant tout particulièrement sur la distinction faite dans la deuxième édition entre noumène au sens positif et noumène au sens négatif.
Resumo:
Cette thèse caractérise les propriétés optiques des matériaux plasmoniques microstructurés et procède à l’évaluation des paramètres analytiques afin de les employer comme plateforme de biodétection en spectroscopie de résonance des plasmons de surface (SPR). Aux dimensions micrométriques, les matériaux plasmoniques présentent des caractéristiques optiques propres aux nano- et macromatériaux. La cartographie physicooptiques en SPR de matériaux méso- et microscopiques s’est effectuée à l’aide de films structurés de motifs périodiques triangulaires et circulaires fabriqués par une technique modifiée de lithographie par nanosphères (nanosphere lithography, NSL). À partir de cette vue d’ensemble, quelques films structurés ont été sélectionné en fonction d’aspects analytiques tels que la sensibilité et la résolution face aux variations d’indice de réfraction (RI) pour déterminer le potentiel de ces matériaux comme plateforme de biodetection. Les propriétés optiques distinctes des films microstructurés proviennent d’interactions résonantes entre les modes de plasmons de surface (SP) localisé et délocalisé identifiés par la relation de dispersion en SPR ainsi que l’imagerie Raman. Les conditions de résonance des modes SP dépendant de paramètres expérimentaux (λ, θ, η) tel qu’observés numériquement par rigorous coupled wave analysis (RCWA) et empiriquement. Ces travaux démontrent la nature plasmonique distincte des micro-matériaux et leur potentiel d’intégration aux techniques analytiques SPR existantes. Les matériaux plasmoniques micrométriques furent également étudiés pour l’implémentation de la SPR à une pointe de microscopie à force atomique (atomic force microscopy, AFM) combinant ainsi la spectroscopie à l’imagerie topographique. Des travaux préliminaires se sont concentrés sur la signature spectroscopique de leviers en silicium (Si) et en nitrure de silicium (Si3N4), l’impact d’un revêtement d’or sur les pointes et l’influence de milieu environnant. Une image d’origine plasmonique a été obtenue avec des leviers en Si3N4 revêtus d’or en transmission dans un environnement aqueux, indiquant ainsi le potentiel de ces pointes comme micro-biocapteur SPR. Ces résultats préliminaires servent de fondement pour orienter les prochaines investigations dans ce projet.
Resumo:
L’objectif principal de cette recherche est de contribuer au développement de biocapteurs commerciaux utilisant des surfaces de papier comme matrices d’immobilisation, capables de produire un signal colorimétrique perceptible dans les limites sensorielles humaines. Ce type de biocapteur, appelé papier bioactif, pourrait servir par exemple à la détection de substances toxiques ou d’organismes pathogènes. Pour atteindre l’objectif énoncé, ce travail propose l’utilisation de systèmes enzymatiques microencapsulés couchés sur papier. Les enzymes sont des catalyseurs biologiques dotés d’une haute sélectivité, et capables d'accélérer la vitesse de certaines réactions chimiques spécifiques jusqu’à des millions des fois. Les enzymes sont toutefois des substances très sensibles qui perdent facilement leur fonctionnalité, raison pour laquelle il faut les protéger des conditions qui peuvent les endommager. La microencapsulation est une technique qui permet de protéger les enzymes sans les isoler totalement de leur environnement. Elle consiste à emprisonner les enzymes dans une sphère poreuse de taille micrométrique, faite de polymère, qui empêche l’enzyme de s’echapper, mais qui permet la diffusion de substrats à l'intérieur. La microencapsulation utilisée est réalisée à partir d’une émulsion contenant un polymère dissous dans une phase aqueuse avec l’enzyme désirée. Un agent réticulant est ensuite ajouté pour provoquer la formation d'un réseau polymérique à la paroi des gouttelettes d'eau dans l'émulsion. Le polymère ainsi réticulé se solidifie en enfermant l’enzyme à l'intérieur de la capsule. Par la suite, les capsules enzymatiques sont utilisées pour donner au papier les propriétés de biocapteur. Afin d'immobiliser les capsules et l'enzyme sur le papier, une méthode courante dans l’industrie du papier connu sous le nom de couchage à lame est utilisée. Pour ce faire, les microcapsules sont mélangées avec une sauce de couchage qui sera appliquée sur des feuilles de papier. Les paramètres de viscosité i de la sauce et ceux du couchage ont été optimisés afin d'obtenir un couchage uniforme répondant aux normes de l'industrie. Les papiers bioactifs obtenus seront d'abord étudiés pour évaluer si les enzymes sont toujours actives après les traitements appliqués; en effet, tel que mentionné ci-dessus, les enzymes sont des substances très sensibles. Une enzyme très étudiée et qui permet une évaluation facile de son activité, connue sous le nom de laccase, a été utilisée. L'activité enzymatique de la laccase a été évaluée à l’aide des techniques analytiques existantes ou en proposant de nouvelles techniques d’analyse développées dans le laboratoire du groupe Rochefort. Les résultats obtenus démontrent la possibilité d’inclure des systèmes enzymatiques microencapsulés sur papier par couchage à lame, et ce, en utilisant des paramètres à grande échelle, c’est à dire des surfaces de papier de 0.75 x 3 m2 modifiées à des vitesses qui vont jusqu’à 800 m/min. Les biocapteurs ont retenu leur activité malgré un séchage par évaporation de l’eau à l’aide d’une lampe IR de 36 kW. La microencapsulation s’avère une technique efficace pour accroître la stabilité d’entreposage du biocapteur et sa résistance à l’exposition au NaN3, qui est un inhibiteur connu de ce biocapteur. Ce projet de recherche fait partie d'un effort national visant à développer et à mettre sur le marché des papiers bioactifs; il est soutenu par Sentinel, un réseau de recherche du CRSNG.
Resumo:
L’agent régulateur des temps sociaux de la famille québécoise a été la religion catholique pendant des décennies. Les mouvements d’après-guerre et la Révolution tranquille, ont amené un changement de paradigme avec la laïcisation des institutions et la multiplication des programmes sociaux de l’État-providence. Pour cerner l’importance de ce changement, nous avons utilisé la clef analytique de Léon Gérin pour produire une analyse comparative entre deux familles à deux époques : en 1886 et en 2010. Or, au moment où l’État est de plus en plus présent dans toutes les sphères de la vie de la famille tout en leur laissant une autonomie et une liberté, la population se montre de plus en plus sceptique envers les institutions étatiques. Un fossé s’est créé entre la société officielle, celle du social, des institutions, et la société officieuse, celle de la culture populaire qui agit à partir de l’esprit de corps de son groupe, virtuel ou non. La crise de confiance des gens envers les institutions annonce un nouveau changement de paradigme. La rationalité qui a été le moteur de la modernité fait graduellement place à l’émotionnel et à la valeur du temps présent. Le travail, agent régulateur qui comblait les besoins matériels à la modernité, serait remplacé progressivement par des besoins immatériels devenant l’agent régulateur des temps sociaux de la famille.
Resumo:
La traite et l’esclavage négriers transatlantique n’ont jamais été étudiés d’un point de vue criminologique. En fait, à part l’histoire, peu de disciplines des sciences sociales et humaines se sont intéressées aux évènements qui constituent la traite et l’esclavage négriers transatlantique. Toutefois, de récentes recherches commencent à se pencher sur les séquelles résultant des multiples victimisations (agressions physiques et psychologiques) subies par les Noirs durant la traite et l’esclavage négriers transatlantique. Nous postulons que la criminologie peut également contribuer à une meilleure compréhension de ces évènements. Ainsi, cette étude vise à sonder les perceptions des Afro-descendants sur les victimisations et les conséquences de la traite et de l’esclavage négriers transatlantique. L’analyse des entretiens réalisés démontrent clairement que la traite et l’esclavage négriers transatlantique n’appartiennent pas seulement au passé. Au contraire, la traite et l’esclavage négriers transatlantique restent présents dans les esprits et les cœurs. Ils sont surtout perçus comme une source de victimisations actuelles touchant la communauté africaine et antillaise tels que la faible confiance en soi, la faible estime de soi, la hiérarchie de la couleur, le racisme interne…Aussi, tous les répondants plaident pour au moins une forme de réparation (pécuniaire et monétaire, éthique ou politique, historique, éducative, psychologique, diplomatique) des conséquences de la traite et l’esclavage négriers transatlantique. Les entrevues mettent également en évidence une division dans les représentations basées sur la version (fonctionnaliste ou intentionnaliste) de cette histoire, ainsi que des différences de représentations selon le groupe ethnique d’appartenance (Africain ou Antillais).
Resumo:
L’amélioration de la qualité de l’utilisation des médicaments dans les soins primaires est devenue un enjeu crucial. Les pharmaciens communautaires se présentent comme des acteurs centraux dans l’atteinte de cet objectif, en réclamant une extension de leur rôle. L’objectif principal de cette thèse est de mieux comprendre comment les technologies de prescription informatisée (eRx) influencent la transformation du rôle des pharmaciens communautaires. Le premier article présente les résultats d’une étude de cas qui aborde la transformation du rôle des pharmaciens communautaires à partir du concept de professionnalisation. Elle propose un modèle logique des influences d’une technologie de eRx sur cette professionnalisation, élaboré à partir de la typologie de Davenport. Ce modèle logique a été validé en interviewant douze pharmaciens communautaires participant à un projet pilote typique de technologie de eRx. A partir des perceptions des pharmaciens communautaires, nous avons établi que la technologie était susceptible de soutenir la professionnalisation des pharmaciens en passant par cinq mécanismes : la capacité analytique, l’élimination des intermédiaires, l’intégration, l’automatisation et la diffusion des connaissances. Le deuxième article analyse les perturbations induites par les différentes fonctions des technologies de eRx sur la stabilité de la juridiction des pharmaciens communautaires, en se basant sur un cadre de référence adapté d’Abbott. À partir de trente-trois entrevues, avec des praticiens (médecins et pharmaciens) et des élites, cette étude de cas a permis de décrire en détail les influences des différentes fonctions sur les modalités d’action des professionnels, ainsi que les enjeux soulevés par ces possibilités. La perturbation principale est liée aux changements dans la distribution des informations, ce qui influence les activités de diagnostic et d’inférence des professionnels. La technologie peut redistribuer les informations relatives à la gestion des médicaments autant au bénéfice des médecins qu’au bénéfice des pharmaciens, ce qui suscite des tensions entre les médecins et les pharmaciens, mais aussi parmi les pharmaciens. Le troisième article présente une revue systématique visant à faire une synthèse des études ayant évalué les effets des technologies de eRx de deuxième génération sur la gestion des médicaments dans les soins primaires. Cette revue regroupe dix-neuf études menées avec des méthodes observationnelles. Les résultats rapportés révèlent que les technologies sont très hétérogènes, le plus souvent immatures, et que les effets ont été peu étudiés au-delà des perceptions des utilisateurs, qui sont mitigées. Le seul effet positif démontré est une amélioration de la qualité du profil pharmacologique accessible aux professionnels, alors que des effets négatifs ont été démontrés au niveau de l’exécution des prescriptions, tels que l’augmentation du nombre d’appels de clarification du pharmacien au prescripteur. Il semble donc que l’on en connaisse peu sur les effets des technologies de eRx de deuxième génération. Ces trois études permettent de constater que les nouvelles technologies de eRx peuvent effectivement influencer la transformation du rôle du pharmacien communautaire en perturbant les caractéristiques des prescriptions, et surtout, l’information et sa distribution. Ces perturbations génèrent des possibilités pour une extension du rôle des pharmaciens communautaires, tout en soulignant les défis intra et interprofessionnels associés à l’actualisation de ces possibilités. Dans l’ensemble, nos résultats soulignent que les perturbations associées aux technologies de eRx dépassent les éléments techniques du travail des utilisateurs, pour englober de multiples perturbations quant à la nature même du travail et du rôle des professionnels. Les décideurs et acteurs impliqués dans le déploiement des technologies de eRx auraient avantage à prendre en compte l’ensemble de ces considérations pour rapprocher les effets observés des bénéfices promis de ces technologies.
Resumo:
Des données de Statistique Canada montrent que le Québec a perdu 86 700 emplois manufacturiers nets entre 2004 et 2008, ce qui représente un recul de 13,8% (Bernard, 2009). Un dollar canadien fort, la concurrence internationale, les délocalisations de la production et les consolidations globales d'opérations sont souvent mentionnés comme étant les causes des difficultés du secteur manufacturier canadien - principalement concentré au Québec et en Ontario. La crise financière amorcée à l’été 2007, a contribué à aggraver la crise propre au secteur manufacturier dont les origines remontent au début des années 2000 (Weir, 2007; AgirE, 2008; Pilat et al., 2006). Cette recherche examine le processus de restructuration du secteur manufacturier québécois de manière détaillée au niveau des établissements afin d’en évaluer l’ampleur et la nature entre 2003 et 2008. Les données colligées permettent de poser un regard unique et original sur les restructurations ayant impliqué des licenciements collectifs au Québec. Ces données sont issues de deux sources. D'abord, nous avons utilisé une liste d‘entreprises qui ont envoyé un avis de licenciement collectif au Ministère de l’Emploi et de la Solidarité sociale du Québec entre 2003 et 2008. En second lieu, nous avons eu recours aux archives en ligne des médias pour trouver d’autres évènements de restructuration non rapportés par le ministère ainsi que pour obtenir des informations complémentaires sur les évènements déjà compilés dans la liste du ministère. Notre méthodologie de recherche et notre typologie analytique des types de restructuration sont basées sur celles développées par l’European Monitoring Center on Change (EMCC) et reprises dans certaines études comme celles de Bronfenbrenner et Luce (2004) et Hickey et Schenk (soumis). Les résultats, présentés en termes d’événements de restructuration et d’emplois perdus, sont ventilés en fonction de quelques variables (année d’occurrence, taille de l’établissement, sous-secteur d’activité, intensité technologique, région administrative, types de restructuration). Les raisons données par l’entreprise afin de justifier la restructuration ont aussi été colligées. Au cours de la période étudiée, nous avons identifié au total 1 631 évènements de restructurations dans le secteur manufacturier à travers toutes les régions du Québec, qui ont entraîné la perte de 129 383 emplois. Ainsi, 78 246 emplois ont été perdus suite à la réduction des activités de l‘établissement et 51 137 emplois l’ont été suite à la fermeture de leur établissement. La forme la plus fréquente de restructuration est la restructuration interne, suivi par la faillite/fermeture. Les types de restructuration qui ont engendré le plus de pertes d’emplois en moyenne par évènement sont dans l’ordre, la délocalisation, la sous-traitance, la consolidation d’activités ainsi que la fusion-acquisition. L’année 2008 fut celle où il y a eu le plus grand nombre de restructurations. Montréal et la Montérégie sont les régions qui ont le plus été touchées par la restructuration, les pertes d’emplois et les fermetures d’établissements. Les industries à faible intensité technologique ont davantage été frappées par la crise manufacturière. C’est le sous-secteur du papier et du bois qui connu le plus grand nombre d’événements de restructurations. Ce sous-secteur a aussi subi les pertes d’emplois les plus importantes, suivi par le sous-secteur du textile et du vêtement. Ces deux industries se partagent plus de la moitié des fermetures d’établissements. L’insuffisance de la demande (22,1%), la concurrence internationale (14,3%), la hausse de la valeur du dollar canadien (11,2%), la réorganisation interne de l’entreprise (11,1%), la rationalisation des coûts visant une augmentation de la profitabilité (10,1%) ainsi que les difficultés financières (9,9%) sont les motifs principaux donnés par les employeurs. Nos résultats montrent qu’il y a eu deux temps dans l’évolution de la restructuration du secteur manufacturier au Québec. Un premier temps au début de la période où des changements structurels profonds ont été observés dans certaines industries (p.ex. le bois-papier et le textile-vêtement) et un second temps, en fin de période caractérisé par des changements davantage liés à la conjoncture en raison de la crise économique dont les effets commençaient à se faire sentir à ce moment (Institut de la statistique du Québec, 2009a).
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal