989 resultados para Échelle numérique
Resumo:
Plusieurs programmes de formation offrent des stages pour compléter la formation et valider les apprentissages des stagiaires en regard du développement de leurs compétences. L’évaluation des savoirs et des savoir-faire occupe une grande place lors de la prestation des stagiaires et permet d’établir leur niveau de compétence. Mais qu’en est-il de l’évaluation de leurs savoir-être professionnels ? Pourtant le savoir-être est une composante indispensable au plein développement de la compétence. Les stagiaires manifestent leurs savoir-être professionnels en milieu clinique. Sans s’en rendre compte, leurs comportements influencent leur future embauche par une institution de santé. C’est la plus value qui fait la différence. Dans notre pratique enseignante, souvent nous éprouvons des difficultés dans l’accompagnement des stagiaires pour le plein développement de leurs savoir-être professionnels. Lorsque surviennent des difficultés, l’absence d’outil rend difficile la tâche d’évaluation des savoir-être professionnels. Cette réalité nous amène au thème de cet essai qui vise la conception d’outils d’évaluation des savoir-être professionnels pour les stagiaires du programme collégial Techniques d’inhalothérapie. Les difficultés d’évaluation des savoir-être professionnels dues à l’absence d’outils a entraîné une réflexion nous menant tout droit à nous questionner sur les caractéristiques essentielles des outils d’évaluation permettant aux enseignantes et aux enseignants de porter un jugement objectif sur les savoir-être professionnels des stagiaires du programme collégial Techniques d’inhalothérapie. Suite à une recension d’écrits en lien avec les concepts des savoir-être professionnels, de l’évaluation et des outils d’évaluation, nous nous sommes fixé cinq objectifs spécifiques pour répondre à notre question générale de l’essai : 1) Établir une nomenclature des savoir-être professionnels pour le programme collégial Techniques d’inhalothérapie; 2) Décrire les savoir-être professionnels en manifestations observables; 3) Concevoir un outil d’autoévaluation en regard du développement des savoir-être professionnels pour les stagiaires du programme collégial Techniques d’inhalothérapie; 4) Concevoir une liste de vérification des comportements observables pour évaluer les savoir-être professionnels des stagiaires du programme collégial Techniques d’inhalothérapie; et 5) Concevoir une grille d’évaluation à échelle descriptive pour évaluer les savoir-être professionnels des stagiaires du programme collégial Techniques d’inhalothérapie. Avec une posture épistémologique interprétative et une approche qualitative, nous avons opté pour un essai de type recherche développement, selon Harvey et Loiselle (2009), visant la conception de trois outils d’évaluation des savoir-être professionnels, soit : a) un outil d’autoévaluation, b) une liste de vérification des comportements observables et c) une grille d’évaluation à échelle descriptive. Après avoir réalisé les deux premiers objectifs spécifiques de cet essai, nous avons sollicité les enseignantes et les enseignants des départements de Techniques d’inhalothérapie du Collège de Rosemont et du Collège de Valleyfield pour procéder à la validation des outils d’évaluation des savoir-être professionnels. Pour accompagner les cinq enseignantes et les trois enseignants dans leur démarche de validation, nous avons privilégié un questionnaire de validation, des entrevues semidirigées et un groupe de discussion pour recueillir les données qualitatives et quantitatives que nous avons traitées en deux temps.L’analyse et l’interprétation des résultats ont permis l’atteinte des objectifs spécifiques fixés. En plus d’établir la nomenclature des savoir-être professionnels, les données recueillies portent un regard critique sur la conception des outils d’évaluation des savoir-être professionnels destinés aux stagiaires du programme collégial Techniques d’inhalothérapie. Grâce aux commentaires et aux suggestions obtenus, nous peaufinerons nos outils pour les rendre plus efficaces après cet essai pour ensuite les remettre aux enseignantes et aux enseignants cliniques participants qui décideront avec leur département respectif s’ils désirent les utiliser. Cet essai identifie huit savoir-être professionnels que doivent démontrer les stagiaires du programme collégial Techniques d’inhalothérapie. Ces savoir-être professionnels se manifestent à partir de quarante-deux comportements observables. La conception de nos outils d’évaluation permet de porter un regard objectif sur le développement des savoir-être professionnels de nos stagiaires. Cet essai ne vise pas à généraliser ces résultats. Nous souhaitons plutôt la transférabilité des résultats à d’autres programmes afin d’accompagner d’autres enseignantes et enseignants qui éprouvent des difficultés lors de l’évaluation des savoir-être professionnels.
Resumo:
Thèse réalisée dans le cadre d'un Ph.D.interdisciplinaire en Psychologie, en création littéraire et en orthopédagogie. L'impact de la création littéraire a été étudié chez des adolescents atteints d'une maladie chronique au CHU Sainte-Justine de Montréal. Cette recherche est exploratoire car la création littéraire n'a jamais été étudiée dans cette perspective. Elle a été réalisée sous la direction de Catherine Mavrikakis, professeure et écrivain à la Faculté des arts et sciences au Département des littératures francophones de l'Université de Montréal et de Jean-François Saucier, psychiatre et anthropologue à la Faculté de médecine au Département de psychiatrie de l'Université de Montréal et chercheur au CHU Sainte-Justine. Interdisciplinary Study.
Réception de l’Histoire des colonies grecques dans la littérature coloniale des XVIIe-XVIIIe siècles
Resumo:
L’objectif de ce travail était d’apporter une réflexion sur les influences du colonialisme européen aux XVII-XVIIIe siècles. Ayant déjà rédigé mon mémoire de fin de maîtrise sur la Corinthe archaïque et ses colonies, j’ai souhaité approfondir la question, en choisissant de situer la problématique dans un contexte historiographique plus large, dans le temps comme dans l’espace. Plusieurs auteurs se sont intéressés aux réceptions de l’Antiquité à des périodes spécifiques (Grell et Alexandre le Grand en France, Richard et les influences antiques de la Révolution américaine,…). Cependant, aucune analyse sur le long terme n’avait encore été fournie, pas davantage qu’une réflexion de fonds sur la place de l’Antiquité dans la manière de penser les colonies en Europe moderne. Cet état de fait, de même que la relative rareté des sources modernes traitant des colonies grecques, m’ont obligé à élargir au maximum le champ de recherche, en y incluant des auteurs qui, s’ils ne se préoccupèrent pas de colonisation, recoururent néanmoins au précédent grec pour illustrer des problématiques de leur temps. Toutefois, il est possible de constater à quel point les répertoires historiographiques concernant la Grèce antique et ses colonisations se sont développés dans le courant de ces deux siècles qui virent l’apogée et la chute des premiers empires coloniaux européens en Amérique du nord. Si la comparaison à l’Histoire grecque ne relevait souvent que du Topos et de la propagande (comme dans le cas de la comparaison du Grand Condé ou de Louis XIV à Alexandre le Grand), son utilisation dans le cadre de controverses à plus large échelle outrepassait aussi le seul lieu commun pour s’inscrire dans un discours rhétorique plus approfondi. Le choix de la colonisation grecque comme modèle de comparaison s’imposait d’autant plus logiquement que les divers auteurs, depuis les premiers colons jusqu’aux pères fondateurs américains, insistaient sur les mérites économiques des colonies européennes. D’autres régimes, comme l’empire espagnol au XVIe siècle ou l’empire britannique au XIXe siècle, ont davantage recouru à une terminologie d’inspiration romaine. En effet, leur politique se fondait plus sur l’idée d’une extension impérialiste de l’État que sur une vision commerciale du colonialisme. L’article de Krishan Kumar demeure l’un des plus importants sur la question. La réception de l’Histoire des colonies grecques aux Temps modernes fut avant tout le fruit d’une tentative de définition du colonialisme comme phénomène global, et d’une volonté de situer les nations européennes dans un contexte remontant aux origines de l’Occident. À l’heure où l’Europe amorçait sa domination sur la totalité de la planète, et où la course à la colonisation s’accélérait, la majorité des auteurs s’abritaient derrière l’image de thalassocraties antiques qui, si elles ne dénotaient pas un pouvoir politique centralisé, n’en contribuèrent pas moins à imposer la culture fondatrice de la pensée occidentale à tout le bassin méditerranéen. Quant aux guerres qui poussèrent les puissances antiques les unes contre les autres, elles ne faisaient qu’augurer des conflits à large échelle que furent les guerres franco-britanniques du XVIIIe siècle.
Resumo:
La spectrométrie de masse mesure la masse des ions selon leur rapport masse sur charge. Cette technique est employée dans plusieurs domaines et peut analyser des mélanges complexes. L’imagerie par spectrométrie de masse (Imaging Mass Spectrometry en anglais, IMS), une branche de la spectrométrie de masse, permet l’analyse des ions sur une surface, tout en conservant l’organisation spatiale des ions détectés. Jusqu’à présent, les échantillons les plus étudiés en IMS sont des sections tissulaires végétales ou animales. Parmi les molécules couramment analysées par l’IMS, les lipides ont suscité beaucoup d'intérêt. Les lipides sont impliqués dans les maladies et le fonctionnement normal des cellules; ils forment la membrane cellulaire et ont plusieurs rôles, comme celui de réguler des événements cellulaires. Considérant l’implication des lipides dans la biologie et la capacité du MALDI IMS à les analyser, nous avons développé des stratégies analytiques pour la manipulation des échantillons et l’analyse de larges ensembles de données lipidiques. La dégradation des lipides est très importante dans l’industrie alimentaire. De la même façon, les lipides des sections tissulaires risquent de se dégrader. Leurs produits de dégradation peuvent donc introduire des artefacts dans l’analyse IMS ainsi que la perte d’espèces lipidiques pouvant nuire à la précision des mesures d’abondance. Puisque les lipides oxydés sont aussi des médiateurs importants dans le développement de plusieurs maladies, leur réelle préservation devient donc critique. Dans les études multi-institutionnelles où les échantillons sont souvent transportés d’un emplacement à l’autre, des protocoles adaptés et validés, et des mesures de dégradation sont nécessaires. Nos principaux résultats sont les suivants : un accroissement en fonction du temps des phospholipides oxydés et des lysophospholipides dans des conditions ambiantes, une diminution de la présence des lipides ayant des acides gras insaturés et un effet inhibitoire sur ses phénomènes de la conservation des sections au froid sous N2. A température et atmosphère ambiantes, les phospholipides sont oxydés sur une échelle de temps typique d’une préparation IMS normale (~30 minutes). Les phospholipides sont aussi décomposés en lysophospholipides sur une échelle de temps de plusieurs jours. La validation d’une méthode de manipulation d’échantillon est d’autant plus importante lorsqu’il s’agit d’analyser un plus grand nombre d’échantillons. L’athérosclérose est une maladie cardiovasculaire induite par l’accumulation de matériel cellulaire sur la paroi artérielle. Puisque l’athérosclérose est un phénomène en trois dimension (3D), l'IMS 3D en série devient donc utile, d'une part, car elle a la capacité à localiser les molécules sur la longueur totale d’une plaque athéromateuse et, d'autre part, car elle peut identifier des mécanismes moléculaires du développement ou de la rupture des plaques. l'IMS 3D en série fait face à certains défis spécifiques, dont beaucoup se rapportent simplement à la reconstruction en 3D et à l’interprétation de la reconstruction moléculaire en temps réel. En tenant compte de ces objectifs et en utilisant l’IMS des lipides pour l’étude des plaques d’athérosclérose d’une carotide humaine et d’un modèle murin d’athérosclérose, nous avons élaboré des méthodes «open-source» pour la reconstruction des données de l’IMS en 3D. Notre méthodologie fournit un moyen d’obtenir des visualisations de haute qualité et démontre une stratégie pour l’interprétation rapide des données de l’IMS 3D par la segmentation multivariée. L’analyse d’aortes d’un modèle murin a été le point de départ pour le développement des méthodes car ce sont des échantillons mieux contrôlés. En corrélant les données acquises en mode d’ionisation positive et négative, l’IMS en 3D a permis de démontrer une accumulation des phospholipides dans les sinus aortiques. De plus, l’IMS par AgLDI a mis en évidence une localisation différentielle des acides gras libres, du cholestérol, des esters du cholestérol et des triglycérides. La segmentation multivariée des signaux lipidiques suite à l’analyse par IMS d’une carotide humaine démontre une histologie moléculaire corrélée avec le degré de sténose de l’artère. Ces recherches aident à mieux comprendre la complexité biologique de l’athérosclérose et peuvent possiblement prédire le développement de certains cas cliniques. La métastase au foie du cancer colorectal (Colorectal cancer liver metastasis en anglais, CRCLM) est la maladie métastatique du cancer colorectal primaire, un des cancers le plus fréquent au monde. L’évaluation et le pronostic des tumeurs CRCLM sont effectués avec l’histopathologie avec une marge d’erreur. Nous avons utilisé l’IMS des lipides pour identifier les compartiments histologiques du CRCLM et extraire leurs signatures lipidiques. En exploitant ces signatures moléculaires, nous avons pu déterminer un score histopathologique quantitatif et objectif et qui corrèle avec le pronostic. De plus, par la dissection des signatures lipidiques, nous avons identifié des espèces lipidiques individuelles qui sont discriminants des différentes histologies du CRCLM et qui peuvent potentiellement être utilisées comme des biomarqueurs pour la détermination de la réponse à la thérapie. Plus spécifiquement, nous avons trouvé une série de plasmalogènes et sphingolipides qui permettent de distinguer deux différents types de nécrose (infarct-like necrosis et usual necrosis en anglais, ILN et UN, respectivement). L’ILN est associé avec la réponse aux traitements chimiothérapiques, alors que l’UN est associé au fonctionnement normal de la tumeur.
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.
Resumo:
La possibilité de programmer une cellule dans le but de produire une protéine d’intérêt est apparue au début des années 1970 avec l’essor du génie génétique. Environ dix années plus tard, l’insuline issue de la plateforme de production microbienne Escherichia coli, fut la première protéine recombinante (r-protéine) humaine commercialisée. Les défis associés à la production de r-protéines plus complexes et glycosylées ont amené l’industrie biopharmaceutique à développer des systèmes d’expression en cellules de mammifères. Ces derniers permettent d’obtenir des protéines humaines correctement repliées et de ce fait, biologiquement actives. Afin de transférer le gène d’intérêt dans les cellules de mammifères, le polyéthylènimine (PEI) est certainement un des vecteurs synthétiques le plus utilisé en raison de son efficacité, mais aussi sa simplicité d’élaboration, son faible coût et sa stabilité en solution qui facilite son utilisation. Il est donc largement employé dans le contexte de la production de r-protéines à grande échelle et fait l’objet d’intenses recherches dans le domaine de la thérapie génique non virale. Le PEI est capable de condenser efficacement l’ADN plasmidique (vecteur d’expression contenant le gène d’intérêt) pour former des complexes de petites tailles appelés polyplexes. Ces derniers doivent contourner plusieurs étapes limitantes afin de délivrer le gène d’intérêt au noyau de la cellule hôte. Dans les conditions optimales du transfert de gène par le PEI, les polyplexes arborent une charge positive nette interagissant de manière électrostatique avec les protéoglycanes à héparane sulfate (HSPG) qui décorent la surface cellulaire. On observe deux familles d’HSPG exprimés en abondance à la surface des cellules de mammifères : les syndécanes (4 membres, SDC1-4) et les glypicanes (6 membres, GPC1-6). Si l’implication des HSPG dans l’attachement cellulaire des polyplexes est aujourd’hui largement acceptée, leur rôle individuel vis-à-vis de cet attachement et des étapes subséquentes du transfert de gène reste à confirmer. Après avoir optimisées les conditions de transfection des cellules de mammifères CHO et HEK293 dans le but de produire des r-protéines secrétées, nous avons entrepris des cinétiques de capture, d’internalisation des polyplexes et aussi d’expression du transgène afin de mieux comprendre le processus de transfert de gène. Nous avons pu observer des différences au niveau de ces paramètres de transfection dépendamment du système d’expression et des caractéristiques structurelles du PEI utilisé. Ces résultats présentés sous forme d’articles scientifiques constituent une base solide de l’enchaînement dans le temps des évènements essentiels à une transfection efficace des cellules CHO et HEK293 par le PEI. Chaque type cellulaire possède un profil d’expression des HSPG qui lui est propre, ces derniers étant plus ou moins permissifs au transfert de gène. En effet, une étude menée dans notre laboratoire montre que les SDC1 et SDC2 ont des rôles opposés vis-à-vis du transfert de gène. Alors que tous deux sont capables de lier les polyplexes, l’expression de SDC1 permet leur internalisation contrairement à l’expression de SDC2 qui l’inhibe. De plus, lorsque le SDC1 est exprimé à la surface des cellules HEK293, l’efficacité de transfection est augmentée de douze pourcents. En utilisant la capacité de SDC1 à induire l’internalisation des polyplexes, nous avons étudié le trafic intracellulaire des complexes SDC1 / polyplexes dans les cellules HEK293. De plus, nos observations suggèrent une nouvelle voie par laquelle les polyplexes pourraient atteindre efficacement le noyau cellulaire. Dans le contexte du transfert de gène, les HSPG sont essentiellement étudiés dans leur globalité. S’il est vrai que le rôle des syndécanes dans ce contexte est le sujet de quelques études, celui des glypicanes est inexploré. Grâce à une série de traitements chimiques et enzymatiques visant une approche « perte de fonction », l’importance de la sulfatation comme modification post-traductionnelle, l’effet des chaînes d’héparanes sulfates mais aussi des glypicanes sur l’attachement, l’internalisation des polyplexes, et l’expression du transgène ont été étudiés dans les cellules CHO et HEK293. L’ensemble de nos observations indique clairement que le rôle des HSPG dans le transfert de gène devrait être investigué individuellement plutôt que collectivement. En effet, le rôle spécifique de chaque membre des HSPG sur la capture des polyplexes et leur permissivité à l’expression génique demeure encore inconnu. En exprimant de manière transitoire chaque membre des syndécanes et glypicanes à la surface des cellules CHO, nous avons déterminé leur effet inhibiteur ou activateur sur la capture des polyplexes sans pouvoir conclure quant à l’effet de cette surexpression sur l’efficacité de transfection. Par contre, lorsqu’ils sont présents dans le milieu de culture, le domaine extracellulaire des HSPG réduit l’efficacité de transfection des cellules CHO sans induire la dissociation des polyplexes. Curieusement, lorsque chaque HSPG est exprimé de manière stable dans les cellules CHO, seulement une légère modulation de l’expression du transgène a pu être observée. Ces travaux ont contribué à la compréhension des mécanismes d'action du vecteur polycationique polyéthylènimine et à préciser le rôle des protéoglycanes à héparane sulfate dans le transfert de gène des cellules CHO et HEK293.
Resumo:
Les sulfilimines et les sulfoximines sont des motifs structuraux dont l’intérêt synthétique est grandissant, notamment du fait de leurs applications en chimie médicinale et en agrochimie. Les travaux rapportés dans cet ouvrage décrivent le développement de nouvelles méthodes de synthèse efficaces pour la production de ces unités atypiques. Ces méthodes sont basées sur la réactivité d’une source d’azote électrophile, vis-à-vis de thioéthers et de sulfoxydes. L’utilisation d’un complexe métallique introduit en quantité catalytique a permis de favoriser le processus réactionnel. En tirant bénéfice de l’expertise de notre groupe de recherche sur le développement de réactions d’amination stéréosélectives de liaisons C-H et d’aziridination de styrènes, nous avons d’abord étudié la réactivité des N-mésyloxycarbamates comme source d’azote électrophile. Après avoir optimisé sa synthèse sur grande échelle, ce réactif chiral a été utilisé dans des réactions d’amination de thioéthers et de sulfoxydes, catalysées par un dimère de rhodium (II) chiral. Un processus diastéréosélectif efficace a été mis au point, permettant de produire des sulfilimines et des sulfoximines chirales avec d’excellents rendements et sélectivités. Au cours de l’optimisation de cette méthode de synthèse, nous avons pu constater l’effet déterminant de certains additifs sur la réactivité et la sélectivité de la réaction. Une étude mécanistique a été entreprise afin de comprendre leur mode d’action. Il a été observé qu’une base de Lewis telle que le 4-diméthylaminopyridine (DMAP) pouvait se coordiner au dimère de rhodium(II) et modifier ses propriétés structurales et redox. Les résultats que nous avons obtenus suggèrent que l’espèce catalytique active est un dimère de rhodium de valence mixte Rh(II)/Rh(III). Nous avons également découvert que l’incorporation de sels de bispyridinium avait une influence cruciale sur la diastéréosélectivité de la réaction. D’autres expériences sur la nature du groupe partant du réactif N-sulfonyloxycarbamate nous ont permis de postuler qu’une espèce nitrénoïde de rhodium était l’intermédiaire clé du processus d’amination. De plus, l’exploitation des techniques de chimie en débit continu nous a permis de développer une méthode d’amination de thioéthers et de sulfoxydes très performante, en utilisant les azotures comme source d’azote électrophile. Basée sur la décompositon photochimique d’azotures en présence d’un complexe de fer (III) simple et commercialement disponible, nous avons été en mesure de produire des sulfilimines et des sulfoximines avec d’excellents rendements. Le temps de résidence du procédé d’amination a pu être sensiblement réduit par la conception d’un nouveau type de réacteur photochimique capillaire. Ces améliorations techniques ont permis de rendre la synthèse plus productive, ce qui constitue un élément important d’un point de vue industriel.
Resumo:
Les travaux menés au LCPL depuis plusieurs année sur l'engraissement contrôlé de l'huître creuse Crassostrea gigas ont permis, à l'échelle expérimentale de définir les différents paramètres d'élevage: Température: 14°C ration alimentaire: 2.109 cell/ind/j de la diatomée Skeletonema costatum indice AFNOR initial sans incidence débit d'eau: 3 lIind/h eau de mer ou eau salée souterraine Dans ces conditions et après 30 jours d'engraissement, le poids total des huîtres a progressé de 10%, le poids sec de 230%, l'indice AFNOR de 80% et la concentration en glycogène de 450%. Le travail réalisé ici a pour but de transposer de l'échelle expérimentale à une échelle significative pour les professionnels, la technique d'engraissement contrôlé en utilisant l'eau salée souterraine pour la production de phytoplancton d'une part et comme vecteur de régulation thermique d'autre part. En effet, un des intérêts de l'utilisation de l'eau salée souterraine réside dans sa température constante de 14°C permettant un engraissement des huîtres en toute saison sans risque de déclenchement de la gamétogenèse. Afin de vérifier cette possibilité, l'étude a été réalisée au cours de deux saisons: printemps et automne. Pour l'eassai automnal, trois bassins de 8 m2 ont été utilisés, alimentés respectivement en eau de mer naturelle, eau de mer régulé en température par échange thermique avec de l'eau salée souterraine et eau salée souterraine traitée. Dans chaque bassin, 330 kg d'huîtres ont été disposées en 7 ruches de 4 clayettes. Pour l'essai printanier, seuls deux bassins ont été utilisés, alimentés en eau de mer thermorégulée à deux débits différents: 0.61/h et 3 lIh. L'étude a été conduite pour chaque saison sur une période de 35 jours. En automne 2000, l'indice de qualité de chair de 8.2 initialement, a atteint 12.5 en eau salée souterraine, 13.8 en eau de mer thermorégulée et 14.2 en eau de mer naturelle. Le poids de chair sèche passe de 0.9 g initialement à respectivement 2.32g, 2.39g et 2.37g. Les dosages de Pb, Cd, Hg, Mn et As ne montent pas d'évolution entre le début et la fin de l'élevage, par contre le Fe augmente sensiblement dans les huîtres sur eau salée souterraine traitée. En fin d'élevage, une période de stockage de 4 semaines des huîtres sans nourriture, n'a pas montré de perte de qualité. Au printemps 2001, un deuxième essai sera conduit pour vérifier les résultats obtenus à l'automne 2000, confirmer le choix du milieu d'élevage et proposer les éléments permettant d'approcher les coûts de production.
Resumo:
The French research EMACOP project aims at characterising wave power nearby onshore structures. This paper presents the application of the non-hydrostatic wave-flow model SWASH to wave propagation and transformation on two hot spots in Brittany. The numerical simulations were performed for dominant wave conditions and three tide levels. The results of wave simulations allow us to characterise wave energy resources and define Wave Energy Converters (WEC)'s promising positions on both sites.
Resumo:
This manuscript presents three approaches : analytical, experimental and numerical, to study the behaviour of a flexible membrane tidal energy converter. This technology, developed by the EEL Energy company, is based on periodic deformations of a pre-stressed flexible structure. Energy converters, located on each side of the device, are set into motion by the wave-like motion. In the analytical model, the membrane is represented by a linear beam model at one dimension and the flow by a 3 dimensions potential fluid. The fluid forces are evaluated by the elongated body theory. Energy is dissipated all over the length of the membrane. A 20th scale experimental prototype has been designed with micro-dampers to simulate the power take-off. Trials have allowed to validate the undulating membrane energy converter concept. A numerical model has been developed. Each element of the device is represented and the energy dissipation is done by dampers element with a damping law linear to damper velocity. Comparison of the three approaches validates their ability to represent the membrane behaviour without damping. The energy dissipation applied with the analytical model is clearly different from the two other models because of the location (where the energy is dissipated) and damping law. The two others show a similar behaviour and the same order of power take off repartition but value of power take off are underestimated by the numerical model. This three approaches have allowed to put forward key-parameters on which depend the behaviour of the membrane and the parametric study highlights the complementarity and the advantage of developing three approaches in parallel to answer industrial optimization problems. To make the link between trials in flume tank and sea trials, a 1/6th prototype has been built. To do so, the change of scale was studied. The behaviour of both prototypes is compared and differences could be explained by differences of boundary conditions and confinement effects. To evaluated membrane long-term behaviour at sea, a method of ageing accelerated by temperature and fatigue tests have been carried out on prototype materials samples submerged in sea water.
Resumo:
Les technologies numériques changent-elles vraiment la littérature? Peut-on parler d'une littérature numérique? Y a-t-il opposition entre la littérature papier et la littérature numérique? D'une part, on pourrait dire qu'il n'existe aucune opposition entre ces deux formes de littérature car, dans les faits, il n'y a que des pratiques qui s'inscrivent toujours dans une continuité. D'autre part, on pourrait affirmer qu'au contraire il y a des différences fondamentales dans les pratiques d'écritures, dans les modèles de diffusion et de réception, dans les formats, dans les supports, etc. Cet article explore ces deux perspectives.
Resumo:
Objectif: Examiner l’association entre l'exposition aux évènements stressants de la vie et le cancer du poumon. Méthodes: Les données proviennent d’une étude cas-témoins, menée chez les hommes et les femmes vivant dans la région métropolitaine de Montréal entre 1996 et 2001. Le cancer du poumon d’un cas éligible devait être confirmé histologiquement à l’un des 18 hôpitaux de cette région. Les témoins ont été sélectionnés aléatoirement de la liste électorale du Québec et ont été appariés au cas par fréquence de groupes d'âge et par sexe. Un questionnaire a été administré en entrevue pour recueillir les données, dont l’évaluation de huit évènements stressants de la vie par le participant. Si le participant avait vécu un évènement stressant ciblé durant les six dernières années, il devait aussi coter cet évènement sur une échelle de trois points. La régression logistique non conditionnelle a été utilisée pour estimer les rapports de cotes ainsi que leurs intervalles de confiance à 95%. Des analyses par sexe, niveau de tabagisme et par type histologique ont été réalisées. Nous avons aussi analysé l’association entre le cancer du poumon et le nombre total d'évènements, les évènements de perte et les évènements socioéconomiques, ainsi que chaque évènement individuellement. Les analyses des scores d'impact autoévalués et avec un score externe de perception, ont également été menées. Résultats: La population de ce projet comprend 1061 cas et 1422 témoins, âgés de 35 à 70 ans. Les participants inclus avaient répondu aux sections du questionnaire portant sur les facteurs de style de vie et sur l'historique de tabagisme. Dans l'ensemble, nous n’avons pas observé d’association entre le cancer du poumon et l'exposition aux évènements stressants de la vie. Nous avons observé une diminution du risque pour les évènements socioéconomiques autoévalués comme peu stressants (RC=0,50; IC 95%= 0,31 - 0,81). Conclusion: Nos résultats suggèrent que les évènements socioéconomiques sont associées à un risque réduit si ces évènements sont considérés comme peu stressant.
Resumo:
Le graphène est une nanostructure de carbone hybridé sp2 dont les propriétés électroniques et optiques en font un matériau novateur avec un très large potentiel d’application. Cependant, la production à large échelle de ce matériau reste encore un défi et de nombreuses propriétés physiques et chimiques doivent être étudiées plus en profondeur pour mieux les exploiter. La fonctionnalisation covalente est une réaction chimique qui a un impact important dans l’étude de ces propriétés, car celle-ci a pour conséquence une perte de la structure cristalline des carbones sp2. Néanmoins, la réaction a été très peu explorée pour ce qui est du graphène déposé sur des surfaces, car la réactivité chimique de ce dernier est grandement dépendante de l’environnement chimique. Il est donc important d’étudier la fonctionnalisation de ce type de graphène pour bien comprendre à la fois la réactivité chimique et la modification des propriétés électroniques et optiques pour pouvoir exploiter les retombées. D’un autre côté, les bicouches de graphène sont connues pour avoir des propriétés très différentes comparées à la monocouche à cause d’un empilement des structures électroniques, mais la croissance contrôlée de ceux-ci est encore très difficile, car la cinétique de croissance n’est pas encore maîtrisée. Ainsi, ce mémoire de maîtrise va porter sur l’étude de la réactivité chimique du graphène à la fonctionnalisation covalente et de l’étude des propriétés optiques du graphène. Dans un premier temps, nous avons effectué des croissances de graphène en utilisant la technique de dépôt chimique en phase vapeur. Après avoir réussi à obtenir du graphène monocouche, nous faisons varier les paramètres de croissance et nous nous rendons compte que les bicouches apparaissent lorsque le gaz carboné nécessaire à la croissance reste présent durant l’étape de refroidissement. À partir de cette observation, nous proposons un modèle cinétique de croissance des bicouches. Ensuite, nous effectuons une étude approfondie de la fonctionnalisation du graphène monocouche et bicouche. Tout d’abord, nous démontrons qu’il y a une interaction avec le substrat qui inhibe grandement le greffage covalent sur la surface du graphène. Cet effet peut cependant être contré de plusieurs façons différentes : 1) en dopant chimiquement le graphène avec des molécules réductrices, il est possible de modifier le potentiel électrochimique afin de favoriser la réaction; 2) en utilisant un substrat affectant peu les propriétés électroniques du graphène; 3) en utilisant la méthode d’électrogreffage avec une cellule électrochimique, car elle permet une modulation contrôlée du potentiel électrochimique du graphène. De plus, nous nous rendons compte que la réactivité chimique des bicouches est moindre dû à la rigidité de structure due à l’interaction entre les couches. En dernier lieu, nous démontrons la pertinence de la spectroscopie infrarouge pour étudier l’effet de la fonctionnalisation et l’effet des bicouches sur les propriétés optiques du graphène. Nous réussissons à observer des bandes du graphène bicouche dans la région du moyen infrarouge qui dépendent du dopage. Normalement interdites selon les règles de sélection pour la monocouche, ces bandes apparaissent néanmoins lorsque fonctionnalisée et changent grandement en amplitude dépendamment des niveaux de dopage et de fonctionnalisation.
Resumo:
La conscience de l’environnement d’affaires est définie comme l’ensemble des savoirs détenus par les employés non-cadres par rapport à l’environnement d’affaires interne et externe de leur organisation. Elle se manifeste lorsque l’employé est impliqué dans la prise de décision ou résolution de problème affectant l’entreprise. Ce travail a comme objectifs la validation d’une échelle de mesure du concept à l’étude, ainsi que la vérification de sa validité de construit et nomologique. L’ensemble initial d’items de l’échelle de mesure a été déterminé suite à des entrevues avec les employés d’organisations participantes (Gauvreau-Jean, 2008). L’ensemble initial de 40 items a été testé avec un échantillon de 508 employés d’une manufacture. Suite à des ajustements, l’échelle modifiée couvre quatre dimensions du construit. L’adéquation de son contenu a ensuite été mise à l’épreuve par deux groupes cibles et deux évaluations expertes (Lessard, 2014). Finalement, dans le cadre de notre étude, la validité du contenu et nomologique de l’échelle modifiée (contenant 24 items) a été testée avec 330 employés de première ligne de quatre entreprises. Les quatre dimensions du construit furent supportées, la fiabilité de l’échelle était haute, puis les hypothèses reliant la conscience de l’environnement avec les caractéristiques au travail, l’évaluation de la performance par un superviseur et l’engagement affectif furent supportées également. Un autre sondage complété par les gestionnaires (n=43) avait comme but une évaluation de la performance contextuelle des employés supervisés. Le développement de l’échelle à 24 items sur la conscience de l’environnement d’affaires pourrait répondre aux questions portant sur la participation de l’employé et l’efficacité organisationnelle.