979 resultados para non-thermal technologies


Relevância:

30.00% 30.00%

Publicador:

Resumo:

This thesis examines the effectiveness of non-coercive influence tactics in the context of consumer online behaviour. The objective of this study is to develop a comprehensive understanding of consumer online behaviour and the role of information types in affecting the consumer’s cognitive responses and behavioural outcomes. The theoretical part of the study examines the academic literature on consumer online behaviour and influence tactics used both in traditional buyer/seller relationships as well as in relationships mediated by online technologies. The empirical part of the study is carried out with four experiments that utilise non-coercive influence tactics to affect online consumer behaviour. The consumers included in this study are 18-28 year-old structural and civil engineering students in Finland, United Kingdom, United States and India. The findings suggest that non-coercive influence tactics are applicable in the online marketing context and generate cognitive responses of site awareness, site involvement and exploratory behaviour which subsequently results in behavioural outcomes of compliance, eWOM and site abandonment.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thesis: A liquid-cooled, direct-drive, permanent-magnet, synchronous generator with helical, double-layer, non-overlapping windings formed from a copper conductor with a coaxial internal coolant conduit offers an excellent combination of attributes to reliably provide economic wind power for the coming generation of wind turbines with power ratings between 5 and 20MW. A generator based on the liquid-cooled architecture proposed here will be reliable and cost effective. Its smaller size and mass will reduce build, transport, and installation costs. Summary: Converting wind energy into electricity and transmitting it to an electrical power grid to supply consumers is a relatively new and rapidly developing method of electricity generation. In the most recent decade, the increase in wind energy’s share of overall energy production has been remarkable. Thousands of land-based and offshore wind turbines have been commissioned around the globe, and thousands more are being planned. The technologies have evolved rapidly and are continuing to evolve, and wind turbine sizes and power ratings are continually increasing. Many of the newer wind turbine designs feature drivetrains based on Direct-Drive, Permanent-Magnet, Synchronous Generators (DD-PMSGs). Being low-speed high-torque machines, the diameters of air-cooled DD-PMSGs become very large to generate higher levels of power. The largest direct-drive wind turbine generator in operation today, rated just below 8MW, is 12m in diameter and approximately 220 tonne. To generate higher powers, traditional DD-PMSGs would need to become extraordinarily large. A 15MW air-cooled direct-drive generator would be of colossal size and tremendous mass and no longer economically viable. One alternative to increasing diameter is instead to increase torque density. In a permanent magnet machine, this is best done by increasing the linear current density of the stator windings. However, greater linear current density results in more Joule heating, and the additional heat cannot be removed practically using a traditional air-cooling approach. Direct liquid cooling is more effective, and when applied directly to the stator windings, higher linear current densities can be sustained leading to substantial increases in torque density. The higher torque density, in turn, makes possible significant reductions in DD-PMSG size. Over the past five years, a multidisciplinary team of researchers has applied a holistic approach to explore the application of liquid cooling to permanent-magnet wind turbine generator design. The approach has considered wind energy markets and the economics of wind power, system reliability, electromagnetic behaviors and design, thermal design and performance, mechanical architecture and behaviors, and the performance modeling of installed wind turbines. This dissertation is based on seven publications that chronicle the work. The primary outcomes are the proposal of a novel generator architecture, a multidisciplinary set of analyses to predict the behaviors, and experimentation to demonstrate some of the key principles and validate the analyses. The proposed generator concept is a direct-drive, surface-magnet, synchronous generator with fractional-slot, duplex-helical, double-layer, non-overlapping windings formed from a copper conductor with a coaxial internal coolant conduit to accommodate liquid coolant flow. The novel liquid-cooling architecture is referred to as LC DD-PMSG. The first of the seven publications summarized in this dissertation discusses the technological and economic benefits and limitations of DD-PMSGs as applied to wind energy. The second publication addresses the long-term reliability of the proposed LC DD-PMSG design. Publication 3 examines the machine’s electromagnetic design, and Publication 4 introduces an optimization tool developed to quickly define basic machine parameters. The static and harmonic behaviors of the stator and rotor wheel structures are the subject of Publication 5. And finally, Publications 6 and 7 examine steady-state and transient thermal behaviors. There have been a number of ancillary concrete outcomes associated with the work including the following. X Intellectual Property (IP) for direct liquid cooling of stator windings via an embedded coaxial coolant conduit, IP for a lightweight wheel structure for lowspeed, high-torque electrical machinery, and IP for numerous other details of the LC DD-PMSG design X Analytical demonstrations of the equivalent reliability of the LC DD-PMSG; validated electromagnetic, thermal, structural, and dynamic prediction models; and an analytical demonstration of the superior partial load efficiency and annual energy output of an LC DD-PMSG design X A set of LC DD-PMSG design guidelines and an analytical tool to establish optimal geometries quickly and early on X Proposed 8 MW LC DD-PMSG concepts for both inner and outer rotor configurations Furthermore, three technologies introduced could be relevant across a broader spectrum of applications. 1) The cost optimization methodology developed as part of this work could be further improved to produce a simple tool to establish base geometries for various electromagnetic machine types. 2) The layered sheet-steel element construction technology used for the LC DD-PMSG stator and rotor wheel structures has potential for a wide range of applications. And finally, 3) the direct liquid-cooling technology could be beneficial in higher speed electromotive applications such as vehicular electric drives.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Electric energy demand has been growing constantly as the global population increases. To avoid electric energy shortage, renewable energy sources and energy conservation are emphasized all over the world. The role of power electronics in energy saving and development of renewable energy systems is significant. Power electronics is applied in wind, solar, fuel cell, and micro turbine energy systems for the energy conversion and control. The use of power electronics introduces an energy saving potential in such applications as motors, lighting, home appliances, and consumer electronics. Despite the advantages of power converters, their penetration into the market requires that they have a set of characteristics such as high reliability and power density, cost effectiveness, and low weight, which are dictated by the emerging applications. In association with the increasing requirements, the design of the power converter is becoming more complicated, and thus, a multidisciplinary approach to the modelling of the converter is required. In this doctoral dissertation, methods and models are developed for the design of a multilevel power converter and the analysis of the related electromagnetic, thermal, and reliability issues. The focus is on the design of the main circuit. The electromagnetic model of the laminated busbar system and the IGBT modules is established with the aim of minimizing the stray inductance of the commutation loops that degrade the converter power capability. The circular busbar system is proposed to achieve equal current sharing among parallel-connected devices and implemented in the non-destructive test set-up. In addition to the electromagnetic model, a thermal model of the laminated busbar system is developed based on a lumped parameter thermal model. The temperature and temperature-dependent power losses of the busbars are estimated by the proposed algorithm. The Joule losses produced by non-sinusoidal currents flowing through the busbars in the converter are estimated taking into account the skin and proximity effects, which have a strong influence on the AC resistance of the busbars. The lifetime estimation algorithm was implemented to investigate the influence of the cooling solution on the reliability of the IGBT modules. As efficient cooling solutions have a low thermal inertia, they cause excessive temperature cycling of the IGBTs. Thus, a reliability analysis is required when selecting the cooling solutions for a particular application. The control of the cooling solution based on the use of a heat flux sensor is proposed to reduce the amplitude of the temperature cycles. The developed methods and models are verified experimentally by a laboratory prototype.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Quantum computation and quantum communication are two of the most promising future applications of quantum mechanics. Since the information carriers used in both of them are essentially open quantum systems it is necessary to understand both quantum information theory and the theory of open quantum systems in order to investigate realistic implementations of such quantum technologies. In this thesis we consider the theory of open quantum systems from a quantum information theory perspective. The thesis is divided into two parts: review of the literature and original research. In the review of literature we present some important definitions and known results of open quantum systems and quantum information theory. We present the definitions of trace distance, two channel capacities and superdense coding capacity and give a reasoning why they can be used to represent the transmission efficiency of a communication channel. We also show derivations of some properties useful to link completely positive and trace preserving maps to trace distance and channel capacities. With the help of these properties we construct three measures of non-Markovianity and explain why they detect non-Markovianity. In the original research part of the thesis we study the non-Markovian dynamics in an experimentally realized quantum optical set-up. For general one-qubit dephasing channels we calculate the explicit forms of the two channel capacities and the superdense coding capacity. For the general two-qubit dephasing channel with uncorrelated local noises we calculate the explicit forms of the quantum capacity and the mutual information of a four-letter encoding. By using the dynamics in the experimental implementation as a set of specific dephasing channels we also calculate and compare the measures in one- and two-qubit dephasing channels and study the options of manipulating the environment to achieve revivals and higher transmission rates in superdense coding protocol with dephasing noise. Kvanttilaskenta ja kvanttikommunikaatio ovat kaksi puhutuimmista tulevaisuuden kvanttimekaniikan käytännön sovelluksista. Koska molemmissa näistä informaatio koodataan systeemeihin, jotka ovat oleellisesti avoimia kvanttisysteemejä, sekä kvantti-informaatioteorian, että avointen kvanttisysteemien tuntemus on välttämätöntä. Tässä tutkielmassa käsittelemme avointen kvanttisysteemien teoriaa kvantti-informaatioteorian näkökulmasta. Tutkielma on jaettu kahteen osioon: kirjallisuuskatsaukseen ja omaan tutkimukseen. Kirjallisuuskatsauksessa esitämme joitakin avointen kvanttisysteemien ja kvantti-informaatioteorian tärkeitä määritelmiä ja tunnettuja tuloksia. Esitämme jälkietäisyyden, kahden kanavakapasiteetin ja superdense coding -kapasiteetin määritelmät ja esitämme perustelun sille, miksi niitä voidaan käyttää kuvaamaan kommunikointikanavan lähetystehokkuutta. Näytämme myös todistukset kahdelle ominaisuudelle, jotka liittävät täyspositiiviset ja jäljensäilyttävät kuvaukset jälkietäisyyteen ja kanavakapasiteetteihin. Näiden ominaisuuksien avulla konstruoimme kolme epä-Markovisuusmittaa ja perustelemme, miksi ne havaitsevat dynamiikan epä-Markovisuutta. Oman tutkimuksen osiossa tutkimme epä-Markovista dynamiikkaa kokeellisesti toteutetussa kvanttioptisessa mittausjärjestelyssä. Yleisen yhden qubitin dephasing-kanavan tapauksessa laskemme molempien kanavakapasiteettien ja superdense coding -kapasiteetin eksplisiittiset muodot. Yleisen kahden qubitin korreloimattomien ympäristöjen dephasing-kanavan tapauksessa laskemme yhteisen informaation lausekkeen nelikirjaimisessa koodauksessa ja kvanttikanavakapasiteetin. Käyttämällä kokeellisen mittajärjestelyn dynamiikkoja esimerkki dephasing-kanavina me myös laskemme konstruoitujen epä-Markovisuusmittojen arvot ja vertailemme niitä yksi- ja kaksi-qubitti-dephasing-kanavissa. Lisäksi käyttäen kokeellisia esimerkkikanavia tutkimme, kuinka ympäristöä manipuloimalla superdense coding –skeemassa voidaan saada yhteinen informaatio ajoittain kasvamaan tai saavuttaa kaikenkaikkiaan korkeampi lähetystehokkuus.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The application of technologies to extend the postharvest life of mangosteen fruit was studied and compared to storage at 25 °C/70-75%R.H (25 °C control treatment). The fruits were packed in expanded polystyrene (EPS) trays (5 fruits/tray). Five treatments were carried out at 13 °C/ 90-95% RH: application of carnauba wax coating, lecithin + CMC (carboxymethyl cellulose) coating, 50 µm LDPE (low density polyethylene) film coating, 13 µm PVC (Polyvinyl chloride), and non-coated sample (13 °C control treatment). Physicochemical analyses were performed twice a week. A statistical design was completely randomized with 8 repetitions for each treatment plus the control treatment. The results were submitted to variance analysis, and the averages compared by the Tukey test at 5% probability. Among the quality parameters analyzed, more significant differences were observed for weight loss, texture, and peel moisture content. The results showed that the maximum storage period for mangosteen at 25 °C is two weeks; while storage at13 °C can guarantee the conservation of this fruit for 25 days. Therefore, the treatment at 13 °C/90-95% RH without the use of coatings and films was more effective and economical.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Higher plants have evolved a well-conserved set of photoprotective mechanisms, collectively designated Non-Photochemical Quenching of chlorophyll fluorescence (qN), to deal with the inhibitory absorption of excess light energy by the photosystems. Their main contribution originates from safe thermal deactivation of excited states promoted by a highly-energized thylakoid membrane, detected via lumen acidification. The precise origins of this energy- or LlpH-dependent quenching (qE), arising from either decreased energy transfer efficiency in PSII antennae (~ Young & Frank, 1996; Gilmore & Yamamoto, 1992; Ruban et aI., 1992), from alternative electron transfer pathways in PSII reaction centres (~ Schreiber & Neubauer, 1990; Thompson &Brudvig, 1988; Klimov et aI., 1977), or from both (Wagner et aI., 1996; Walters & Horton, 1993), are a source of considerable controversy. In this study, the origins of qE were investigated in spinach thylakoids using a combination of fluorescence spectroscopic techniques: Pulse Amplitude Modulated (PAM) fluorimetry, pump-probe fluorimetry for the measurement of PSII absorption crosssections, and picosecond fluorescence decay curves fit to a kinetic model for PSII. Quenching by qE (,..,600/0 of maximal fluorescence, Fm) was light-induced in circulating samples and the resulting pH gradient maintained during a dark delay by the lumenacidifying capabilities of thylakoid membrane H+ ATPases. Results for qE were compared to those for the addition of a known antenna quencher, 5-hydroxy-1,4naphthoquinone (5-0H-NQ), titrated to achieve the same degree of Fm quenching as for qE. Quenching of the minimal fluorescence yield, F0' was clear (8 to 130/0) during formation of qE, indicative of classical antenna quenching (Butler, 1984), although the degree was significantly less than that achieved by addition of 5-0H-NQ. Although qE induction resulted in an overall increase in absorption cross-section, unlike the decrease expected for antenna quenchers like the quinone, a larger increase in crosssection was observed when qE induction was attempted in thylakoids with collapsed pH gradients (uncoupled by nigericin), in the absence of xanthophyll cycle operation (inhibited by DTT), or in the absence of quenching (LlpH not maintained in the dark due to omission of ATP). Fluorescence decay curves exhibited a similar disparity between qE-quenched and 5-0H-NQ-quenched thylakoids, although both sets showed accelerated kinetics in the fastest decay components at both F0 and Fm. In addition, the kinetics of dark-adapted thylakoids were nearly identical to those in qEquenched samples at F0' both accelerated in comparison with thylakoids in which the redox poise of the Oxygen-Evolving Complex was randomized by exposure to low levels of background light (which allowed appropriate comparison with F0 yields from quenched samples). When modelled with the Reversible Radical Pair model for PSII (Schatz et aI., 1988), quinone quenching could be sufficiently described by increasing only the rate constant for decay in the antenna (as in Vasil'ev et aI., 1998), whereas modelling of data from qE-quenched thylakoids required changes in both the antenna rate constant and in rate constants for the reaction centre. The clear differences between qE and 5-0H-NQ quenching demonstrated that qE could not have its origins in the antenna alone, but is rather accompanied by reaction centre quenching. Defined mechanisms of reaction centre quenching are discussed, also in relation to the observed post-quenching depression in Fm associated with photoinhibition.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Part I: Ultra-trace determination of vanadium in lake sediments: a performance comparison using O2, N20, and NH3 as reaction gases in ICP-DRC-MS Thermal ion-molecule reactions, targeting removal of specific spectroscopic interference problems, have become a powerful tool for method development in quadrupole based inductively coupled plasma mass spectrometry (ICP-MS) applications. A study was conducted to develop an accurate method for the determination of vanadium in lake sediment samples by ICP-MS, coupled with a dynamic reaction cell (DRC), using two differenvchemical resolution strategies: a) direct removal of interfering C10+ and b) vanadium oxidation to VO+. The performance of three reaction gases that are suitable for handling vanadium interference in the dynamic reaction cell was systematically studied and evaluated: ammonia for C10+ removal and oxygen and nitrous oxide for oxidation. Although it was able to produce comparable results for vanadium to those using oxygen and nitrous oxide, NH3 did not completely eliminate a matrix effect, caused by the presence of chloride, and required large scale dilutions (and a concomitant increase in variance) when the sample and/or the digestion medium contained large amounts of chloride. Among the three candidate reaction gases at their optimized Eonditions, creation of VO+ with oxygen gas delivered the best analyte sensitivity and the lowest detection limit (2.7 ng L-1). Vanadium results obtained from fourteen lake sediment samples and a certified reference material (CRM031-040-1), using two different analytelinterference separation strategies, suggested that the vanadium mono-oxidation offers advantageous performance over the conventional method using NH3 for ultra-trace vanadium determination by ICP-DRC-MS and can be readily employed in relevant environmental chemistry applications that deal with ultra-trace contaminants.Part II: Validation of a modified oxidation approach for the quantification of total arsenic and selenium in complex environmental matrices Spectroscopic interference problems of arsenic and selenium in ICP-MS practices were investigated in detail. Preliminary literature review suggested that oxygen could serve as an effective candidate reaction gas for analysis of the two elements in dynamic reaction cell coupled ICP-MS. An accurate method was developed for the determination of As and Se in complex environmental samples, based on a series of modifications on an oxidation approach for As and Se previously reported. Rhodium was used as internal standard in this study to help minimize non-spectral interferences such as instrumental drift. Using an oxygen gas flow slightly higher than 0.5 mL min-I, arsenic is converted to 75 AS160+ ion in an efficient manner whereas a potentially interfering ion, 91Zr+, is completely removed. Instead of using the most abundant Se isotope, 80Se, selenium was determined by a second most abundant isotope, 78Se, in the form of 78Se160. Upon careful selection of oxygen gas flow rate and optimization ofRPq value, previous isobaric threats caused by Zr and Mo were reduced to background levels whereas another potential atomic isobar, 96Ru+, became completely harmless to the new selenium analyte. The new method underwent a strict validation procedure where the recovery of a suitable certified reference material was examined and the obtained sample data were compared with those produced by a credible external laboratory who analyzed the same set of samples using a standardized HG-ICP-AES method. The validation results were satisfactory. The resultant limits of detection for arsenic and selenium were 5 ng L-1 and 60 ng L-1, respectively.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lors du 30è Congrès de l’Institut international de droit d’expression et d’inspiration françaises (IDEF), Le Caire, 16 au 18 décembre 2006, Pierre TRUDEL a présenté un rapport intitulé « L’encadrement normatif des technologies : une gestion réseautique des risques ». Cynthia Chassigneux, chercheure post-doctorale au CRDP a présenté un rapport sur le droit de la protection des données personnelles et de la vie privée dans le contexte de la généralisation des technologies de l’information. Jacques Frémont a prononcé le discours de présentation de la problématique générale du congrès.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction : L’effet biologique variable de l’aspirine a été attribué à un état de résistance pharmacologique. L’incidence de cette « résistance » varie selon la population ou la technologie étudiée. Méthodes : Nous avons déterminé la performance de 5 techniques évaluant l’effet de l’aspirine chez des sujets sains, non fumeurs et ne prenant aucune médication pouvant interférer avec la fonction plaquettaire. Des spécimens de sang et d’urine ont été obtenus avant et après 8-10 jours de prise de 80 mg d’aspirine. Résultats: Chez 45 sujets de 19-59 ans, la sensibilité (SE), la spécificité (SP), et la valeur optimale de coupure (CO) pour détecter l’effet de l’aspirine sont : agrégométrie par transmission optique induite avec 1,6 mM d’acide arachidonique (ATO-AA) - SE 100%, SP 95,9%, CO 20%; ATO-ADP 10 μM - SE 84,4%, SP 77,7%, CO 70%; VerifyNow® Aspirin - SE 100%, SP 95,6%, CO 550 ARU; agrégation en tube - SE 82,2%, SP 86,7%, CO 55%; TEG® - SE 82,9%, SP 75,8%, CO 90%; et le dosage de 11-dehydrothromboxane B2 urinaire - SE 62,2%, SP 82,2%, CO 60 pg/ml. Conclusions: La résistance à l’aspirine chez les sujets sains définie par ATO-AA et VerifyNow® Aspirin est rare. Puisque les autres techniques étudiées discriminent de façon sous optimale l’effet de l’aspirine, leur utilité dans la définition de la résistance pharmacologique à l’aspirine semble marginale. Ces résultats suggèrent qu’une proportion de la variabilité de l’incidence rapportée de “résistance à l’aspirine” est artefactuelle et reliée aux limitations technologiques de certaines analyses.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le présent mémoire se penche sur la constitutionnalité des articles 517 et 539 C.cr., qui prévoient des ordonnances de non-publication à l'enquête sur mise en liberté provisoire ainsi qu'à l'enquête préliminaire. L'auteur présente d'abord les modalités d'application de chacune de ces ordonnances. Suit ensuite un portrait de la jurisprudence sur la constitutionnalité de ces deux dispositions. L'auteur applique par la suite aux dispositions le test élaboré dans l'arrêt Oakes. Il conclut que l'objectif des dispositions, qui consiste à assurer un procès équitable à l'accusé, est urgent et réel. L'auteur constate ensuite que le critère du lien rationnel n'est pas satisfait puisque, ordonnance ou pas, les informations préjudiciables pour un accusé seront de toute façon dispersées dans le public, notamment grâce aux nouvelles technologies de l'information. À défaut de profiter d'informations fiables retransmises par les médias, le public devra se concentrer sur les rumeurs non vérifiables propagées par le Web. Le critère de l'atteinte minimale est également examiné. L'auteur estime que ni les récusations motivées, ni le changement de venue, ni les directives aux jurés ne sont en mesure de remplacer des ordonnances de non-publication. Enfin, l'auteur estime que les articles 517 et 539 C.cr. échouent le critère de proportionnalité entre les effets préjudiciables et les effets bénéfiques. En conclusion, comme alternative aux interdits de publication, l'auteur propose une réforme du processus de récusations motivées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Problématique : L’arrivée des tests de pharmacogénétique a été annoncée dans les médias et la littérature scientifique telle une révolution, un tournant vers la médecine personnalisée. En réalité, cette révolution se fait toujours attendre. Plusieurs barrières législatives, scientifiques, professionnelles et éthiques sont décrites dans la littérature comme étant la cause du délai de la translation des tests de pharmacogénétique, du laboratoire vers la clinique. Cet optimisme quant à l’arrivée de la pharmacogénétique et ces barrières existent-elles au Québec? Quel est le contexte de translation des tests de pharmacogénétique au Québec? Actuellement, il n’existe aucune donnée sur ces questions. Il est pourtant essentiel de les évaluer. Alors que les attentes et les pressions pour l’intégration rapide de technologies génétiques sont de plus en plus élevées sur le système de santé québécois, l’absence de planification et de mécanisme de translation de ces technologies font craindre une translation et une utilisation inadéquates. Objectifs : Un premier objectif est d’éclairer et d’enrichir sur les conditions d’utilisation et de translation ainsi que sur les enjeux associés aux tests de pharmacogénétique dans le contexte québécois. Un deuxième objectif est de cerner ce qui est véhiculé sur la PGt dans différentes sources, dont les médias. Il ne s’agit pas d’évaluer si la pharmacogénétique devrait être intégrée dans la clinique, mais de mettre en perspective les espoirs véhiculés et la réalité du terrain. Ceci afin d’orienter la réflexion quant au développement de mécanismes de translation efficients et de politiques associées. Méthodologie : L’analyse des discours de plusieurs sources documentaires (n=167) du Québec et du Canada (1990-2005) et d’entretiens avec des experts québécois (n=19) a été effectuée. Quatre thèmes ont été analysés : 1) le positionnement et les perceptions envers la pharmacogénétique; 2) les avantages et les risques reliés à son utilisation; 3) les rôles et les tensions entre professionnels; 4) les barrières et les solutions de translation. Résultats : L’analyse des représentations véhiculées sur la pharmacogénétique dans les sources documentaires se cristallise autour de deux pôles. Les représentations optimistes qui révèlent une fascination envers la médecine personnalisée, créant des attentes (« Génohype ») en regard de l’arrivée de la pharmacogénétique dans la clinique. Les représentations pessimistes qui révèlent un scepticisme (« Génomythe ») envers l’arrivée de la pharmacogénétique et qui semblent imprégnés par l’historique des représentations médiatiques négatives de la génétique. Quant à l’analyse des entretiens, celle-ci a permis de mettre en lumière le contexte actuel du terrain d’accueil. En effet, selon les experts interviewés, ce contexte comporte des déficiences législatives et un dysfonctionnement organisationnel qui font en sorte que l’utilisation des tests de pharmacogénétique est limitée, fragmentée et non standardisée. S’ajoute à ceci, le manque de données probantes et de dialogue entre des acteurs mal ou peu informés, la résistance et la crainte de certains professionnels. Discussion : Plusieurs changements dans la réglementation des systèmes d’innovation ainsi que dans le contexte d’accueil seront nécessaires pour rendre accessibles les tests de pharmacogénétique dans la pratique clinique courante. Des mécanismes facilitateurs de la translation des technologies et des facteurs clés de réussite sont proposés. Enfin, quelques initiatives phares sont suggérées. Conclusion : Des efforts au niveau international, national, provincial et local sont indispensables afin de résoudre les nombreux obstacles de la translation des tests de pharmacogénétique au Québec et ainsi planifier l’avenir le plus efficacement et sûrement possible.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche part du constat de l’utilisation des nouvelles technologies qui se généralise dans l’enseignement universitaire (tant sur campus qu’en enseignement à distance), et traite cette question sous trois aspects institutionnel, pédagogique et technologique. La recherche a été menée à travers quinze universités canadiennes où nous avons interrogé vingt-quatre universitaires, nommément des responsables de centres de pédagogie universitaire et des experts sur la question de l’intégration des technologies à l’enseignement universitaire. Pour le volet institutionnel, nous avons eu recours à un cadre théorique qui met en relief le changement de structure et de fonctionnement des universités à l’ère d’Internet, suivant le modèle théorique de l’Open System Communications Net de Kershaw et Safford (1998, 2001). Les résultats, à l’aune de ce modèle, confirment que les universités conventionnelles sont dans une phase de transformation due à l’utilisation des technologies de l'information et de la communication (TIC). De plus, les cours hybrides, la bimodalité, des universités entièrement à distance visant une clientèle estudiantine au-delà des frontières régionales et nationales, des universités associant plusieurs modèles, des universités fonctionnant à base d’intelligence artificielle, sont les modèles principaux qui ont la forte possibilité de s’imposer dans le paysage universitaire nord-américain au cours des prochaines décennies. Enfin, à la lumière du modèle théorique, nous avons exploré le rôle de l’université, ainsi en transformation, au sein de la société tout comme les rapports éventuels entre les institutions universitaires. S’agissant de l’aspect pédagogique, nous avons utilisé une perspective théorique fondée sur le modèle du Community of Inquiry (CoI) de Garrison, Anderson et Archer (2000), revu par Vaughan et Garrison (2005) et Garrison et Arbaugh (2007) qui prône notamment une nouvelle culture de travail à l’université fondée sur trois niveaux de présence. Les résultats indiquent l’importance d’éléments relatifs à la présence d’enseignement, à la présence cognitive et à la présence sociale, comme le suggère le modèle. Cependant, la récurrence -dans les trois niveaux de présence- de certains indicateurs, suggérés par les répondants, tels que l’échange d’information, la discussion et la collaboration, nous ont amenés à conclure à la non-étanchéité du modèle du CoI. De plus, certaines catégories, de par leur fréquence d’apparition dans les propos des interviewés, mériteraient d’avoir une considération plus grande dans les exigences pédagogiques que requiert le nouveau contexte prévalant dans les universités conventionnelles. C’est le cas par exemple de la catégorie « cohésion de groupe ». Enfin, dans le troisième volet de la recherche relatif à la dimension technologique, nous nous sommes inspirés du modèle théorique d’Olapiriyakul et Scher (2006) qui postule que l’infrastructure dans l’enseignement doit être à la fois une technologie pédagogique et une technologie d’apprentissage pour les étudiants (instructional technology and student learning technology). Partant de cette approche, le volet technologique de notre recherche a consisté à identifier les fonctionnalités exigées de la technologie pour induire une évolution institutionnelle et pédagogique. Les résultats à cet égard ont indiqué que les raisons pour lesquelles les universités choisissent d’intégrer les TIC à l’enseignement ne sont pas toujours d’ordre pédagogique, ce qui explique que la technologie elle-même ne revête pas forcément les qualités a priori requises pour une évolution pédagogique et institutionnelle. De ce constat, les technologies appropriées pour une réelle évolution pédagogique et institutionnelle des universités ont été identifiées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’évolution technologique et l'accroissement de la population vieillissante sont deux tendances majeures de la dernière décennie. Durant cette période, la prolifération ubiquitaire de la téléphonie mobile a changé les habitudes de communication des gens. Le changement constant des appareils téléphoniques portatifs, l'augmentation des fonctions, la diversité iconographique, la variété des interfaces et la complexité de navigation exigent aujourd’hui non seulement plus de temps d'adaptation et d’apprentissage, mais représentent aussi un effort cognitif important. Les technologies d'information et de communication (TIC) sont devenues des outils incontournables de la vie moderne. Pour les personnes âgées, cet univers en perpétuelle mutation avec ces nouveaux appareils représente un obstacle à l’accès à l’information et contribue ainsi au gap générationnel. Le manque de référence et de soutien et les déficiences physiques ou cognitives, que certaines personnes développent en vieillissant, rendent l'usage de ce type d’objet souvent impossible. Pourtant, les produits intelligents plus accessibles, tant au niveau physique que cognitif sont une réelle nécessité au sein de notre société moderne permettant aux personnes âgées de vivre de manière plus autonome et « connectée ». Cette recherche a pour but d'exposer les défis d'usage des téléphones portables existants et d'identifier en particulier les problèmes d’usage que les personnes âgées manifestent. L’étude vise la tranche de population qui est peu habituée aux technologies de communications qui ne ciblent le plus souvent que les plus jeunes et les professionnels. C’est en regardant les habitudes d’usage, que la recherche qualitative nous permettra d’établir un profil des personnes âgées par rapport au TIC et de mieux comprendre les défis liés à la perception, compréhension et l’usage des interfaces de téléphones portables.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’application des métaux de transition à la fonctionnalisation directe a ouvert la voie à une nouvelle classe de réactions pour la formation de liens carbone-carbone. De par l'omniprésence des liaisons C–H, l’introduction de nouvelles fonctionnalités chimiques par voie directe et pré-activation minimale s’impose comme une stratégie de synthèse très attrayante. Ainsi, il est envisageable de préparer de manière rapide et efficace des supports complexes menant à des molécules complexes, qui pourraient être utiles dans divers domaines de la chimie. L'objectif principal de la présente thèse vise la fonctionnalisation directe des arènes hétérocycliques et non hétérocycliques et, plus précisément, les techniques d’arylation. Dans un premier temps, nous allons aborder le thème de l’arylation directe tout en mettant l’accent sur les pyridines (Chapitre 1). Ces molécules sont à la base d'une multitude de composés biologiquement actifs et jouent un rôle important dans le domaine des sciences des matériaux, de l’agrochimie et de la synthèse des produits naturels. Dans un deuxième temps, nous discuterons de nos travaux sur l’arylation directe catalysé par un complex de palladium sur des ylures de N-iminopyridinium en soulignant la dérivatisation du sel de pyridinium après une phénylation sp2 (Chapitre 2). L’étude de ce procédé nous a permis de mettre en lumière plusieurs découvertes importantes, que nous expliquerons en détails une à une : l’arylation benzylique directe lorsque des ylures N-iminopyridinium substituées avec un groupement alkyl à la position 2 sont utilisés comme partenaires dans la réaction; les allylations Tsuji-Trost catalysée par un complex de palladium; et l’alkylation directe et sans métal via une catalyse par transfert de phase. Plusieurs défis restent à relever pour le développement de procédés directs utilisant des métaux de transition peu coûteux, d’autant plus que la synthèse par transformation directe des pyridines 2-alcényles, lesquelles sont pertinentes sur le plan pharmacologique, n’a pas encore été rapportée à ce jour. Avec cette problématique en tête, nous avons réussi à mettre au point une alcénylation directe catalysé par un complex de cuivre sur des ylures de N-iminopyridinium. Nous discuterons également d’une nouvelle méthode pour la préparation des iodures de vinyle utilisés dans les couplages. Ces réactions sont non seulement remarquablement chimiosélectives, mais sont aussi applicables à plusieurs substrats (Chapitre 3). En optimisant ce procédé direct, nous avons découvert une façon unique de synthétiser les pyrazolo[1,5-a]pyridines 2-substituées (Chapitre 4). Le mécanisme global met en jeu une séquence tandem de fonctionnalisation-cyclisation directe et un procédé direct en cascade, qui n’avais jamais été rapporté. Cela simplifie ansi la synthèse autrement compliquée de ces substrats en y apportant une solution à un problème de longue date. Dans les deux derniers chapitres, nous examinerons en détail les techniques d’arylation directe qui n'impliquent pas les partenaires de couplage hétérocycliques. Entre autres, au Chapitre 5, nous soulignerons notre découverte d’un umpolung dirigé et catalysé par un complexe de palladium du benzène et de quelques autres dérivés arènes. Il s’agit là du premier cas de fonctionnalisation directe dans laquelle le groupe directeur se trouve sur le partenaire halogène et il s’ajoute à la courte liste d’exemples connus dans la littérature rapportant une arylation directe du benzène. Finalement, au Chapitre 6, nous passerons en revue une nouvelle arylation directe catalysée au fer, qui se veut un procédé peu coûteux, durable et présentant une économie d’atomes. Nous discutons des substrats possibles ainsi des études mécanistiques réalisés.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’objectif général de cette recherche doctorale est l’étude des déterminants de l’intégration pédagogique des technologies de l’information et de la communication (TIC) par les professeurs à l’Université de Ouagadougou (UO). Cela nous a conduit à étudier respectivement les compétences technologiques des professeurs, les facteurs de résistance contraignant l’intégration pédagogique des TIC par ces professeurs, l’acceptation et les usages spécifiques des TIC par les professeurs. Ce travail s’est bâti autour des concepts théoriques sur les usages éducatifs des TIC, les compétences technopédagogiques, les facteurs de résistance, l’acceptation des TIC et l’intégration pédagogique des TIC. Ces concepts se sont inscrits dans les cadres d’analyses des modèles d’intégration des TIC par les professeurs et des modèles d’acceptation et d’utilisation d’une nouvelle technologie. La stratégie d’analyse des données s’est construite autour des approches descriptives et analytiques notamment au moyen de l’utilisation de la psychométrie et/ou de l’économétrie des modèles à variables dépendantes limitées. Utilisant la recherche quantitative, le recrutement de 82 professeurs par avis de consentement à participer, a permis de collecter les données sur la base de questionnaires dont la majeure partie est bâtie autour de questions à échelle de Likert. L’étude des compétences technologiques des professeurs a permis d’une part, de dresser un portrait des usages des TIC par les professeurs. En effet, les usages les plus répandus des TIC dans cette université sont les logiciels de bureautique, les logiciels de messagerie électronique et de navigation dans Internet. Elle a aussi permis de faire un portrait des compétences technologiques des professeurs. Ceux-ci utilisent à la fois plusieurs logiciels et reconnaissent l’importance des TIC pour leurs tâches pédagogiques et de recherche même si leur degré de maîtrise perçue sur certaines des applications télématiques reste à des niveaux très bas. Par rapport à certaines compétences comme celles destinées à exploiter les TIC dans des situations de communication et de collaboration et celles destinée à rechercher et à traiter des informations à l’aide des TIC, les niveaux de maîtrise par les professeurs de ces compétences ont été très élevés. Les professeurs ont eu des niveaux de maîtrise très faibles sur les compétences destinées à créer des situations d’apprentissage à l’aide des TIC et sur celles destinées à développer et à diffuser des ressources d’apprentissage à l’aide des TIC malgré la grande importance que ceux-ci ont accordée à ces compétences avancées essentielles pour une intégration efficace et efficiente des TIC à leurs pratiques pédagogiques. L’étude des facteurs de résistance a permis d’ériger une typologie de ces facteurs. Ces facteurs vont des contraintes matérielles et infrastructurelles à celles liées aux compétences informatiques et à des contraintes liées à la motivation et à l’engagement personnel des professeurs, facteurs pouvant susciter des comportements de refus de la technologie. Ces facteurs sont entre autres, la compatibilité des TIC d’avec les tâches pédagogiques et de recherche des professeurs, l’utilité perçue des TIC pour les activités pédagogiques et de recherche, les facilités d’utilisation des TIC et la motivation ou l’engagement personnel des professeurs aux usages des TIC. Il y a aussi les coûts engendrés par l’accès aux TIC et le manque de soutien et d’assistance technique au plan institutionnel qui se sont révelés enfreindre le développement de ces usages parmi les professeurs. Les estimations des déterminants de l’acceptation et des usages éducatifs des TIC par les professeurs ont montré que c’est surtout « l’intention comportementale » d’aller aux TIC des professeurs, « l’expérience d’Internet » qui affectent positivement les usages éducatifs des TIC. Les « conditions de facilitation » qui représentent non seulement la qualité de l’infrastructure technologique, mais aussi l’existence d’un soutien institutionnel aux usages des TIC, ont affecté négativement ces usages. Des éléments de recommandation issus de ce travail s’orientent vers la formation des professeurs sur des compétences précises identifiées, l’amélioration de la qualité de l’infrastructure technologique existante, la création d’un logithèque, la mise en œuvre d’incitations institutionnelles adéquates telles que l’assistance technique régulière aux professeurs, l’allègement des volumes horaires statutaires des professeurs novateurs, la reconnaissance des efforts déjà réalisés par ces novateurs en matière d’usages éducatifs des TIC dans leur institution.