798 resultados para CURRENT LIMITER
Resumo:
The information technology (IT) industry has recently witnessed the proliferation of cloud services, which have allowed IT service providers to deliver on-demand resources to customers over the Internet. This frees both service providers and consumers from traditional IT-related burdens such as capital and operating expenses and allows them to respond rapidly to new opportunities in the market. Due to the popularity and growth of cloud services, numerous researchers have conducted studies on various aspects of cloud services, both positive and negative. However, none of those studies have connected all relevant information to provide a holistic picture of the current state of cloud service research. This study aims to investigate that current situation and propose the most promising future directions. In order to determine achieve these goals, a systematic literature review was conducted on studies with a primary focus on cloud services. Based on carefully crafted inclusion criteria, 52 articles from highly credible online sources were selected for the review. To define the main focus of the review and facilitate the analysis of literature, a conceptual framework with five main factors was proposed. The selected articles were organized under the factors of the proposed framework and then synthesized using a narrative technique. The results of this systematic review indicate that the impacts of cloud services on enterprises were the factor best covered by contemporary research. Researchers were able to present valuable findings about how cloud services impact various aspects of enterprises such as governance, performance, and security. By contrast, the role of service provider sub-contractors in the cloud service market remains largely uninvestigated, as do cloud-based enterprise software and cloud-based office systems for consumers. Moreover, the results also show that researchers should pay more attention to the integration of cloud services into legacy IT systems to facilitate the adoption of cloud services by enterprise users. After the literature synthesis, the present study proposed several promising directions for cloud service research by outlining research questions for the underexplored areas of cloud services, in order to facilitate the development of cloud service markets in the future.
Resumo:
In this bachelor’s thesis are examined the benefits of current distortion detection device application in customer premises low voltage networks. The purpose of this study was to find out if there are benefits for measuring current distortion in low-voltage residential networks. Concluding into who can benefit from measuring the power quality. The research focuses on benefits based on the standardization in Europe and United States of America. In this research, were also given examples of appliances in which current distortion detection device could be used. Along with possible illustration of user interface for the device. The research was conducted as an analysis of the benefits of current distortion detection device in residential low voltage networks. The research was based on literature review. The study was divided to three sections. The first explain the reasons for benefitting from usage of the device and the second portrays the low-cost device, which could detect one-phase current distortion, in theory. The last section discuss of the benefits of usage of current distortion detection device while focusing on the beneficiaries. Based on the result of this research, there are benefits from usage to the current distortion detection device. The main benefitting party of the current distortion detection device was found to be manufactures, as they are held responsible of limiting the current distortion on behalf of consumers. Manufactures could adjust equipment to respond better to the distortion by having access to on-going current distortion in network. The other benefitting party are system operators, who would better locate distortion issues in low-voltage residential network to start prevention of long-term problems caused by current distortion early on.
Resumo:
Individuals with disabiliiies are increasingly accessing post secondary education opportunities to further develop their educational and career goals. This study examines the current facilitative practices of Canadian university activity-based physical education degree programs on the participation of individuals with disabilities. A critical orientation and descriptive/interpretative approach allows insight into unique stories and experiences of physical education practitioners and special needs professionals as they attempt to provide equitable educational experiences within a least restrictive environment. Leading practitioners are used to triangulate and strengthen the validity of the data while providing direction and advocacy for future development and inclusion of individuals with disabilities. The study concludes with seven recommendations, each providing university activity-based physical education degree programs with viable opportunities for helping create equitable opportunities for individuals with disabilities.
Resumo:
Improvements have been made on the currently available hydride generator system manufactured by SpectraMetrics Incorporated, because the system was found to be unsatisfactory with respect to the following: 1. the drying agent, anhydrous calcium chloride, 2. the special sample tube, 3. the direction of argon flow through the Buchner funnel when it came to dealing with real sample, that is, with reference only to aqueous extracts of soil samples. Changes that were made on the system included the replacement of anhydrous calcium chloride with anhydrous calcium sulphate and the replacement of the special sample tube with a modified one made from silica. Re-directing the flow of argon through the top of the Buchner funnel appeared to make the system compatible with aqueous extracts of soil samples. The interferences from 1000 ~g/mL of nickel(II) , cobalt(II), iron(III), copper(II) have been eliminated with the aid of 1.4 M hydrochloric acid and 1% (weight/volume) L-cystine. Greater than 90% recovery of 0.3 ~g/mL arsenic signal was achieved in each case. Furthermore, 103% of arsenic signal was accomplished in the presence of 1000 ~g/mL cadmium with 5 M Hel. tVhen each of the interferents was present in solution at 1000 ppm, a recovery of 85% was achieved by using 5 M hydrochloric acid and 3% (weight/volume) L-cystine. Without L-cystine and when 1.4 M hydrochloric acid was used, the recoveries were 0% (Ni), 0% (Co), 88% (Fe), 15% (Cu), 18% (Cd). Similarly, a solution containing 1000 ppm of each interferent gave a zero percent recovery of arsenic. The reduction of trivalent and pentavalent arsenic at a pH less than one has also been investigated and shown to be quantitative if peak areas are measured. The reproducibility determination of a 0.3 Vg/mL standard arsenic solution by hydride generation shows a relative standard deviation of 3.4%. The detection limits with and without Porapak Q have been found to be 0.6 ng/mL and 1.0 ng/mL, respectively.
Resumo:
Abstract This descriptive study sought to identify the similarities and differences between the various educational institutions offering therapeutic recreation curriculum across Canada. The study utilized mixed methods, including open and closed-ended questions on a survey and document analysis. The research participants were from 14 educational institutions located across the nation. Results from this study identify similarities and differences in the curriculum used to prepare students pursuing a career in the TR field. Core competencies and standards of practice for the field of therapeutic recreation were defined and discussed. Accreditation and the accrediting bodies in the field of TR are reviewed because of their significant impact on curriculum. Implications regarding certification and regulation pertaining to the education for therapeutic recreation practitioners were discussed along with suggestions for future research.
Resumo:
This study sought to explore the current state of Grades 4 to 8 science education in Ontario from the perspective of Junior/Intermediate (J/I) teachers. The study’s methodology was a sequential 2-phased mixed methods explanatory design denoted as QUAN (qual) qual. Data were collected from an online survey and follow-up interviews. J/I teachers (N = 219) from 48 school boards in Ontario completed a survey that collected both quantitative and qualitative data. Interviewees were selected from the survey participant population (n = 6) to represent a range of teaching strategies, attitudes toward teaching science, and years of experience. Survey and interview questions inquired about teacher attitudes toward teaching science, academic and professional experiences, teaching strategies, support resources, and instructional time allotments. Quantitative data analyses involved the descriptive statistics and chi-square tests. Qualitative data was coded inductively and deductively. Academic background in science was found to significantly influence teachers’ reported level of capability to teach science. The undergraduate degrees held by J/I science teachers were found to significantly influence their reported levels of capability to teach science. Participants identified a lack of time allocated for science instruction and inadequate equipment and facilities as major limitations on science instruction. Science in schools was reported to be of a “second-tiered” value to language and mathematics. Implications of this study include improving undergraduate and preservice experiences of elementary teachers by supporting their science content knowledge and pedagogical content knowledge.
Resumo:
Ce livre est la conclusion d’un projet de recherche de deux ans portant sur les technologies en génétique humaine. Les développements récents en matière de collecte, d’analyse et de conservation du matériel génétique ont soulevé des questions juridiques complexes et ont attiré l’attention de plusieurs avocats, scientifiques et du public. Ce livre présente une analyse de ces questions et une comparaison de la position et de la politique canadienne avec celle en émergence dans divers pays
Resumo:
This paper studies a dynamic-optimizing model of a semi-small open economy with sticky nominal prices and wages. the model exhibits exchange rate overshooting in response to money supply shocks. the predicted variability of nominal and real exchange rates is roughly consistent with that of G7 effective exchange rates during the post-Bretton Woods era.
Resumo:
"Mémoire présenté à la faculté des études supérieures en vue de l'obtention du grade de Maîtrise en droit (LL.M.)". Ce mémoire a été accepté à l'unanimité et classé parmi les 10% des mémoires de la discipline.
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maîtrise en droit (LL.M) option droit des affaires"
Resumo:
Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.
Resumo:
Turbulences et changements institutionnels au sein de la Société internationale : une perspective historique Cette recherche puise ses origines du constat que la présente société internationale apparaît plus que jamais mal outillée et en perte de légitimité pour gérer les nouveaux déséquilibres qui ébranlent sa sécurité. Nous voulons vérifier si les présentes difficultés à gérer l’ordre interétatique sont des signes précurseurs d’une période de turbulences systémiques qui ébranleraient ses fondations. Nous avançons comme principale hypothèse de recherche qu’une perte de légitimité dans les mécanismes d’ordre d’une société westphalienne engendre une période plus ou moins longue de turbulences systémiques, provoquant un retour à l’antihégémonie caractérisée par l’établissement d’un nouvel ordre sociétal. Pour vérifier cette hypothèse, nous nous associons au cadre théorique de l’École anglaise qui analyse les relations interétatiques en qualifiant le caractère de l’ordre qui les gouverne. Ses adeptes y parviennent en étudiant les forces qui engendrent le maintien d’un environnement international antihégémonique, ainsi que la nature des réciprocités interétatiques qui s’en dégage. Ainsi, en observant les diverses institutions créées pour gérer l’ordre, ils sont en mesure de mieux comprendre l’évolution, la diffusion et la pérennisation de l’établissement d’une société des États. Cette approche nous a permis de construire un modèle explicatif pour notre dynamique sociétale. Par la suite, afin de répondre à notre questionnement initial, nous proposons d’analyser le statut de diverses sociétés internationales lors d’époques caractérisées par une période systémique de grands chaos, suivie du retour d’un régime sociétal. Nous cherchons à établir si des analogies peuvent être faites sur leur processus de transformation pour, par la suite, vérifier si elles peuvent s’appliquer à la nature du changement qui s’opère dans la présente société internationale. L’analyse historique comparative s’avère un instrument tout désigné pour ce type de recherche. Les époques sélectionnées pour notre recherche couvrent la Guerre de Trente Ans, les Guerres napoléoniennes et la Première Guerre mondiale. La nature antihégémonique d’une société des États, en plus de maintenir un environnement anarchique, crée un climat de rivalités qui entraîne un processus de transformations dans la dynamique de l’ordre. Ce facteur de changement fut introduit sous le concept de progrès sociétal, lequel engendre une désuétude institutionnelle dans les mécanismes de l’ordre sociétal, pouvant entraîner une période de turbulences systémiques. Ainsi, pour mieux observer ce phénomène, nous avons adopté les institutions comme outils d’analyse. Elles nous permettent d’être plus critiques des phénomènes observés, tout en nous autorisant à les comparer entre elles, en raison de leur longévité. Nos recherches révèlent la pérennité d’une dynamique de transformation au sein des sociétés westphaliennes, dont la nature entraîne des déséquilibres sociétaux qui varient selon son intensité. Nous observons aussi que, malgré l’égalité légale que confère la souveraineté aux États, les Grandes puissances sont les principaux artisans d’un système international. Leur aptitude à l’unilatéralisme fut souvent associée à l’émergence de turbulences systémiques. Nos recherches montrent que l’interdépendance et la coopération interétatique sont aussi alimentées par la diffusion et le partage d’une économie libérale. C’est aussi cette même interdépendance qui, progressivement, rend la guerre entre Grandes puissances désuète. Plus l’interdépendance et le multilatéralisme s’intensifient dans un environnement sociétal, plus le progrès sociétal a tendance à se manifester sous les aspects d’une transformation systémique progressive (non violente) plutôt que révolutionnaire (période de turbulences systémiques). La présente société internationale est sous l’influence du progrès sociétal depuis son avènement. Sa stabilité est directement liée à la capacité de ses mécanismes d’ordre à contrer les déséquilibres que le progrès engendre, ainsi qu’à l’aptitude de ses Grandes puissances à limiter leur propension à l’unilatéralisme. Donc, ces mécanismes doivent pouvoir intégrer le progrès pour maintenir leur légitimité et éviter d’engendrer une période de turbulences systémiques.
Resumo:
Le réseau de distribution aérien, ou plus simplement le réseau de poteaux de bois et ses câbles, est encore aujourd’hui omniprésent dans la majorité des villes du Québec. Pour plusieurs, le réseau de poteaux d’utilité publique semble appartenir à une autre époque. Pourtant, les poteaux et câbles ne sont pas près de disparaître, au contraire, ils ne cessent de se transformer. Depuis peu, de plus en plus d’équipements s’ajoutent sur le réseau: boîtiers techniques, nombre de câbles, appareillages au sommet des poteaux, antennes de communication, etc. Bien que les équipements du réseau de distribution aérien soient des éléments produits industriellement, ceux-ci intègrent rarement les services du design industriel au moment de leur conception initiale. Cette recherche étudie le système de distribution aérien sous l’angle de la « pensée design ». L’intention de cette étude est d’analyser les impacts de la présence du réseau aérien en milieux urbains et a pour objectif d’orienter les pratiques de conception de ce type d’équipements. Pour ce faire, dans une optique transdisciplinaire, diverses approches ont été sollicitées dont: l’approche systémique, l’approche paysage et les approches des partenaires des réseaux. Au moyen d’une recherche documentaire et d’observations faites sur le terrain, la recherche vise à dresser un portrait général du réseau de distribution aérien et les défis qui y sont associés. La recherche expose, dans un état des lieux, les résultats issus des questions analytiques de recherche suivantes: de quoi est composé le réseau de distribution aérien, quels sont les intervenants sur le réseau, quelles sont leurs interactions, quels sont les points de vue des différentes catégories d’acteurs en relation avec le réseau, quels sont les impacts reliés à la présence du réseau en milieux urbains et quelle a été son évolution au fil des années. Dans la perspective de l’approche design, chercher à comprendre une problématique de façon plus large permet de s’assurer que l’on répond au bon problème, que l’on considère tous les facteurs en cause visant ainsi à réduire les répercussions négatives sur les contextes de vie actuels et futurs. Les principaux constats de cette recherche démontrent que la composition du réseau de distribution, avant même de considérer les nouveaux usages et l’ajout de nouveaux équipements, présente des lacunes importantes. La gestion entre les divers partenaires du réseau de distribution pose aussi problème. L’ajout de nouveaux équipements sur le réseau, combiné aux multiples équipements apparaissant sur les voies publiques laisse entrevoir l’atteinte d’un niveau de saturation des milieux urbains. Les façons de faire hermétiques et «cristallisées» des partenaires du réseau ne collent pas avec les initiatives et aspirations générales en matière d’aménagement. En étudiant la problématique du réseau de distribution par le biais de la pensée design, l’approche design cherche à déceler, de façon proactive, les opportunités de design qui permettront de mieux gérer l’apparition et l’intégration des nouveaux équipements sur les poteaux. Cette démarche permet d’envisager des solutions qui visent à limiter les répercussions collatérales une fois en contexte et qui, du même coup, adressent des problématiques connexes. Finalement, à la lumière de l’état des lieux, cette recherche propose des critères de conception de futurs réseaux de distribution, élaborés dans l’esprit de l’approche design.
Resumo:
L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués.
Resumo:
L’inflammation: Une réponse adaptative du système immunitaire face à une insulte est aujourd’hui reconnue comme une composante essentielle à presque toutes les maladies infectieuses ou autres stimuli néfastes, tels les dommages tissulaires incluant l’infarctus du myocarde et l’insuffisance cardiaque. Dans le contexte des maladies cardiovasculaires, l’inflammation se caractérise principalement par une activation à long terme du système immunitaire, menant à une faible, mais chronique sécrétion de peptides modulateurs, appelés cytokines pro-inflammatoires. En effet, la littérature a montré à plusieurs reprises que les patients souffrant d’arythmies et de défaillance cardiaque présentent des taux élevés de cytokines pro-inflammatoires tels le facteur de nécrose tissulaire alpha (TNFα), l’interleukine 1β (IL-1β) et l’interleukine 6. De plus, ces patients souffrent souvent d’une baisse de la capacité contractile du myocarde. Le but de notre étude était donc de déterminer si un lien de cause à effet existe entre ces phénomènes et plus spécifiquement si le TNFα, l’IL-1β et l’IL-6 peuvent affecter les propriétés électriques et contractiles du cœur en modulant le courant Ca2+ de type L (ICaL) un courant ionique qui joue un rôle primordial au niveau de la phase plateau du potentiel d’action ainsi qu’au niveau du couplage excitation-contraction. Les possibles méchansimes par lesquels ces cytokines exercent leurs effets seront aussi explorés. Pour ce faire, des cardiomyocytes ventriculaires de souris nouveau-nées ont été mis en culture et traités 24 heures avec des concentrations pathophysiologiques (30 pg/mL) de TNFα, IL-1β ou IL-6. Des enregistrements de ICaL réalisés par la technique du patch-clamp en configuration cellule entière ont été obtenus par la suite et les résultats montrent que le TNFα n’affecte pas ICaL, même à des concentrations plus élevées (1 ng/mL). En revanche, l’IL-1β réduisait de près de 40% la densité d’ICaL. Afin d’examiner si le TNFα et l’IL-1β pouvaient avoir un effet synergique, les cardiomyocytes ont été traité avec un combinaison des deux cytokines. Toutefois aucun effet synergique sur ICaL n’a été constaté. En outre, l’IL-6 réduisait ICaL significativement, cependant la réduction de 20% était moindre que celle induite par IL-1β. Afin d’élucider les mécanismes sous-jacents à la réduction de ICaL après un traitement avec IL-1β, l’expression d’ARNm de CaV1.2, sous-unité α codante pour ICaL, a été mesurée par qPCR et les résultats obtenus montrent aucun changement du niveau d’expression. Plusieurs études ont montré que l’inflammation et le stress oxydatif vont de pair. En effet, l’imagerie confocale nous a permis de constater une augmentation accrue du stress oxydatif induit par IL-1β et malgré un traitement aux antioxydants, la diminution de ICaL n’a pas été prévenue. Cette étude montre qu’IL-1β et IL-6 réduisent ICaL de façon importante et ce indépendamment d’une régulation transcriptionelle ou du stress oxydatif. De nouvelles données préliminaires suggèrent que ICaL serait réduit suite à l’activation des protéines kinase C mais des études additionelles seront nécessaires afin d’étudier cette avenue. Nos résultats pourraient contribuer à expliquer les troubles du rythme et de contractilité observés chez les patients souffrant de défaillance cardiaque.