918 resultados para fluid shift
Resumo:
Fluid inteliigence has been defined as an innate ability to reason which is measured commonly by the Raven's Progressive Matrices (RPM). Individual differences in fluid intelligence are currently explained by the Cascade model (Fry & Hale, 1996) and the Controlled Attention hypothesis (Engle, Kane, & Tuholski, 1999; Kane & Engle, 2002). The first theory is based on a complex relation among age, speed, and working memory which is described as a Cascade. The alternative to this theory, the Controlled Attention hypothesis, is based on the proposition that it is the executive attention component of working memory that explains performance on fluid intelligence tests. The first goal of this study was to examine whether the Cascade model is consistent within the visuo-spatial and verbal-numerical modalities. The second goal was to examine whether the executive attention component ofworking memory accounts for the relation between working memory and fluid intelligence. Two hundred and six undergraduate students between the ages of 18 and 28 completed a battery of cognitive tests selected to measure processing speed, working memory, and controlled attention which were selected from two cognitive modalities, verbalnumerical and visuo-spatial. These were used to predict performance on two standard measures of fluid intelligence: the Raven's Progressive Matrices (RPM) and the Shipley Institute of Living Scales (SILS) subtests. Multiple regression and Structural Equation Modeling (SEM) were used to test the Cascade model and to determine the independent and joint effects of controlled attention and working memory on general fluid intelligence. Among the processing speed measures only spatial scan was related to the RPM. No other significant relations were observed between processing speed and fluid intelligence. As 1 a construct, working memory was related to the fluid intelligence tests. Consistent with the predictions for the RPM there was support for the Cascade model within the visuo-spatial modality but not within the verbal-numerical modality. There was no support for the Cascade model with respect to the SILS tests. SEM revealed that there was a direct path between controlled attention and RPM and between working memory and RPM. However, a significant path between set switching and RPM explained the relation between controlled attention and RPM. The prediction that controlled attention mediated the relation between working memory and RPM was therefore not supported. The findings support the view that the Cascade model may not adequately explain individual differences in fluid intelligence and this may be due to the differential relations observed between working memory and fluid intelligence across different modalities. The findings also show that working memory is not a domain-general construct and as a result its relation with fluid intelligence may be dependent on the nature of the working memory modality.
Resumo:
The primary purpose of the current investigation was to develop an elevated muscle fluid level using a human in-vivo model. The secondary purpose was to determine if an increased muscle fluid content could alter the acute muscle damage response following a bout of eccentric exercise. Eight healthy, recreationally active males participated in a cross-over design involving two randomly assigned trials. A hydration trial (HYD) consisting of a two hour infusion of a hypotonic (0.45%) saline at a rate of 20mL/minVl .73m"^ and a control trial (CON), separated by four weeks. Following the infusion (HYD) or rest period (CON), participants completed a single leg isokinetic eccentric exercise protocol of the quadriceps, consisting of 10 sets of 10 repetitions with a one minute rest between each set. Muscle biopsies were collected prior to the exercise, immediately following and at three hours post exercise. Muscle analysis included determination of wet-dry ratios and quantification of muscle damage using toluidine blue staining and light microscopy. Blood samples were collected prior to, immediately post, three and 24 hours post exercise to determine changes in creatine kinase (CK), lactate dehydrogenase (LD), interleukin-6 (IL-6) and Creactive protein (CRP) levels. Results demonstrated an increased muscle fluid volume in the HYD condition following the infusion when compared to the CON condition. Isometric peak torque was significantly reduced following the exercise in both the HYD and CON conditions. There were no significant differences in the number of areas of muscle damage at any of the time points in either condition, with no differences between conditions. CK levels were significantly greater 24hour post exercise compared to pre, immediately and three hours post similarly in both conditions. LD in the HYD condition followed a similar trend as CK with 24 hour levels higher than pre, immediately post and three hours post and LD levels were significantly greater 24 hours post compared to pre levels in the CON condition, with no differences between conditions. A significant main effect for time was observed for CRP (p<0.05) for time, such that CRP levels increased consistently at each subsequent time point. However, CRP and IL-6 levels were not different at any of the measured time points when comparing the two conditions. Although the current investigation was able to successfully increase muscle fluid volume and an increased CK, LD and CRP were observed, no muscle damage was observed following the eccentric exercise protocol in the CON or HYD conditions. Therefore, the hypotonic infusion used in the HYD condition proved to be a viable method to acutely increase muscle fluid content in in-vivo human skeletal muscle.
Resumo:
This study occurred in 2009 and questioned how Ontario secondary school principals perceived their role had changed, over a 7 year period, in response to the increased demands of data-driven school environments. Specifically, it sought to identify principals' perceptions on how high-stakes testing and data-driven environments had affected their role, tasks, and accountability responsibilities. This study contextualized the emergence of the Education Quality and Accountability Offices (EQAO) as a central influence in the creation of data-driven school environments, and conceptualized the role of the principal as using data to inform and persuade a shift in thinking about the use of data to improve instruction and student achievement. The findings of the study suggest that data-driven environments had helped principals reclaim their positional power as instructional leaders, using data as an avenue back into the classroom. The use of data shifted the responsibilities of the principal to persuade teachers to work collaboratively to improve classroom instruction in order to demonstrate accountability.
Resumo:
Step by step instructions how to use washing fluid for clothing and then use it again for cleaning floors.
Resumo:
For inviscid fluid flow in any n-dimensional Riemannian manifold, new conserved vorticity integrals generalizing helicity, enstrophy, and entropy circulation are derived for lower-dimensional surfaces that move along fluid streamlines. Conditions are determined for which the integrals yield constants of motion for the fluid. In the case when an inviscid fluid is isentropic, these new constants of motion generalize Kelvin’s circulation theorem from closed loops to closed surfaces of any dimension.
Resumo:
"L’auteure Lucie Guibault aborde la question des ""logiciels libres"" dans le cadre des droits d’auteurs et des brevets. Ces logiciels sont des programmes informatiques qui sont gratuitement distribués au public, dont la modification et la redistribution sont fortement encouragées, mais dont la vente ou la commercialisation est découragée ou même carrément prohibée. Ces caractéristiques particulières distinguent les logiciels libres des ""programmes propriétés"" traditionnels, qui se basent sur le principe que le créateur d’un programme en possède les droits de propriété et qu’il est le seul autorisé à le modifier ou le vendre, sous réserve de sa capacité à faire cession de ces droits. Les logiciels libres sont fondés sur une idéologie de coopération, qui promeut la propagation des idées et des connaissances et qui favorise ainsi la création de meilleurs logiciels. L’auteure présente les grandes caractéristiques des trois principales licences de logiciels libres, soit la ""General Public License"", la licence ""Berkeley Software Distribution"" et la ""Mozilla Public License"". Elle soutient que ces logiciels libres et les régimes normatifs qui les encadrent sont à l’origine d’un changement de paradigme au sein des régimes européens et hollandais de protection des droits d’auteurs et des brevets. La première partie de l’article analyse les régimes des droits d’auteur des trois licences de logiciels libres. L’auteure souligne que ces régimes ont été établis en se basant sur la prémisse qu’il n’y a pas de distinction significative entre les créateurs et les utilisateurs de logiciels libres. Les régimes normatifs reflètent cette situation en prévoyant un ensemble de droits et d’obligations pour les utilisateurs dans le cadre de l’utilisation, de la reproduction, de la modification et de la redistribution gratuite des logiciels libres. L’auteur explique comment ces régimes normatifs s’intègrent au sein de la législation européenne et hollandaise, entre autre au niveau du droit de propriété, du droit commercial, du droit des communications et du droit des obligations. L’auteur démontre que, de façon générale, ces régimes normatifs législatifs semblent s’être adéquatement adaptés aux nouvelles réalités posées par les règles de droits d’auteurs des logiciels libres. La seconde partie aborde la problématique du droit des brevets, tel que défini par la législation européenne et hollandaise. La plupart des utilisateurs et créateurs de logiciels libres s’opposent aux régimes de brevets traditionnels, qui limitent l’innovation et les possibilités de développement techniques. L’auteur décrit les différents régimes alternatifs de brevets offerts par les trois licences de logiciels libres. De plus, l’auteur présente l’encadrement légal pour ces nouveaux brevets, tel que défini par les législations européennes et hollandaises. Elle soutient que cet encadrement légal est inadéquat et qu’il n’est pas adapté aux besoins des utilisateurs de logiciels libres."
Resumo:
Les suspensivores ont la tâche importante de séparer les particules de l'eau. Bien qu'une grande gamme de morphologies existe pour les structures d'alimentation, elles sont pratiquement toutes constituées de rangées de cylindres qui interagissent avec leur environnement fluide. Le mécanisme de capture des particules utilisé dépend des contraintes morphologiques, des besoins énergétiques et des conditions d'écoulement. Comme nos objectifs étaient de comprendre ces relations, nous avons eu recours à des études de comparaison pour interpréter les tendances en nature et pour comprendre les conditions qui provoquent de nouveaux fonctionnements. Nous avons utilisé la dynamique des fluides numérique (computational fluid dynamics, CFD) pour créer des expériences contrôlées et pour simplifier les analyses. Notre première étude démontre que les coûts énergétiques associés au pompage dans les espaces petits sont élevés. De plus, le CFD suggère que les fentes branchiales des ptérobranches sont des structures rudimentaires, d'un ancêtre plus grande. Ce dernier point confirme l'hypothèse qu'un ver se nourrit par filtration tel que l'ancêtre des deuterostomes. Notre deuxième étude détermine la gamme du nombre de Reynolds number critique où la performance d'un filtre de balane change. Quand le Re est très bas, les différences morphologiques n'ont pas un grand effet sur le fonctionnement. Cependant, une pagaie devient une passoire lorsque le Re se trouve entre 1 et 3,5. Le CFD s’est dévoilé être un outil très utile qui a permis d’obtenir des détails sur les microfluides. Ces études montrent comment la morphologie et les dynamiques des fluides interagissent avec la mécanisme de capture ou de structures utilisées, ainsi que comment des petits changements de taille, de forme, ou de vitesse d'écoulement peuvent conduire à un nouveau fonctionnement.
Resumo:
Une sonde électrostatique de Langmuir cylindrique a été utilisée pour caractériser une post-décharge d’un plasma d’ondes de surface de N2-O2 par la mesure de la densité des ions et électrons ainsi que la température des électrons dérivée de la fonction de distribution en énergie des électrons (EEDF). Une densité maximale des électrons au centre de la early afterglow de l’ordre de 1013 m-3 a été déterminée, alors que celle-ci a chuté à 1011 m-3 au début de la late afterglow. Tout au long du profil de la post-décharge, une densité des ions supérieure à celle des électrons indique la présence d’un milieu non macroscopiquement neutre. La post-décharge est caractérisée par une EEDF quasi maxwellienne avec une température des électrons de 0.5±0.1 eV, alors qu’elle grimpe à 1.1 ±0.2 eV dans la early afterglow due à la contribution des collisions vibrationnelles-électroniques (V-E) particulièrement importantes. L’ajout d’O2 dans la décharge principale entraîne un rehaussement des espèces chargées et de la température des électrons suivi d’une chute avec l’augmentation de la concentration d’O2. Le changement de la composition électrique de la post-décharge par la création de NO+ au détriment des ions N2+ est à l’origine du phénomène. Le recours à cette post-décharge de N2 pour la modification des propriétés d’émission optique de nanofils purs de GaN et avec des inclusions d’InGaN a été étudié par photoluminescence (PL). Bien que l’émission provenant des nanofils de GaN et de la matrice de GaN recouvrant les inclusions diminue suite à la création de sites de recombinaison non radiatifs, celle provenant des inclusions d’InGaN augmente fortement. Des mesures de PL par excitation indiquent que cet effet n’est pas attribuable à un changement de l’absorption de la surface de GaN. Ceci suggère un recuit dynamique induit par la désexcitation des métastables de N2 suite à leur collision à la surface des nanofils et la possibilité de passiver les défauts de surface tels que des lacunes d’azote par l’action d’atomes de N2 réactifs provenant de la post-décharge. L’incorporation d’O2 induit les mêmes effets en plus d’un décalage vers le rouge de la bande d’émission des inclusions, suggérant l’action des espèces d’O2 au sein même des nanostructures.
Resumo:
The present research is aimed at studying the charnockites and associated rocks of the Madurai Granulite Block (MGB), especially in terms of their field settings, texture, mineralogy, and mineral chemistry analyzing their petrogenesis with the help of thermobarometrical studies and geochronological constraints. The mechanism of charnockitization by the influx of CO2 rich fluids and its relation to the graphite mineralization is actually a matter of discussion and study. The objectives of the present study are, to delineate petrological and structural relationship of charnockites and associated gneissic rocks, to study the field and petrogenetic aspects of graphite mineralization in the MGB, to establish and re-evaluate the P-T conditions of formation of the rocks with the aid of thermbarometric computations and to compare with the earlier studies, characterization of graphite with XRD, Raman spectroscopy and isotope studies together with a search in to its genesis and its relation to the high-grade metamorphism of the terrain, to evaluate the role of CO2 bearing fluids in the processes of charnockitization as well as in the genesis of graphite within the high-grade terrain and to delineate the metamorphic geochronology of selected rocks using ‘monazite dating’ technique with EPMA.
Resumo:
This article reports a new method of analyzing pericardial fluid based on the measurement of the dielectric properties at microwave frequencies. The microwave measurements were performed by rectangular cavity perturbation method in the S-band of microwave frequency with the pericardial fluid from healthy persons as well as from patients suffering from pericardial effusion. It is observed that a remarkable change in the dielectric properties of patient samples with the normal healthy samples and these measurements were in good agreement with clinical analysis. This measurement technique and the method of extraction of pericardial fluid are simple. These results give light to an alternative in-vitro method of diagnosing onset pericardial effusion abnormalities using microwaves without surgical procedure.
Resumo:
The study of stability problems is relevant to the study of structure of a physical system. It 1S particularly important when it is not possible to probe into its interior and obtain information on its structure by a direct method. The thesis states about stability theory that has become of dominant importance in the study of dynamical systems. and has many applications in basic fields like meteorology, oceanography, astrophysics and geophysics- to mention few of them. The definition of stability was found useful 1n many situations, but inadequate in many others so that a host of other important concepts have been introduced in past many years which are more or less related to the first definition and to the common sense meaning of stability. In recent years the theoretical developments in the studies of instabilities and turbulence have been as profound as the developments in experimental methods. The study here Points to a new direction for stability studies based on Lagrangian formulation instead of the Hamiltonian formulation used by other authors.