957 resultados para linearity


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec l’émergence des nouveaux médias, une nouvelle façon de raconter les histoires s’impose. Les structures connues de l’esthétisme classique semblent désuètes par rapport aux dispositions des nouvelles plateformes de diffusion. Mieux encore, ces plateformes propulsent le récit, lui permettent de sortir de la rigidité de la ligne narrative : elles intègrent la technique au logos. L’intermédialité devient omniprésente; la diversité des types médiatiques employés dans une œuvre sont rendus visibles et sont articulés par la mise en récit. Méchoulan dira que dans l’« être-entre », dans l’espace reliant chacune des unités sémantiques, que l’événement de la pensée advient; pour Rodowick c’est le « figural ». Une figure particulière s’impose : le labyrinthe. Multipliant les possibilités narratives spécifiques aux nouveaux médias, le labyrinthe fait converger les composantes intermédiales. Bleeding Through : Layers of Los Angeles 1920-1986, une œuvre dirigée par Norman Klein, pose le labyrinthe comme élément structurel en y tissant un réseau où s’inscrit une pratique intermédiale. On y adresse le temps comme une opération fragmentaire, qui se sectionne, se réorganise en rompant avec la linéarité classique. Il nous faudra alors voir comment le labyrinthe réfléchit dans l’étude du temps certains éléments de la mythologie grecque. Les réflexions de Gervais sur le labyrinthe permettront d’étayer pareille hypothèse. Nous analyserons Bleeding Through à la lumière de ces théories pour ainsi dégager l’essence de cette figure qui a infiltrée la narration contemporaine. En somme, le labyrinthe se présente dans l’écologie médiatique actuelle comme une figure inhérente à la mise en récit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreux travailleurs utilisent le captan et le folpet comme fongicides en agriculture, mais leur exposition n’est pas toujours mesurée de manière spécifique et précise. La surveillance biologique est un excellent outil à cet effet puisqu’elle permet de quantifier l’exposition réelle. Toutefois, la majorité des connaissances toxicologiques pour ces fongicides proviennent d’études sur les animaux, et les données chez l’humain sont limitées. Le but du présent projet est donc de développer des outils de surveillance biologique pour évaluer l’exposition de travailleurs au captan et au folpet. Dans cette perspective, le projet a été subdivisé en trois parties complémentaires, soit i) de développer des méthodes analytiques spécifiques pour quantifier les biomarqueurs d’intérêt du captan, à savoir le tétrahydrophtalimide (THPI), et du folpet, à savoir le phtalimide (PI) et l’acide phtalique, dans le plasma et l’urine; ii) de déterminer la toxicocinétique des deux fongicides en exposant des volontaires de façon aigüe à de faibles doses de captan ou de folpet par voie orale et cutanée dans des conditions semi-contrôlées et en quantifiant les biomarqueurs dans chacune des deux matrices, excepté l’acide phtalique qui a été mesuré seulement dans l’urine; iii) de valider les biomarqueurs d’exposition sélectionnés et d’évaluer l’exposition réelle des travailleurs et les voies prédominantes d’exposition au captan et au folpet en collectant des données biologiques chez des travailleurs en arboriculture et en viticulture lors d’activités de traitement et d’effeuillage pendant sept jours consécutifs. Selon ces travaux, le THPI et le PI sont deux biomarqueurs valides et spécifiques pour quantifier l’exposition au captan et au folpet, respectivement, chez l’humain. En effet, les méthodes développées pour ces deux métabolites sont robustes avec des limites de détection plus sensibles que celles rapportées dans la littérature, un taux de recouvrement de 90% pour le THPI et de 75% pour le PI, une très bonne linéarité (R2>0,99) et une bonne stabilité avec des variations intra- et inter-journalières faibles (RSD<15%). Elles ont permis de déterminer les profils cinétiques des deux métabolites chez les volontaires et chez les travailleurs. Ces derniers indiquent d’ailleurs une élimination rapide, avec une demi-vie d’élimination dans l’urine de 11,7 h et 18,7 h pour le THPI et de 27,3 h et 28,8 h pour le PI, respectivement après une absorption par voie orale et cutanée, ainsi qu’une faible absorption cutanée lorsque les valeurs sont comparées pour les deux voies d’exposition. Des profils parallèles sont aussi observés entre le PI et l’acide phtalique pour les volontaires et les agriculteurs, mais le folpet se retrouve davantage métabolisé sous forme d’acide phtalique que de PI. Quant à l’étude des agriculteurs, elle montre que la voie principale d’exposition de ces travailleurs est la voie cutanée. Il est aussi souligné qu’il est important 1) de favoriser les collectes d’urines complètes sur 24 h au urines ponctuelles, 2) de mesurer plusieurs métabolites, et 3) d’associer les données de surveillance biologique à la toxicocinétique. Ainsi, les connaissances acquises par cette étude peuvent s’appliquer à d’autres fongicides, voire d’autres substances.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une nouvelle méthode d'extraction en phase solide (SPE) couplée à une technique d'analyse ultrarapide a été développée pour la détermination simultanée de neuf contaminants émergents (l'atrazine, le déséthylatrazine, le 17(béta)-estradiol, l'éthynylestradiol, la noréthindrone, la caféine, la carbamazépine, le diclofénac et le sulfaméthoxazole) provenant de différentes classes thérapeutiques et présents dans les eaux usées. La pré-concentration et la purification des échantillons a été réalisée avec une cartouche SPE en mode mixte (Strata ABW) ayant à la fois des propriétés échangeuses de cations et d'anions suivie d'une analyse par une désorption thermique par diode laser/ionisation chimique à pression atmosphérique couplée à la spectrométrie de masse en tandem (LDTD-APCI-MS/MS). La LDTD est une nouvelle méthode d'introduction d'échantillon qui réduit le temps total d'analyse à moins de 15 secondes par rapport à plusieurs minutes avec la chromatographie liquide couplée à la spectrométrie de masse en tandem traditionnelle (LC-MS/MS). Plusieurs paramètres SPE ont été évalués dans le but d'optimiser l'efficacité de récupération lors de l'extraction des analytes provenant des eaux usées, tels que la nature de la phase stationnaire, le débit de chargement, le pH d'extraction, le volume et la composition de la solution de lavage et le volume de l'échantillon initial. Cette nouvelle méthode a été appliquée avec succès à de vrais échantillons d'eaux usées provenant d'un réservoir de décantation primaire. Le recouvrement des composés ciblés provenant des eaux usées a été de 78 à 106%, la limite de détection a été de 30 à 122 ng L-1, alors que la limite de quantification a été de 88 à 370 ng L-1. Les courbes d'étalonnage dans les matrices d'eaux usées ont montré une bonne linéarité (R2 > 0,991) pour les analytes cibles ainsi qu’une précision avec un coefficient de variance inférieure à 15%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’entérotoxine B staphylococcique (SEB) est une toxine entérique hautement résistante à la chaleur et est responsable de plus de 50 % des cas d’intoxication d’origine alimentaire par une entérotoxine. L’objectif principal de ce projet de maîtrise est de développer et valider une méthode basée sur des nouvelles stratégies analytiques permettant la détection et la quantification de SEB dans les matrices alimentaires. Une carte de peptides tryptiques a été produite et 3 peptides tryptiques spécifiques ont été sélectionnés pour servir de peptides témoins à partir des 9 fragments protéolytiques identifiés (couverture de 35 % de la séquence). L’anhydride acétique et la forme deutérée furent utilisés afin de synthétiser des peptides standards marqués avec un isotope léger et lourd. La combinaison de mélanges des deux isotopes à des concentrations molaires différentes fut utilisée afin d’établir la linéarité et les résultats ont démontré que les mesures faites par dilution isotopique combinée au CL-SM/SM respectaient les critères généralement reconnus d’épreuves biologiques avec des valeurs de pente près de 1, des valeurs de R2 supérieure à 0,98 et des coefficients de variation (CV%) inférieurs à 8 %. La précision et l’exactitude de la méthode ont été évaluées à l’aide d’échantillons d’homogénat de viande de poulet dans lesquels SEB a été introduite. SEB a été enrichie à 0,2, 1 et 2 pmol/g. Les résultats analytiques révèlent que la méthode procure une plage d’exactitude de 84,9 à 91,1 %. Dans l’ensemble, les résultats présentés dans ce mémoire démontrent que les méthodes protéomiques peuvent être utilisées efficacement pour détecter et quantifier SEB dans les matrices alimentaires. Mots clés : spectrométrie de masse; marquage isotopique; protéomique quantitative; entérotoxines

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire étudie l'algorithme d'amplification de l'amplitude et ses applications dans le domaine de test de propriété. On utilise l'amplification de l'amplitude pour proposer le plus efficace algorithme quantique à ce jour qui teste la linéarité de fonctions booléennes et on généralise notre nouvel algorithme pour tester si une fonction entre deux groupes abéliens finis est un homomorphisme. Le meilleur algorithme quantique connu qui teste la symétrie de fonctions booléennes est aussi amélioré et l'on utilise ce nouvel algorithme pour tester la quasi-symétrie de fonctions booléennes. Par la suite, on approfondit l'étude du nombre de requêtes à la boîte noire que fait l'algorithme d'amplification de l'amplitude pour amplitude initiale inconnue. Une description rigoureuse de la variable aléatoire représentant ce nombre est présentée, suivie du résultat précédemment connue de la borne supérieure sur l'espérance. Suivent de nouveaux résultats sur la variance de cette variable. Il est notamment montré que, dans le cas général, la variance est infinie, mais nous montrons aussi que, pour un choix approprié de paramètres, elle devient bornée supérieurement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La perception visuelle ne se résume pas à la simple perception des variations de la quantité de lumière qui atteint la rétine. L’image naturelle est en effet composée de variation de contraste et de texture que l’on qualifie d’information de deuxième ordre (en opposition à l’information de premier ordre : luminance). Il a été démontré chez plusieurs espèces qu’un mouvement de deuxième ordre (variation spatiotemporelle du contraste ou de la texture) est aisément détecté. Les modèles de détection du mouvement tel le modèle d’énergie d’Adelson et Bergen ne permettent pas d’expliquer ces résultats, car le mouvement de deuxième ordre n’implique aucune variation de la luminance. Il existe trois modèles expliquant la détection du mouvement de deuxième ordre : la présence d’une circuiterie de type filter-rectify-filter, un mécanisme de feature-tracking ou simplement l’existence de non-linéarités précoces dans le traitement visuel. Par ailleurs, il a été proposé que l’information visuelle de deuxième ordre soit traitée par une circuiterie neuronale distincte de celle qui traite du premier ordre. Bon nombre d’études réfutent cependant cette théorie et s’entendent sur le fait qu’il n’y aurait qu’une séparation partielle à bas niveau. Les études électrophysiologiques sur la perception du mouvement de deuxième ordre ont principalement été effectuées chez le singe et le chat. Chez le chat, toutefois, seules les aires visuelles primaires (17 et 18) ont été extensivement étudiées. L’implication dans le traitement du deuxième ordre de l’aire dédiée à la perception du mouvement, le Sulcus syprasylvien postéro-médian latéral (PMLS), n’est pas encore connue. Pour ce faire, nous avons étudié les profils de réponse des neurones du PMLS évoqués par des stimuli dont la composante dynamique était de deuxième ordre. Les profils de réponses au mouvement de deuxième ordre sont très similaires au premier ordre, bien que moins sensibles. Nos données suggèrent que la perception du mouvement par le PMLS serait de type form-cue invariant. En somme, les résultats démontrent que le PMLS permet un traitement plus complexe du mouvement du deuxième ordre et sont en accord avec son rôle privilégié dans la perception du mouvement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les processus de la mise en scène reposent nécessairement sur une réalité humaine complexe, faite de dialogues et de rapports de force en constante redéfinition. Afin de les théoriser, plusieurs travaux ont institué en corpus les documents produits en cours de réunion ou de répétition, pour leur appliquer les méthodes issues de la génétique des textes. Or le transfert s’avère problématique : vestiges lacunaires, ces supports ne sauraient témoigner à eux seuls de la vie organique et polyphonique de la mise en scène en gestation. Une première solution consiste à opter pour une approche radicalement intermédiale des archives d’un spectacle : dans la mesure où la mise en scène fait interagir plusieurs disciplines artistiques, pourquoi ne pas la penser en confrontant activement les différents media générés lors de son élaboration ? Complémentaire de la première, une seconde proposition suppose que le chercheur s’implique dans une observation in vivo de réunions et de répétitions afin de disposer d’une matière plus complète. À cette clarification épistémologique succède un essai de théorisation des processus de la création scénique. Il apparaît tout d’abord que l’espace de travail est aussi bien un contenant physique de la recherche des artistes qu’un catalyseur : c’est en se l’appropriant à plusieurs qu’un groupe de collaborateurs donne corps à la mise en scène. L’espace de création révèle par là même une dimension polyphonique que l’on retrouve sur le plan du temps : dans la mesure où il engage un ensemble d’artistes, un processus ne possède pas de linéarité chronologique homogène ; il se compose d’une multitude de temporalités propres à chacun des répétants, qu’il s’agit de faire converger pour élaborer un spectacle commun à tous. Les processus de la mise en scène se caractérisent ainsi par leur dimension fondamentalement sociale. Réunie dans un espace-temps donné, la petite société formée autour du metteur obéit à un mode de création dialogique, où les propositions des uns et des autres s’agrègent pour former un discours foisonnant dont la force et l’unité sont garanties par une instance surplombante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A simple and inexpensive linear magnetic field sweep generating system suitable for magnetic resonance experiments is described. The circuit, utilising a modified IC bootstrap configuration, generates field sweep over a wide range of sweep durations with excellent sweep linearity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A simple fiber optic concentration sensor based on the coupling of light f rom one fiber to another through a solution is discussed. The operational characteristics of the sensor are illustrated by taking the solutions of potassium permanganate and fast green dye as samples.The extrinsic type sensor described here shows linearity at lower concentrations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gabion faced re.taining walls are essentially semi rigid structures that can generally accommodate large lateral and vertical movements without excessive structural distress. Because of this inherent feature, they offer technical and economical advantage over the conventional concrete gravity retaining walls. Although they can be constructed either as gravity type or reinforced soil type, this work mainly deals with gabion faced reinforced earth walls as they are more suitable to larger heights. The main focus of the present investigation was the development of a viable plane strain two dimensional non linear finite element analysis code which can predict the stress - strain behaviour of gabion faced retaining walls - both gravity type and reinforced soil type. The gabion facing, backfill soil, In - situ soil and foundation soil were modelled using 20 four noded isoparametric quadrilateral elements. The confinement provided by the gabion boxes was converted into an induced apparent cohesion as per the membrane correction theory proposed by Henkel and Gilbert (1952). The mesh reinforcement was modelled using 20 two noded linear truss elements. The interactions between the soil and the mesh reinforcement as well as the facing and backfill were modelled using 20 four noded zero thickness line interface elements (Desai et al., 1974) by incorporating the nonlinear hyperbolic formulation for the tangential shear stiffness. The well known hyperbolic formulation by Ouncan and Chang (1970) was used for modelling the non - linearity of the soil matrix. The failure of soil matrix, gabion facing and the interfaces were modelled using Mohr - Coulomb failure criterion. The construction stages were also modelled.Experimental investigations were conducted on small scale model walls (both in field as well as in laboratory) to suggest an alternative fill material for the gabion faced retaining walls. The same were also used to validate the finite element programme developed as a part of the study. The studies were conducted using different types of gabion fill materials. The variation was achieved by placing coarse aggregate and quarry dust in different proportions as layers one above the other or they were mixed together in the required proportions. The deformation of the wall face was measured and the behaviour of the walls with the variation of fill materials was analysed. It was seen that 25% of the fill material in gabions can be replaced by a soft material (any locally available material) without affecting the deformation behaviour to large extents. In circumstances where deformation can be allowed to some extents, even up to 50% replacement with soft material can be possible.The developed finite element code was validated using experimental test results and other published results. Encouraged by the close comparison between the theory and experiments, an extensive and systematic parametric study was conducted, in order to gain a closer understanding of the behaviour of the system. Geometric parameters as well as material parameters were varied to understand their effect on the behaviour of the walls. The final phase of the study consisted of developing a simplified method for the design of gabion faced retaining walls. The design was based on the limit state method considering both the stability and deformation criteria. The design parameters were selected for the system and converted to dimensionless parameters. Thus the procedure for fixing the dimensions of the wall was simplified by eliminating the conventional trial and error procedure. Handy design charts were developed which would prove as a hands - on - tool to the design engineers at site. Economic studies were also conducted to prove the cost effectiveness of the structures with respect to the conventional RCC gravity walls and cost prediction models and cost breakdown ratios were proposed. The studies as a whole are expected to contribute substantially to understand the actual behaviour of gabion faced retaining wall systems with particular reference to the lateral deformations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we try to fit a threshold autoregressive (TAR) model to time series data of monthly coconut oil prices at Cochin market. The procedure proposed by Tsay [7] for fitting the TAR model is briefly presented. The fitted model is compared with a simple autoregressive (AR) model. The results are in favour of TAR process. Thus the monthly coconut oil prices exhibit a type of non-linearity which can be accounted for by a threshold model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

FT-IR spectrum of quinoline-2-carbaldehyde benzoyl hydrazone (HQb H2O) was recorded and analyzed. The synthesis and crystal structure data are also described. The vibrational wavenumbers were examined theoretically using the Gaussian03 package of programs using HF/6-31G(d) and B3LYP/6-31G(d) levels of theory. The data obtained from vibrational wavenumber calculations are used to assign vibrational bands obtained in infrared spectroscopy of the studied molecule. The first hyperpolarizability, infrared intensities and Raman activities are reported. The calculated first hyperpolarizability is comparable with the reported values of similar derivatives and is an attractive object for future studies of non-linear optics. The geometrical parameters of the title compound obtained from XRD studies are in agreement with the calculated values. The changes in the CAN bond lengths suggest an extended p-electron delocalization over quinoline and hydrazone moieties which is responsible for the non-linearity of the molecule

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Severe local storms, including tornadoes, damaging hail and wind gusts, frequently occur over the eastern and northeastern states of India during the pre-monsoon season (March-May). Forecasting thunderstorms is one of the most difficult tasks in weather prediction, due to their rather small spatial and temporal extension and the inherent non-linearity of their dynamics and physics. In this paper, sensitivity experiments are conducted with the WRF-NMM model to test the impact of convective parameterization schemes on simulating severe thunderstorms that occurred over Kolkata on 20 May 2006 and 21 May 2007 and validated the model results with observation. In addition, a simulation without convective parameterization scheme was performed for each case to determine if the model could simulate the convection explicitly. A statistical analysis based on mean absolute error, root mean square error and correlation coefficient is performed for comparisons between the simulated and observed data with different convective schemes. This study shows that the prediction of thunderstorm affected parameters is sensitive to convective schemes. The Grell-Devenyi cloud ensemble convective scheme is well simulated the thunderstorm activities in terms of time, intensity and the region of occurrence of the events as compared to other convective schemes and also explicit scheme

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work presents a wideband low-distortion sigmadelta analog-to-digital converter (ADC) for Wireless Local Area Network (WLAN) standard. The proposed converter makes use of low-distortion swing suppression SDM architecture which is highly suitable for low oversampling ratios to attain high linearity over a wide bandwidth. The modulator employs a 2-2 cascaded sigma-delta modulator with feedforward path with a single-bit quantizer in the first stage and 4-bit in the second stage. The modulator is designed in TSMC 0.18um CMOS technology and operates at 1.8V supply voltage. Simulation results show that, a peak SNDR of 57dB and a spurious free dynamic range (SFDR) of 66dB is obtained for a 10MHz signal bandwidth, and an oversampling ratio of 8.