709 resultados para Scaled semivariogram
Resumo:
Understanding the dynamics of blood cells is a crucial element to discover biological mechanisms, to develop new efficient drugs, design sophisticated microfluidic devices, for diagnostics. In this work, we focus on the dynamics of red blood cells in microvascular flow. Microvascular blood flow resistance has a strong impact on cardiovascular function and tissue perfusion. The flow resistance in microcirculation is governed by flow behavior of blood through a complex network of vessels, where the distribution of red blood cells across vessel cross-sections may be significantly distorted at vessel bifurcations and junctions. We investigate the development of blood flow and its resistance starting from a dispersed configuration of red blood cells in simulations for different hematocrits, flow rates, vessel diameters, and aggregation interactions between red blood cells. Initially dispersed red blood cells migrate toward the vessel center leading to the formation of a cell-free layer near the wall and to a decrease of the flow resistance. The development of cell-free layer appears to be nearly universal when scaled with a characteristic shear rate of the flow, which allows an estimation of the length of a vessel required for full flow development, $l_c \approx 25D$, with vessel diameter $D$. Thus, the potential effect of red blood cell dispersion at vessel bifurcations and junctions on the flow resistance may be significant in vessels which are shorter or comparable to the length $l_c$. The presence of aggregation interactions between red blood cells lead in general to a reduction of blood flow resistance. The development of the cell-free layer thickness looks similar for both cases with and without aggregation interactions. Although, attractive interactions result in a larger cell-free layer plateau values. However, because the aggregation forces are short-ranged at high enough shear rates ($\bar{\dot{\gamma}} \gtrsim 50~\text{s}^{-1}$) aggregation of red blood cells does not bring a significant change to the blood flow properties. Also, we develop a simple theoretical model which is able to describe the converged cell-free-layer thickness with respect to flow rate assuming steady-state flow. The model is based on the balance between a lift force on red blood cells due to cell-wall hydrodynamic interactions and shear-induced effective pressure due to cell-cell interactions in flow. We expect that these results can also be used to better understand the flow behavior of other suspensions of deformable particles such as vesicles, capsules, and cells. Finally, we investigate segregation phenomena in blood as a two-component suspension under Poiseuille flow, consisting of red blood cells and target cells. The spatial distribution of particles in blood flow is very important. For example, in case of nanoparticle drug delivery, the particles need to come closer to microvessel walls, in order to adhere and bring the drug to a target position within the microvasculature. Here we consider that segregation can be described as a competition between shear-induced diffusion and the lift force that pushes every soft particle in a flow away from the wall. In order to investigate the segregation, on one hand, we have 2D DPD simulations of red blood cells and target cell of different sizes, on the other hand the Fokker-Planck equation for steady state. For the equation we measure force profile, particle distribution and diffusion constant across the channel. We compare simulation results with those from the Fokker-Planck equation and find a very good correspondence between the two approaches. Moreover, we investigate the diffusion behavior of target particles for different hematocrit values and shear rates. Our simulation results indicate that diffusion constant increases with increasing hematocrit and depends linearly on shear rate. The third part of the study describes development of a simulation model of complex vascular geometries. The development of the model is important to reproduce vascular systems of small pieces of tissues which might be gotten from MRI or microscope images. The simulation model of the complex vascular systems might be divided into three parts: modeling the geometry, developing in- and outflow boundary conditions, and simulation domain decomposition for an efficient computation. We have found that for the in- and outflow boundary conditions it is better to use the SDPD fluid than DPD one because of the density fluctuations along the channel of the latter. During the flow in a straight channel, it is difficult to control the density of the DPD fluid. However, the SDPD fluid has not that shortcoming even in more complex channels with many branches and in- and outflows because the force acting on particles is calculated also depending on the local density of the fluid.
Resumo:
La culture sous abris avec des infrastructures de type grands tunnels est une nouvelle technologie permettant d’améliorer la production de framboises rouges sous des climats nordiques. L’objectif principal de ce projet de doctorat était d’étudier les performances de ces technologies (grands tunnels vs. abris parapluie de type Voen, en comparaison à la culture en plein champ) et leur effets sur le microclimat, la photosynthèse, la croissance des plantes et le rendement en fruits pour les deux types de framboisiers non-remontants et remontants (Rubus idaeus, L.). Puisque les pratiques culturales doivent être adaptées aux différents environnements de culture, la taille d’été (pour le cultivar non-remontant), l’optimisation de la densité des tiges (pour le cultivar remontant) et l’utilisation de bâches réfléchissantes (pour les deux types des framboisiers) ont été étudiées sous grands tunnels, abris Voen vs. en plein champ. Les plants cultivés sous grands tunnels produisent en moyenne 1,2 et 1,5 fois le rendement en fruits commercialisables que ceux cultivés sous abri Voen pour le cv. non-remontant ‘Jeanne d’Orléans’ et le cv. remontant ‘Polka’, respectivement. Comparativement aux framboisiers cultivés aux champs, le rendement en fruits des plants sous grands tunnels était plus du double pour le cv. ‘Jeanne d’Orléans’ et près du triple pour le cv. ‘Polka’. L’utilisation de bâches réfléchissantes a entrainé un gain significatif sur le rendement en fruits de 12% pour le cv. ‘Jeanne d’Orléans’ et de 17% pour le cv. ‘Polka’. La taille des premières ou deuxièmes pousses a significativement amélioré le rendement en fruits du cv. ‘Jeanne d’Orléans’ de 26% en moyenne par rapport aux framboisiers non taillés. Des augmentations significatives du rendement en fruits de 43% et 71% du cv. ‘Polka’ ont été mesurées avec l’accroissement de la densité à 4 et 6 tiges par pot respectivement, comparativement à deux tiges par pot. Au cours de la période de fructification du cv. ‘Jeanne d’Orléans’, les bâches réfléchissantes ont augmenté significativement la densité de flux photonique photosynthétique (DFPP) réfléchie à la canopée inférieure de 80% en plein champ et de 60% sous grands tunnels, comparativement à seulement 14% sous abri Voen. Durant la saison de fructification du cv. ‘Polka’, un effet positif de bâches sur la lumière réfléchie (jusqu’à 42%) a été mesuré seulement en plein champ. Dans tous les cas, les bâches réfléchissantes n’ont présenté aucun effet significatif sur la DFPP incidente foliaire totale et la photosynthèse. Pour le cv. ‘Jeanne d’Orléans’, la DFPP incidente sur la feuille a été atténuée d’environ 46% sous le deux types de revêtement par rapport au plein champ. Par conséquent, la photosynthèse a été réduite en moyenne de 43% sous grands tunnels et de 17% sous abris Voen. Des effets similaires ont été mesurés pour la DFPP incidente et la photosynthèse avec le cv. Polka. En dépit du taux de photosynthèse des feuilles individuelles systématiquement inférieur à ceux mesurés pour les plants cultivés aux champs, la photosynthèse de la plante entière sous grands tunnels était de 51% supérieure à celle observée au champ pour le cv. ‘Jeanne d’Orléans’, et 46% plus élevée pour le cv. ‘Polka’. Ces résultats s’expliquent par une plus grande (près du double) surface foliaire pour les plants cultivés sous tunnels, qui a compensé pour le plus faible taux de photosynthèse par unité de surface foliaire. Les températures supra-optimales des feuilles mesurées sous grands tunnels (6.6°C plus élevé en moyenne que dans le champ), ainsi que l’atténuation de la DFPP incidente (env. 43%) par les revêtements de tunnels ont contribué à réduire le taux de photosynthèse par unité de surface foliaire. La photosynthèse de la canopée entière était étroitement corrélée avec le rendement en fruits pour les deux types de framboisiers rouges cultivés sous grands tunnels ou en plein champ.
Resumo:
La scoliose est la pathologie déformante du rachis la plus courante de l’adolescence. Dans 80 % des cas, elle est idiopathique, signifiant qu’aucune cause n’a été associée. Les scolioses idiopathiques répondent à un modèle multifactoriel incluant des facteurs génétiques, environnementaux, neurologiques, hormonaux, biomécaniques et de croissance squelettique. Comme hypothèse neurologique, une anomalie vestibulaire provoquerait une asymétrie d’activation des voies vestibulospinales et des muscles paravertébraux commandés par cette voie, engendrant la déformation scoliotique. Certains modèles animaux permettent de reproduire ce mécanisme. De plus, des anomalies liées au système vestibulaire, comme des troubles de l’équilibre, sont observées chez les patients avec une scoliose. La stimulation vestibulaire galvanique permet d’explorer le contrôle sensorimoteur de l’équilibre puisqu’elle permet d’altérer les afférences vestibulaires. L’objectif de cette thèse est d’explorer le contrôle sensorimoteur en évaluant la réaction posturale provoquée par cette stimulation chez les patients et les participants contrôle. Dans la première étude, les patients sont plus déstabilisés que les contrôles et il n’y a pas de lien entre l’ampleur de l’instabilité et la sévérité de la scoliose. Dans la deuxième étude, à l’aide d’un modèle neuromécanique, un poids plus grand aux signaux vestibulaires a été attribué aux patients. Dans la troisième étude, un problème sensorimoteur est également observé chez les jeunes adultes ayant une scoliose, excluant ainsi que le problème soit dû à la maturation du système nerveux. Dans une étude subséquente, des patients opérés pour réduire leur déformation du rachis, montrent également une réaction posturale de plus grande amplitude à la stimulation comparativement à des participants contrôle. Ces résultats suggèrent que l’anomalie sensorimotrice ne serait pas secondaire à la déformation. Finalement, un algorithme a été développé pour identifier les patients ayant un problème sensorimoteur. Les patients montrant un contrôle sensorimoteur anormal ont également une réponse vestibulomotrice plus grande et attribuent plus de poids aux informations vestibulaires. Globalement, les résultats de cette thèse montrent qu’un déficit sensorimoteur expliquerait l’apparition de la scoliose mais pas sa progression. Le dysfonctionnement sensorimoteur n’est pas présent chez tous les patients. L’algorithme permettant une classification de la performance sensorimotrice pourrait être utile pour de futures études cliniques.
Resumo:
This paper is the second in a series of studies working towards constructing a realistic, evolving, non-potential coronal model for the solar magnetic carpet. In the present study, the interaction of two magnetic elements is considered. Our objectives are to study magnetic energy build-up, storage and dissipation as a result of emergence, cancellation, and flyby of these magnetic elements. In the future these interactions will be the basic building blocks of more complicated simulations involving hundreds of elements. Each interaction is simulated in the presence of an overlying uniform magnetic field, which lies at various orientations with respect to the evolving magnetic elements. For these three small-scale interactions, the free energy stored in the field at the end of the simulation ranges from 0.2 – 2.1×1026 ergs, whilst the total energy dissipated ranges from 1.3 – 6.3×1026 ergs. For all cases, a stronger overlying field results in higher energy storage and dissipation. For the cancellation and emergence simulations, motion perpendicular to the overlying field results in the highest values. For the flyby simulations, motion parallel to the overlying field gives the highest values. In all cases, the free energy built up is sufficient to explain small-scale phenomena such as X-ray bright points or nanoflares. In addition, if scaled for the correct number of magnetic elements for the volume considered, the energy continually dissipated provides a significant fraction of the quiet Sun coronal heating budget.
Resumo:
Security Onion is a Network Security Manager (NSM) platform that provides multiple Intrusion Detection Systems (IDS) including Host IDS (HIDS) and Network IDS (NIDS). Many types of data can be acquired using Security Onion for analysis. This includes data related to: Host, Network, Session, Asset, Alert and Protocols. Security Onion can be implemented as a standalone deployment with server and sensor included or with a master server and multiple sensors allowing for the system to be scaled as required. Many interfaces and tools are available for management of the system and analysis of data such as Sguil, Snorby, Squert and Enterprise Log Search and Archive (ELSA). These interfaces can be used for analysis of alerts and captured events and then can be further exported for analysis in Network Forensic Analysis Tools (NFAT) such as NetworkMiner, CapME or Xplico. The Security Onion platform also provides various methods of management such as Secure SHell (SSH) for management of server and sensors and Web client remote access. All of this with the ability to replay and analyse example malicious traffic makes the Security Onion a suitable low cost alternative for Network Security Management. In this paper, we have a feature and functionality review for the Security Onion in terms of: types of data, configuration, interface, tools and system management.
Resumo:
Résumé : L'élément important que cette thèse sous-tend est que l'enseignement efficace n'est pas seulement constitué de techniques et de méthodologie, mais plutôt d'attitude et d'approche envers l'enseignement. Ceci ne veut pas nécessairement dire que plusieurs méthodes d'enseignement reçues dans un cours avec l'intention d'optimaliser les mécanismes de transmission et d'assimilation de la matière sont inappropriées. Cependant, l'absence de ce que nous pourrions définir comme un ton pédagogique est essentiel, c'est-à-dire, qu'une attitude positive à la productivité autant vis-à-vis de la matière à transmettre que vis-à-vis de l'individu impliqué dans "l'acte" de réception versus la découverte, aura davantage de succès. Toute autre méthode sera complètement inefficace, inaccessible, voire même inutile. D'emblée, dans l'hypothèse de départ, l'argument principal présente une attitude générale d'enseignement à divers échelons ; soit au niveau secondaire ou collégial qui est inappropriée, incomplète ou négative. En d'autres mots, cette approche thérapeutise l'éducation. Dans l'exercice de cette approche, l'enseignant ou l'enseignante adopte plutôt le rôle d'un thérapeute que celui d'un éducateur. De ce fait, le professeur en situation a une approche plutôt de thérapeute que celle de maître-précepteur et que la matière présentée est souvent diluée, et réduite à des niveaux d'apprentissage accompagnés de carences notoires et d'échecs académiques. Les attentes d'une performance dans le milieu académique sont souvent des plus modestes. Cette même tendance d'une éducation à la baisse est évidente aussi dans le processus d'évaluation. Il est certain que dans les disciplines non scientifiques, l'évaluation formative a grandement suivi l'évaluation normative conduisant le précepteur, tour à tour, dans une évaluation dormative dans laquelle l'effort et l'intention remplacent les aptitudes et les habilitées réelles. Si l'approche pédagogique est vraiment l'élément crucial de l'éducation, il Importe que l'approche générale influence le climat de l'éducation contemporaine, de fait, devienne un palliatif contre-productif souvent réhabilitant. De plus, cette pseudo-thérapie d'où d'écoule une attitude exigeante envers l'enseignant et l'apprenant dont le fondement est la reconnaissance des impératifs culturels qui en sont le reflet et le corps doit-être affirmé et transposé dans la réalité. Cette dernière comprend des attentes très poussées en ce qui concerne la performance en classe et aussi le respect de la matière qui contient la présentation routinière et fondamentale; renouveau intense du processus d'évaluation qui fournira des standards communs et des objectifs externes dans l'évaluation du travail de l'étudiant. Cette connaissance et domestication empirique que nous présente Vygotsky dans un climat contemporain qu'il a expliqué ces termes comme "des zones de développement proximales" basées sur la doctrine suivante que le bon apprentissage précède le développement et que conséquemment s'ensuit une pédagogie d'apprentissage plutôt qu'une pédagogie centrée sur l'apprenant. L'application significative de ces derniers principes ou de ces épistémologiques s'imbriquent dans une situation d'apprentissage ascentionnel dont la structure est détaillée et considérée par différentes perspectives de la recherche qui suit.||Abstract : The central tenet of this thesis is that effective teaching is not only and perhaps not primarily a matter of technique and methodology but of attitude and approach. This is not to say that diverse methods of classroom instruction intended to optimize the mechanics of transmission and the assimilation of data are inappropriate but that in the absence of what we might denominate as a certain pedagogical tone. that is, a productive attitude toward both the material to be conveyed and the individuel engaged in the 'act' of reception-and-discovery, even the most powerful methods will be differentially unavailing or, at best, inefficient. Given this initial assumption, the argument proceeds that the general attitude toward instruction currently in place at the secondary echelons, that is, on the high school and college levels, may be popularly represented as a 'teaching down' approach, in other words, as one which seeks to therapeuticize education. In practice this means that the teacher tends to manifest in situ more as a therapist than as a preceptor, that the material to be presented is frequently diluted or scaled down to perceived levels of cognitive (dis)ability (as is also the case with the rate of instruction), and that performance expectations in the current pedagogical milieu are commonly quite modest. The same downward trend is evident in assessment protocols as well. Certainly in the nonscientific disciplines, normative evaluation has been widely succeeded by formative evaluation, leading in turn to a peculiar kind of dormative evaluation in which intangibles such as effort and intention may deputize for realized ability. If pedagogical approach is indeed the crucial element in instruction, and if the general approach that pervades the contemporary climate of instruction is indeed counter-productively remedial or rehabilitory, that is, therapeutic, then it should follow that a more demanding attitude toward teaching and learning founded on the recognition of the culturel imperative which teaching both reflects and embodies needs to be re-affirmed and translated into practice. This latter would entail the maintenance of high expectations with regard to classroom performance, a respect for the material which precludes its routine mitigation or debasement, a renewed insistance on grading protocols that provide an external, 'objective' or communal standard against which the student's work can be measured, the empirical acknowledgment or domestication of what Vygotsky has termed "the zone of proximal development," based on the doctrine that good learning proceeds in advance of development, and conséquently, a learning-centered rather than learner-centered pedagogy. The meaningful application of this latter set of principles or epistemological gradients comprises the 'learning up' situation whose structure is excunined in some détail and considered from various perspectives in the ensuing.
Resumo:
As collections of archived digital documents continue to grow the maintenance of an archive, and the quality of reproduction from the archived format, become important long-term considerations. In particular, Adobe s PDF is now an important final form standard for archiving and distributing electronic versions of technical documents. It is important that all embedded images in the PDF, and any fonts used for text rendering, should at the very minimum be easily readable on screen. Unfortunately, because PDF is based on PostScript technology, it allows the embedding of bitmap fonts in Adobe Type 3 format as well as higher-quality outline fonts in TrueType or Adobe Type 1 formats. Bitmap fonts do not generally perform well when they are scaled and rendered on low-resolution devices such as workstation screens. The work described here investigates how a plug-in to Adobe Acrobat enables bitmap fonts to be substituted by corresponding outline fonts using a checksum matching technique against a canonical set of bitmap fonts, as originally distributed. The target documents for our initial investigations are those PDF files produced by (La)TEXsystems when set up in a default (bitmap font) configuration. For all bitmap fonts where recognition exceeds a certain confidence threshold replacement fonts in Adobe Type 1 (outline) format can be substituted with consequent improvements in file size, screen display quality and rendering speed. The accuracy of font recognition is discussed together with the prospects of extending these methods to bitmap-font PDF files from sources other than (La)TEX.
Resumo:
In order to add value to soybens crops, and hence the marketing, medium and large producers have been using precision agriculture techniques (PA), as the Remote Sensing, Geographic Information Systems (GIS) and positioning satellite, to assist the management of crops. Thus, given the economic relevance of that culture to the southwest of Paraná State and Brazil, scientific studies to increase their productivity and profitability are of main importance. The objective of this study was to evaluate the correlation between the chemical soil properties and soybean yield for each estimated parameter of semivariogram (range, nugget and level effect), and the deployment of these correlations in direct and indirect effects, aiming to improve the mapping process of spatial variability of soil chemical properties for use in PA. The hypothesis is that not all attributes of soil used to estimate the semivariogram parameters has a direct effect on productivity, and that even in groups of plants within a larger area it is possible to estimate the parameters of the semivariograms. The experiment was conducted in a commercial area of 19.7 ha, located in the city of Pato Branco - PR, central geographic coordinates 26º 11 '35 "South, 52 43' 05" West longitude, and average altitude of 780 m. The area is planted with soybeans for over 30 years, currently being adopted to cultivate Brasmax Target RR - Don Mario 5.9i, with row spacing of 0.50 m and 13 plants m-1, totaling 260,000 plants ha-1. For georeferencing of the area of study and sampling points was used a couple of topographic ProMarkTM3 receptors, making a relative positioning to obtain the georeferenced coordinates. To collect data (chemical analyzes of soil and crop yield) were sampled 10 blocks in the experimental area, each with an area of 20 m2 (20 meters long x 1 meter wide) containing two spaced adjacent rows of 0.5 m. Each block was divided into 20 portions of 1 m2, and from each were collected four subsamples at a distance of 0.5 m in relation to the lines of blocks, making up a sample depth for 0-10 cm a sample to 10-20 cm for each plot, totaling 200 samples for each depth. The soybean crop was performed on the blocks depending on maturity, and in each block was considered a bundle at each meter. In the data analysis, it was performed a diagnosis of multicollinearity, and subsequently a path analysis of the main variables according to the explanatory variables (range of chemical attributes: pH, K, P, Ca, etc.). The results obtained by the path analysis of the parameters of the semivariogram of soil chemical properties, indicated that only the Fe, Mg, Mn, organic matter (OM), P and Saturation by bases (SB) exerted direct and indirect effects on soybean productivity, although they have not presented spatial variability, indicating that the distribution of blocks in the area was unable to identify the spatial dependence of these elements, making it impossible to draw up maps of the chemical attributes for use in PA.
Resumo:
Le béton conventionnel (BC) a de nombreux problèmes tels que la corrosion de l’acier d'armature et les faibles résistances des constructions en béton. Par conséquent, la plupart des structures fabriquées avec du BC exigent une maintenance fréquent. Le béton fibré à ultra-hautes performances (BFUP) peut être conçu pour éliminer certaines des faiblesses caractéristiques du BC. Le BFUP est défini à travers le monde comme un béton ayant des propriétés mécaniques, de ductilité et de durabilité supérieures. Le BFUP classique comprend entre 800 kg/m³ et 1000 kg/m³ de ciment, de 25 à 35% massique (%m) de fumée de silice (FS), de 0 à 40%m de poudre de quartz (PQ) et 110-140%m de sable de quartz (SQ) (les pourcentages massiques sont basés sur la masse totale en ciment des mélanges). Le BFUP contient des fibres d'acier pour améliorer sa ductilité et sa résistance aux efforts de traction. Les quantités importantes de ciment utilisées pour produire un BFUP affectent non seulement les coûts de production et la consommation de ressources naturelles comme le calcaire, l'argile, le charbon et l'énergie électrique, mais affectent également négativement les dommages sur l'environnement en raison de la production substantielle de gaz à effet de serre dont le gas carbonique (CO[indice inférieur 2]). Par ailleurs, la distribution granulométrique du ciment présente des vides microscopiques qui peuvent être remplis avec des matières plus fines telles que la FS. Par contre, une grande quantité de FS est nécessaire pour combler ces vides uniquement avec de la FS (25 à 30%m du ciment) ce qui engendre des coûts élevés puisqu’il s’agit d’une ressource limitée. Aussi, la FS diminue de manière significative l’ouvrabilité des BFUP en raison de sa surface spécifique Blaine élevée. L’utilisation du PQ et du SQ est également coûteuse et consomme des ressources naturelles importantes. D’ailleurs, les PQ et SQ sont considérés comme des obstacles pour l’utilisation des BFUP à grande échelle dans le marché du béton, car ils ne parviennent pas à satisfaire les exigences environnementales. D’ailleurs, un rapport d'Environnement Canada stipule que le quartz provoque des dommages environnementaux immédiats et à long terme en raison de son effet biologique. Le BFUP est généralement vendu sur le marché comme un produit préemballé, ce qui limite les modifications de conception par l'utilisateur. Il est normalement transporté sur de longues distances, contrairement aux composantes des BC. Ceci contribue également à la génération de gaz à effet de serre et conduit à un coût plus élevé du produit final. Par conséquent, il existe le besoin de développer d’autres matériaux disponibles localement ayant des fonctions similaires pour remplacer partiellement ou totalement la fumée de silice, le sable de quartz ou la poudre de quartz, et donc de réduire la teneur en ciment dans BFUP, tout en ayant des propriétés comparables ou meilleures. De grandes quantités de déchets verre ne peuvent pas être recyclées en raison de leur fragilité, de leur couleur, ou des coûts élevés de recyclage. La plupart des déchets de verre vont dans les sites d'enfouissement, ce qui est indésirable puisqu’il s’agit d’un matériau non biodégradable et donc moins respectueux de l'environnement. Au cours des dernières années, des études ont été réalisées afin d’utiliser des déchets de verre comme ajout cimentaire alternatif (ACA) ou comme granulats ultrafins dans le béton, en fonction de la distribution granulométrique et de la composition chimique de ceux-ci. Cette thèse présente un nouveau type de béton écologique à base de déchets de verre à ultra-hautes performances (BEVUP) développé à l'Université de Sherbrooke. Les bétons ont été conçus à l’aide de déchets verre de particules de tailles variées et de l’optimisation granulaire de la des matrices granulaires et cimentaires. Les BEVUP peuvent être conçus avec une quantité réduite de ciment (400 à 800 kg/m³), de FS (50 à 220 kg/m³), de PQ (0 à 400 kg/m³), et de SQ (0-1200 kg/m³), tout en intégrant divers produits de déchets de verre: du sable de verre (SV) (0-1200 kg/m³) ayant un diamètre moyen (d[indice inférieur 50]) de 275 µm, une grande quantité de poudre de verre (PV) (200-700 kg/m³) ayant un d50 de 11 µm, une teneur modérée de poudre de verre fine (PVF) (50-200 kg/m³) avec d[indice inférieur] 50 de 3,8 µm. Le BEVUP contient également des fibres d'acier (pour augmenter la résistance à la traction et améliorer la ductilité), du superplastifiants (10-60 kg/m³) ainsi qu’un rapport eau-liant (E/L) aussi bas que celui de BFUP. Le remplacement du ciment et des particules de FS avec des particules de verre non-absorbantes et lisse améliore la rhéologie des BEVUP. De plus, l’utilisation de la PVF en remplacement de la FS réduit la surface spécifique totale nette d’un mélange de FS et de PVF. Puisque la surface spécifique nette des particules diminue, la quantité d’eau nécessaire pour lubrifier les surfaces des particules est moindre, ce qui permet d’obtenir un affaissement supérieur pour un même E/L. Aussi, l'utilisation de déchets de verre dans le béton abaisse la chaleur cumulative d'hydratation, ce qui contribue à minimiser le retrait de fissuration potentiel. En fonction de la composition des BEVUP et de la température de cure, ce type de béton peut atteindre des résistances à la compression allant de 130 à 230 MPa, des résistances à la flexion supérieures à 20 MPa, des résistances à la traction supérieure à 10 MPa et un module d'élasticité supérieur à 40 GPa. Les performances mécaniques de BEVUP sont améliorées grâce à la réactivité du verre amorphe, à l'optimisation granulométrique et la densification des mélanges. Les produits de déchets de verre dans les BEVUP ont un comportement pouzzolanique et réagissent avec la portlandite générée par l'hydratation du ciment. Cependant, ceci n’est pas le cas avec le sable de quartz ni la poudre de quartz dans le BFUP classique, qui réagissent à la température élevée de 400 °C. L'addition des déchets de verre améliore la densification de l'interface entre les particules. Les particules de déchets de verre ont une grande rigidité, ce qui augmente le module d'élasticité du béton. Le BEVUP a également une très bonne durabilité. Sa porosité capillaire est très faible, et le matériau est extrêmement résistant à la pénétration d’ions chlorure (≈ 8 coulombs). Sa résistance à l'abrasion (indice de pertes volumiques) est inférieure à 1,3. Le BEVUP ne subit pratiquement aucune détérioration aux cycles de gel-dégel, même après 1000 cycles. Après une évaluation des BEVUP en laboratoire, une mise à l'échelle a été réalisée avec un malaxeur de béton industriel et une validation en chantier avec de la construction de deux passerelles. Les propriétés mécaniques supérieures des BEVUP a permis de concevoir les passerelles avec des sections réduites d’environ de 60% par rapport aux sections faites de BC. Le BEVUP offre plusieurs avantages économiques et environnementaux. Il réduit le coût de production et l’empreinte carbone des structures construites de béton fibré à ultra-hautes performances (BFUP) classique, en utilisant des matériaux disponibles localement. Il réduit les émissions de CO[indice inférieur 2] associées à la production de clinkers de ciment (50% de remplacement du ciment) et utilise efficacement les ressources naturelles. De plus, la production de BEVUP permet de réduire les quantités de déchets de verre stockés ou mis en décharge qui causent des problèmes environnementaux et pourrait permettre de sauver des millions de dollars qui pourraient être dépensés dans le traitement de ces déchets. Enfin, il offre une solution alternative aux entreprises de construction dans la production de BFUP à moindre coût.
Resumo:
Methanol is an important and versatile compound with various uses as a fuel and a feedstock chemical. Methanol is also a potential chemical energy carrier. Due to the fluctuating nature of renewable energy sources such as wind or solar, storage of energy is required to balance the varying supply and demand. Excess electrical energy generated at peak periods can be stored by using the energy in the production of chemical compounds. The conventional industrial production of methanol is based on the gas-phase synthesis from synthesis gas generated from fossil sources, primarily natural gas. Methanol can also be produced by hydrogenation of CO2. The production of methanol from CO2 captured from emission sources or even directly from the atmosphere would allow sustainable production based on a nearly limitless carbon source, while helping to reduce the increasing CO2 concentration in the atmosphere. Hydrogen for synthesis can be produced by electrolysis of water utilizing renewable electricity. A new liquid-phase methanol synthesis process has been proposed. In this process, a conventional methanol synthesis catalyst is mixed in suspension with a liquid alcohol solvent. The alcohol acts as a catalytic solvent by enabling a new reaction route, potentially allowing the synthesis of methanol at lower temperatures and pressures compared to conventional processes. For this thesis, the alcohol promoted liquid phase methanol synthesis process was tested at laboratory scale. Batch and semibatch reaction experiments were performed in an autoclave reactor, using a conventional Cu/ZnO catalyst and ethanol and 2-butanol as the alcoholic solvents. Experiments were performed at the pressure range of 30-60 bar and at temperatures of 160-200 °C. The productivity of methanol was found to increase with increasing pressure and temperature. In the studied process conditions a maximum volumetric productivity of 1.9 g of methanol per liter of solvent per hour was obtained, while the maximum catalyst specific productivity was found to be 40.2 g of methanol per kg of catalyst per hour. The productivity values are low compared to both industrial synthesis and to gas-phase synthesis from CO2. However, the reaction temperatures and pressures employed were lower compared to gas-phase processes. While the productivity is not high enough for large-scale industrial operation, the milder reaction conditions and simple operation could prove useful for small-scale operations. Finally, a preliminary design for an alcohol promoted, liquid-phase methanol synthesis process was created using the data obtained from the experiments. The demonstration scale process was scaled to an electrolyzer unit producing 1 Nm3 of hydrogen per hour. This Master’s thesis is closely connected to LUT REFLEX-platform.
Resumo:
Over the last decade, rapid development of additive manufacturing techniques has allowed the fabrication of innovative and complex designs. One field that can benefit from such technology is heat exchanger fabrication, as heat exchanger design has become more and more complex due to the demand for higher performance particularly on the air side of the heat exchanger. By employing the additive manufacturing, a heat exchanger design was successfully realized, which otherwise would have been very difficult to fabricate using conventional fabrication technologies. In this dissertation, additive manufacturing technique was implemented to fabricate an advanced design which focused on a combination of heat transfer surface and fluid distribution system. Although the application selected in this dissertation is focused on power plant dry cooling applications, the results of this study can directly and indirectly benefit other sectors as well, as the air-side is often the limiting side for in liquid or single phase cooling applications. Two heat exchanger designs were studied. One was an advanced metallic heat exchanger based on manifold-microchannel technology and the other was a polymer heat exchanger based on utilization of prime surface technology. Polymer heat exchangers offer several advantages over metals such as antifouling, anticorrosion, lightweight and often less expensive than comparable metallic heat exchangers. A numerical modeling and optimization were performed to calculate a design that yield an optimum performance. The optimization results show that significant performance enhancement is noted compared to the conventional heat exchangers like wavy fins and plain plate fins. Thereafter, both heat exchangers were scaled down and fabricated using additive manufacturing and experimentally tested. The manifold-micro channel design demonstrated that despite some fabrication inaccuracies, compared to a conventional wavy-fin surface, 15% - 50% increase in heat transfer coefficient was possible for the same pressure drop value. In addition, if the fabrication inaccuracy can be eliminated, an even larger performance enhancement is predicted. Since metal based additive manufacturing is still in the developmental stage, it is anticipated that with further refinement of the manufacturing process in future designs, the fabrication accuracy can be improved. For the polymer heat exchanger, by fabricating a very thin wall heat exchanger (150μm), the wall thermal resistance, which usually becomes the limiting side for polymer heat exchanger, was calculated to account for only up to 3% of the total thermal resistance. A comparison of air-side heat transfer coefficient of the polymer heat exchanger with some of the commercially available plain plate fin surface heat exchangers show that polymer heat exchanger performance is equal or superior to plain plate fin surfaces. This shows the promising potential for polymer heat exchangers to compete with conventional metallic heat exchangers when an additive manufacturing-enabled fabrication is utilized. Major contributions of this study are as follows: (1) For the first time demonstrated the potential of additive manufacturing in metal printing of heat exchangers that benefit from a sophisticated design to yield a performance substantially above the respective conventional systems. Such heat exchangers cannot be fabricated with the conventional fabrication techniques. (2) For the first time demonstrated the potential of additive manufacturing to produce polymer heat exchangers that by design minimize the role of thermal conductivity and deliver a thermal performance equal or better that their respective metallic heat exchangers. In addition of other advantages of polymer over metal like antifouling, anticorrosion, and lightweight. Details of the work are documented in respective chapters of this thesis.
Resumo:
Three types of forecasts of the total Australian production of macadamia nuts (t nut-in-shell) have been produced early each year since 2001. The first is a long-term forecast, based on the expected production from the tree census data held by the Australian Macadamia Society, suitably scaled up for missing data and assumed new plantings each year. These long-term forecasts range out to 10 years in the future, and form a basis for industry and market planning. Secondly, a statistical adjustment (termed the climate-adjusted forecast) is made annually for the coming crop. As the name suggests, climatic influences are the dominant factors in this adjustment process, however, other terms such as bienniality of bearing, prices and orchard aging are also incorporated. Thirdly, industry personnel are surveyed early each year, with their estimates integrated into a growers and pest-scouts forecast. Initially conducted on a 'whole-country' basis, these models are now constructed separately for the six main production regions of Australia, with these being combined for national totals. Ensembles or suites of step-forward regression models using biologically-relevant variables have been the major statistical method adopted, however, developing methodologies such as nearest-neighbour techniques, general additive models and random forests are continually being evaluated in parallel. The overall error rates average 14% for the climate forecasts, and 12% for the growers' forecasts. These compare with 7.8% for USDA almond forecasts (based on extensive early-crop sampling) and 6.8% for coconut forecasts in Sri Lanka. However, our somewhatdisappointing results were mainly due to a series of poor crops attributed to human reasons, which have now been factored into the models. Notably, the 2012 and 2013 forecasts averaged 7.8 and 4.9% errors, respectively. Future models should also show continuing improvement, as more data-years become available.
Resumo:
Terahertz (THz) technology has been generating a lot of interest because of the potential applications for systems working in this frequency range. However, to fully achieve this potential, effective and efficient ways of generating controlled signals in the terahertz range are required. Devices that exhibit negative differential resistance (NDR) in a region of their current-voltage (I-V ) characteristics have been used in circuits for the generation of radio frequency signals. Of all of these NDR devices, resonant tunneling diode (RTD) oscillators, with their ability to oscillate in the THz range are considered as one of the most promising solid-state sources for terahertz signal generation at room temperature. There are however limitations and challenges with these devices, from inherent low output power usually in the range of micro-watts (uW) for RTD oscillators when milli-watts (mW) are desired. At device level, parasitic oscillations caused by the biasing line inductance when the device is biased in the NDR region prevent accurate device characterisation, which in turn prevents device modelling for computer simulations. This thesis describes work on I-V characterisation of tunnel diode (TD) and RTD (fabricated by Dr. Jue Wang) devices, and the radio frequency (RF) characterisation and small signal modelling of RTDs. The thesis also describes the design and measurement of hybrid TD oscillators for higher output power and the design and measurement of a planar Yagi antenna (fabricated by Khalid Alharbi) for THz applications. To enable oscillation free current-voltage characterisation of tunnel diodes, a commonly employed method is the use of a suitable resistor connected across the device to make the total differential resistance in the NDR region positive. However, this approach is not without problems as the value of the resistor has to satisfy certain conditions or else bias oscillations would still be present in the NDR region of the measured I-V characteristics. This method is difficult to use for RTDs which are fabricated on wafer due to the discrepancies in designed and actual resistance values of fabricated resistors using thin film technology. In this work, using pulsed DC rather than static DC measurements during device characterisation were shown to give accurate characteristics in the NDR region without the need for a stabilisation resistor. This approach allows for direct oscillation free characterisation for devices. Experimental results show that the I-V characterisation of tunnel diodes and RTD devices free of bias oscillations in the NDR region can be made. In this work, a new power-combining topology to address the limitations of low output power of TD and RTD oscillators is presented. The design employs the use of two oscillators biased separately, but with the combined output power from both collected at a single load. Compared to previous approaches, this method keeps the frequency of oscillation of the combined oscillators the same as for one of the oscillators. Experimental results with a hybrid circuit using two tunnel diode oscillators compared with a single oscillator design with similar values shows that the coupled oscillators produce double the output RF power of the single oscillator. This topology can be scaled for higher (up to terahertz) frequencies in the future by using RTD oscillators. Finally, a broadband Yagi antenna suitable for wireless communication at terahertz frequencies is presented in this thesis. The return loss of the antenna showed that the bandwidth is larger than the measured range (140-220 GHz). A new method was used to characterise the radiation pattern of the antenna in the E-plane. This was carried out on-wafer and the measured radiation pattern showed good agreement with the simulated pattern. In summary, this work makes important contributions to the accurate characterisation and modelling of TDs and RTDs, circuit-based techniques for power combining of high frequency TD or RTD oscillators, and to antennas suitable for on chip integration with high frequency oscillators.
Resumo:
Vertebrate genomes are organised into a variety of nuclear environments and chromatin states that have profound effects on the regulation of gene transcription. This variation presents a major challenge to the expression of transgenes for experimental research, genetic therapies and the production of biopharmaceuticals. The majority of transgenes succumb to transcriptional silencing by their chromosomal environment when they are randomly integrated into the genome, a phenomenon known as chromosomal position effect (CPE). It is not always feasible to target transgene integration to transcriptionally permissive “safe harbour” loci that favour transgene expression, so there remains an unmet need to identify gene regulatory elements that can be added to transgenes which protect them against CPE. Dominant regulatory elements (DREs) with chromatin barrier (or boundary) activity have been shown to protect transgenes from CPE. The HS4 element from the chicken beta-globin locus and the A2UCOE element from a human housekeeping gene locus have been shown to function as DRE barriers in a wide variety of cell types and species. Despite rapid advances in the profiling of transcription factor binding, chromatin states and chromosomal looping interactions, progress towards functionally validating the many candidate barrier elements in vertebrates has been very slow. This is largely due to the lack of a tractable and efficient assay for chromatin barrier activity. In this study, I have developed the RGBarrier assay system to test the chromatin barrier activity of candidate DREs at pre-defined isogenic loci in human cells. The RGBarrier assay consists in a Flp-based RMCE reaction for the integration of an expression construct, carrying candidate DREs, in a pre-characterised chromosomal location. The RGBarrier system involves the tracking of red, green and blue fluorescent proteins by flow cytometry to monitor on-target versus off-target integration and transgene expression. The analysis of the reporter (GFP) expression for several weeks gives a measure of the protective ability of each candidate elements from chromosomal silencing. This assay can be scaled up to test tens of new putative barrier elements in the same chromosomal context in parallel. The defined chromosomal contexts of the RGBarrier assays will allow for detailed mechanistic studies of chromosomal silencing and DRE barrier element action. Understanding these mechanisms will be of paramount importance for the design of specific solutions for overcoming chromosomal silencing in specific transgenic applications.
Réception de l’Histoire des colonies grecques dans la littérature coloniale des XVIIe-XVIIIe siècles
Resumo:
L’objectif de ce travail était d’apporter une réflexion sur les influences du colonialisme européen aux XVII-XVIIIe siècles. Ayant déjà rédigé mon mémoire de fin de maîtrise sur la Corinthe archaïque et ses colonies, j’ai souhaité approfondir la question, en choisissant de situer la problématique dans un contexte historiographique plus large, dans le temps comme dans l’espace. Plusieurs auteurs se sont intéressés aux réceptions de l’Antiquité à des périodes spécifiques (Grell et Alexandre le Grand en France, Richard et les influences antiques de la Révolution américaine,…). Cependant, aucune analyse sur le long terme n’avait encore été fournie, pas davantage qu’une réflexion de fonds sur la place de l’Antiquité dans la manière de penser les colonies en Europe moderne. Cet état de fait, de même que la relative rareté des sources modernes traitant des colonies grecques, m’ont obligé à élargir au maximum le champ de recherche, en y incluant des auteurs qui, s’ils ne se préoccupèrent pas de colonisation, recoururent néanmoins au précédent grec pour illustrer des problématiques de leur temps. Toutefois, il est possible de constater à quel point les répertoires historiographiques concernant la Grèce antique et ses colonisations se sont développés dans le courant de ces deux siècles qui virent l’apogée et la chute des premiers empires coloniaux européens en Amérique du nord. Si la comparaison à l’Histoire grecque ne relevait souvent que du Topos et de la propagande (comme dans le cas de la comparaison du Grand Condé ou de Louis XIV à Alexandre le Grand), son utilisation dans le cadre de controverses à plus large échelle outrepassait aussi le seul lieu commun pour s’inscrire dans un discours rhétorique plus approfondi. Le choix de la colonisation grecque comme modèle de comparaison s’imposait d’autant plus logiquement que les divers auteurs, depuis les premiers colons jusqu’aux pères fondateurs américains, insistaient sur les mérites économiques des colonies européennes. D’autres régimes, comme l’empire espagnol au XVIe siècle ou l’empire britannique au XIXe siècle, ont davantage recouru à une terminologie d’inspiration romaine. En effet, leur politique se fondait plus sur l’idée d’une extension impérialiste de l’État que sur une vision commerciale du colonialisme. L’article de Krishan Kumar demeure l’un des plus importants sur la question. La réception de l’Histoire des colonies grecques aux Temps modernes fut avant tout le fruit d’une tentative de définition du colonialisme comme phénomène global, et d’une volonté de situer les nations européennes dans un contexte remontant aux origines de l’Occident. À l’heure où l’Europe amorçait sa domination sur la totalité de la planète, et où la course à la colonisation s’accélérait, la majorité des auteurs s’abritaient derrière l’image de thalassocraties antiques qui, si elles ne dénotaient pas un pouvoir politique centralisé, n’en contribuèrent pas moins à imposer la culture fondatrice de la pensée occidentale à tout le bassin méditerranéen. Quant aux guerres qui poussèrent les puissances antiques les unes contre les autres, elles ne faisaient qu’augurer des conflits à large échelle que furent les guerres franco-britanniques du XVIIIe siècle.