992 resultados para BLANK FIELD SOURCES


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A considerable fraction of the -ray sources discovered with the Energetic Gamma-Ray Experiment Telescope (EGRET) remain unidentified. The EGRET sources that have been properly identified are either pulsars or variable sources at both radio and gamma-ray wavelengths. Most of the variable sources are strong radio blazars. However, some low galactic-latitude EGRET sources, with highly variable -ray emission, lack any evident counterpart according to the radio data available until now. Aims. The primary goal of this paper is to identify and characterise the potential radio counterparts of four highly variable -ray sources in the galactic plane through mapping the radio surroundings of the EGRET confidence contours and determining the variable radio sources in the field whenever possible. Methods. We have carried out a radio exploration of the fields of the selected EGRET sources using the Giant Metrewave Radio Telescope (GMRT) interferometer at 21 cm wavelength, with pointings being separated by months. Results. We detected a total of 151 radio sources. Among them, we identified a few radio sources whose flux density has apparently changed on timescales of months. Despite the limitations of our search, their possible variability makes these objects a top-priority target for multiwavelength studies of the potential counterparts of highly variable, unidentified gamma-ray sources.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Soil tillage promotes changes in soil structure. The magnitude of the changes varies with the nature of the soil, tillage system and soil water content and decreases over time after tillage. The objective of this study was to evaluate short-term (one year period) and long-term (nine year period) effects of soil tillage and nutrient sources on some physical properties of a very clayey Hapludox. Five tillage systems were evaluated: no-till (NT), chisel plow + one secondary disking (CP), primary + two (secondary) diskings (CT), CT with burning of crop residues (CTb), and CT with removal of crop residues from the field (CTr), in combination with five nutrient sources: control without nutrient application (C); mineral fertilizers, according to technical recommendations for each crop (MF); 5 Mg ha-1 yr-1 of poultry litter (wetmatter) (PL); 60 m³ ha-1 yr-1 of cattle slurry (CS) and; 40 m³ ha-1 yr-1 of swine slurry (SS). Bulk density (BD), total porosity (TP), and parameters related to the water retention curve (macroporosity, mesoporosity and microporosity) were determined after nine years and at five sampling dates during the tenth year of the experiment. Soil physical properties were tillage and time-dependent. Tilled treatments increased total porosity and macroporosity, and reduced bulk density in the surface layer (0.00-0.05 m), but this effect decreased over time after tillage operations due to natural soil reconsolidation, since no external stress was applied in this period. Changes in pore size distribution were more pronounced in larger and medium pore diameter classes. The bulk density was greatest in intermediate layers in all tillage treatments (0.05-0.10 and 0.12-0.17 m) and decreased down to the deepest layer (0.27-0.32 m), indicating a more compacted layer around 0.05-0.20 m. Nutrient sources did not significantly affect soil physical and hydraulic properties studied.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The ability of a soil to keep its structure under the erosive action of water is usually high in natural conditions and decreases under frequent and intensive cultivation. The effect of five tillage systems (NT = no-till; CP = chisel plowing and one secondary disking; CT = primary and two secondary distings; CTb = CT with crop residue burning; and CTr = CT with removal of crop residues from the field), combined with five nutrient sources (C = control, no nutrient application; MF = mineral fertilizers according to technical recommendations for each crop; PL = 5 Mg ha-1 y-1 fresh matter of poultry litter; CM = 60 m³ ha-1 y-1 slurry cattle manure; and SM = 40 m³ ha-1 y-1 slurry swine manure) on wet-aggregate stability was determined after nine years (four sampled soil layers) and on five sampling dates in the 10th year (two sampled soil layers) of the experiment. The size distribution of the air-dried aggregates was strongly affected by soil bulk density, and greater values of geometric mean diameter (GMD AD) found in some soil tillage or layer may be partly due to the higher compaction degree. After nine years, the GMD AD on the surface was greater in NT and CP compared to conventional tillage systems (CT, CTb and CTr), due to the higher organic matter content, as well as less soil mobilization. Aggregate stability in water, on the other hand, was affected by the low variation in previous gravimetric moisture of aggregates, which contributed to a high coefficient of variation of this attribute. The geometric mean diameter of water-stable aggregates (GMD WS) was highest in the 0.00-0.05 m layer in the NT system, in the layers 0.05-0.10 and 0.12-0.17 m in the CT, and values were intermediate in CP. The stability index (SI) in the surface layers was greater in treatments where crop residues were kept in the field (NT, CP and CT), which is associated with soil organic matter content. No differences were found in the layer 0.27-0.32 m. The effect of nutrient sources on GMD AD and GMD WS was small and did not affect SI.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Despite the large number of studies addressing the quantification of phosphorus (P) availability by different extraction methods, many questions remain unanswered. The aim of this paper was to compare the effectiveness of the extractors Mehlich-1, Anionic Resin (AR) and Mixed Resin (MR), to determine the availability of P under different experimental conditions. The laboratory study was arranged in randomized blocks in a [(3 x 3 x 2) + 3] x 4 factorial design, with four replications, testing the response of three soils with different texture: a very clayey Red Latosol (LV), a sandy clay loam Red Yellow Latosol (LVA), and a sandy loam Yellow Latosol (LA), to three sources (triple superphosphate, reactive phosphate rock from Gafsa-Tunisia; and natural phosphate from Araxá-Minas Gerais) at two P rates (75 and 150 mg dm-3), plus three control treatments (each soil without P application) after four contact periods (15, 30, 60, and 120 days) of the P sources with soil. The soil acidity of LV and LVA was adjusted by raising base saturation to 60 % with the application of CaCO3 and MgCO3 at a 4:1 molar ratio (LA required no correction). These samples were maintained at field moisture capacity for 30 days. After the contact periods, the samples were collected to quantify the available P concentrations by the three extractants. In general, all three indicated that the available P-content in soils was reduced after longer contact periods with the P sources. Of the three sources, this reduction was most pronounced for triple superphosphate, intermediate for reactive phosphate, while Araxá phosphate was least sensitive to the effect of time. It was observed that AR extracted lower P levels from all three soils when the sources were phosphate rocks, while MR extracted values close to Mehlich-1 in LV (clay) and LVA (medium texture) for reactive phosphate. For Araxá phosphate, much higher P values were determined by Mehlich-1 than by the resins, because of the acidity of the extractor. For triple superphosphate, both resins extracted higher P levels than Mehlich-1, due to the consumption of this extractor, particularly when used for LV and LVA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The integral representation of the electromagnetic two-form, defined on Minkowski space-time, is studied from a new point of view. The aim of the paper is to obtain an invariant criteria in order to define the radiative field. This criteria generalizes the well-known structureless charge case. We begin with the curvature two-form, because its field equations incorporate the motion of the sources. The gauge theory methods (connection one-forms) are not suited because their field equations do not incorporate the motion of the sources. We obtain an integral solution of the Maxwell equations in the case of a flow of charges in irrotational motion. This solution induces us to propose a new method of solving the problem of the nature of the retarded radiative field. This method is based on a projection tensor operator which, being local, is suited to being implemented on general relativity. We propose the field equations for the pair {electromagnetic field, projection tensor J. These field equations are an algebraic differential first-order system of oneforms, which verifies automatically the integrability conditions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The overarching goal of this project was to identify and evaluate cognitive and behavioral indices that are sensitive to sleep deprivation and may help identify commercial motor vehicle drivers (CMV) who are at-risk for driving in a sleep deprived state and may prove useful in field tests administered by officers. To that end, we evaluated indices of driver physiognomy (e.g., yawning, droopy eyelids, etc.) and driver behavioral/cognitive state (e.g. distracted driving) and the sensitivity of these indices to objective measures of sleep deprivation. The measures of sleep deprivation were sampled on repeated occasions over a period of 3.5-months in each of 44 drivers diagnosed with Obstructive Sleep Apnea (OSA) and 22 controls (matched for gender, age within 5 years, education within 2 years, and county of residence for rural vs. urban driving). Comprehensive analyses showed that specific dimensions of driver physiognomy associated with sleepiness in previous research and face-valid composite scores of sleepiness did not: 1) distinguish participants with OSA from matched controls; 2) distinguish participants before and after PAP treatment including those who were compliant with their treatment; 3) predict levels of sleep deprivation acquired objectively from actigraphy watches, not even among those chronically sleep deprived. Those findings are consistent with large individual differences in driver physiognomy. In other words, when individuals were sleep deprived as confirmed by actigraphy watch output they did not show consistently reliable behavioral markers of being sleep deprived. This finding held whether each driver was compared to him/herself with adequate and inadequate sleep, and even among chronically sleep deprived drivers. The scientific evidence from this research study does not support the use of driver physiognomy as a valid measure of sleep deprivation or as a basis to judge whether a CMV driver is too fatigued to drive, as on the current Fatigued Driving Evaluation Checklist.. Fair and accurate determinations of CMV driver sleepiness in the field will likely require further research on alternative strategies that make use of a combination of information sources besides driver physiognomy, including work logs, actigraphy, in vehicle data recordings, GPS data on vehicle use, and performance tests.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This project consisted of slipforming a 4-inch thick econocrete subbase on a 6-mile section of US 63. The project location extends south from one mile south of Denver, Iowa to Black Hawk County Road C-66 and consisted of the reconstruction and new construction of a divided four-lane facility. The econocrete was placed 27.3 feet wide in a single pass. Fly ash was used in this field study to replace 30, 45 and 60 percent of the portland cement in three portland cement econocrete base paving mixes. The three mixes contained 300, 350 and 400 pounds of cementitious material per cubic yard. Two Class "C" ashes from Iowa approved sources were used. The ash was substituted on the basis of one pound of ash for each pound of cement removed. The work was done October 6-29, 1987 and May 25-June 9, 1988. The twelve subbase mixes were placed in sections 2500 to 3000 feet in length on both the north and southbound roadways. Compressive strengths of all mixes were determined at 3 and 28 days of age. Flexural strengths of all mixes were determined at 7 and 14 days. In all cases strengths were adequate. The freeze/thaw durability of the econocrete mixes used was reduced by increased fly ash levels but remained above acceptable limits. The test results demonstrate the feasibility of producing econocrete with satisfactory properties even using fly ash at substitution rates up to 45 percent.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This is Part 3 of a study of creep and resilient modulus testing of hot mix asphalt concrete. The creep and resilient modulus testing in Part 1 showed the improved load carrying characteristics of crushed particles. Cores from pavements drilled in Part 2 exhibited a poor correlation with rutting and creep/resilient modulus on pavement with a range of rut depths. The objective of Part 3 was to determine the relationship of creep and resilient modulus for 1) Marshall specimens from laboratory mixing for mix design; 2) Marshall specimens from construction plant mixing; and 3) cores drilled from the hot mixed asphalt pavement. The creep and resilient modulus data from these three sources exhibited substantial variations. No meaningful correlations of the results from these three sources were obtained.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

During the summer of 1963 the Materials Department noted the three to four ·year old concrete pavement on I-80 in Cass County was showing extensive surface cracking adjacent to joints and cracks. An examination of the pavement and a few cores from the cracked areas was made by the I.S.H.C. Materials Department and later by David Stark of the P.C.A. Additional surveys were conducted on other concrete pavement made with coarse aggregate from similar rock from two different sources. Blue-line cracking was found on some primary pavement and the indications of incipient cracks were seen on I-29 in Pottawattamie County, north of Council Bluffs. A good "D"-crack pattern is now evident. Surveys were then made of the entire Interstate concrete pavement. No other sections of Interstate were "D"-cracking, although some sections showed joint discoloration. None of these pavements, including the discolored sections, contained "D"-crack associated aggregates. At the same time as the Interstate survey additional pavements and sources were checked. Some "D"-cracking was noticed on certain sections of primary pavement 5-10 years old, in the vicinity of Waterloo and Cedar Rapids. The "D"-cracked pavement was from three aggregate sources, the Newton, Otis, and Burton Ave. quarries. Other pavements in this area that were older or from· different· coarse aggregate sources were not "D"-cracked. We believe that all the "D"-cracking is related, although dedolomitization is probably involved in the intermediate dolomite rocks.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Aujourd'hui la PEA est devenue la méthode la plus employée dans le champ des études de mobilisation. Toutefois, il est frappant que les limites, nombreuses, de cette méthode, demeurent peu explorées, malgré une abondante littérature critique. C'est à ces questions des biais propres aux sources de presse dans le cadre de la PEA et aux moyens de les explorer que ce working paper se consacre. Nous commencerons par montrer, en deux temps, comment la question de la systématicité gagne à être explorée à partir d'enquêtes qualitatives, en nous appuyant sur un travail inédit mené naguère auprès du journal Le Monde, dans le cadre d'une recherche collective sur les transformations de l'activisme environnemental en Europe, dont les données seront comparées avec des sources de police, le dépouillement des dépêches de l'Agence France-Presse sur six mois, et surtout une série d'interviews avec des journalistes spécialisés dans l'environnement. L'on revient dans un second temps à la question de la sélectivité des sources en tentant de montrer comment dans toute une série de circonstances et pour toute une série de groupes, les luttes ne sauraient se réduire ni aux événements protestataires ni à un appel à l'Etat ou à l'opinion. L'on espère ainsi proposer des moyens de se garder d'un défaut commun à tout conventionnalisme méthodologique qui, ici comme ailleurs, frappe la recherche, soit la réitération de mesures conventionnelles ayant pour effet de les institutionnaliser en dehors de toute réflexion sur leur pertinence. Protest Events Analysis (PEA) has by no doubts become one the most used method in the field of social movement research. Yet, the numerous biases of that method have not been explored completely, despite a rich litterature. Our paper first proposes a discussion of the systematicity of biases, based on an empirical research on environmental journalists in various French newspapers and Agence France press. Secondly, we deal with the question of selectivity of biases. Finally, we propose some methodological recommendations in order to improve our understanding of social movements and to avoid methodological conventionalism.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Työssä tutkitaan telepäätelaitteen yli gigahertsin taajuisen säteilevän RF kentän sietoisuutta. Mittauksissa testattava laite on Tellabs Oy:n valmistaman CTU modeemin tuotekehitysversio. Teoriaosassa käydään läpi sähkömagneettisten aaltojen teoriaa, sekä säteilevän RF kentän aiheuttamien sähkömagneettiset häiriöiden syntymekanismeja. Myös säteilevien häiriöiden EMC mittauksiin tarvittavien mittalaitteiden tärkeimmät ominaisuudet esitellään, sekä pohditaan yli gigahertsin taajuuksille sopivien EMC mittalaitteiden vaatimuksia. EMC standardit eivät tällä hetkellä aseta vaatimuksia telelaitteiden RF kentän sietoisuudelle yli gigahertsin taajuudella. Tämän vuoksi työssä käsitellään myös todennäköisimpiä häiriölähteitä tällä taajuusalueella. Mittauksissa tutkittiin CTU:n RF kentän sietoisuutta taajuusalueella l - 4.2 GHz. Mittaukset suoritettiin sekä radiokaiuttomassa kammiossa että GTEM solussa. Myös metallisten lisäsuojien vaikutusta CTU:n kentänsietoisuuteen tutkittiin GTEM solussa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The modern generation of Cherenkov telescopes has revealed a new population of gamma-ray sources in the Galaxy. Some of them have been identified with previously known X-ray binary systems while other remain without clear counterparts a lower energies. Our initial goal here was reporting on extensive radio observations of the first extended and yet unidentified source, namely TeV J2032+4130. This object was originally detected by the HEGRA telescope in the direction of the Cygnus OB2 region and its nature has been a matter of debate during the latest years. The situation has become more complex with the Whipple and MILAGRO telescopes new TeV detections in the same field which could be consistent with the historic HEGRA source, although a different origin cannot be ruled out. Aims.We aim to pursue our radio exploration of the TeV J2032+4130 position that we initiated in a previous paper but taking now into account the latest results from new Whipple and MILAGRO TeV telescopes. The data presented here are an extended follow up of our previous work. Methods.Our investigation is mostly based on interferometric radio observations with the Giant Metre Wave Radio Telescope (GMRT) close to Pune (India) and the Very Large Array (VLA) in New Mexico (USA). We also conducted near infrared observations with the 3.5 m telescope and the OMEGA2000 camera at the Centro Astronómico Hispano Alemán (CAHA) in Almería (Spain). Results.We present deep radio maps centered on the TeV J2032+4130 position at different wavelengths. In particular, our 49 and 20 cm maps cover a field of view larger than half a degree that fully includes the Whipple position and the peak of MILAGRO emission. Our most important result here is a catalogue of 153 radio sources detected at 49 cm within the GMRT antennae primary beam with a full width half maximum (FWHM) of 43 arc-minute. Among them, peculiar sources inside the Whipple error ellipse are discussed in detail, including a likely double-double radio galaxy and a one-sided jet source of possible blazar nature. This last object adds another alternative counterpart possibility to be considered for both the HEGRA, Whipple and MILAGRO emission. Moreover, our multi-configuration VLA images reveal the non-thermal extended emission previously reported by us with improved angular resolution. Its non-thermal spectral index is also confirmed thanks to matching beam observations at the 20 and 6 cm wavelengths.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We present preliminary results of a campaign undertaken with different radio interferometers to observe a sample of the most variable unidentified EGRET sources. We expect to detect which of the possible counterparts of the gamma-ray sources (any of the radio emitters in the field) varies in time with similar timescales as the gamma-ray variation. If the gamma-rays are produced in a jet-like source, as we have modelled theoretically, synchrotron emission is also expected at radio wavelengths. Such radio emission should appear variable in time and correlated with the gamma-ray variability.