970 resultados para bug analyzer


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A sample of 21 light duty vehicles powered by Otto cycle engines were tested on a chassis dynamometer to measure the exhaust emissions of nitrous oxide (N2O). The tests were performed at the Vehicle Emission Laboratory of CETESB (Environmental Company of the State of Sao Paulo) using the US-FTP-75 (Federal Test Procedure) driving cycle. The sample tested included passenger cars running on three types of fuels used in Brazil: gasohol, ethanol and CNG. The measurement of N2O was made using two methods: Non Dispersive InfraRed (NDIR) analyzer and Fourier Transform InfraRed spectroscopy (FTIR). Measurements of regulated pollutants were also made in order to establish correlations between N2O and NOx. The average N2O emission factors obtained by the NDIR method was 78 +/- 41 mg.km(-1) for vehicles running with gasohol, 73 +/- 45 mg.km(-1) for ethanol vehicles and 171 +/- 69 mg.km(-1) for CNG vehicles. Seventeen results using the FTIR method were also obtained. For gasohol vehicles the results showed a good agreement between the two methods, with an average emission factor of 68 +/- 41 mg.km(-1). The FTIR measurement results of N2O for ethanol and CNG vehicles were much lower than those obtained by the NDIR method. The emission factors were 17 +/- 10 mg.km(-1) and 33 +/- 17 mg.km(-1), respectively, possibly because of the interference of water vapor (present at a higher concentration in the exhaust gases of these vehicles) on measurements by the NDIR method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectives: Aerobic exercise training has been established as an important nonpharmacological treatment for hypertension. We investigated whether the number and function of endothelial progenitor cells (EPCs) are restored after exercise training, potentially contributing to neovascularization in hypertension. Methods: Twelve-week-old male spontaneously hypertensive rats (SHRs, n = 14) and Wistar Kyoto (WKY, n = 14) rats were assigned to four groups: SHR; trained SHR (SHR-T); WKY; and trained WKY. Exercise training consisted of 10 weeks of swimming. EPC number and function, as well as the vascular endothelial growth factor (VEGF), nitrotyrosine and nitrite concentration in peripheral blood were quantified by fluorescence-activated cell sorter analysis (CD34+/Flk1+ cells), colony-forming unit assay, ELISA and nitric oxide (NO) analyzer, respectively. Soleus capillary/fiber ratio and protein expression of VEGF and endothelial NO synthase (eNOS) by western blot were assessed. Results: Exercise training was effective in reducing blood pressure in SHR-T accompanied by resting bradycardia, an increase in exercise tolerance, peak oxygen uptake (VO2) and citrate synthase activity. In response to hypertension, the amount of peripheral blood-EPC and number of colonies were decreased in comparison with control levels. In contrast, exercise training normalized the EPC levels and function in SHR-T accompanied by an increase in VEGF and NO levels. In addition, oxidative stress levels were normalized in SHR-T. Similar results were found in the number and function of bone marrow EPC. Exercise training repaired the peripheral capillary rarefaction in hypertension by a signaling pathway VEGF/eNOS-dependent in SHR-T. Moreover, improvement in EPC was significantly related to angiogenesis. Conclusion: Our data show that exercise training repairs the impairment of EPC in hypertension, which could be associated with peripheral revascularization, suggesting a mechanism for its potential therapeutic: application in vascular diseases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Background: In the setting of stable coronary artery disease (CAD), it is not known if the pleiotropic effects of cholesterol reduction differ between combined ezetimibe/simvastatin and high-dose simvastatin alone. Objective: We sought to compare the anti-inflammatory and antiplatelet effects of ezetimibe 10 mg/simvastatin 20 mg (E10/S20) with simvastatin 80 mg (S80). Methods and results: CAD patients (n = 83, 63 +/- 9 years, 57% men) receiving S20, were randomly allocated to receive E10/S20 or S80, for 6 weeks. Lipids, inflammatory markers (C-reactive protein, interleukin-6, monocyte chemoattractant protein-1, soluble CD40 ligand and oxidized LDL), and platelet aggregation (platelet function analyzer [PFA]-100) changes were determined. Baseline lipids, inflammatory markers and PFA-100 were similar between groups. After treatment, E10/S20 and S80 patients presented, respectively: (1) similar reduction in LDL-C (29 +/- 13% vs. 28 +/- 30%, p = 0.46), apo-B (18 +/- 17% vs. 22 +/- 15%, p = 0.22) and oxidized LDL (15 +/- 33% vs. 18 +/- 47%, p = 0.30); (2) no changes in inflammatory markers; and, (3) a higher increase of the PFA-100 with E10/S20 than with S80 (27 +/- 43% vs. 8 +/- 33%, p = 0.02). Conclusions: These data suggest that among stable CAD patients treated with S20, (1) both E10/S20 and S80 were equally effective in further reducing LDL-C; (2) neither treatment had any further significant anti-inflammatory effects; and (3) E10/S20 was more effective than S80 in inhibiting platelet aggregation. Thus, despite similar lipid lowering and doses 4x less of simvastatin, E10/S20 induced a greater platelet inhibitory effect than S80. (C) 2011 Elsevier Ireland Ltd. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Occurrence of Zoophthora radicans infecting nymphs and adults of Thaumastocoris peregrinus Carpintero and Dellape, 2006 is reported in Brazil. This is a new record of host for this fungal species and the first fungal pathogen associated with this pest worldwide. Infection of Z. radicans on T. peregrinus populations on commercial Eucalyptus plantation (Eucalyptus spp.) reached up to 100%, and low insect densities were associated with high levels of fungal infection in three out of seven plots. This pathogen seems to be virulent against T. peregrinus and may play an important role in population regulations of this invasive pest through naturally induced epizootics. (c) 2012 Elsevier Inc. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Purpose: To evaluate biomechanical changes measured with the ORA (Ocular Response Analyzer (R); Reichert Ophthalmic Instruments, Buffalo, New York, USA) after Lasik with the Moria One Use Plus and to compare the biomechanics changes after myopic and hyperopic ablations. Methods: Fourteeneyes for hyperopia (H) and 19 eyes for myopia (M) were evaluated with the ORA preoperatively and 1 month after Lasik with thin flap (100 microns) using SBK-OUP (Sub-Bowman Keratomileusis-One Use Plus, Moria (R)). CH (Corneal Hysteresis), CRF (Corneal Resistance Factor), IOPg (gold-standard, Goldmann correlated Intraocular pressure), IOPcc (Corneal compensated Intraocular pressure) and more 38 variables derived from the corneal biomechanical response signal of the ORA were analyzed. The Wilcoxon test was used to assess differences between the variables before and after surgery for each group and the differences between the pre and postoperative (1 month) myopic eyes were compared with those obtained in hyperopic eyes, using the Mann-Whitney test. Results: There was a significant difference before and after Lasik in myopic and hyperopic eyes in IOPg (Wilcoxon, p<0.05), but not in IOPcc. Only myopic eyes showed a significant difference in CH and CRF measurements before and after LASIK, as well as 9 other biomechanical parameters (aspect1, h1, dive1, path1, p1area1, W11, H11, and w2 path11; Wilcoxon, p<0, 05), 8 of these being related to the first sign of flattening. Five parameters related to the sign of the second applanation showed significant variation only in the eyes before and after hyperopic Lasik (aspect2, h2, dive2, mslew2 and H21; Wilcoxon, p<0,05). There was a difference in both myopic and hyperopic on three parameters related to the applanation signal areas (p1area, and p2area p2area1; Wilcoxon, p<0.05). Differences in IOPg and p1area, before and after surgery were significantly higher in myopic eyes than in hyperopic eyes (Mann-Whitey, p<0.05). Conclusion: There are several significant differences in biomechanical parameters after Lasik with Moria OUP_SBK. Overall, the impact of myopic LASIK on corneal biomechanics is higher than of hyperopic Lasik. The parameters derived from the first sign of the ORA are more affected in myopic LASIK, whereas parameters derived from the second applanation are more affected in hyperopic LASIK.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Purpose: To investigate the rate of visual field and optic disc change in patients with distinct patterns of glaucomatous optic disc damage. Design: Prospective longitudinal study. Participants: A total of 131 patients with open-angle glaucoma with focal (n = 45), diffuse (n = 42), and sclerotic (n = 44) optic disc damage. Methods: Patients were examined every 4 months with standard automated perimetry (SAP, SITA Standard, 24-2 test, Humphrey Field Analyzer, Carl Zeiss Meditec, Dublin, CA) and confocal scanning laser tomography (CSLT, Heidelberg Retina Tomograph, Heidelberg Engineering GmbH, Heidelberg, Germany) for a period of 4 years. During this time, patients were treated according to a predefined protocol to achieve a target intraocular pressure (IOP). Rates of change were estimated by robust linear regression of visual field mean deviation (MD) and global optic disc neuroretinal rim area with follow-up time. Main Outcome Measures: Rates of change in MD and rim area. Results: Rates of visual field change in patients with focal optic disc damage (mean -0.34, standard deviation [SD] 0.69 dB/year) were faster than in patients with sclerotic (mean - 0.14, SD 0.77 dB/year) and diffuse (mean + 0.01, SD 0.37 dB/year) optic disc damage (P = 0.003, Kruskal-Wallis). Rates of optic disc change in patients with focal optic disc damage (mean - 11.70, SD 25.5 x 10(-3) mm(2)/year) were faster than in patients with diffuse (mean -9.16, SD 14.9 x 10(-3) mm(2)/year) and sclerotic (mean -0.45, SD 20.6 x 10(-3) mm(2)/year) optic disc damage, although the differences were not statistically significant (P = 0.11). Absolute IOP reduction from untreated levels was similar among the groups (P = 0.59). Conclusions: Patients with focal optic disc damage had faster rates of visual field change and a tendency toward faster rates of optic disc deterioration when compared with patients with diffuse and sclerotic optic disc damage, despite similar IOP reductions during follow-up. Financial Disclosure(s): Proprietary or commercial disclosure may be found after the references. Ophthalmology 2012; 119: 294-303 (C) 2012 by the American Academy of Ophthalmology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In mass spectrometric (MS) systems with electrospray ionization (ESI), the sample can be analyzed coupled to separation systems (such as liquid chromatography or capillary electrophoresis) or simply by direct infusion. The greatest benefit of the type of injection is the possibility of continuous use of small amounts of samples over a long period of time. This extended analysis time allows a complete study of fragmentation by mass spectrometry, which is critical for structure elucidation of new compounds, or when using an ion trap mass analyzer. The injector filled with the sample is placed at the ESI source inlet creating an electric field suitable for the continuous formation of a spray (solvent and sample) and consequently, the gradual and even release of the sample. For the formation of the spray, is necessary that the injector end is metalized. The formation of a bilayer of titanium and gold provided an excellent attachment of the film, resulting in a nanoinjector for ionization/spray formation in the system for MS. The nanoinjectors showed high repeatability and stability over 100 min by continuous sampling with 10 µL of sample.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chemical disinfectants are usually associated with mechanical methods to remove stains and reduce biofilm formation. This study evaluated the effect of disinfectants on release of metal ions and surface roughness of commercially pure titanium, metal alloys, and heat-polymerized acrylic resin, simulating 180 immersion trials. Disk-shaped specimens were fabricated with commercially pure titanium (Tritan), nickel-chromium-molybdenum-titanium (Vi-Star), nickel-chromium (Fit Cast-SB Plus), and nickel-chromium-beryllium (Fit Cast-V) alloys. Each cast disk was invested in the flasks, incorporating the metal disk to the heat-polymerized acrylic resin. The specimens (n=5) were immersed in these solutions: sodium hypochlorite 0.05%, Periogard, Cepacol, Corega Tabs, Medical Interporous, and Polident. Deionized water was used as a control. The quantitative analysis of metal ion release was performed using inductively coupled plasma mass spectrometry (ELAN DRC II). A surface analyzer (Surftest SJ-201P) was used to measure the surface roughness (µm). Data were recorded before and after the immersions and evaluated by two-way ANOVA and Tukey's test (α=0.05). The nickel release proved most significant with the Vi-Star and Fit Cast-V alloys after immersion in Medical Interporous. There was a significant difference in surface roughness of the resin (p=0.011) after immersion. Cepacol caused significantly higher resin roughness. The immersion products had no influence on metal roughness (p=0.388). It could be concluded that the tested alloys can be considered safe for removable denture fabrication, but disinfectant solutions as Cepacol and Medical Interporous tablet for daily denture immersion should be used with caution because it caused greater resin surface roughness and greater ion release, respectively.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste artigo descreve-se uma pesquisa na qual se desenvolveu um analisador de desfibriladores e cardioversores e se executou sua avaliação metrológica, sendo apresentados os resultados obtidos. A avaliação das incertezas de medição do analisador foi realizada de acordo com as determinações da versão brasileira do EA-4/02 - Expressão da Incerteza de Medição de Calibração publicado pelo INMETRO. Os resultados obtidos mostraram-se adequados às exigências de exatidão determinadas pelas normas ANSI/AAMI DF2 (American..., 1996) e ANSI/AAMI DF80 (American..., 2003), tendo apresentado uma incerteza expandida relativa para as medições de energia igual a 1,0% no pior caso. Nesta pesquisa foi também realizada uma análise da incerteza definicional do processo de calibração utilizado e avaliou-se a capacidade do processo. Para os cálculos da capacidade do processo, foi determinado um erro máximo para as medições de energia igual a 5% ou 1,0 J, o que for maior. Este erro máximo é igual a 1/3 do erro máximo admissível para a energia entregue pelos desfibriladores, em outras palavras, é igual ao erro máximo admissível para um instrumento de medição pela Norma ANSI/AAMI DF2 (American..., 1996). Os resultados obtidos para a capacidade do procedimento de calibração mostraram-se adequados para as especificações de um analisador de desfibriladores e cardioversores, tendo obtido como resultado, no pior caso, um índice de capacidade Cm igual a 2,87, que é bem superior, portanto, a 1,0, sendo este o limite mínimo para que o procedimento seja considerado capaz de calibrar a medição de energia sem atribuir uma incerteza definicional demasiadamente grande.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Admission blood lactate concentration has been shown to be a useful indicator of disease severity in human medicine and numerous studies have associated hyperlactatemia with patients at high risk of death who should be treated aggressively regardless of the cause of the lactate generation. The degree and duration of hyperlactacidaemia also have been correlated with the subsequent development of organ failure. Similarly, in a small number of studies about equine colic, blood lactate concentration has been investigated as a useful prognostic variable . In neonatal foals blood lactate was studied first by Magdesian (2003) who described venous blood lactate concentration in 14 normal foals during the initial 48 hours post-partum. A preliminary study about lactate concentration in foals presenting to a neonatal intensive care unit reported that surviving foals had earlier lactate clearance. The measurement of blood lactate concentration is traditionally available with a wet chemistry laboratory method or with blood-gas analyzers, for clinicians working at university or large private hospital. But this methods may not be easily accessible to many practitioners in field conditions. Several relatively inexpensive, easy to use and rapid pocket size monitors to measure lactate concentration have been validated in human patients and athletes. None of these portable lactate analyzer have been evaluated in clinically normal neonatal foals or in foals referred to a neonatal intensive care unit. The aims of this study were to validate the Lactate Scout analyzer in neonatal foals, investigating the correlation between lactate concentration in whole blood measured with the portable monitor and measured in plasma with the reference laboratory analyzer. The effect of hematocrit (Hct) on the accuracy of Lactate Scout was also evaluated. Further, we determined the utility of venous lactate measurement in critically-ill foals, describing lactate values in the most frequent neonatal pathologies, evaluating serial blood lactate measurements during hospitalization and investigating its prognostic value. The study also describes normal range for lactate in healthy neonatal foals during the first 72 hours of life.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi tratta il tema delle reti complesse, mostrando i principali modelli di rete complessa quali: il modello Random, il modello Small-World ed il modello Scale-free; si introdurranno alcune metriche usate per descrivere le reti complesse quali la Degree centrality, la Closeness centrality e la Betweenness centrality; si descriveranno i problemi da tenere in considerazione durante la definizione e l’implementazione di algoritmi su grafi; i modelli di calcolo su cui progettare gli algoritmi per risolvere i problemi su grafi; un’analisi prestazionale degli algoritmi proposti per calcolare i valori di Beweenness centrality su grafi di medio-grandi dimensioni. Parte di questo lavoro di tesi è consistito nello sviluppo di LANA, LArge-scale Network Analyzer, un software che permette il calcolo e l’analisi di varie metriche di centralità su grafo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ZusammenfassungIm Rahmen der EU-Projekte POLSTAR (Polar StratosphericAerosol Experiment) und STREAM (Stratosphere TroposphereExperiment by Airborne Measurements) wurden flugzeuggetragene Spurengasmessungen in verschiedenen geografischen Breiten durchgeführt. Zwei Messkampagnen fanden im Januar (POLSTAR 97) und März (STREAM 97) 1997 über Kiruna (Schweden, 67°N, 20°O) statt, eine Kampagne wurde im Juli 1998 von Timmins (Kanada, 47°N, 81°W) aus durchgeführt (STREAM 98).CO und N2O wurden mittels TDLAS (Tunable Diode Laser Absorption Spectroscopy) nachgewiesen, CO2 wurde mit einem modifizierten kommerziellen Messgerät breitbandig gemessen. Zur Untersuchung von Mischungsvorgängen in der Tropopausenregion wurden Korrelationenzwischen CO, O3, N2O, CO2 und NOy herangezogen.Dabei konnte festgestellt werden, dass im Winter in der untersten Stratosphäre Mischung mit troposphärischen Luftmassen durch isentropen Transport im Bereich der Polarfront bis zu potentiellen Temperaturen von Theta=335K auftritt. Im Sommer lässt sich Mischung mit troposphärischen Luftmassen bis mindestens Theta=360K nachweisen, die effektiver als im Winter abläuft.Exemplarisch kann an einem Flug gezeigt werden, dassbis Theta=349K die Ausbildung der Mischungsschicht durchLuftmassenaustausch an der Polarfront verursacht wird, während oberhalb von Theta=349K Signaturen subtropischertroposphärischer Luftmassen gefunden werden.Der stratosphärische Hintergrund wird mitbestimmt durch photochemisch gealterte Luftmassen, die ihren Ursprung höchstwahrscheinlich in der Vortexregion des vorangegangenen Winters haben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Detektorsystem des Spektrometers Ader Drei-Spektrometer-Anlage am MainzerElektronenbeschleuniger MAMI wurde im Rahmen dieser Arbeitum ein Fokalebenen-Proton-Polarimeter (FPP) ergänzt.Dazu wurden zwei Horizontale Doppeldriftkammern entworfenund zusammen mit einem Kohlenstoffanalysator hinter derFokalebene des Spektrometers aufgebaut.Zur Berechnung der Spin-Präzession in den inhomogenenMagnetfeldern des Spektrometers wurde das Programm QSPINerstellt und damit eine Spin-Transfer-Matrix (STM) erzeugt,mit der über eine Fitprozedur die Polarisationskomponentender Protonen in der Streuebene an die im FPP gemessenenangepaßt werden können.Mit elastischen Elektron-Proton-Streuexperimenten wurdenfalsche Asymmetrien im FPP untersucht, die berechnete STMbestätigt, die inklusive Proton-Kohlenstoff-Analysierstärkeauf einen größeren Streuwinkelbereich erweitert und dasVerhältnis zwischen dem elektrischen und dem magnetischenSachs-Formfaktor des Protons gemessen.Zur Untersuchung der Coulomb-Quadrupol-Übergangsamplitudebei der Anregung des Nukleons zur Delta(1232)-Resonanzwurden in einem Pion-Elektroproduktions-Experiment am Protonmit dem FPP die Komponenten der Polarisation derRückstoßprotonen in paralleler Kinematik gemessen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die hygroskopischen Eigenschaften sind wichtige Parameter des atmosphärischen Aerosols. Sie beeinflussen sowohl direkt über den Strahlungsantrieb, als auch indirekt über die Wechselwirkung von Aerosol und Wolken die globale Strahlungsbilanz und somit das Klima. Auch die Sichtweiteveränderung ist von ihnen abhängig. Sie beeinflussen die Partikeldeposition in der Lunge und müssen zur Vermeidung von Artefaktbildung bei der Aerosolmessung berücksichtigt werden.
Die vorliegende Dissertation beinhaltet Messungen des wasserlöslichen Volumenanteils und des hygroskopischen Wachstumsfaktors des atmosphärischen Aerosols. Mit diesen Untersuchungen konnte der überwiegende Teil (50 nm bis 4 µm Partikeldurchmesser) des für atmosphärische Prozesse relevanten Größenbereichs gleichzeitig größenaufgelöst und detailliert erfasst werden. Messungen wurden in ruralen, semi-urbanen und frei-troposphärischen Luftmassen durchgeführt. Messverfahren sind die SoFA (Water-Soluble Fraction of Large and Giant Atmospheric Particles)-Methode und der HTDMA (Hygroscopic Tandem Differential Mobility Analyzer). Im Rahmen dieser Arbeit wurde die SoFA-Methode weiterentwickelt.
Ein umfangreiches Messprogramm zeigt, dass der mittlere lösliche Volumenanteil des Aerosols mit Werten von ca. 59 % geringe Variationen zwischen den Messstandorten aufweist, lediglich in frei-troposphärischen Luftmassen liegt er mit 66 % erwartungsgemäß höher. Betrachtet man die Daten größenaufgelöst, so zeigt sich, dass im Größenbereich zwischen 200 und 500 nm Partikeldurchmesser der lösliche Volumenanteil ein Maximum aufweist. Ein in semi-urbanem Aerosol gemessener Jahresgang weist, vor allem für Partikel kleiner 300 nm, im Sommer geringere Werte als im Winter auf. Unterhalb 300 nm Partikeldurchmesser treten üblicherweise zwei, oberhalb bis zu drei Partikeltypen unterschiedlicher Hygroskopizität auf: der fast unlösliche Partikeltyp mit löslichen Volumenanteilen bis 12 %, der wahrscheinlich aus Ruß, sekundärem organischem, mineralischem und biologischem Material besteht; der teilweise lösliche Partikeltyp (50 bis 75 %), der als Mischpartikel anzusprechen ist; schließlich der überwiegend lösliche Partikeltyp (ca. 90 %), der wahrscheinlich durch Wolkenprozessierung entsteht. Der Unterschied zwischen den Messstandorten ist auch hier gering. Üblicherweise dominieren die löslicheren Partikeltypen mit relativen Anteilen von 60 bis 95 %, wobei sich ein Minimum der Häufigkeit der löslicheren Partikel zwischen 1.5 und 2.5 µm zeigt. Abschließende größenaufgelöste Modellrechnungen zum Aerosol-Feuchtewachstum unterstreichen die Relevanz dieser Untersuchungen für Strahlungs- und Wolkenprozesse.