969 resultados para Waltham (Mass.)--History--Sources


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Serviço Social - FCHS

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Not intending to exhaust the subject, we will attempt to show the issue status in the construction of the History of Mass Media. An initial literature review, in order to identify works relating to the subject, shows us how this issue has gone unnoticed in Academy. Expert authors in the history of every media outlet (newspaper, radio, television, movies, and more recently, internet) have been rising, but few have faced the challenge of building a History of Media. There are many reasons to justify this. It comes from the fact it is a young science, in construction, to the absence of a clear definition regarding the subject matter, sources, and methods of their own area of expertise. After all, journalism and film, for example, can be inserted in the same methodological procedure?

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Rapidly accumulating Holocene sediments in estuaries commonly are difficult to sample and date. In Chesapeake Bay, we obtained sediment cores as much as 20min length and used numerous radiocarbon ages measured by accelerator mass spectrometry methods to provide the first detailed chronologies of Holocene sediment accumulation in the bay. Carbon in these sediments is a complex mixture of materials from a variety of sources. Analyses of different components of the sediments show that total organic carbon ages are largely unreliable, because much of the carbon (including coal) has been transported to the bay from upstream sources and is older than sediments in which it was deposited. Mollusk shells (clams, oysters) and foraminifera appear to give reliable results, although reworking and burrowing are potential problems. Analyses of museum specimens collected alive before atmospheric nuclear testing suggest that the standard reservoir correction for marine samples is appropriate for middle to lower Chesapeake Bay. The biogenic carbonate radiocarbon ages are compatible with 210Pb and 137Cs data and pollen stratigraphy from the same sites. Post-settlement changes in sediment transport and accumulation is an important environmental issue in many estuaries, including the Chesapeake. Our data show that large variations in sediment mass accumulation rates occur among sites. At shallow water sites, local factors seem to control changes in accumulation rates with time. Our two relatively deep-water sites in the axial channel of the bay have different long-term average accumulation rates, but the history of sediment accumulation at these sites appears to reflect overall conditions in the bay. Mass accumulation rates at the two deep-water sites rapidly increased by about fourfold coincident with widespread land clearance for agriculture in the Chesapeake watershed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This article analyzes the construction of the African perspective in the General History of Africa project (GHA), focusing on the period between 1965 and 1979. With the participation of over two hundred international experts under the auspices of Unesco, this was one of the greatest intellectual projects of the twentieth century. Based on primary sources, this analysis emphasizes the internal conflicts involved in the construction of the African perspective as a hegemonic line of thought in the GHA. Two critical moments of the project were found in the investigation: the controversial years (1972-78), and the pragmatic years (1978-82). As a result of these disputes, theoretical and methodological parameters were constructed, in addition to eight volumes of material published in the 1980s, and recently republished in Brazil.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objectives Clinical significance and management of prenatal hydronephrosis (PNH) are sources of debate. Existing studies are flawed with biased cohorts or inconsistent follow-up. We aimed to evaluate the incidence of pathology in a large cohort of PNH and assess the biases and outcomes of this population. Methods We reviewed 1034 charts of fetuses with PNH. Records of delivered offspring were reviewed at a pediatric center and analyzed with respect to prenatal and postnatal pathology and management. Results Prenatal resolution of hydronephrosis occurred in 24.7% of pregnancies. On first postnatal ultrasound, some degree of dilatation was present in 80%, 88% and 95% of mild, moderate and severe PNH cases, respectively. At the end of follow-up, hydronephrosis persisted in 10%, 25% and 72% of children, respectively. Incidence of vesicoureteral reflux did not correlate with severity of PNH. Children with postnatal workup had more severe PNH than those without. Conclusions Despite prenatal resolution totalizing 25%, pelvic dilatation persisted on first postnatal imaging in most cases, thus justifying postnatal ultrasound evaluation. Whereas most mild cases resolved spontaneously, a quarter of moderate and more than half of severe cases required surgery. Patients with postnatal imaging and referral had more severe PNH, which could result in overestimation of pathology. (c) 2012 John Wiley & Sons, Ltd.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Air Pollution and Health: Bridging the Gap from Sources to Health Outcomes, an international specialty conference sponsored by the American Association for Aerosol Research, was held to address key uncertainties in our understanding of adverse health effects related to air pollution and to integrate and disseminate results from recent scientific studies that cut across a range of air pollution-related disciplines. The Conference addressed the science of air pollution and health within a multipollutant framework (herein "multipollutant" refers to gases and particulate matter mass, components, and physical properties), focusing on five key science areas: sources, atmospheric sciences, exposure, dose, and health effects. Eight key policy-relevant science questions integrated across various parts of the five science areas and a ninth question regarding findings that provide policy-relevant insights served as the framework for the meeting. Results synthesized from this Conference provide new evidence, reaffirm past findings, and offer guidance for future research efforts that will continue to incrementally advance the science required for reducing uncertainties in linking sources, air pollutants, human exposure, and health effects. This paper summarizes the Conference findings organized around the science questions. A number of key points emerged from the Conference findings. First, there is a need for greater focus on multipollutant science and management approaches that include more direct studies of the mixture of pollutants from sources with an emphasis on health studies at ambient concentrations. Further, a number of research groups reaffirmed a need for better understanding of biological mechanisms and apparent associations of various health effects with components of particulate matter (PM), such as elemental carbon, certain organic species, ultrafine particles, and certain trace elements such as Ni, V, and Fe(II), as well as some gaseous pollutants. Although much debate continues in this area, generation of reactive oxygen species induced by these and other species present in air pollution and the resulting oxidative stress and inflammation were reiterated as key pathways leading to respiratory and cardiovascular outcomes. The Conference also underscored significant advances in understanding the susceptibility of populations, including the role of genetics and epigenetics and the influence of socioeconomic and other confounding factors and their synergistic interactions with air pollutants. Participants also pointed out that short-and long-term intervention episodes that reduce pollution from sources and improve air quality continue to indicate that when pollution decreases so do reported adverse health effects. In the limited number of cases where specific sources or PM2.5 species were included in investigations, specific species are often associated with the decrease in effects. Other recent advances for improved exposure estimates for epidemiological studies included using new technologies such as microsensors combined with cell phone and integrated into real-time communications, hybrid air quality modeling such as combined receptor-and emission-based models, and surface observations used with remote sensing such as satellite data.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Different lead sources were identified in a large uranium tailings deposit (5Mton) in the Central Region of Portugal using lead isotopic ratios obtained by ICP-QMS. These ratios helped to clarify the different sources of Pb within the tailings deposit and the impact of the tailings on the surroundings. Ten depth profiles were used for isotopic characterization of the tailings deposit; the lead background signature was evaluated in seven regional rocks (granites) and was defined as being 28 +/- 1 mg kg(-1) for Pb bulk concentration and with isotopic ratios of 1.264(2) for Pb-206/Pb-207 and 1.962(7) for Pb-208/Pb-206. In order to understand Pb isotope distribution within the tailings deposit, simple mixing/mass balance models were used to fit experimental data, involving: (1) the background component; (2) uranium ores (pitchblende) characterized by the ratios Pb-206/Pb-207 of 1.914(3) and Pb-208/Pb-206 of 1.235(2); and (3) an unknown Pb source (named 'Fonte 5') characterized by the ratios Pb-206/Pb-207 of 3.079(7) and Pb-208/Pb-206 of 0.715(1). This unknown source showed high radiogenic ratios found in the water of some tailings depth profiles located in a very specific position in the dump. In terms of isotopic characterization, 69% of the deposit material resulted from the background source, 25% from uranium minerals and only 6% from other uranium mines in the region. Finally, the environment impact revealed that the pollution was focused only in the beginning of the stream and not in the surroundings, nor in the groundwater system. The lead in the water was found only in colloidal form with a clear pitchblende signature. Those data revealed possible remobilization phenomena along the bedside and margins of the watercourse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In Brazil, the principal source of air pollution is the combustion of fuels (ethanol, gasohol, and diesel). In this study, we quantify the contributions that vehicle emissions make to the urban fine particulate matter (PM2.5) mass in six state capitals in Brazil, collecting data for use in a larger project evaluating the impact of air pollution on human health. From winter 2007 to winter 2008, we collected 24-h PM2.5 samples, employing gravimetry to determine PM2.5 mass concentrations; reflectance to quantify black carbon concentrations; X-ray fluorescence to characterize elemental composition; and ion chromatography to determine the composition and concentrations of anions and cations. Mean PM2.5 concentrations in the cities of Sao Paulo, Rio de Janeiro, Belo Horizonte, Curitiba, Porto Alegre, and Recife were 28, 17.2, 14.7, 14.4, 13.4, and 7.3 mu g/m(3), respectively. In Sao Paulo and Rio de Janeiro, black carbon explained approximately 30% of the PM2.5 mass. We used receptor models to identify distinct source-related PM2.5 fractions and correlate those fractions with daily mortality rates. Using specific rotation factor analysis, we identified the following principal contributing factors: soil and crustal material; vehicle emissions and biomass burning (black carbon factor); and fuel oil combustion in industries (sulfur factor). In all six cities, vehicle emissions explained at least 40% of the PM2.5 mass. Elemental composition determination with receptor modeling proved an adequate strategy to identify air pollution sources and to evaluate their short- and long-term effects on human health. Our data could inform decisions regarding environmental policies vis-a-vis health care costs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We studied the energy and frequency dependence of the Fourier time lags and intrinsic coherence of the kilohertz quasi-periodic oscillations (kHz QPOs) in the neutron-star lowmass X-ray binaries 4U 1608−52 and 4U 1636−53, using a large data set obtained with the Rossi X-ray Timing Explorer. We confirmed that, in both sources, the time lags of the lower kHz QPO are soft and their magnitude increases with energy. We also found that: (i) In 4U 1636−53, the soft lags of the lower kHz QPO remain constant at∼30 μs in the QPO frequency range 500–850 Hz, and decrease to ∼10 μs when the QPO frequency increases further. In 4U 1608−52, the soft lags of the lower kHz QPO remain constant at 40 μs up to 800 Hz, the highest frequency reached by this QPO in our data. (ii) In both sources, the time lags of the upper kHz QPO are hard, independent of energy or frequency and inconsistent with the soft lags of the lower kHz QPO. (iii) In both sources the intrinsic coherence of the lower kHz QPO remains constant at ∼0.6 between 5 and 12 keV, and drops to zero above that energy. The intrinsic coherence of the upper kHz QPO is consistent with being zero across the full energy range. (iv) In 4U 1636−53, the intrinsic coherence of the lower kHz QPO increases from ∼0 at ∼600 Hz to ∼1, and it decreases to ∼0.5 at 920 Hz; in 4U 1608−52, the intrinsic coherence is consistent with the same trend. (v) In both sources the intrinsic coherence of the upper kHz QPO is consistent with zero over the full frequency range of the QPO, except in 4U 1636−53 between 700 and 900 Hz where the intrinsic coherence marginally increases. We discuss our results in the context of scenarios in which the soft lags are either due to reflection off the accretion disc or up-/down-scattering in a hot medium close to the neutron star. We finally explore the connection between, on one hand the time lags and the intrinsic coherence of the kHz QPOs, and on the other the QPOs’ amplitude and quality factor in these two sources.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abstract : Introduction Mediastinal masses in pediatric patients are very heterogeneous in origin and etiology. In the first decade of life, 70% of the mediastinal masses are benign whereas malignant tumors are more frequent in the second decade of life. Among the mediastinal masses, lymph nodes are the most common involved structures and could be enlarged due to a lymphoma, leukemia, metastatic disease, or due to infectious diseases as sarcoidosis, tuberculosis and others. Case presentation. We report a case of a 13-year-old Caucasian girl who came to the emergency room with a history of intermittent fever, weight loss and night sweating for at least 1 month. A radiologic image work-up presented an anterior and posterior mediastinal mass. The 18F-fluorodeoxyglucose positron emission tomography presented a high maximum standard uptake value, which directed our decision for mediastinal biopsy for diagnostic elucidation. Histologic examination described the mass as granulomatous tuberculosis. The patient was treated with anti-tuberculosis therapy and developed a full clinical recovery. Conclusions . The present case report demonstrates that a bulky mediastinal lymphadenopathy detected on 18F-fluorodeoxyglucose positron emission tomography is not always a malignant lesion, and in countries where tuberculosis is endemic, this etiology should not be forgotten during clinical investigations. There is a need for more accurate cut-off values for this technology; meanwhile, the further investigation of patients with bulky mediastinal masses with procedures such as the open biopsy is indispensable.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The orbits of the stars in the disk of the Galaxy, and their passages through the Galactic spiral arms, are a rarely mentioned factor of biosphere stability which might be important for long-term planetary climate evolution, with a possible bearing on mass extinctions. The Sun lies very near the co-rotation radius, where stars revolve around the Galaxy in the same period as the density wave perturbations of the spiral arms. conventional wisdom generally considers that this status makes for few passages through the spiral arms. Controversy still surrounds whether time spent inside or around spiral arms is dangerous to biospheres and conductive to mass extinctions. Possible threats include giant molecular clouds disturbing the Oort comet cloud and provoking heavy bombardment: a higher exposure to cosmic rays near star forming regions triggering increased cloudiness in Earth atmosphere and ice ages; and the desctruction of Earth's ozone layer posed by supernova explosiosn. We present detailed calculations of the history of spiral arm passages for all 212 solar-type stars nearer than 20 parsecs, including the total time spent inside armsin the last 500 Myr, when the spiral arm position can be traced with good accuracy. We found that there is a large diversity of stellar orbits in the solar neighborhood, and the time fraction spent inside spiral arms can vary from a few percent to nearly half the time. The Sun, despite its proximity to the galactic co-rotation radius, has exceptionally low eccentricity and a low vertical velocity component, and therefore spends 30% of its lifetime crossing the spiral arms, more than most nearby stars. We discuss the possible implications of this fact to the long-term habitability of the Earth, and possible correlations of the Sun's passage through the spiral arms with the five great mass extinctions of the Earth's biosphere from the Late Ordovician to the Cretaceous-Tertiary.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Aerosol particles are likely important contributors to our future climate. Further, during recent years, effects on human health arising from emissions of particulate material have gained increasing attention. In order to quantify the effect of aerosols on both climate and human health we need to better quantify the interplay between sources and sinks of aerosol particle number and mass on large spatial scales. So far long-term, regional observations of aerosol properties have been scarce, but argued necessary in order to bring the knowledge of regional and global distribution of aerosols further. In this context, regional studies of aerosol properties and aerosol dynamics are truly important areas of investigation. This thesis is devoted to investigations of aerosol number size distribution observations performed through the course of one year encompassing observational data from five stations covering an area from southern parts of Sweden up to northern parts of Finland. This thesis tries to give a description of aerosol size distribution dynamics from both a quantitative and qualitative point of view. The thesis focuses on properties and changes in aerosol size distribution as a function of location, season, source area, transport pathways and links to various meteorological conditions. The investigations performed in this thesis show that although the basic behaviour of the aerosol number size distribution in terms of seasonal and diurnal characteristics is similar at all stations in the measurement network, the aerosol over the Nordic countries is characterised by a typically sharp gradient in aerosol number and mass. This gradient is argued to derive from geographical locations of the stations in relation to the dominant sources and transport pathways. It is clear that the source area significantly determine the aerosol size distribution properties, but it is obvious that transport condition in terms of frequency of precipitation and cloudiness in some cases even more strongly control the evolution of the number size distribution. Aerosol dynamic processes under clear sky transport are however likewise argued to be highly important. Southerly transport of marine air and northerly transport of air from continental sources is studied in detail under clear sky conditions by performing a pseudo-Lagrangian box model evaluation of the two type cases. Results from both modelling and observations suggest that nucleation events contribute to integral number increase during southerly transport of comparably clean marine air, while number depletion dominates the evolution of the size distribution during northerly transport. This difference is largely explained by different concentration of pre-existing aerosol surface associated with the two type cases. Mass is found to be accumulated in many of the individual transport cases studied. This mass increase was argued to be controlled by emission of organic compounds from the boreal forest. This puts the boreal forest in a central position for estimates of aerosol forcing on a regional scale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.