999 resultados para lineare Programmierung, zertifizierte Lösbarkeit, sichere Zielfunktionswertschranke, SMT Löser, ICP


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main purpose of this study is to assess the relationship between six bioclimatic indices for cattle (temperature humidity (THI), environmental stress (ESI), equivalent temperature (ESI), heat load (HLI), modified heat load (HLInew) and respiratory rate predictor(RRP)) and fundamental milk components (fat, protein, and milk yield) considering uncertainty. The climate parameters used to calculate the climate indices were taken from the NASA-Modern Era Retrospective-Analysis for Research and Applications (NASA-MERRA) reanalysis from 2002 to 2010. Cow milk data were considered for the same period from April to September when cows use natural pasture, with possibility for cows to choose to stay in the barn or to graze on the pasture in the pasturing system. The study is based on a linear regression analysis using correlations as a summarizing diagnostic. Bootstrapping is used to represent uncertainty estimation through resampling in the confidence intervals. To find the relationships between climate indices (THI, ETI, HLI, HLInew, ESI and RRP) and main components of cow milk (fat, protein and yield), multiple liner regression is applied. The least absolute shrinkage selection operator (LASSO) and the Akaike information criterion (AIC) techniques are applied to select the best model for milk predictands with the smallest number of climate predictors. Cross validation is used to avoid over-fitting. Based on results of investigation the effect of heat stress indices on milk compounds separately, we suggest the use of ESI and RRP in the summer and ESI in the spring. THI and HLInew are suggested for fat content and HLInew also is suggested for protein content in the spring season. The best linear models are found in spring between milk yield as predictands and THI, ESI,HLI, ETI and RRP as predictors with p-value < 0.001 and R2 0.50, 0.49. In summer, milk yield with independent variables of THI, ETI and ESI show the highest relation (p-value < 0.001) with R2 (0.69). For fat and protein the results are only marginal. It is strongly suggested that new and significant indices are needed to control critical heat stress conditions that consider more predictors of the effect of climate variability on animal products, such as sunshine duration, quality of pasture, the number of days of stress (NDS), the color of skin with attention to large black spots, and categorical predictors such as breed, welfare facility, and management system. This methodology is suggested for studies investigating the impacts of climate variability/change on food quality/security, animal science and agriculture using short term data considering uncertainty or data collection is expensive, difficult, or data with gaps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introducción: La rápida detección e identificación bacteriana es fundamental para el manejo de los pacientes críticos que presentan una patología infecciosa, esto requiere de métodos rápidos para el inicio de un correcto tratamiento. En Colombia se usan pruebas microbiología convencional. No hay estudios de espectrofotometría de masas en análisis de muestras de pacientes críticos en Colombia. Objetivo general: Describir la experiencia del análisis microbiológico mediante la tecnología MALDI-TOF MS en muestras tomadas en la Fundación Santa Fe de Bogotá. Materiales y Métodos: Entre junio y julio de 2013, se analizaron 147 aislamientos bacterianos de muestras clínicas, las cuales fueron procesadas previamente por medio del sistema VITEK II. Los aislamientos correspondieron a 88 hemocultivos (60%), 28 urocultivos (19%), y otros cultivos 31 (21%). Resultados: Se obtuvieron 147 aislamientos con identificación adecuada a nivel de género y/o especie así: en el 88.4% (130 muestras) a nivel de género y especie, con una concordancia del 100% comparado con el sistema VITEK II. El porcentaje de identificación fue de 66% en el grupo de bacilos gram negativos no fermentadores, 96% en enterobacterias, 100% en gérmenes fastidiosos, 92% en cocos gram positivos, 100% bacilos gram negativos móviles y 100% en levaduras. No se encontró ninguna concordancia en bacilos gram positivos y gérmenes del genero Aggregatibacter. Conclusiones: El MALDI-TOF es una prueba rápida para la identificación microbiológica de género y especie que concuerda con los resultados obtenidos de manera convencional. Faltan estudios para hacer del MALDI-TOF MS la prueba oro en identificación de gérmenes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Antecedentes La ectasia corneal post-lasik (ECPL) es una complicación infrecuente, pero devastadora en la cirugía lasik (queratomileusis asistida con éxcimer láser) para el tratamiento de la miopía con o sin astigmatismo. Con base en la tomografía corneal por elevación por imágenes de Scheimpflug (Sistema Pentacam HR, Oculus Wetzlar, Alemania), se propone un novedoso índice acumulativo de riesgo para ser utilizado como prueba diagnóstica de tamizaje y así prevenir esta complicación. Metodología Se realizó un estudio observacional analítico, de corte transversal tipo pruebas diagnósticas, con el fin de evaluar las características operativas del índice NICE teniendo como estándar de referencia el módulo de Belin-Ambrosio (Pentacam HR) utilizando un modelo de regresión logística binaria, tablas de contingencia y estimando el área bajo la curva ROC. Resultados Se evaluaron 361 ojos de los cuales el 59,3% provenían de pacientes de sexo femenino, la edad media global fue de 30 años (RIC 11,0). El modelo logístico binario aplicado se construyó con base en cuatro variables independientes cuantitativas (K2, PAQUI, EP e I-S) y una cualitativa (SEXO), y se determinó su relación con la variable dependiente, NICE (puntaje final). Las variables predictoras fueron estadísticamente significativas clasificando adecuadamente el 92,9% de los ojos evaluados según presencia o ausencia de riesgo. El coeficiente de Nagelkerke fue de 74,4%. Conclusiones El índice acumulativo de riesgo NICE es una herramienta diagnóstica novedosa en la evaluación de candidatos a cirugía refractiva lasik para prevenir la ectasia secundaria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi tratta la ricerca di procedure che permettano di rilevare oggetti utilizzando il maggior numero di informazioni geometriche ottenibili da una nuvola di punti densa generata da un rilievo fotogrammetrico o da TLS realizzando un modello 3D importabile in ambiente FEM. Il primo test si è eseguito su una piccola struttura, 1.2x0.5x0.2m, in modo da definire delle procedure di analisi ripetibili; la prima consente di passare dalla nuvola di punti “Cloud” all’oggetto solido “Solid” al modello agli elementi finiti “Fem” e per questo motivo è stata chiamata “metodo CSF”, mentre la seconda, che prevede di realizzare il modello della struttura con un software BIM è stata chiamata semplicemente “metodo BIM”. Una volta dimostrata la fattibilità della procedura la si è validata adottando come oggetto di studio un monumento storico di grandi dimensioni, l’Arco di Augusto di Rimini, confrontando i risultati ottenuti con quelli di altre tesi sulla medesima struttura, in particolare si è fatto riferimento a modelli FEM 2D e a modelli ottenuti da una nuvola di punti con i metodi CAD e con un software scientifico sviluppato al DICAM Cloud2FEM. Sull’arco sono state eseguite due tipi di analisi, una lineare sotto peso proprio e una modale ottenendo risultati compatibili tra i vari metodi sia dal punto di vista degli spostamenti, 0.1-0.2mm, che delle frequenze naturali ma si osserva che le frequenze naturali del modello BIM sono più simili a quelle dei modelli generati da cloud rispetto al modello CAD. Il quarto modo di vibrare invece presenta differenze maggiori. Il confronto con le frequenze naturali del modello FEM ha restituito differenze percentuali maggiori dovute alla natura 2D del modello e all’assenza della muratura limitrofa. Si sono confrontate le tensioni normali dei modelli CSF e BIM con quelle ottenute dal modello FEM ottenendo differenze inferiori a 1.28 kg/cm2 per le tensioni normali verticali e sull’ordine 10-2 kg/cm2 per quelle orizzontali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I simulatori di guida sono strumenti altamente tecnologici che permettono di svolgere attività di ricerca in vari ambiti quali la psicologia, la medicina e l’ingegneria. Tuttavia, affinché i dati ottenuti mediante le simulazioni siano rapportabili alla loro controparte reale, la fedeltà delle componenti del simulatore di guida deve essere elevata. Questo lavoro tratta del miglioramento del sistema di restituzione del movimento nel simulatore a due gradi di libertà (2DOF) SIMU-LACET Driving Simulator, costruito e sviluppato presso il laboratorio LEPSIS dell’IFSTTAR (Istituto Francese delle Scienze e Tecnologie dei Trasporti, dello Sviluppo e delle Reti), in particolare nella sua sede di Parigi – Marne-la-Vallée. Si è deciso di andare a riprogettare la parte software del sistema di restituzione del movimento (motion cueing), operando su due elementi principali: lo scale factor (fattore di scala) applicato agli impulsi dinamici provenienti dal modello veicolare e i Motion Cueing Algorihms (MCA, algoritmi di restituzione del movimento), questo per entrambi i gradi di libertà. Si è quindi intervenuti sul modello esistente implementato in MATLAB-Simulink nello specifico blocco del motion cueing sul surge (traslazione longitudinale) e sul yaw (imbardata). Riguardo lo scale factor, è stata introdotta una metodologia per creare uno scale factor non lineare in forma esponenziale, tale da migliorare la restituzione degli impulsi meno ampi, pur rispettando i limiti fisici della piattaforma di movimento. Per quanto concerne il MCA, si sono vagliate diverse transfer function dell’algoritmo classico. La scelta finale dei MCA e la validazione del motion cueig in genere è stata effettuata mediante due esperimenti ed il giudizio dei soggetti che vi hanno partecipato. Inoltre, in virtù dei risultati del primo esperimento, si è investigata l’influenza che la strategia in merito al cambio delle marce avesse sulla percezione del movimento da parte del guidatore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto di tesi è incentrato sull’ottimizzazione del procedimento di taratura dei regolatori lineari degli anelli di controllo di posizione e velocità presenti negli azionamenti usati industrialmente su macchine automatiche, specialmente quando il carico è ad inerzia variabile in dipendenza dalla posizione, dunque non lineare, come ad esempio un quadrilatero articolato. Il lavoro è stato svolto in collaborazione con l’azienda G.D S.p.A. ed il meccanismo di prova è realmente utilizzato nelle macchine automatiche per il packaging di sigarette. L’ottimizzazione si basa sulla simulazione in ambiente Matlab/Simulink dell’intero sistema di controllo, cioè comprensivo del modello Simulink degli anelli di controllo del drive, inclusa la dinamica elettrica del motore, e del modello Simscape del meccanismo, perciò una prima necessaria fase del lavoro è stata la validazione di tali modelli affinché fossero sufficientemente fedeli al comportamento reale. Il secondo passo è stato fornire una prima taratura di tentativo che fungesse da punto di partenza per l’algoritmo di ottimizzazione, abbiamo fatto ciò linearizzando il modello meccanico con l’inerzia minima e utilizzando il metodo delle formule di inversione per determinare i parametri di controllo. Già questa taratura, seppur conservativa, ha portato ad un miglioramento delle performance del sistema rispetto alla taratura empirica comunemente fatta in ambito industriale. Infine, abbiamo lanciato l’algoritmo di ottimizzazione definendo opportunamente la funzione di costo, ed il risultato è stato decisamente positivo, portando ad un miglioramento medio del massimo errore di inseguimento di circa il 25%, ma anche oltre il 30% in alcuni casi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si divide in due macroargomenti relativi alla preparazione della geometria per modelli MCNP. Il primo è quello degli errori geometrici che vengono generati quando avviene una conversione da formato CAD a CSG e le loro relazioni con il fenomeno delle lost particles. Il passaggio a CSG tramite software è infatti inevitabile per la costruzione di modelli complessi come quelli che vengono usati per rappresentare i componenti di ITER e può generare zone della geometria che non vengono definite in modo corretto. Tali aree causano la perdita di particelle durante la simulazione Monte Carlo, andando ad intaccare l' integrità statistica della soluzione del trasporto. Per questo motivo è molto importante ridurre questo tipo di errori il più possibile, ed in quest'ottica il lavoro svolto è stato quello di trovare metodi standardizzati per identificare tali errori ed infine stimarne le dimensioni. Se la prima parte della tesi è incentrata sui problemi derivanti dalla modellazione CSG, la seconda invece suggerisce un alternativa ad essa, che è l'uso di Mesh non Strutturate (UM), un approccio che sta alla base di CFD e FEM, ma che risulta innovativo nell'ambito di codici Monte Carlo. In particolare le UM sono state applicate ad una porzione dell' Upper Launcher (un componente di ITER) in modo da validare tale metodologia su modelli nucleari di alta complessità. L'approccio CSG tradizionale e quello con UM sono state confrontati in termini di risorse computazionali richieste, velocità, precisione e accuratezza sia a livello di risultati globali che locali. Da ciò emerge che, nonostante esistano ancora alcuni limiti all'applicazione per le UM dovuti in parte anche alla sua novità, vari vantaggi possono essere attribuiti a questo tipo di approccio, tra cui un workflow più lineare, maggiore accuratezza nei risultati locali, e soprattutto la possibilità futura di usare la stessa mesh per diversi tipi di analisi (come quelle termiche o strutturali).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I processi di riduzione del 5-idrossimetilfurfurale (HMF) sono generalmente condotti mediante processi che utilizzano calore e alte pressioni di H2. Una via alternativa prevede l’applicazione di processi elettrochimici, i quali richiedono condizioni più blande e non necessitano di H2. Il lavoro di tesi qui presentato si concentra sullo studio della elettoriduzione del 5-idrossimetilfurfurale a 2,5-bis(idrossimetil)furano, tramite l’utilizzo di catalizzatori basati su schiume 3D a cella aperta di Cu, sopra le quali viene depositato Ag tramite elettrodeposizione. La caratterizzazione elettrochimica è stata condotta tramite voltammetrie a scansione lineare fatte in tampone borato 0,5M e in HMF, seguite da cronoamperometrie (CA) e cronopotenziometrie (CP); inoltre sono stati valutati l’effetto dei parametri di reazione, quali concentrazione iniziale di reagente, potenziale applicato e densità di corrente applicata sulla conversione, selettività ed efficienza faradica. Le prove effettuate a due diverse concentrazioni di HMF (0,02M e 0,05M), con potenziale di -1,3V vs SCE, mostrano che all’aumentare della concentrazione di reagente si ha un calo della selettività in BHMF. Mantenendo la concentrazione a 0,05M e variando il potenziale applicato, si è osservato un aumento importante della selettività in BHMF a potenziali meno catodici e un calo della conversione a potenziali più catodici; la prova a -1,25V vs SCE fornisce i migliori risultati, tuttavia il tempo di reazione a questo potenziale è molto elevato, portando ad un netto calo della produttività. All’aumentare della densità di corrente si osserva un aumento della selettività in BHMF e una riduzione della conversione, mentre la FE è stabile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il compound a matrice poliolefinica studiato è un materiale espandibile e reticolabile, usato per la produzione di manufatti espansi a celle chiuse mediante stampaggio ad iniezione. In questo progetto di tesi il compound viene studiato dal punto di vista reologico, per cercare di prevedere il grado di espansione del manufatto stampato. La correlazione tra l’analisi reometrica e il coefficiente di espansione del manufatto finale potrebbe essere sfruttata per un controllo di qualità del materiale, permettendo così di prevedere il comportamento e le dimensioni finali del manufatto prima dello stampaggio. Lo scopo dello studio è quello di prevedere le dimensioni del manufatto finale partendo da un campione derivante dai granuli del compound a matrice poliolefinica. La prima parte dello studio si concentra sull’analisi del materiale in condizioni ideali, cioè campioni che contengono solo agente reticolante e campioni che contengono esclusivamente agente espandente, valutando l’influenza di questi additivi singolarmente. La seconda parte si concentra sull’analisi del materiale in condizioni reali, co-presenza di reticolante ed espandente, e sulla ricerca di una correlazione tra le analisi reometriche e il coefficiente di espansione. L’ultima parte dello studio si focalizza sull’applicazione di un metodo di previsione lineare delle dimensioni di manufatti stampati, partendo da mescole incognite. Le tecniche di analisi impiegate spaziano da quelle termogravimetriche (TGA), calorimetriche (DSC) a quelle reometriche sui provini derivanti dai granuli, mentre sui campioni stampati sono state eseguite prove dimensionali, prove di densità, prove di durezza (SHORE A e Ascker C) e prove di abrasione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo della tesi è stato quello di valutare la vulnerabilità sismica di edifici ordinari in muratura tipici del costruito del Comune di Maranello (MO), e di stimare le curve di fragilità. Vengono individuate le tipologie strutturali in muratura tipiche degli edifici del Comune, che viene suddiviso in comparti secondo il metodo CARTIS. Lo scopo è stato di definire quali sono le tipologie in muratura più vulnerabili, e quindi i comparti del Comune costituiti dagli edifici in muratura più fragili dal punto di vista sismico. La valutazione della vulnerabilità sismica di alcuni edifici rappresentativi delle tipologie murarie esistenti nel territorio analizzato è stata eseguita mediante due metodologie: la prima è una metodologia speditiva chiamata RE.SIS.TO., una valutazione semplificata sviluppata dall’Università degli Studi di Bologna, con l’obiettivo di definire lo stato di criticità degli edifici e di definire la priorità di intervento in tempi brevi; la seconda è una metodologia di valutazione più accurata eseguita attraverso l’analisi statica non lineare con il software 3Muri, un programma per il calcolo sismico delle strutture in muratura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesi, in particolare, sfrutta un metodo di analisi semplificato di “loss assessment” o analisi delle perdite economiche, considerando un edificio esistente in CA. L’edificio caso di studio è un tipico edificio intelaiato in CA sito sull’appennino, e progettato e costruito negli anni ’70, dunque, senza tenere conto dell’azione orizzontale del sisma, per cui non presenta i dettagli costruttivi atti a soddisfare i requisiti minimi di duttilità. È stata effettuata una analisi statica non lineare (Pushover), per studiare la risposta della struttura esistente alle azioni orizzontali. Al fine di migliorare il confinamento delle colonne in CA, è stato scelto di utilizzare dei rinforzi locali, tipicamente utilizzati in Italia nella pratica progettuale, atti a migliorare le caratteristiche di duttilità e/o resistenza degli elementi rinforzati, e di conseguenza capaci di migliorare le caratteristiche globali dell’intero sistema strutturale. Sono state selezionate tre diverse tecnologie: le “Fiber Reinforced Polymers” (FRP), il “Concrete Jacketing” (CJ) e il sistema di Cerchiature Attive dei Manufatti (CAM). Nella presente tesi verranno presentate diverse applicazioni di questi sistemi, enunciandone i miglioramenti rispetto al caso “As-built” e poi confrontandole tra di loro in modo da fornire elementi validi a supporto della fase decisionale per la progettazione dell’intervento sull’edificio. Infine vengono valutate le perdite economiche medie annue attese, insieme ad altri parametri sintetici di analisi delle perdite e di analisi costi-benefici. Il fine di questo processo è di studiare quanto uno specifico intervento di miglioramento sismico, applicato all’edificio As-built, consenta di ridurre le perdite economiche sismiche stimate in un anno di vita della struttura, e poi nel corso della sua vita utile, per fornire un elemento di paragone utile per la scelta dell’intervento ottimale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell’elaborato viene studiato il fenomeno dell’incidentalità singola delle utenze deboli sulla strada (perdita di controllo, scivolamento ecc..ecc..), con particolare enfasi nell’analizzare le conseguenze traumatiche dovute all’impatto con la superficie stradale. Una nuova tecnologia viene sviluppata per rendere le pavimentazioni di piste ciclabili, marciapiedi e zone pedonali con capacità di assorbimento degli impatti, prevenendo, o riducendo drasticamente, la probabilità e entità di eventi traumatici a seguito di una caduta. Attraverso una stesa di prova avvenuta ad Imola (BO), si sono analizzate e risolte le problematiche dovute alle discrepanze riscontrate fra “costruzione” in laboratorio e costruzione nella realtà urbana. La nuova tecnologia, infatti, è stata studiata come “construction-friendly”, permettendo alle società di costruzione e pavimentazione di stendere il nuovo manto protettivo con strumenti e macchinari tradizionali. Infine l’asfalto modificato è stato testato nei laboratori svedesi del KTH – Royal Institute of Technology per provarne l’efficacia in termini di assorbimento degli impatti. Nel “Drop Impact Test”, test specifico per l’approvazione dei caschi protettivi da bicicletta, l’asfalto modificato ha performato ben al di sotto della soglia di approvazione dei caschi da ciclista, e si colloca in un range di valore di accelerazione lineare perfino al di sotto della soglia di “Low Risk of Injuries”. La nuova tecnologia, inoltre, fa utilizzo di gomma granulata riciclata da pneumatici fuori uso. Tale dettaglio conferisce maggiore sostenibilità al progetto: oltre all’utilizzo di legante a freddo, che diminuisce le emissioni di CO2, e di incentivare l’utilizzo della mobilità dolce attraverso una più sicura rete infrastrutturale, l’utilizzo di gomma riciclata dà nuova vita al materiale che altrimenti andrebbe in discarica e prolunga, così, la vita utile del materiale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell’ambito dello studio della vulnerabilità delle strutture in muratura la modellazione dei maschi murari e la conseguente verifica avviene convenzionalmente considerando tali partizioni come indipendenti, ovvero suddividendo, dapprima,i maschi murari a seconda della loro disposizione spaziale nei confronti della direzione della azione sismica e, successivamente, considerando il contributo dei maschi murari come agenti “in parallelo”.In tale scenario, la modellazione al continuo rende la definizione del singolo maschio murario non banale, in quanto tale tipologia di modellazione vede la geometria dell’edificio come un “unicum” strutturale.Questa dissertazione si prefigge di qualificare e quantificare le differenze scaturite dalla diversa suddivisione dei maschi e delle zone di interfaccia tra diverse pareti murarie, valutando il comportamento del maschio stesso in termini di taglio e sforzo normale ottenuti mediante un’analisi statica non lineare (Pushover). Due modelli ispirati a strutture reali sono analizzati a tal proposito: - Il prototipo testato nel 1994 nel Laboratorio dell’Università di Pavia (modello benchmark n°4). - La scuola “P.Capuzi” di Visso (MC), edificio monitorato permanentemente dall’Osservatorio Sismico delle Strutture del Dipartimento di Protezione Civile [3] e ad oggi demolito (modello benchmark n°5). Il lavoro qui presentato si inserisce in un più ampio programma di ricerca svolto in sinergia da varie unità coinvolte nel progetto ReLUIS 2017/2108 – Linea Strutture in Muratura [1][2] e avente come oggetto l’analisi di strutture benchmark per la valutazione dell’affidabilità di codici di calcolo. I modelli sono stati studiati eseguendo analisi di tipo statico non lineare (Pushover) con distribuzione di forze proporzionale alle masse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la civilización de la antigua Roma, tres de los aspectos más importantes de la vida cotidiana estaban vinculados a la arquitectura: las termas, los acueductos y las tumbas. Esta investigación propone el estudio de la integración de sistemas avanzados para la documentación, gestión y valorización del patrimonio arquitectónico funerario de la Vie Latina y la Appia Antica, en estrecha relación con el tema del Paisaje Cultural. De hecho, el Parque de las Tumbas Latinas alberga uno de los complejos funerarios más importantes, que en la actualidad conserva el aspecto tradicional del antiguo paisaje romano. A lo largo de una vía empedrada, como todas las vías consulares, la Vía Latina (al igual que la Vía Appia Antica), que, como recordaba Tito Livio, conectaba en su día las ciudades de Roma con Capua, sigue manteniendo "congelado" el antiguo trazado urbano/paisajístico. El sistema multiforme del Ager Romanus y del sitio cultural Via Latina/Appia Antica estudiado en esta investigación es, por tanto, comparable a una estructura viva y dinámica y, como tal, debe ser analizada. Por lo tanto, para diseñar una herramienta de protección y gestión tan "potente" y adecuada para un sitio histórico de enorme importancia, fue necesario utilizar las técnicas de levantamiento arquitectónico más avanzadas que se utilizan actualmente (como el escaneo láser y la fotogrametría, junto con un software de análisis específico), acompañadas de un estudio en profundidad de las técnicas de construcción antiguas. El último aspecto clave que pretende abordar la investigación es la catalogación. De hecho, los sitios y monumentos históricos no se pueden mantener sólo mediante su uso y utilización pasiva, sino activando todas las operaciones de protección y conservación mediante intervenciones directas (mantenimiento/restauración) e indirectas, como la catalogación constante de las obras históricas y la consiguiente "catalogación dinámica".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La riflessione sulle competenze democratiche è viva negli ultimi anni (Consiglio d’Europa, 2018; Legge 92/2019; Unesco, 2015) e il ruolo dell’educazione nel promuoverle è considerato cruciale. Lo studio qui presentato si è proposto di indagare empiricamente se e come una specifica competenza democratica – quella empatica – possa essere promossa nei contesti educativi formali grazie a esperienze di lettura di narrativa letteraria. A partire dalla lettura in chiave fenomenologica del concetto di empatia (Boella, 2006, 2018; Stein 1917/2014; Zahavi, 2011, 2014) e dalle evidenze della ricerca – che mettono in evidenza alcuni elementi della lettura di narrativa letteraria in grado di sostenere il processo empatico (Cohen, 2001; Hakemulder, 2000, 2004; Keen, 2006; Kidd & Castano, 2013, 2017) – è stato elaborato un disegno di ricerca empirica avente l’obiettivo di comprendere se le esperienze di lettura in ambito scolastico possano configurarsi come “palestre di empatia” e se vi siano fattori in grado di facilitare (oppure ostacolare) tale processo. È stato utilizzato un approccio qualitativo fenomenologico. Sono stati analizzati (con l’ausilio di un code-book) i testi scritti di studenti (N=356), raccolti in 3 scuole (secondarie di I e II grado) del Nord/Centro Italia, durante gli anni scolastici 20-21 e 21-22. I testi riguardano la relazione instaurata con i personaggi narrativi. I dati mostrano che le esperienze di lettura di narrativa letteraria possono essere occasioni di allenamento delle competenze empatiche, ma sottolineano anche come ciò non sia scontato, lineare o automatico. Il manifestarsi dell’empatia narrativa richiede impegno, tempo, testi capaci di far incontrare la ricchezza e la complessità dell’esperienza umana e spazi di confronto (intimo e con gli altri) critico e riflessivo. La mediazione dell’insegnante è chiamata in causa a più riprese ed emerge l’importanza di specifiche competenze disciplinari, pedagogiche e riflessive, da sviluppare e coltivare incessantemente.