119 resultados para Equazioni di convoluzione, funzioni plurisubarmoniche, funzioni di supporto.
em AMS Tesi di Dottorato - Alm@DL - Università di Bologna
Resumo:
Data coming out from various researches carried out over the last years in Italy on the problem of school dispersion in secondary school show that difficulty in studying mathematics is one of the most frequent reasons of discomfort reported by students. Nevertheless, it is definitely unrealistic to think we can do without such knowledge in today society: mathematics is largely taught in secondary school and it is not confined within technical-scientific courses only. It is reasonable to say that, although students may choose academic courses that are, apparently, far away from mathematics, all students will have to come to terms, sooner or later in their life, with this subject. Among the reasons of discomfort given by the study of mathematics, some mention the very nature of this subject and in particular the complex symbolic language through which it is expressed. In fact, mathematics is a multimodal system composed by oral and written verbal texts, symbol expressions, such as formulae and equations, figures and graphs. For this, the study of mathematics represents a real challenge to those who suffer from dyslexia: this is a constitutional condition limiting people performances in relation to the activities of reading and writing and, in particular, to the study of mathematical contents. Here the difficulties in working with verbal and symbolic codes entail, in turn, difficulties in the comprehension of texts from which to deduce operations that, once combined together, would lead to the problem final solution. Information technologies may support this learning disorder effectively. However, these tools have some implementation limits, restricting their use in the study of scientific subjects. Vocal synthesis word processors are currently used to compensate difficulties in reading within the area of classical studies, but they are not used within the area of mathematics. This is because the vocal synthesis (or we should say the screen reader supporting it) is not able to interpret all that is not textual, such as symbols, images and graphs. The DISMATH software, which is the subject of this project, would allow dyslexic users to read technical-scientific documents with the help of a vocal synthesis, to understand the spatial structure of formulae and matrixes, to write documents with a technical-scientific content in a format that is compatible with main scientific editors. The system uses LaTex, a text mathematic language, as mediation system. It is set up as LaTex editor, whose graphic interface, in line with main commercial products, offers some additional specific functions with the capability to support the needs of users who are not able to manage verbal and symbolic codes on their own. LaTex is translated in real time into a standard symbolic language and it is read by vocal synthesis in natural language, in order to increase, through the bimodal representation, the ability to process information. The understanding of the mathematic formula through its reading is made possible by the deconstruction of the formula itself and its “tree” representation, so allowing to identify the logical elements composing it. Users, even without knowing LaTex language, are able to write whatever scientific document they need: in fact the symbolic elements are recalled by proper menus and automatically translated by the software managing the correct syntax. The final aim of the project, therefore, is to implement an editor enabling dyslexic people (but not only them) to manage mathematic formulae effectively, through the integration of different software tools, so allowing a better teacher/learner interaction too.
Resumo:
In questa Tesi di Dottorato di Ricerca sono state studiate le caratteristiche strutturali e le relative prestazioni dei sistemi strutturali cellulari a pareti tozze di tipo sandwich in c. a. gettato in opera realizzate con la tecnologia del pannello di supporto in polistirene. Tali sistemi strutturali sono caratterizzati da numerose peculiarità; infatti, (i) il comportamento globale delle strutture risulta essere di tipo cellulare, e, le pareti che costituiscono il sistema resistente alle azioni sia orizzontali che verticali risultano essere: (ii) tozze, (iii) di tipo sandwich e caratterizzate da: (iv) basse percentuali di armatura, (v) ridotti tassi di lavoro a sforzo assiale e (vi) stesso quantitativo di armatura orizzontale e verticale. Date le specificità dei sistemi strutturali in esame, si è, in primo luogo, cercato di inquadrare le peculiarità strutturali sopra elencate nell’ambito scientifico. Ciò ha consentito di riscontrare una profonda carenza nella conoscenza relativa al comportamento di tali strutture specialmente nei confronti delle azioni orizzontali di tipo sismico. Pertanto i due principali obiettivi di questa Tesi di Dottorato sono stati: (1) la sistematizzazione scientifica e la relativa interpretazione di 10 anni di prove sperimentali condotte sul sistema strutturale in esame; e (2) la progettazione, la realizzazione e l’interpretazione preliminare dei risultati di una prova su tavola vibrante di una struttura a tre piani con pianta rettangolare, realizzata con la tecnologia del pannello di supporto in polistirene (la prova è stata effettuata nell’ambito del progetto di ricerca Europeo SERIES). Questa ricerca ha dunque consentito di far luce sul comportamento (in particolar modo, nei confronti delle azioni orizzontali di tipo sismico) dei sistemi strutturali composti da pareti tozze di tipo sandwich in c. a. gettato in opera realizzati con la tecnologia del pannello di supporto in polistirene.
Resumo:
La ricerca proposta si pone l’obiettivo di definire e sperimentare un metodo per un’articolata e sistematica lettura del territorio rurale, che, oltre ad ampliare la conoscenza del territorio, sia di supporto ai processi di pianificazione paesaggistici ed urbanistici e all’attuazione delle politiche agricole e di sviluppo rurale. Un’approfondita disamina dello stato dell’arte riguardante l’evoluzione del processo di urbanizzazione e le conseguenze dello stesso in Italia e in Europa, oltre che del quadro delle politiche territoriali locali nell’ambito del tema specifico dello spazio rurale e periurbano, hanno reso possibile, insieme a una dettagliata analisi delle principali metodologie di analisi territoriale presenti in letteratura, la determinazione del concept alla base della ricerca condotta. E’ stata sviluppata e testata una metodologia multicriteriale e multilivello per la lettura del territorio rurale sviluppata in ambiente GIS, che si avvale di algoritmi di clustering (quale l’algoritmo IsoCluster) e classificazione a massima verosimiglianza, focalizzando l’attenzione sugli spazi agricoli periurbani. Tale metodo si incentra sulla descrizione del territorio attraverso la lettura di diverse componenti dello stesso, quali quelle agro-ambientali e socio-economiche, ed opera una sintesi avvalendosi di una chiave interpretativa messa a punto allo scopo, l’Impronta Agroambientale (Agro-environmental Footprint - AEF), che si propone di quantificare il potenziale impatto degli spazi rurali sul sistema urbano. In particolare obiettivo di tale strumento è l’identificazione nel territorio extra-urbano di ambiti omogenei per caratteristiche attraverso una lettura del territorio a differenti scale (da quella territoriale a quella aziendale) al fine di giungere ad una sua classificazione e quindi alla definizione delle aree classificabili come “agricole periurbane”. La tesi propone la presentazione dell’architettura complessiva della metodologia e la descrizione dei livelli di analisi che la compongono oltre che la successiva sperimentazione e validazione della stessa attraverso un caso studio rappresentativo posto nella Pianura Padana (Italia).
Resumo:
L’aumento esponenziale del contenzioso medico-legale – originatosi negli USA negli anni Sessanta in proporzioni tali da far parlare di medical liability crisis, e sviluppatosi in Italia a partire dalla metà degli anni Ottanta – ha comportato e continua a comportare, unitamente ad altre conseguenze negative, il ricorso sempre più frequente dei sanitari alle pratiche di medicina difensiva, con elevatissimi costi a carico del Servizio Sanitario Nazionale dovuti alla sovrabbondanza di trattamenti e ricoveri inutili e di procedure diagnostiche invasive non necessarie, peraltro produttive di stress emotivo nei pazienti. La causa dell’aumento della litigiosità deve essere ricercata in buona parte nella relazione medico-paziente, in particolar modo con riferimento al momento informativo che precede l’acquisizione del consenso informato al trattamento clinico. In Italia, i limiti che per lo più caratterizzano gli studi riguardanti il consenso informato derivano principalmente dal fatto che essi tendono a focalizzarsi unicamente sulla componente scritta del medesimo. Il fulcro del consenso informato, invece, deve ritenersi rappresentato da una comunicazione tra sanitario e paziente relativa ad un trattamento proposto ed alle possibili alternative, alla non sottoposizione ad alcun trattamento e ai rischi e benefici di ciascuna di queste opzioni. In un tale contesto il tema della comunicazione tra il professionista e la persona assistita sta suscitando interesse poiché ci si aspetta che esso conduca a miglioramenti degli outcome dei pazienti e alla diminuzione delle denunce da parte di questi ultimi per casi di responsabilità sanitaria. La maggiore attenzione al rapporto medico - paziente ha fatto emergere il bisogno di migliorare e potenziare le abilità comunicative dei medici, in un’ottica in cui il momento comunicativo possa essere percepito dal professionista come fulcro del rapporto medico-paziente, nella prospettiva di una elaborazione di strategie di prevenzione e contrasto ai fenomeni di medicina difensiva.
Resumo:
Il progetto di ricerca è finalizzato allo sviluppo di una metodologia innovativa di supporto decisionale nel processo di selezione tra alternative progettuali, basata su indicatori di prestazione. In particolare il lavoro si è focalizzato sulla definizione d’indicatori atti a supportare la decisione negli interventi di sbottigliamento di un impianto di processo. Sono stati sviluppati due indicatori, “bottleneck indicators”, che permettono di valutare la reale necessità dello sbottigliamento, individuando le cause che impediscono la produzione e lo sfruttamento delle apparecchiature. Questi sono stati validati attraverso l’applicazione all’analisi di un intervento su un impianto esistente e verificando che lo sfruttamento delle apparecchiature fosse correttamente individuato. Definita la necessità dell’intervento di sbottigliamento, è stato affrontato il problema della selezione tra alternative di processo possibili per realizzarlo. È stato applicato alla scelta un metodo basato su indicatori di sostenibilità che consente di confrontare le alternative considerando non solo il ritorno economico degli investimenti ma anche gli impatti su ambiente e sicurezza, e che è stato ulteriormente sviluppato in questa tesi. Sono stati definiti due indicatori, “area hazard indicators”, relativi alle emissioni fuggitive, per integrare questi aspetti nell’analisi della sostenibilità delle alternative. Per migliorare l’accuratezza nella quantificazione degli impatti è stato sviluppato un nuovo modello previsionale atto alla stima delle emissioni fuggitive di un impianto, basato unicamente sui dati disponibili in fase progettuale, che tiene conto delle tipologie di sorgenti emettitrici, dei loro meccanismi di perdita e della manutenzione. Validato mediante il confronto con dati sperimentali di un impianto produttivo, si è dimostrato che tale metodo è indispensabile per un corretto confronto delle alternative poiché i modelli esistenti sovrastimano eccessivamente le emissioni reali. Infine applicando gli indicatori ad un impianto esistente si è dimostrato che sono fondamentali per semplificare il processo decisionale, fornendo chiare e precise indicazioni impiegando un numero limitato di informazioni per ricavarle.
Resumo:
L’obiettivo del lavoro consiste nell’implementare una metodologia operativa volta alla progettazione di reti di monitoraggio e di campagne di misura della qualità dell’aria con l’utilizzo del laboratorio mobile, ottimizzando le posizioni dei dispositivi di campionamento rispetto a differenti obiettivi e criteri di scelta. La revisione e l’analisi degli approcci e delle indicazioni fornite dalla normativa di riferimento e dai diversi autori di lavori scientifici ha permesso di proporre un approccio metodologico costituito da due fasi operative principali, che è stato applicato ad un caso studio rappresentato dal territorio della provincia di Ravenna. La metodologia implementata prevede l’integrazione di numerosi strumenti di supporto alla valutazione dello stato di qualità dell’aria e degli effetti che gli inquinanti atmosferici possono generare su specifici recettori sensibili (popolazione residente, vegetazione, beni materiali). In particolare, la metodologia integra approcci di disaggregazione degli inventari delle emissioni attraverso l’utilizzo di variabili proxy, strumenti modellistici per la simulazione della dispersione degli inquinanti in atmosfera ed algoritmi di allocazione degli strumenti di monitoraggio attraverso la massimizzazione (o minimizzazione) di specifiche funzioni obiettivo. La procedura di allocazione sviluppata è stata automatizzata attraverso lo sviluppo di un software che, mediante un’interfaccia grafica di interrogazione, consente di identificare delle aree ottimali per realizzare le diverse campagne di monitoraggio
Resumo:
La tesi dottorale in oggetto prende spunto da alcune considerazioni di base relative alla salute di una comunità. Infatti quest’ultima si fonda sulla sicurezza dell’ambiente in cui vive e sulla qualità delle relazioni tra i suoi componenti. In questo ambito la mobilità rappresenta uno degli elementi di maggior criticità, sia per la sicurezza delle persone, che per la salute pubblica, che per le conseguenze sull’ambiente che ne derivano. Negli ultimi anni la circolazione stradale è notevolmente aumentata è questo ha portato a notevoli aspetti negativi, uno dei quali è connesso agli incidenti stradali. In tale ambito viene ricordato che l’Unione Europea ha da tempo indicato come obiettivo prioritario il miglioramento della sicurezza stradale e nel 2001 ha fissato il traguardo di dimezzare entro il 2010 il numero delle vittime degli incidenti stradali. Non ultima, l’approvazione da parte del Parlamento europeo e del Consiglio di un atto legislativo (d’imminente pubblicazione sulla GU Europea) relativo alla gestione della sicurezza in tutte le fasi della pianificazione, della progettazione e del funzionamento delle infrastrutture stradali, in cui si evidenzia l’esigenza di una quantificazione della sicurezza stradale. In tale contesto viene sottolineato come uno dei maggiori problemi nella gestione della sicurezza stradale sia la mancanza di un metodo affidabile per stimare e quantificare il livello di sicurezza di una strada esistente o in progetto. Partendo da questa considerazione la tesi si sviluppa mettendo in evidenza le grandezza fondamentali nel problema della sicurezza stradale, (grado di esposizione, rischio d’incidente e le possibili conseguenze sui passeggeri) e analizzando i sistemi adottati tradizionalmente per effettuare analisi di sicurezza: • Statistiche dei dati storici d’incidente; • Previsione da modelli basati su analisi di regressione dei dati incidentali; • Studi Before-After; • Valutazione da giudizi di esperti. Dopo aver analizzato gli aspetti positivi e negativi delle alternative in parola, viene proposto un nuovo approccio, che combina gli elementi di ognuno dei metodi sopra citati in un algoritmo di previsione incidentale. Tale nuovo algoritmo, denominato Interactive Highway Safety Design Model (IHSDM) è stato sviluppato dalla Federal Highway Administration in collaborazione con la Turner Fairbank Higway Research Center ed è specifico per le strade extraurbane a due corsie. Il passo successivo nello sviluppo della tesi è quello di un’analisi dettagliata del modello IHSDM che fornisce il numero totale di incidenti previsti in un certo intervallo temporale. Viene analizzata la struttura del modello, i limiti d’applicabilità, le equazioni che ne sono alla base e i coefficienti moltiplicativi relativi ad ogni caratteristica geometrica e funzionale. Inoltre viene presentata un’ampia analisi di sensibilità che permette di definire quale sia l’influenza d’ogni singolo Fattore di Previsione incidentale (Accident Predication Factor) sul risultato finale. Dai temi trattati, emerge chiaramente come la sicurezza è legata a più sistemi tra loro interconnessi e che per utilizzare e migliorare i modelli previsionali è necessario avere a disposizione dati completi, congruenti, aggiornati e facilmente consultabili. Infatti, anche quando sono disponibili elementi su tutti gli incidenti avvenuti, spesso mancano informazioni di dettaglio ma fondamentali, riguardanti la strada come ad esempio il grado di curvatura, la larghezza della carreggiata o l’aderenza della pavimentazione. In tale ottica, nella tesi viene presentato il Sistema Informativo Stradale (SIS) della Provincia di Bologna, concepito come strumento di gestione delle problematiche inerenti la viabilità e come strumento di supporto per la pianificazione degli interventi e la programmazione delle risorse da investire sulla rete. Viene illustrato come il sistema sia in grado di acquisire, elaborare ed associare dati georeferenziati relativi al territorio sia sotto forma di rappresentazioni grafiche, sia mediante informazioni descrittive di tipo anagrafico ed alfanumerico. Quindi viene descritto il rilievo ad alto rendimento, effettuato con l’ausilio di un laboratorio mobile multifunzionale (Mobile Mapping System), grazie al quale è stato possibile definire con precisione il grafo completo delle strade provinciali e il database contenente i dati relativi al patrimonio infrastrutturale. Tali dati, relativi alle caratteristiche plano-altimetriche dell’asse (rettifili, curve planimetriche, livellette, raccordi altimetrici, ecc...), alla sezione trasversale (numero e larghezza corsie, presenza di banchine, ecc..), all’ambiente circostante e alle strutture annesse vengono presentati in forma completa specificando per ognuno la variabilità specifica. Inoltre viene evidenziato come il database si completi con i dati d’incidentali georeferenziati sul grafo e compresivi di tutte le informazioni contenute nel modello ISTAT CTT/INC spiegandone le possibili conseguenze sul campo dell’analisi di sicurezza. La tesi si conclude con l’applicazione del modello IHSDM ad un caso reale, nello specifico la SP255 di S.Matteo Decima. Infatti tale infrastruttura sarà oggetto di un miglioramento strutturale, finanziato dalla Regione Emilia Romagna, che consistente nell’allargamento della sede stradale attraverso la realizzazione di una banchina pavimentata di 1.00m su entrambi i lati della strada dalla prog. km 19+000 al km 21+200. Attraverso l’utilizzo dell’algoritmo di previsione incidentale è stato possibile quantificare gli effetti di questo miglioramento sul livello di sicurezza dell’infrastruttura e verificare l’attendibilità del modello con e senza storia incidentale pregressa. Questa applicazione ad un caso reale mette in evidenza come le informazioni del SIS possano essere sfruttate a pieno per la realizzazione di un analisi di sicurezza attraverso l’algoritmo di previsione incidentale IHSDM sia nella fase di analisi di uno specifico tronco stradale che in quella fondamentale di calibrazione del modello ad una specifica rete stradale (quella della Provincia di Bologna). Inoltre viene sottolineato come la fruibilità e la completezza dei dati a disposizione, possano costituire la base per sviluppi di ricerca futuri, come ad esempio l’indagine sulle correlazioni esistenti tra le variabili indipendenti che agiscono sulla sicurezza stradale.
Resumo:
Questo lavoro di tesi nasce da un progetto di ricerca promosso nel 2001 dal Prof. Leonardo Seccia (Seconda Facoltà di Ingegneria, sede di Forlì, e C.I.R.A.M., Università di Bologna), dal Prof. Nicola Santopuoli (Facoltà di Architettura Valle Giulia, Sapienza Università di Roma), dal Prof. Ingo Muller e dal Dott. André Musolff (Technical University Berlin, Facultat III, Thermodynamics). Tale progetto ha avuto come obiettivo lo studio, la progettazione e la realizzazione di un dispositivo di ancoraggio in lega a memoria di forma per il restauro di affreschi e mosaici parietali, che presentino distacchi più o meno evidenti fra gli strati di intonaco di supporto, proponendosi come mezzo efficace per la salvaguardia strutturale di tali zone variamente ammalorate. In particolare, è stata programmata una serie di prove di laboratorio per caratterizzare in modo preciso il comportamento del materiale prescelto, al fine di realizzare un prototipo rispondente alle caratteristiche di progetto ed anche per implementare un modello numerico sufficientemente realistico. A questo proposito, è stato anche approfondito il problema della scelta del modello costitutivo più adeguato. Successivamente, i risultati ottenuti sono stati impiegati nella progettazione e realizzazione di nuovi dispositivi in lega a memoria di forma da impiegare nel campo dei beni culturali, fra cui sistemi reversibili per il ricongiungimento di parti fratturate e sistemi di movimentazione intelligenti sia per lastre di protezione di superfici affrescate, sia per finestre da inserire in contesti museali per il controllo del microclima.
Resumo:
Oggetto di studio del dottorato sono stati i suoli forestali in ambiente litoraneo della Regione Emilia-Romagna. In particolare sono state considerate quattro zone di studio in Provincia di Ravenna: Pineta di San Vitale, aree boscate di Bellocchio, Pineta di Classe e Pineta di Pinarella di Cervia. Lo studio in una prima fase si è articolato nella definizione dello stato del sistema suolo, mediante la caratterizzazione pedologica delle zone di studio. A tale scopo è stata messa a punto un’adeguata metodologia d’indagine costituita da un’indagine ambientale e successivamente da un’indagine pedologica. L’indagine ambientale, mediante fotointerpretazione ed elaborazione di livelli informativi in ambito GIS, ha permesso di individuare ambiti pedogenetici omogenei. L’indagine pedologica in campo ha messo in luce l’elevata variabilità spaziale di alcuni fattori della pedogenesi, in particolar modo l’andamento microtopografico tipico dei sistemi dunali costieri e la profondità della falda freatica del piano campagna. Complessivamente sono stati aperti descritti e campionati 40 profili pedologici. Sugli orizzonti diagnostici di questi sono state eseguite le seguenti analisi: tessitura, pH, calcare totale, carbonio organico, azoto kjeldahl, conduttività elettrica (CE), capacità di scambio cationico (CSC) e calcare attivo. I suoli presentano, ad eccezione della tessitura (generalmente grossolana), un’elevata variabilità delle proprietà chimico fisiche in funzione della morfologia, della profondità e della vicinanza della falda freatica. Sono state riscontrate diverse correlazioni, tra le più significative quelle tra carbonio organico e calcare totale (coeff. di correlazione R = -0.805 per Pineta di Classe) e tra calcare totale e pH (R = 0.736), dalle quali si è compreso in che misura l’effetto della decarbonatazione agisce nei diversi ambiti pedogenetici e tra suoli con diversa età di formazione. Il calcare totale varia da 0 a oltre 400 g.kg-1 e aumenta dalla superficie in profondità, dall’entroterra verso la costa e da nord verso sud. Il carbonio organico, estremamente variabile (0.1 - 107 g.kg-1), è concentrato soprattutto nel primo orizzonte superficiale. Il rapporto C/N (>10 in superficie e molto variabile in profondità) evidenzia una efficienza di umificazione non sempre ottimale specialmente negli orizzonti prossimi alla falda freatica. I tipi di suoli presenti, classificati secondo la Soil Taxonomy, sono risultati essere Mollic/Sodic/Typic Psammaquents nelle zone interdunali, Typic Ustipsamments sulle sommità dunali e Oxiaquic/Aquic Ustipsamments negli ambienti morfologici intermedi. Come sintesi della caratterizzazione pedologica sono state prodotte due carte dei suoli, rispettivamente per Pineta di San Vitale (scala 1:20000) e per le aree boscate di Bellocchio (scala 1:10000), rappresentanti la distribuzione dei pedotipi osservati. In una seconda fase si è focalizzata l’attenzione sugli impatti che le principali pressioni naturali ed antropiche, possono esercitare sul suolo, condizionandone la qualità in virtù delle esigenze del soprasuolo forestale. Si è scelta la zona sud di Pineta San Vitale come area campione per monitorarne mensilmente, su quattro siti rappresentativi, le principali caratteristiche chimico-fisiche dei suoli e delle acque di falda, onde evidenziare possibili correlazioni. Le principali determinazioni svolte sia nel suolo in pasta satura che nelle acque di falda hanno riguardato CE, Ca2+, Mg2+, K+, Na+, Cl-, SO4 2-, HCO3 - e SAR (Sodium Adsorption Ratio). Per ogni sito indagato sono emersi andamenti diversi dei vari parametri lungo i profili, correlabili in diversa misura tra di loro. Si sono osservati forti trend di aumento di CE e degli ioni solubili verso gli orizzonti profondi in profili con acqua di falda più salina (19 – 28 dS.m-1) e profonda (1 – 1.6 m dalla superficie), mentre molto significativi sono apparsi gli accumuli di sali in superficie nei mesi estivi (CE in pasta satura da 17.6 a 28.2 dS.m-1) nei profili con falda a meno di 50 cm dalla superficie. Si è messo successivamente in relazione la CE nel suolo con diversi parametri ambientali più facilmente monitorabili quali profondità e CE di falda, temperatura e precipitazioni, onde trovarne una relazione statistica. Dai dati di tre dei quattro siti monitorati è stato possibile definire tali relazioni con equazioni di regressione lineare a più variabili. Si è cercato poi di estendere l’estrapolabilità della CE del suolo per tutte le altre casistiche possibili di Pineta San Vitale mediante la formulazione di un modello empirico. I dati relativi alla CE nel suolo sia reali che estrapolati dal modello, sono stati messi in relazione con le esigenze di alcune specie forestali presenti nelle zone di studio e con diverso grado di tolleranza alla salinità ed al livello di umidità nel suolo. Da tali confronti è emerso che per alcune specie moderatamente tolleranti la salinità (Pinus pinea, Pinus pinaster e Juniperus communis) le condizioni critiche allo sviluppo e alla sopravvivenza sono da ricondursi, per la maggior parte dei casi, alla falda non abbastanza profonda e non tanto alla salinità che essa trasmette sull’intero profilo del suolo. Per altre specie quali Quercus robur, Populus alba, Fraxinus oxycarpa e Ulmus minor moderatamente sensibili alla salinità, ma abituate a vivere in suoli più umidi, la salinità di una falda troppo prossima alla superficie può ripercuotersi su tutto il profilo e generare condizioni critiche di sviluppo. Nei suoli di Pineta San Vitale sono stati inoltre studiati gli aspetti relativi all’inquinamento da accumulo di alcuni microtossici nei suoli quali Ag, Cd, Ni e Pb. In alcuni punti di rilievo sono stati osservati moderati fattori di arricchimento superficiale per Pb e Cd riconducibili all’attività antropica, mentre le aliquote biodisponibili risultano maggiori in superficie, ma all’interno dei valori medi dei suoli italiani. Lo studio svolto ha permesso di meglio conoscere gli impatti sul suolo, causati dalle principali pressioni esistenti, in un contesto dinamico. In particolare, si è constatato come i suoli delle zone studiate abbiano un effetto tampone piuttosto ridotto sulla mitigazione degli effetti indotti dalle pressioni esterne prese in esame (salinizzazione, sodicizzazione e innalzamento della falda freatica). Questo è dovuto principalmente alla ridotta presenza di scambiatori sulla matrice solida atti a mantenere un equilibrio dinamico con le frazioni solubili. Infine le variabili ambientali considerate sono state inserite in un modello concettuale DPSIR (Driving forces, Pressures, States, Impacts, Responces) dove sono stati prospettati, in via qualitativa, alcuni scenari in funzione di possibili risposte gestionali verosimilmente attuabili, al fine di modificare le pressioni che insistono sul sistema suolo-vegetazione delle pinete ravennati.
Resumo:
Il problema della sicurezza/insicurezza delle città, dalle grandi metropoli sino ai più piccoli centri urbani, ha sollecitato negli ultimi anni un’attenzione crescente da parte degli studiosi, degli analisti, degli organi di informazione, delle singole comunità. La delinquenza metropolitana viene oggi diffusamente considerata «un aspetto usuale della società moderna»: «un fatto – o meglio un insieme di fatti – che non richiede nessuna speciale motivazione o predisposizione, nessuna patologia o anormalità, e che è iscritto nella routine della vita economica e sociale». Svincolata dagli schemi positivistici, la dottrina criminologica ha maturato una nuova «cultura del controllo sociale» che ha messo in risalto, rispetto ad ogni visione enfatizzante del reo, l’esigenza di pianificare adeguate politiche e pratiche di prevenzione della devianza urbana attraverso «tutto l’insieme di istituzioni sociali, di strategie e di sanzioni, che mirano a ottenere la conformità di comportamento nella sfera normativa penalmente tutelata». Tale obiettivo viene generalmente perseguito dagli organismi istituzionali, locali e centrali, con diverse modalità annoverabili nel quadro degli interventi di: prevenzione sociale in cui si includono iniziative volte ad arginare la valenza dei fattori criminogeni, incidendo sulle circostanze sociali ed economiche che determinano l’insorgenza e la proliferazione delle condotte delittuose negli ambienti urbani; prevenzione giovanile con cui si tende a migliorare le capacità cognitive e relazionali del minore, in maniera tale da controllare un suo eventuale comportamento aggressivo, e ad insegnare a genitori e docenti come gestire, senza traumi ed ulteriori motivi di tensione, eventuali situazioni di crisi e di conflittualità interpersonale ed interfamiliare che coinvolgano adolescenti; prevenzione situazionale con cui si mira a disincentivare la propensione al delitto, aumentando le difficoltà pratiche ed il rischio di essere scoperti e sanzionati che – ovviamente – viene ponderato dal reo. Nella loro quotidianità, le “politiche di controllo sociale” si sono tuttavia espresse in diversi contesti – ed anche nel nostro Paese - in maniera a tratti assai discutibile e, comunque, con risultati non sempre apprezzabili quando non - addirittura – controproducenti. La violenta repressione dei soggetti ritenuti “devianti” (zero tolerance policy), l’ulteriore ghettizzazione di individui di per sé già emarginati dal contesto sociale, l’edificazione di interi quartieri fortificati, chiusi anche simbolicamente dal resto della comunità urbana, si sono rivelate, più che misure efficaci nel contrasto alla criminalità, come dei «cortocircuiti semplificatori in rapporto alla complessità dell’insieme dei problemi posti dall’insicurezza». L’apologia della paura è venuta così a riflettersi, anche fisicamente, nelle forme architettoniche delle nuove città fortificate ed ipersorvegliate; in quelle gated-communities in cui l’individuo non esita a sacrificare una componente essenziale della propria libertà, della propria privacy, delle proprie possibilità di contatto diretto con l’altro da sé, sull’altare di un sistema di controllo che malcela, a sua volta, implacabili contraddizioni. Nei pressanti interrogativi circa la percezione, la diffusione e la padronanza del rischio nella società contemporanea - glocale, postmoderna, tardomoderna, surmoderna o della “seconda modernità”, a seconda del punto di vista al quale si aderisce – va colto l’eco delle diverse concezioni della sicurezza urbana, intesa sia in senso oggettivo, quale «situazione che, in modo obiettivo e verificabile, non comporta l’esposizione a fattori di rischio», che in senso soggettivo, quale «risultante psicologica di un complesso insieme di fattori, tra cui anche indicatori oggettivi di sicurezza ma soprattutto modelli culturali, stili di vita, caratteristiche di personalità, pregiudizi, e così via». Le amministrazioni locali sono direttamente chiamate a garantire questo bisogno primario di sicurezza che promana dagli individui, assumendo un ruolo di primo piano nell’adozione di innovative politiche per la sicurezza urbana che siano fra loro complementari, funzionalmente differenziate, integrali (in quanto parte della politica di protezione integrale di tutti i diritti), integrate (perché rivolte a soggetti e responsabilità diverse), sussidiarie (perché non valgono a sostituire i meccanismi spontanei di prevenzione e controllo della devianza che si sviluppano nella società), partecipative e multidimensionali (perché attuate con il concorso di organismi comunali, regionali, provinciali, nazionali e sovranazionali). Questa nuova assunzione di responsabilità da parte delle Amministrazioni di prossimità contribuisce a sancire il passaggio epocale «da una tradizionale attività di governo a una di governance» che deriva «da un’azione integrata di una molteplicità di soggetti e si esercita tanto secondo procedure precostituite, quanto per una libera scelta di dar vita a una coalizione che vada a vantaggio di ciascuno degli attori e della società urbana nel suo complesso». All’analisi dei diversi sistemi di governance della sicurezza urbana che hanno trovato applicazione e sperimentazione in Italia, negli ultimi anni, e in particolare negli ambienti territoriali e comunitari di Roma e del Lazio che appaiono, per molti versi, esemplificativi della complessa realtà metropolitana del nostro tempo, è dedicata questa ricerca. Risulterà immediatamente chiaro come il paradigma teorico entro il quale si dipana il percorso di questo studio sia riconducibile agli orientamenti della psicologia topologica di Kurt Lewin, introdotti nella letteratura sociocriminologica dall’opera di Augusto Balloni. Il provvidenziale crollo di antichi steccati di divisione, l’avvento di internet e, quindi, la deflagrante estensione delle frontiere degli «ambienti psicologici» in cui è destinata a svilupparsi, nel bene ma anche nel male, la personalità umana non hanno scalfito, a nostro sommesso avviso, l’attualità e la validità della «teoria del campo» lewiniana per cui il comportamento degli individui (C) appare anche a noi, oggi, condizionato dalla stretta interrelazione che sussiste fra le proprie connotazioni soggettive (P) e il proprio ambiente di riferimento (A), all’interno di un particolare «spazio di vita». Su queste basi, il nostro itinerario concettuale prende avvio dall’analisi dell’ambiente urbano, quale componente essenziale del più ampio «ambiente psicologico» e quale cornice straordinariamente ricca di elementi di “con-formazione” dei comportamenti sociali, per poi soffermarsi sulla disamina delle pulsioni e dei sentimenti soggettivi che agitano le persone nei controversi spazi di vita del nostro tempo. Particolare attenzione viene inoltre riservata all’approfondimento, a tratti anche critico, della normativa vigente in materia di «sicurezza urbana», nella ferma convinzione che proprio nel diritto – ed in special modo nell’ordinamento penale – vada colto il riflesso e la misura del grado di civiltà ma anche delle tensioni e delle contraddizioni sociali che tormentano la nostra epoca. Notevoli spunti ed un contributo essenziale per l’elaborazione della parte di ricerca empirica sono derivati dall’intensa attività di analisi sociale espletata (in collaborazione con l’ANCI) nell’ambito dell’Osservatorio Tecnico Scientifico per la Sicurezza e la Legalità della Regione Lazio, un organismo di supporto della Presidenza della Giunta Regionale del Lazio al quale compete, ai sensi dell’art. 8 della legge regionale n. 15 del 2001, la funzione specifica di provvedere al monitoraggio costante dei fenomeni criminali nel Lazio.
Resumo:
Il carcinoma polmonare rappresenta un problema socio-sanitario di grande rilievo, essendo la prima causa di morte per neoplasia. Il carcinoma polmonare non a piccole cellule (non small cell lung cancer - NSCLC) rappresenta la variante istologica più frequente (80% dei casi di tumore polmonare). Al momento della diagnosi circa il 60-70% dei pazienti presenta una malattia in stadio avanzato o metastatico non essendo suscettibile di trattamento chirurgico. Per questi pazienti il trattamento chemioterapico determina un prolungamento della sopravvivenza e un miglioramento della qualità della vita rispetto alla sola terapia di supporto, identificandosi come standard terapeutico. L'individuazione del migliore trattamento chemioterapico per questo subset di pazienti rappresenta pertanto una delle principali sfide della ricerca oncologica. I regimi polichemioterapici si possono dividere schematicamente in tre generazioni in relazione all'introduzione nel corso degli anni di nuovi agenti chemioterapici. Con l'avvento dei regimi di terza generazione, il trattamento del NSCLC avanzato sembra aver raggiunto un plateau, mancando infatti chiare dimostrazioni di superiorità di un regime di ultima generazione rispetto ad un altro. Tra questi l'associazione cisplatino e gemcitabina rappresenta uno dei regimi standard più utilizzati in considerazione del suo favorevole rapporto costo-beneficio. Al fine di migliorare i risultati del trattamento chemioterapico in termini di attività ed efficacia, una possibilità consiste nell'individuazione di parametri predittivi che ci consentano di identificare il miglior trattamento per il singolo paziente. Tra i vari parametri predittivi valutabili, un crescente interesse è stato rivolto a quelli di carattere genetico, anche grazie all'avvento di nuove tecniche di biologia molecolare e al sequenziamento del genoma umano che ha dato nuovo impulso a studi di farmacogenetica e farmacogenomica. Sulla base di queste considerazioni, in questa tesi è stato effettuato uno studio mirato a valutare l'espressione di determinanti molecolari coinvolti nel meccanismo di azione di gemcitabina e cisplatino in pazienti affetti dai due tipi istologici principali di NSCLC, adenocarcinomi e carcinomi squamocellulari. Lo studio dei livelli di espressione genica è stata effettuata in tessuti di 69 pazienti affetti da NSCLC arruolati presso l'Istituto Europeo di Oncologia di Milano. In particolare, mediante Real Time PCR è stata valutata l'espressione genica di ERCC1, hENT1, dCK, 5'-NT, CDA, RRM1 e RRM2 in 85 campioni isolati con microdissezione da biopsie provenienti dai tessuti polmonari normali o tumorali o dalle metastasi linfonodali. Le analisi di questi tessuti hanno mostrato differenze significative per i pattern di espressione genica di diversi determinanti molecolari potenzialmente utile nel predire l'efficacia di gemcitabina/cisplatino e per personalizzare i trattamenti in pazienti affetti da cancro. In conclusione, l'evoluzione delle tecniche di biologia molecolare promossa dagli studi di farmacogenetica racchiude in sè notevoli potenzialità per quanto concerne l'ideazione di nuovi protocolli terapeutici. Identificando le caratteristiche genotipiche e i livelli di espressione geniche di determinanti molecolari implicati nella risposta ai farmaci potremmo infatti predisporre delle mappe di chemiosensibilità -chemioresistenza per ciascun paziente, nell'ottica di approntare di volta in volta le più appropriate terapie antitumorali in base alle caratteristiche genetiche del paziente e della sua patologia neoplastica.
Resumo:
I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.
Resumo:
In ambito oncologico il dolore affligge la maggior parte dei pazienti (incidenza riportata dal 53 al 90%), in tutte le fasi della malattia: nonostante l’esistenza di Linee Guida (OMS), l’attuale “undertreatment” del sintomo dolore oncologico, legato a un inappropriato uso degli oppioidi, in Italia raggiunge stime fino al 40% dei casi. Segnalazioni recenti sul consumo degli oppioidi in Italia riportano un aumento imputabile a un solo farmaco (fentanil TTS), il che suggerisce un comportamento prescrittivo inappropriato. Letteratura in merito alle valutazioni di efficacia delle terapie di controllo del dolore sia in fase iniziale – quando la terapia medica oncologica è attiva- sia in fase avanzata di malattia – quando il controllo del dolore si configura come una delle principali terapie di supporto- è ormai disponibile , con un buon livello di affidabilità. Quello che è necessario è aumentare la capacità del Servizio Sanitario di trasferire nella pratica clinica e assistenziale i risultati della ricerca sulla efficacia delle cure. Questi i quesiti ai quali la ricerca ha inteso rispondere: a. Le competenze globalmente espresse dal servizio sanitario dell’Emilia Romagna sono adeguate per consentire un tempestivo, globale, appropriato ed efficace controllo del dolore oncologico, in tutte le fasi della malattia e lungo tutto il percorso di assistenza si a domiciliare che ospedaliero, per tutti i malati che ne hanno bisogno? b. Quali raccomandazioni possiamo fornire, basate sulle evidenze di efficacia, a clinici e gestori per migliorare l’identificazione del bisogno, la scelta del trattamento, il suo monitoraggio, la possibilità di garantirne l’accesso e la disponibilità non solo in ospedale ma anche a domicilio? c. Quale efficacia hanno dimostrato i percorsi di formazione relativi al riconoscimento e al controllo del dolore messi in atto finora? d. Quali percorsi possono essere raccomandati per mettere a disposizione dei cittadini le conoscenze scientifiche sul controllo del dolore oncologico?
Resumo:
Questa tesi di dottorato è inserita nell’ambito della convenzione tra ARPA_SIMC (che è l’Ente finanziatore), l’Agenzia Regionale di Protezione Civile ed il Dipartimento di Scienze della Terra e Geologico - Ambientali dell’Ateneo di Bologna. L’obiettivo principale è la determinazione di possibili soglie pluviometriche di innesco per i fenomeni franosi in Emilia Romagna che possano essere utilizzate come strumento di supporto previsionale in sala operativa di Protezione Civile. In un contesto geologico così complesso, un approccio empirico tradizionale non è sufficiente per discriminare in modo univoco tra eventi meteo innescanti e non, ed in generale la distribuzione dei dati appare troppo dispersa per poter tracciare una soglia statisticamente significativa. È stato quindi deciso di applicare il rigoroso approccio statistico Bayesiano, innovativo poiché calcola la probabilità di frana dato un certo evento di pioggia (P(A|B)) , considerando non solo le precipitazioni innescanti frane (quindi la probabilità condizionata di avere un certo evento di precipitazione data l’occorrenza di frana, P(B|A)), ma anche le precipitazioni non innescanti (quindi la probabilità a priori di un evento di pioggia, P(A)). L’approccio Bayesiano è stato applicato all’intervallo temporale compreso tra il 1939 ed il 2009. Le isolinee di probabilità ottenute minimizzano i falsi allarmi e sono facilmente implementabili in un sistema di allertamento regionale, ma possono presentare limiti previsionali per fenomeni non rappresentati nel dataset storico o che avvengono in condizioni anomale. Ne sono esempio le frane superficiali con evoluzione in debris flows, estremamente rare negli ultimi 70 anni, ma con frequenza recentemente in aumento. Si è cercato di affrontare questo problema testando la variabilità previsionale di alcuni modelli fisicamente basati appositamente sviluppati a questo scopo, tra cui X – SLIP (Montrasio et al., 1998), SHALSTAB (SHALlow STABility model, Montgomery & Dietrich, 1994), Iverson (2000), TRIGRS 1.0 (Baum et al., 2002), TRIGRS 2.0 (Baum et al., 2008).