171 resultados para Campo magnetico,Via Lattea,Metodi di rilevazione


Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo della tesi riguarda l’utilizzo di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione. Le tematiche affrontate hanno riguardato, da una parte, l’aspetto fotogrammetrico, mediante recupero, digitalizzazione ed elaborazione di immagini aeree storiche di varie epoche, e, dall’altra, l’aspetto legato all’uso del telerilevamento per la classificazione delle coperture al suolo. Nel capitolo 1 viene fatta una breve introduzione sullo sviluppo delle nuove tecnologie di rilievo con un approfondimento delle applicazioni forestali; nel secondo capitolo è affrontata la tematica legata all’acquisizione dei dati telerilevati e fotogrammetrici con una breve descrizione delle caratteristiche e grandezze principali; il terzo capitolo tratta i processi di elaborazione e classificazione delle immagini per l’estrazione delle informazioni significative. Nei tre capitoli seguenti vengono mostrati tre casi di applicazioni di fotogrammetria e telerilevamento nello studio di ecosistemi forestali. Il primo caso (capitolo 4) riguarda l’area del gruppo montuoso del Prado- Cusna, sui cui è stata compiuta un’analisi multitemporale dell’evoluzione del limite altitudinale degli alberi nell’arco degli ultimi cinquant’anni. E’ stata affrontata ed analizzata la procedura per il recupero delle prese aeree storiche, definibile mediante una serie di successive operazioni, a partire dalla digitalizzazione dei fotogrammi, continuando con la determinazione di punti di controllo noti a terra per l’orientamento delle immagini, per finire con l’ortorettifica e mosaicatura delle stesse, con l’ausilio di un Modello Digitale del Terreno (DTM). Tutto ciò ha permesso il confronto di tali dati con immagini digitali più recenti al fine di individuare eventuali cambiamenti avvenuti nell’arco di tempo intercorso. Nel secondo caso (capitolo 5) si è definita per lo studio della zona del gruppo del monte Giovo una procedura di classificazione per l’estrazione delle coperture vegetative e per l’aggiornamento della cartografia esistente – in questo caso la carta della vegetazione. In particolare si è cercato di classificare la vegetazione soprasilvatica, dominata da brughiere a mirtilli e praterie con prevalenza di quelle secondarie a nardo e brachipodio. In alcune aree sono inoltre presenti comunità che colonizzano accumuli detritici stabilizzati e le rupi arenacee. A questo scopo, oltre alle immagini aeree (Volo IT2000) sono state usate anche immagini satellitari ASTER e altri dati ancillari (DTM e derivati), ed è stato applicato un sistema di classificazione delle coperture di tipo objectbased. Si è cercato di definire i migliori parametri per la segmentazione e il numero migliore di sample per la classificazione. Da una parte, è stata fatta una classificazione supervisionata della vegetazione a partire da pochi sample di riferimento, dall’altra si è voluto testare tale metodo per la definizione di una procedura di aggiornamento automatico della cartografia esistente. Nel terzo caso (capitolo 6), sempre nella zona del gruppo del monte Giovo, è stato fatto un confronto fra la timberline estratta mediante segmentazione ad oggetti ed il risultato di rilievi GPS a terra appositamente effettuati. L’obiettivo è la definizione del limite altitudinale del bosco e l’individuazione di gruppi di alberi isolati al di sopra di esso mediante procedure di segmentazione e classificazione object-based di ortofoto aeree in formato digitale e la verifica sul campo in alcune zone campione dei risultati, mediante creazione di profili GPS del limite del bosco e determinazione delle coordinate dei gruppi di alberi isolati. I risultati finali del lavoro hanno messo in luce come le moderne tecniche di analisi di immagini sono ormai mature per consentire il raggiungimento degli obiettivi prefissi nelle tre applicazioni considerate, pur essendo in ogni caso necessaria una attenta validazione dei dati ed un intervento dell’operatore in diversi momenti del processo. In particolare, le operazioni di segmentazione delle immagini per l’estrazione di feature significative hanno dimostrato grandi potenzialità in tutti e tre i casi. Un software ad “oggetti” semplifica l’implementazione dei risultati della classificazione in un ambiente GIS, offrendo la possibilità, ad esempio, di esportare in formato vettoriale gli oggetti classificati. Inoltre dà la possibilità di utilizzare contemporaneamente, in un unico ambiente, più sorgenti di informazione quali foto aeree, immagini satellitari, DTM e derivati. Le procedure automatiche per l’estrazione della timberline e dei gruppi di alberi isolati e per la classificazione delle coperture sono oggetto di un continuo sviluppo al fine di migliorarne le prestazioni; allo stato attuale esse non devono essere considerate una soluzione ottimale autonoma ma uno strumento per impostare e semplificare l’intervento da parte dello specialista in fotointerpretazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This PhD thesis presents the results, achieved at the Aerospace Engineering Department Laboratories of the University of Bologna, concerning the development of a small scale Rotary wing UAVs (RUAVs). In the first part of the work, a mission simulation environment for rotary wing UAVs was developed, as main outcome of the University of Bologna partnership in the CAPECON program (an EU funded research program aimed at studying the UAVs civil applications and economic effectiveness of the potential configuration solutions). The results achieved in cooperation with DLR (German Aerospace Centre) and with an helicopter industrial partners will be described. In the second part of the work, the set-up of a real small scale rotary wing platform was performed. The work was carried out following a series of subsequent logical steps from hardware selection and set-up to final autonomous flight tests. This thesis will focus mainly on the RUAV avionics package set-up, on the onboard software development and final experimental tests. The setup of the electronic package allowed recording of helicopter responses to pilot commands and provided deep insight into the small scale rotorcraft dynamics, facilitating the development of helicopter models and control systems in a Hardware In the Loop (HIL) simulator. A neested PI velocity controller1 was implemented on the onboard computer and autonomous flight tests were performed. Comparison between HIL simulation and experimental results showed good agreement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this thesis the application of biotechnological processes based on microbial metabolic degradation of halogenated compound has been investigated. Several studies showed that most of these pollutants can be biodegraded by single bacterial strains or mixed microbial population via aerobic direct metabolism or cometabolism using as a growth substrates aromatic or aliphatic hydrocarbons. The enhancement of two specific processes has been here object of study in relation with its own respective scenario described as follow: 1st) the bioremediation via aerobic cometabolism of soil contaminated by a high chlorinated compound using a mixed microbial population and the selection and isolation of consortium specific for the compound. 2nd) the implementation of a treatment technology based on direct metabolism of two pure strains at the exact point source of emission, preventing dilution and contamination of large volumes of waste fluids polluted by several halogenated compound minimizing the environmental impact. In order to verify the effect of these two new biotechnological application to remove halogenated compound and purpose them as a more efficient alternative continuous and batch tests have been set up in the experimental part of this thesis. Results obtained from the continuous tests in the second scenario have been supported by microbial analysis via Fluorescence in situ Hybridisation (FISH) and by a mathematical model of the system. The results showed that both process in its own respective scenario offer an effective solutions for the biological treatment of chlorinate compound pollution.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

PREMESSA: La progressione della recidiva d’epatite C è accelerata nei pazienti sottoposti a trapianto di fegato e ciò ha portato alla necessità di sviluppare nuove e validate metodiche non invasive per la quantificazione e la misura della fibrosi epatica. SCOPI: Stabilire l’efficacia dell’elastometria epatica (Fibroscan®) e dei parametri sierici di fibrosi, attualmente disponibili nella pratica clinica, per predire il grado di fibrosi nei pazienti sottoposti a trapianto epatico. METODI: La correlazione fra fibrosi epatica, determinata mediante biopsia epatica ed esame istologico, e Fibroscan® o indici clinico-sierologici di fibrosi (Benlloch, Apri, Forns, Fibrotest and Doppler resistance index), è stata studiata in pazienti che avevano ricevuto un trapianto ortotopico di fegato con evidenza di recidiva d’epatite da HCV. Un totale di 36 pazienti, con la seguente classificazione istologica: fibrosi secondom METAVIR F1=24, F2=8, F3=3, F4=1, sono stati arruolati nella popolazione oggetto di studio. Un totale di 29 individui volontari sani sono serviti come controllo. Le differenze fra gli stadi di fibrosi sono state calcolate mediante analisi statistica non parametrica. Il miglior cut-off per la differenziazione di fibrosi significativa (F2-F4) è stato identificato mediante l’analisi delle curve ROC. RISULTATI: La rigidità epatica ha presentato valori di 4.4 KPa (2.7-6.9) nei controlli (mediane e ranges), con valori in tutti i soggeti <7.0 KPa; 7.75 KPa (4.2-28.0) negli F1; 16.95 KPa (10.2-31.6) negli F2; 21.10 KPa nell’unico paziente F4 cirrotico. Le differenze sono state statisticamente significative per i soggetti controllo versus F1 e F2 (p<0.0001) e per F1 versus F2 (p<0.0001). Un cut-off elastografico di 11.2 KPagarantisce 88% di Sensibilità, 90% di Specificità, 79% di PPV e 95% di NPV nel differenziare i soggetti F1 dagli F2-F4. Le AUROC, relativamente alla capacità di discriminare fra i differenti gradi di fibrosi, evidenziavano un netto vantaggio per il Fibroscan® rispetto ad ognuno degli indici non invasivi di fibrosi. CONCLUSIONI: L’elastometria epatica presenta una buona accuratezza diagnostica nell’identificare pazienti con fibrosi epatica di grado significativo, superiore a quella di tutti gli altri test non invasivi al momento disponibili nella clinica, nei pazienti portatori di trapianto epatico ortotopico da cadavere con recidiva di HCV.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nelle epatopatie croniche l’estensione della fibrosi è il principale determinante della prognosi. Sebbene la biopsia epatica rimanga il gold standard ai fini di una stadiazione, il crescente interesse nei confronti di metodi diagnostici non invasivi di fibrosi ha portato allo sviluppo di diversi modelli predittivi basati su parametri clinicolaboratoristici quali Fibrotest, indice APRI, indice Forns. Gli scopi dello studio sono: di stabilire l’accuratezza di un’analisi con rete neurale artificiale (ANN), tecnica di cui è stata dimostrata l’efficacia predittiva in situazioni biologiche complesse nell’identificare lo stadio di fibrosi, di confrontarne i risultati con quelli ottenuti dal calcolo degli indici APRI e Forns sullo stesso gruppo di pazienti e infine di validarne l’efficacia diagnostica in gruppi esterni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’elaborato svolge in 4 capitoli un percorso di analisi multidisciplinare volto a fondare teoricamente e a sviluppare operativamente la costituzione di una associazione di co-sviluppo italotunisina. Nel primo capitolo viene approfondita, sotto il profilo della teoria economica, la relazione fra emigrazione e sviluppo, prendendo in esame le recenti teorie sull’argomento e indirizzando l’interesse verso il ruolo dei network di migranti come elemento di continuità socio-economica e di interazione fra il paese di origine e il paese ospitante. Nel secondo capitolo il network viene approfondito sotto gli aspetti connessi alla sua natura di intermediario sociale, politico ed economico, soprattutto in presenza di migrazione di ritorno. Il terzo capitolo si concentra sulle associazioni degli immigrati e non solo Hometown Associations quali strumenti elaborati all’interno dei network di migranti per mettere in pratica le loro capacità di agente economico e di attore sociale nel processo di co-sviluppo dei paesi di provenienza e di destinazione. Infine, nel quarto capitolo viene descritto l’iter istituzionale previsto per la costituzione di una specifica associazione (El-Hiwar Atiir, Associazione Tunisina per l’Integrazione e l’Investimento di Ritorno) e le caratteristiche della medesima. Il lavoro di tesi, coordinato e sviluppato, pur approfondendo tematiche e modelli economici si muove anche su altri piani (sociale e istituzionale), mostrando la molteplicità delle sfaccettature del problema. Inoltre riesce a radicare in campo teorico uno strumento operativo molto interessante per la gestione economica e politica del fenomeno migratorio, mostrando come la cooperazione allo sviluppo, oltre che tema di modellazione economica e di dichiarazioni di principio nei documenti ufficiali, possa divenire processo operativo attraverso strumenti giuridici consolidati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We observed 82 healthy subjects, from both sexes, aged between 19 and 77 years. All subjects performed two different tests: for being scientifically acknowledged, the first one was used as a reference and it was a stress test (CPX). During the entire test, heart rate and gas exchange were recorded continuously; the second, the actual object of this study, was a submaximal test (TOP). Only heart rate was recorded continuously. The main purpose was to determinate an index of physical fitness as result of TOP. CPX test allowed us to individuate anaerobic threshold. We used an incremental protocol of 10/20 Watt/min, different by age. For our TOP test we used an RHC400 UPRIGHT BIKE, by Air Machine. Each subject was monitored for heart frequency. After 2 minutes of resting period there was a first step: 3 minutes of pedalling at a constant rate of 60 RPM, (40 watts for elder subjects and 60 watts for the younger ones). Then, the subject was allowed to rest for a recovery phase of 5 minutes. Third and last step consisted of 3 minutes of pedalling again at 60 RPM but now set to 60 watts for elder subjects and 80 watts for the young subjects. Finally another five minutes of recovery. A good correlation was found between TOP and CPX results especially between punctua l heart rate reserve (HRR’) and anaerobic threshold parameters such as Watt, VO2, VCO2 . HRR’ was obtained by subtracting maximal heart rate during TOP from maximal theoretic heart rate (206,9-(0,67*age)). Data were analyzed through cluster analysis in order to obtain 3 homogeneous groups. The first group contains the least fit subjects (inactive, women, elderly). The other groups contain the “average fit” and the fittest subjects (active, men, younger). Concordance between test resulted in 83,23%. Afterwards, a linear combinations of the most relevant variables gave us a formula to classify people in the correct group. The most relevant result is that this submaximal test is able to discriminate subjects with different physical condition and to provide information (index) about physical fitness through HRR’. Compared to a traditional incremental stress test, the very low load of TOP, short duration and extended resting period, make this new method suitable to very different people. To better define the TOP index, it is necessary to enlarge our subject sample especially by diversifying the age range.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Recent statistics have demonstrated that two of the most important causes of failures of the UAVs (Uninhabited Aerial Vehicle) missions are related to the low level of decisional autonomy of vehicles and to the man machine interface. Therefore, a relevant issue is to design a display/controls architecture which allows the efficient interaction between the operator and the remote vehicle and to develop a level of automation which allows the vehicle the decision about change in mission. The research presented in this paper focuses on a modular man-machine interface simulator for the UAV control, which simulates UAV missions, developed to experiment solution to this problem. The main components of the simulator are an advanced interface and a block defined automation, which comprehend an algorithm that implements the level of automation of the system. The simulator has been designed and developed following a user-centred design approach in order to take into account the operator’s needs in the communication with the vehicle. The level of automation has been developed following the supervisory control theory which says that the human became a supervisor who sends high level commands, such as part of mission, target, constraints, in then-rule, while the vehicle receives, comprehends and translates such commands into detailed action such as routes or action on the control system. In order to allow the vehicle to calculate and recalculate the safe and efficient route, in term of distance, time and fuel a 3D planning algorithm has been developed. It is based on considering UASs representative of real world systems as objects moving in a virtual environment (terrain, obstacles, and no fly zones) which replicates the airspace. Original obstacle avoidance strategies have been conceived in order to generate mission planes which are consistent with flight rules and with the vehicle performance constraints. The interface is based on a touch screen, used to send high level commands to the vehicle, and a 3D Virtual Display which provides a stereoscopic and augmented visualization of the complex scenario in which the vehicle operates. Furthermore, it is provided with an audio feedback message generator. Simulation tests have been conducted with pilot trainers to evaluate the reliability of the algorithm and the effectiveness and efficiency of the interface in supporting the operator in the supervision of an UAV mission. Results have revealed that the planning algorithm calculate very efficient routes in few seconds, an adequate level of workload is required to command the vehicle and that the 3D based interface provides the operator with a good sense of presence and enhances his awareness of the mission scenario and of the vehicle under his control.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’uso frequente dei modelli predittivi per l’analisi di sistemi complessi, naturali o artificiali, sta cambiando il tradizionale approccio alle problematiche ambientali e di rischio. Il continuo miglioramento delle capacità di elaborazione dei computer facilita l’utilizzo e la risoluzione di metodi numerici basati su una discretizzazione spazio-temporale che permette una modellizzazione predittiva di sistemi reali complessi, riproducendo l’evoluzione dei loro patterns spaziali ed calcolando il grado di precisione della simulazione. In questa tesi presentiamo una applicazione di differenti metodi predittivi (Geomatico, Reti Neurali, Land Cover Modeler e Dinamica EGO) in un’area test del Petén, Guatemala. Durante gli ultimi decenni questa regione, inclusa nella Riserva di Biosfera Maya, ha conosciuto una rapida crescita demografica ed un’incontrollata pressione sulle sue risorse naturali. L’area test puó essere suddivisa in sotto-regioni caratterizzate da differenti dinamiche di uso del suolo. Comprendere e quantificare queste differenze permette una migliore approssimazione del sistema reale; é inoltre necessario integrare tutti i parametri fisici e socio-economici, per una rappresentazione più completa della complessità dell’impatto antropico. Data l’assenza di informazioni dettagliate sull’area di studio, quasi tutti i dati sono stati ricavati dall’elaborazione di 11 immagini ETM+, TM e SPOT; abbiamo poi realizzato un’analisi multitemporale dei cambi uso del suolo passati e costruito l’input per alimentare i modelli predittivi. I dati del 1998 e 2000 sono stati usati per la fase di calibrazione per simulare i cambiamenti nella copertura terrestre del 2003, scelta come data di riferimento per la validazione dei risultati. Quest’ultima permette di evidenziare le qualità ed i limiti per ogni modello nelle differenti sub-regioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il tema della casa, e più in generale dell’abitare, è argomento tornato al centro del dibattito sociale più di quanto non sia avvenuto in campo tecnico‐architettonico. Sono infatti abbastanza evidenti i limiti delle proposte che nel recente passato sono state, di norma, elaborate nelle nostre città, proposte molto spesso incapaci di tener conto delle molteplici dimensioni che l’evoluzione dei costumi e della struttura urbana e sociale ha indotto anche nella sfera della residenza e che sono legate a mutate condizioni lavorative, alla diversità di cultura e di religione di nuovi gruppi etnici insediati, alla struttura dei nuclei familiari (ove ancora esistano) ed a molti altri fattori; cambiate le esigenze, un tempo composte nella struttura della famiglia, sono cambiati desideri e richieste mentre l’apparato normativo è rimasto strutturato su modelli sociali ed economici superati. Il tema dunque assume, oggi più che mai, connotazioni con forti relazioni fra problematiche funzionali, tecnologiche e simboliche. Stimolata da queste osservazioni generali, la ricerca si è mossa partendo da un’analisi di casi realizzati nel periodo storico in cui si è esaurita, in Italia, l’emergenza abitativa post‐bellica, nell’intento di riconsiderare l’approccio vitale che era stato messo in campo in quella drammatica circostanza, ma già consapevole che lo sviluppo che avrebbe poi avuto sarebbe stato molto più circoscritto. La tesi infatti, dopo aver osservato rapidamente la consistenza tipologica ed architettonica di quegli interventi, per trarne suggestioni capaci di suggerire un credibile e nuovo prototipo da indagare, attraverso un’analisi comparativa sugli strumenti oggi disponibili per la comunicazione e gestione del progetto, si è soffermata sulla potenzialità delle nuove tecnologie dell'informazione (IT). Non si può infatti non osservare che esse hanno modificato non solo il modo di vivere, di lavorare, di produrre documenti e di scambiare informazioni, ma anche quello di controllare il processo di progetto. Il fenomeno è tuttora in corso ma è del tutto evidente che anche l'attività progettuale, seppure in un settore quale è quello dell'industria edilizia, caratterizzato da una notevole inerzia al cambiamento e restio all'innovazione, grazie alle nuove tecnologie ha conosciuto profonde trasformazioni (già iniziate con l’avvento del CAD) che hanno accelerato il progressivo mutamento delle procedure di rappresentazione e documentazione digitale del progetto. Su questo tema quindi si è concentrata la ricerca e la sperimentazione, valutando che l'”archivio di progetto integrato”, (ovvero IPDB ‐ Integrated Project Database) è, probabilmente, destinato a sostituire il concetto di CAD (utilizzato fino ad ora per il settore edilizio ed inteso quale strumento di elaborazione digitale, principalmente grafica ma non solo). Si è esplorata quindi, in una prima esperienza di progetto, la potenzialità e le caratteristiche del BIM (Building Information Model) per verificare se esso si dimostra realmente capace di formulare un archivio informativo, di sostegno al progetto per tutto il ciclo di vita del fabbricato, ed in grado di definirne il modello tridimensionale virtuale a partire dai suoi componenti ed a collezionare informazioni delle geometrie, delle caratteristiche fisiche dei materiali, della stima dei costi di costruzione, delle valutazioni sulle performance di materiali e componenti, delle scadenze manutentive, delle informazioni relative a contratti e procedure di appalto. La ricerca analizza la strutturazione del progetto di un edificio residenziale e presenta una costruzione teorica di modello finalizzata alla comunicazione e gestione della pianificazione, aperta a tutti i soggetti coinvolti nel processo edilizio e basata sulle potenzialità dell’approccio parametrico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Providing support for multimedia applications on low-power mobile devices remains a significant research challenge. This is primarily due to two reasons: • Portable mobile devices have modest sizes and weights, and therefore inadequate resources, low CPU processing power, reduced display capabilities, limited memory and battery lifetimes as compared to desktop and laptop systems. • On the other hand, multimedia applications tend to have distinctive QoS and processing requirementswhichmake themextremely resource-demanding. This innate conflict introduces key research challenges in the design of multimedia applications and device-level power optimization. Energy efficiency in this kind of platforms can be achieved only via a synergistic hardware and software approach. In fact, while System-on-Chips are more and more programmable thus providing functional flexibility, hardwareonly power reduction techniques cannot maintain consumption under acceptable bounds. It is well understood both in research and industry that system configuration andmanagement cannot be controlled efficiently only relying on low-level firmware and hardware drivers. In fact, at this level there is lack of information about user application activity and consequently about the impact of power management decision on QoS. Even though operating system support and integration is a requirement for effective performance and energy management, more effective and QoSsensitive power management is possible if power awareness and hardware configuration control strategies are tightly integratedwith domain-specificmiddleware services. The main objective of this PhD research has been the exploration and the integration of amiddleware-centric energymanagement with applications and operating-system. We choose to focus on the CPU-memory and the video subsystems, since they are the most power-hungry components of an embedded system. A second main objective has been the definition and implementation of software facilities (like toolkits, API, and run-time engines) in order to improve programmability and performance efficiency of such platforms. Enhancing energy efficiency and programmability ofmodernMulti-Processor System-on-Chips (MPSoCs) Consumer applications are characterized by tight time-to-market constraints and extreme cost sensitivity. The software that runs on modern embedded systems must be high performance, real time, and even more important low power. Although much progress has been made on these problems, much remains to be done. Multi-processor System-on-Chip (MPSoC) are increasingly popular platforms for high performance embedded applications. This leads to interesting challenges in software development since efficient software development is a major issue for MPSoc designers. An important step in deploying applications on multiprocessors is to allocate and schedule concurrent tasks to the processing and communication resources of the platform. The problem of allocating and scheduling precedenceconstrained tasks on processors in a distributed real-time system is NP-hard. There is a clear need for deployment technology that addresses thesemulti processing issues. This problem can be tackled by means of specific middleware which takes care of allocating and scheduling tasks on the different processing elements and which tries also to optimize the power consumption of the entire multiprocessor platform. This dissertation is an attempt to develop insight into efficient, flexible and optimalmethods for allocating and scheduling concurrent applications tomultiprocessor architectures. It is a well-known problem in literature: this kind of optimization problems are very complex even in much simplified variants, therefore most authors propose simplified models and heuristic approaches to solve it in reasonable time. Model simplification is often achieved by abstracting away platform implementation ”details”. As a result, optimization problems become more tractable, even reaching polynomial time complexity. Unfortunately, this approach creates an abstraction gap between the optimization model and the real HW-SW platform. The main issue with heuristic or, more in general, with incomplete search is that they introduce an optimality gap of unknown size. They provide very limited or no information on the distance between the best computed solution and the optimal one. The goal of this work is to address both abstraction and optimality gaps, formulating accurate models which accounts for a number of ”non-idealities” in real-life hardware platforms, developing novel mapping algorithms that deterministically find optimal solutions, and implementing software infrastructures required by developers to deploy applications for the targetMPSoC platforms. Energy Efficient LCDBacklightAutoregulation on Real-LifeMultimediaAp- plication Processor Despite the ever increasing advances in Liquid Crystal Display’s (LCD) technology, their power consumption is still one of the major limitations to the battery life of mobile appliances such as smart phones, portable media players, gaming and navigation devices. There is a clear trend towards the increase of LCD size to exploit the multimedia capabilities of portable devices that can receive and render high definition video and pictures. Multimedia applications running on these devices require LCD screen sizes of 2.2 to 3.5 inches andmore to display video sequences and pictures with the required quality. LCD power consumption is dependent on the backlight and pixel matrix driving circuits and is typically proportional to the panel area. As a result, the contribution is also likely to be considerable in future mobile appliances. To address this issue, companies are proposing low power technologies suitable for mobile applications supporting low power states and image control techniques. On the research side, several power saving schemes and algorithms can be found in literature. Some of them exploit software-only techniques to change the image content to reduce the power associated with the crystal polarization, some others are aimed at decreasing the backlight level while compensating the luminance reduction by compensating the user perceived quality degradation using pixel-by-pixel image processing algorithms. The major limitation of these techniques is that they rely on the CPU to perform pixel-based manipulations and their impact on CPU utilization and power consumption has not been assessed. This PhDdissertation shows an alternative approach that exploits in a smart and efficient way the hardware image processing unit almost integrated in every current multimedia application processors to implement a hardware assisted image compensation that allows dynamic scaling of the backlight with a negligible impact on QoS. The proposed approach overcomes CPU-intensive techniques by saving system power without requiring either a dedicated display technology or hardware modification. Thesis Overview The remainder of the thesis is organized as follows. The first part is focused on enhancing energy efficiency and programmability of modern Multi-Processor System-on-Chips (MPSoCs). Chapter 2 gives an overview about architectural trends in embedded systems, illustrating the principal features of new technologies and the key challenges still open. Chapter 3 presents a QoS-driven methodology for optimal allocation and frequency selection for MPSoCs. The methodology is based on functional simulation and full system power estimation. Chapter 4 targets allocation and scheduling of pipelined stream-oriented applications on top of distributed memory architectures with messaging support. We tackled the complexity of the problem by means of decomposition and no-good generation, and prove the increased computational efficiency of this approach with respect to traditional ones. Chapter 5 presents a cooperative framework to solve the allocation, scheduling and voltage/frequency selection problem to optimality for energyefficient MPSoCs, while in Chapter 6 applications with conditional task graph are taken into account. Finally Chapter 7 proposes a complete framework, called Cellflow, to help programmers in efficient software implementation on a real architecture, the Cell Broadband Engine processor. The second part is focused on energy efficient software techniques for LCD displays. Chapter 8 gives an overview about portable device display technologies, illustrating the principal features of LCD video systems and the key challenges still open. Chapter 9 shows several energy efficient software techniques present in literature, while Chapter 10 illustrates in details our method for saving significant power in an LCD panel. Finally, conclusions are drawn, reporting the main research contributions that have been discussed throughout this dissertation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Premessa: nell’aprile 2006, l’American Heart Association ha approvato la nuova definizione e classificazione delle cardiomiopatie (B. J. Maron e coll. 2006), riconoscendole come un eterogeneo gruppo di malattie associate a disfunzione meccanica e/o elettrica riconducibili ad un ampia variabilità di cause. La distinzione tra le varie forme si basa non più sui processi etiopatogenetici che ne sono alla base, ma sulla modalità di presentazione clinica della malattia. Si distinguono così le forme primarie, a prevalente od esclusivo interessamento cardiaco, dalle forme secondarie in cui la cardiomiopatia rientra nell’ambito di un disordine sistemico dove sono evidenziabili anche disturbi extracardiaci. La nostra attenzione è, nel presente studio, focalizzata sull’analisi delle cardiomiopatie diagnosticate nei primi anni di vita in cui si registra una più alta incidenza di forme secondarie rispetto all’adulto, riservando un particolare riguardo verso quelle forme associate a disordini metabolici. Nello specifico, il nostro obiettivo è quello di sottolineare l’influenza di una diagnosi precoce sull’evoluzione della malattia. Materiali e metodi: abbiamo eseguito uno studio descrittivo in base ad un’analisi retrospettiva di tutti i pazienti giunti all’osservazione del Centro di Cardiologia e Cardiochirurgia Pediatrica e dell’ Età Evolutiva del Policlinico S. Orsola- Malpighi di Bologna, dal 1990 al 2006, con diagnosi di cardiomiopatia riscontrata nei primi due anni di vita. Complessivamente sono stati studiati 40 pazienti di cui 20 con cardiomiopatia ipertrofica, 18 con cardiomiopatia dilatativa e 2 con cardiomiopatia restrittiva con un’età media alla diagnosi di 4,5 mesi (range:0-24 mesi). Per i pazienti descritti a partire dal 2002, 23 in totale, sono state eseguite le seguenti indagini metaboliche: emogasanalisi, dosaggio della carnitina, metabolismo degli acidi grassi liberi (pre e post pasto), aminoacidemia quantitativa (pre e post pasto), acidi organici, mucopolisaccaridi ed oligosaccaridi urinari, acilcarnitine. Gli stessi pazienti sono stati inoltre sottoposti a prelievo bioptico di muscolo scheletrico per l’analisi ultrastrutturale, e per l’analisi dell’attività enzimatica della catena respiratoria mitocondriale. Nella stessa seduta veniva effettuata la biopsia cutanea per l’eventuale valutazione di deficit enzimatici nei fibroblasti. Risultati: l’età media alla diagnosi era di 132 giorni (range: 0-540 giorni) per le cardiomiopatie ipertrofiche, 90 giorni per le dilatative (range: 0-210 giorni) mentre le 2 bambine con cardiomiopatia restrittiva avevano 18 e 24 mesi al momento della diagnosi. Le indagini metaboliche eseguite sui 23 pazienti ci hanno permesso di individuare 5 bambini con malattia metabolica (di cui 2 deficit severi della catena respiratoria mitocondriale, 1 con insufficienza della β- ossidazione per alterazione delle acilcarnitine , 1 con sindrome di Barth e 1 con malattia di Pompe) e un caso di cardiomiopatia dilatativa associata a rachitismo carenziale. Di questi, 4 sono deceduti e uno è stato perduto al follow-up mentre la forma associata a rachitismo ha mostrato un netto miglioramento della funzionalità cardiaca dopo appropriata terapia con vitamina D e calcio. In tutti la malattia era stata diagnosticata entro l’anno di vita. Ciò concorda con gli studi documentati in letteratura che associano le malattie metaboliche ad un esordio precoce e ad una prognosi infausta. Da un punto di vista morfologico, un’evoluzione severa si associava alla forma dilatativa, ed in particolare a quella con aspetto non compaction del ventricolo sinistro, rispetto alla ipertrofica e, tra le ipertrofiche, alle forme con ostruzione all’efflusso ventricolare. Conclusioni: in accordo con quanto riscontrato in letteratura, abbiamo visto come le cardiomiopatie associate a forme secondarie, ed in particolare a disordini metabolici, sono di più frequente riscontro nella prima infanzia rispetto alle età successive e, per questo, l’esordio molto precoce di una cardiomiopatia deve essere sempre sospettata come l’espressione di una malattia sistemica. Abbiamo osservato, inoltre, una stretta correlazione tra l’età del bambino alla diagnosi e l’evoluzione della cardiomiopatia, registrando un peggioramento della prognosi in funzione della precocità della manifestazione clinica. In particolare la diagnosi eseguita in epoca prenatale si associava, nella maggior parte dei casi, ad un’evoluzione severa, comportandosi come una variabile indipendente da altri fattori prognostici. Riteniamo, quindi, opportuno sottoporre tutti i bambini con diagnosi di cardiomiopatia effettuata nei primi anni di vita ad uno screening metabolico completo volto ad individuare quelle forme per le quali sia possibile intraprendere una terapia specifica o, al contrario, escludere disordini che possano controindicare, o meno, l’esecuzione di un trapianto cardiaco qualora se ne presenti la necessità clinica.