1000 resultados para controlli automatici,neuroinegneria,sistema limbico umano,mano robotica,algoritmi di controllo
Resumo:
La forte espansione del mercato della mobilità elettrica degli ultimi anni ha portato sotto i riflettori nuove esigenze, tecnologie e problematiche per il Power Train di questi veicoli. L’attenzione all’affidabilità del motore elettrico è ormai al pari di quella verso prestazioni, efficienza e costi. Al fine di garantire una vita utile al motore congrua con quella del veicolo, che si attesta tra mediamente tra i 5 e i 10 anni, è necessario conoscere attentamente quali sono le criticità del sistema isolante (EIS) della macchina. All’interno di questo ambito, questa tesi si è concentrata sull’analisi dei diversi componenti che costituiscono l’EIS dello statore di un motore elettrico impiegato in una super car ibrida. Il primo passo è stato caratterizzare i sottocomponenti dello statore, a partire dai fili (Litz Wires) con cui sono realizzati i suoi avvolgimenti. I tempi di endurance dei fili sotto attività di scarica parziale (PD) nell'ordine dei minuti hanno dimostrato la necessità di operare in assenza di scariche. Per questo motivo è stato studiato l'andamento del PDIV sotto diverse forme d'onda e per provini invecchiati termicamente. Lo studio è stato poi esteso allo statore completo, sottoponendo l’EIS a cicli di invecchiamento, al fine di diagnosticare, attraverso prove elettriche, se le sue prestazioni restano accettabili per l’interezza della vita prevista dall’applicazione. In conclusione, sono state trattate le problematiche della qualifica dell’EIS completo di un motore elettrico. È stata proposta una soluzione per realizzare un sistema idoneo a sottoporre lo statore da invecchiare a stress elettrico e termico contemporaneamente. Gli studi effettuati in merito hanno dimostrato la fattibilità ed i benefici di questo sistema, permettendo di rispecchiare al meglio le condizioni di servizio della macchina, con l’obiettivo di perfezionare le attuali procedure di qualifica.
Resumo:
Il sistema terra è soggetto ad un aumento di temperatura causato in larga parte dall'intervento umano. Il riscaldamento nell'Artico avviene ad un velocità doppia rispetto a quella del resto del globo e induce lo scioglimento dei ghiacci polari oceanici e terrestri. Lo studio della variabilità meteorologica delle regioni polari e subpolari può aiutarci a comprendere il ruolo di eventi meteorologici estremi nel determinare forti variazioni di temperatura superficiale della calotta polare. Questo lavoro di tesi discute la fenomenologia degli eventi di blocco meteorologico, regime di circolazione anticiclonica persistente, nella troposfera delle alte latitudini ed il loro legame con estremi di temperatura superficiale nelle regioni artiche. Successivamente, una metodologia di analisi termodinamica per i suddetti è descritta ed applicata ad un caso studio descritto nella letteratura scientifica un blocco alle alte latitudini coincide con la propagazione di una perturbazione ciclonica dalle medie latitudini fino alla calotta artica. Questa particolare configurazione sinottica ha prodotto una variazione della temperatura della calotta artica di circa 7 K in 4 giorni. Sulla base dell’analisi termodinamica è possibile evidenziare una combinazione di processi fisici, diabatici e adiabatici, che concorrono nel determinare il repentino riscaldamento dell’Artico. L’applicazione di simili metodologie su ulteriori casi studio potrebbe contribuire alla definizione di un paradigma dinamico per il fenomeno delle ondate di calore artiche.
Resumo:
Il neuroblastoma è un tumore solido pediatrico che si sviluppa nel sistema nervoso e risulta una significativa causa di morte infantile. Per avanzare nella conoscenza della sua patogenesi, l’ingegneria dei tessuti biologici, e più nello specifico la microfabbricazione dei biomateriali, ha favorito lo sviluppo di piattaforme microfluidiche utili per riprodurre il sistema neurovascolare umano. Piattaforme di questo tipo, chiamate chip, prevedono spesso l’utilizzo di idrogel. Nel mio elaborato viene presentato un lavoro recentemente pubblicato da Sokullu et al., nel quale gli autori presentano le prorietà del GelMA, un idrogel che mostra caratteristiche molto simili a quelle della matrice extracellulare naturale. Nel lavoro presentato, l’idrogel viene posto all’interno del microchip come base per la co-coltura di due linee cellulari umane, cellule di neuroblastoma e cellule endoteliali di vena ombelicale. Tramite test specifici si riscontra che il GelMA mostra appropriate proprietà biomeccaniche e determina nelle cellule in coltura una vitalità superiore all’80%. Il GelMA si rivela dunque una piattaforma utile per gli studi di colture cellulari 3D per lunghi periodi. Il lavoro analizzato prova inoltre che questa struttura permette di valutare eventi di invasione e migrazione di cellule tumorali suggerendo che il chip microfluidico possa essere impiegato per studi di ottimizzazione del dosaggio e delle modalità di somministrazione di farmaci chemioterapici.
Resumo:
Il presente elaborato descrive il percorso effettuato sulla macchina XTREMA, prodotta dalla divisione Life del gruppo IMA. Il progetto ha come fine il miglioramento delle prestazioni della macchina, quantificate principalmente in termini di accuratezza del prodotto dosato e di prodotti processati in un arco di tempo. Il Capitolo 1 fornisce un iniziale studio delle caratteristiche e del funzionamento della macchina, con successiva focalizzazione sul sistema di controllo peso. Con l’obiettivo di definire le prestazioni del sistema di controllo peso, nel Capitolo 2 è impostata una campagna sperimentale di test che permette di studiare lo stato attuale del sistema, identificando l’influenza dei vari parametri di funzionamento sulle perfomances, portando alla luce le criticità della macchina. Viene quindi analizzato il gruppo, individuando le cause delle problematiche e identificando su quali campi agire per incrementare velocità di funzionamento e accuratezza del sistema. All’interno del Capitolo 3 entrambi i componenti del sistema di controllo peso, discensore e gruppo di bilance, sono quindi riprogettati per risolvere le criticità rilevate. Nel Capitolo 4 viene affrontato il montaggio del prototipo in una macchina dedicata alle prove, dove viene impostata una nuova campagna di test con l’obiettivo collaudare il sistema e validarne le prestazioni. Confrontando le prove si dimostrerà che il nuovo prototipo, oltre ad aumentare il numero di flaconi pesati al minuto, permette di risolvere le problematiche del precedente sistema, consentendo di ottenere un’accuratezza del controllo peso superiore a quanto riscontrato nella campagna iniziale di prove svolta inizialmente.
Resumo:
Nella sede dell’azienda ospitante Alexide, si è ravvisata la mancanza di un sistema di controllo automatico da remoto dell’intero impianto di climatizzazione HVAC (Heating, Ventilation and Air Conditioning) utilizzato, e la soluzione migliore è risultata quella di attuare un processo di trasformazione della struttura in uno smart building. Ho quindi eseguito questa procedura di trasformazione digitale progettando e sviluppando un sistema distribuito in grado di gestire una serie di dati provenienti in tempo reale da sensori ambientali. L’architettura del sistema progettato è stata sviluppata in C# su ambiente dotNET, dove sono stati collezionati i dati necessari per il funzionamento del modello di predizione. Nella fattispecie sono stati utilizzati i dati provenienti dall’HVAC, da un sensore di temperatura interna dell'edificio e dal fotovoltaico installato nella struttura. La comunicazione tra il sistema distribuito e l’entità dell’HVAC avviene mediante il canale di comunicazione ModBus, mentre per quanto riguarda i dati della temperatura interna e del fotovoltaico questi vengono collezionati da sensori che inviano le informazioni sfruttando un canale di comunicazione che utilizza il protocollo MQTT, e lo stesso viene utilizzato come principale metodo di comunicazione all’interno del sistema, appoggiandosi ad un broker di messaggistica con modello publish/subscribe. L'automatizzazione del sistema è dovuta anche all'utilizzo di un modello di predizione con lo scopo di predire in maniera quanto più accurata possibile la temperatura interna all'edificio delle ore future. Per quanto riguarda il modello di predizione da me implementato e integrato nel sistema la scelta è stata quella di ispirarmi ad un modello ideato da Google nel 2014 ovvero il Sequence to Sequence. Il modello sviluppato si struttura come un encoder-decoder che utilizza le RNN, in particolare le reti LSTM.
Resumo:
La seguente tesi è stata redatta con l’obbiettivo di implementare il piano di controllo della qualità dello stabilimento dell’azienda INALCA S.p.A, creando un HACCP specifico per il nuovo sistema di congelamento automatico della carne. In particolare, dopo un cenno storico al problema HACCP, si sono affrontati i principali aspetti del sistema HACCP, e dei regolamenti che ne conseguono per la sua creazione, attuazione e validazione. Obiettivo dell’azienda e del mio elaborato era quello di valutare la possibilità di congelare e raggiungere i -18°C al cuore in un tempo inferiore alle 24 ore, puntando alle 16 ore, per ottimizzare la fase di congelamento e velocizzare il processo per la futura vendita dei pallets di carne. A tal fine si è elaborato e successivamente validato il sistema di controllo che tiene conto di tutti gli aspetti generali, dall’entrata della materia prima e dalle sue caratteristiche intrinseche ed estrinseche, all’uscita del prodotto finito confezionato in pallet e trasferito in celle, congelato per il mantenimento della catena del freddo per poi essere spedite ai clienti. Si sono effettuate analisi di conferma per il corretto funzionamento e ottimizzazione dell’impianto medesimo, confrontando le tempistiche di congelamento nei diversi piani dell’impianto di congelamento automatico per il raggiungimento dei -18°C al cuore delle cassette contenenti polpa industriale, valore standard definito dall’azienda per la vendita e spedizione dei prodotti congelati.
Marine biotoxins in the Catalan littoral: could biosensors be integrated into monitoring programmes?
Resumo:
Aquest article descriu els sensors enzimàtics i immunosensors electroquímics que s’han desenvolupat als nostres grups per a la detecció de la biotoxina marina àcid okadaic (OA), i discuteix la possibilitat d’integrar-los en programes de seguiment. Els sensors enzimàtics per a OA que es presenten es basen en la inhibició de la proteïna fosfatasa (PP2A) per aquesta toxina i la mesura electroquímica de l’activitat enzimàtica mitjançant l’ús de substrats enzimàtics apropiats, electroquímicament actius després de la seva desfosforació per l’enzim. Els immunosensors electroquímics descrits en aquest article es basen en un enzimoimmunoassaig sobre fase sòlida competitiu indirecte (ciELISA), amb fosfatasa alcalina (ALP) o peroxidasa (HRP) com a marcatges, i un sistema de reciclatge enzimàtic amb diaforasa (DI). Els biosensors presentats aquí s’han aplicat a l’anàlisi de dinoflagel·lats, musclos i ostres. Les validacions preliminars amb assaigs colorimètrics i LC-MS/MS han demostrat la possibilitat d’utilitzar les bioeines desenvolupades per al cribratge preliminar de biotoxines marines en mostres de camp o de cultiu, que ofereixen informació complementària a la cromatografia. En conclusió, tot i que encara cal optimitzar alguns paràmetres experimentals, la integració dels biosensors a programes de seguiment és viable i podria proporcionar avantatges respecte a altres tècniques analítiques pel que fa al temps d’anàlisi, la simplicitat, la selectivitat, la sensibilitat, el fet de poder ser d’un sol ús i l’efectivitat de cost. This article describes the electrochemical enzyme sensors and immunosensors that have been developed by our groups for the detection of marine biotoxin okadaic acid (OA), and discusses the possibility of integrating them into monitoring programmes. The enzyme sensors for OA reported herein are based on the inhibition of immobilised protein phosphatase 2A (PP2A) by this toxin and the electrochemical measurement of the enzyme activity through the use of appropriate enzyme substrates, which are electrochemically active after dephosphorylation by the enzyme. The electrochemical immunosensors described in this article are based on a competitive indirect Enzyme- Linked ImmunoSorbent Assay (ciELISA), using alkaline phosphatase (ALP) or horseradish peroxidase (HRP) as labels, and an enzymatic recycling system with diaphorase (DI). The biosensors presented herein have been applied to the analysis of dinoflagellates, mussels and oysters. Preliminary validations with colorimetric assays and LC-MS/MS have demonstrated the possibility of using the developed biotools for the preliminary screening of marine biotoxins in field or cultured samples, offering complementary information to chromatography. In conclusion, although optimisation of some experimental parameters is still required, the integration of biosensors into monitoring programmes is viable and may provide advantages over other analytical techniques in terms of analysis time, simplicity, selectivity, sensitivity, disposability of electrodes and cost effectiveness.
Resumo:
Depois de 1991, as políticas de comunicação desenvolvidas em Cabo Verde estiveram assentes numa contrariedade entre os planos do discurso e os planos da acção: se a nível discursivo, a liberdade de imprensa foi encarada como o pilar das opções do regime, a nível das práticas da governação um conjunto de acções e inacções dificultaram a implementação de um ambiente de liberdade no seio dos profissionais da comunicação social. Desde logo, o processo de transição de regime empurrou os jornalistas e os actores políticos no poder para uma situação de colisão eminente, resultando numa acumulação de processos judiciais contra os profissionais da comunicação social; também, o monopólio público do sector da televisão, para além de provocar a desregulação do sector – com as autarquias a instalarem antenas parabólicas para satisfazer a população com conteúdos de canais internacionais –, dificultou o pluralismo de opinião, já que sobre a estação pública recaem críticas constantes que apontam para a intervenção dos governos na sua actuação; ainda, regista-se, entre 1991 e 2009, uma política de desinvestimento dos sucessivos governos no sector mediático, relegando-o para um plano secundário das opções de governação. Se, nos primeiros anos da democracia pluralista, houve um aumento significativo do investimento no sector da comunicação social, cedo verificou-se uma quebra do investimento, que não deu espaço aos media estatais para crescerem e contribuírem efectivamente na solidificação do sistema democrático. Na correlação das políticas de comunicação com a liberdade de imprensa, resultam duas fases no percurso de Cabo Verde: a) fase de insatisfação generalizada (sobretudo na década de 90), em que, a par da fraca qualidade dos produtos mediáticos disponibilizados aos cidadãos, os jornalistas e a classe política entraram em rota de colisão; a classe jornalística dividiu-se, passando a haver os considerados ‘jornalistas próximos do PAICV’ e ‘jornalistas próximos do MpD’ (devemos levar em consideração que o MpD e o PAICV são os dois únicos partidos políticos virtualmente ilegíveis na arena política caboverdiana). Assim, a conivência entre os profissionais da comunicação social e os actores políticos fez com que alguns jornalistas passassem a ser apelidados de ‘comissários políticos’; b) fase de satisfação conveniente ou precária: instalou-se depois dos períodos mais conturbados da transição política, sobretudo a partir do início do novo milénio, com a substituição do partido no poder e uma mudança de atitude dos governantes em relação às actividades da comunicação social. A mudança de regime levou a uma redefinição do posicionamento dos jornalistas face aos partidos políticos, passando a haver profissionais que trabalham mais alinhados com o governo e profissionais que trabalham mais alinhados com a oposição. Esta situação resultou de uma má concepção de democracia instalada em Cabo Verde em que os partidos políticos figuram como as únicas entidades que gozam efectivamente de uma liberdade de actuação. Associado aos partidos políticos, encontramos uma concentração de poderes: o poder político (através do escrutínio público), o poder económico (grande parte dos empresários cabo-verdianos nasceram no seio dos partidos políticos que estiveram no governo, o que faz com que haja uma certa politização da vida económica do país), o poder cultural (a maior parte dos intelectuais está associada aos partidos políticos que, quando estão no governo, subsidiam os seus projectos e a sua aspiração de realização pessoal e profissional) e o poder de influência social (quase todos os órgãos de comunicação social nacionais estão conotados com os partidos políticos e a fraca liquidez do mercado publicitário faz com que não haja empresas auto-sustentáveis no sector mediático). Todos esses condicionalismos sociológicos acabam por dificultar a implementação de um ambiente de liberdade no seio da comunicação social cabo-verdiana. Apesar de, hodiernamente não haver uma insatisfação generalizada como na década de 90, a aparente normalidade que se regista na relação entre a classe política e os jornalistas é assegurada por uma informação que evita provocar incómodo nos partidos aos quais os órgãos de comunicação social se encontram associados ou com os quais são conotados. Desta forma, a auto-censura torna-se num mecanismo inibidor da liberdade de imprensa. Assim, encontra-se um jornalismo que, por um lado, procura ser incisivo para o partido encarado como oposição e, por outro lado, é cómodo, domesticado e amorfo para o partido ao qual o órgão de comunicação social em causa se encontra vinculado. Neste caso, não sobram condições para falar-se na isenção das práticas jornalísticas, nem no rigor das mensagens que são difundidas no seio da sociedade. Notamos que as políticas de comunicação adoptadas em Cabo Verde, depois de 1991, não provocaram uma revolução nas práticas jornalísticas. Se antes, os jornalistas eram considerados de ‘comissários políticos’ por se entender que estavam vinculados ao Partido Único, depois da abertura de regime registou-se uma divisão da classe jornalística entre os dois partidos políticos com mais expressão na sociedade cabo-verdiana. Assim, a concepção jurídica da liberdade de imprensa revestiuse de uma formalidade que não encontrou correspondência nas práticas do dia-a-dia dos jornalistas e, desta forma, perdura uma distância entre a concepção jurídico-formal e a concepção jurídico-material da liberdade de imprensa. Muito caminho preciso de ser feito nesta matéria para que a comunicação social possa vir a ser a voz da sociedade
Resumo:
La pratique d’activité physique fait partie intégrante des recommandations médicales pour prévenir et traiter les maladies coronariennes. Suivant un programme d’entraînement structuré, serait-il possible d’améliorer la réponse à l’exercice tout en offrant une protection cardiaque au patient? C’est ce que semblent démontrer certaines études sur le préconditionnement ischémique (PCI) induit par un test d’effort maximal. Les mêmes mécanismes physiologiques induits par le PCI sont également observés lorsqu’un brassard est utilisé pour créer des cycles d’ischémie/reperfusion sur un muscle squelettique. Cette méthode est connue sous l’appellation : préconditionnement ischémique à distance (PCID). À l’autre extrémité du spectre de l’activité physique, des sportifs ont utilisé le PCDI durant leur échauffement afin d’améliorer leurs performances. C’est dans l’objectif d’étudier ces prémisses que se sont construits les projets de recherches suivants. La première étude porte sur les effets du PCID sur des efforts supra maximaux de courte durée. Les sujets (N=16) ont exécuté un test alactique (6 * 6 sec. supra maximales) suivi d’un test lactique (30 secondes supra maximales) sur ergocycle. Les sujets avaient été aléatoirement assignés à une intervention PCID ou à une intervention contrôle (CON) avant d’entreprendre les efforts. La procédure PCID consiste à effectuer quatre cycles d’ischémie de cinq minutes à l’aide d’un brassard insufflé à 50 mm Hg de plus que la pression artérielle systolique sur le bras. Les résultats de ce projet démontrent que l’intervention PCID n’a pas d’effets significatifs sur l’amélioration de performance provenant classiquement du « système anaérobie », malgré une légère hausse de la puissance maximal en faveur du PCID sur le test de Wingate de trente secondes (795 W vs 777 W) et sur le test de force-vitesse de six secondes (856 W vs 847 W). Le deuxième essai clinique avait pour objectif d’étudier les effets du PCID, selon la méthode élaborée dans le premier projet, lors d’un effort modéré de huit minutes (75 % du seuil ventilatoire) et un effort intense de huit minutes (115 % du seuil ventilatoire) sur les cinétiques de consommation d’oxygène. Nos résultats démontrent une accélération significative des cinétiques de consommation d’oxygène lors de l’intervention PCID par rapport au CON aux deux intensités d’effort (valeur de τ1 à effort modéré : 27,2 ± 4,6 secondes par rapport à 33,7 ± 6,2, p < 0,01 et intense : 29,9 ± 4,9 secondes par rapport à 33,5 ± 4,1, p < 0,001) chez les sportifs amateurs (N=15). Cela se traduit par une réduction du déficit d’oxygène en début d’effort et une atteinte plus rapide de l’état stable. Le troisième projet consistait à effectuer une revue systématique et une méta-analyse sur la thématique du préconditionnement ischémique (PCI) induit par un test d’effort chez les patients coronariens utilisant les variables provenant de l’électrocardiogramme et des paramètres d’un test d’effort. Notre recherche bibliographique a identifié 309 articles, dont 34 qui ont été inclus dans la méta-analyse, qui représente un lot de 1 053 patients. Nos analyses statistiques démontrent que dans un effort subséquent, les patients augmentent leur temps avant d’atteindre 1 mm de sous-décalage du segment ST de 91 secondes (p < 0,001); le sous-décalage maximal diminue de 0,38 mm (p < 0,01); le double produit à 1 mm de sous-décalage du segment ST augmente de 1,80 x 103 mm Hg (p < 0,001) et le temps total d’effort augmente de 50 secondes (p < 0,001). Nos projets de recherches ont favorisé l’avancement des connaissances en sciences de l’activité physique quant à l’utilisation d’un brassard comme stimulus au PCID avant un effort physique. Nous avons évalué l’effet du PCID sur différentes voies métaboliques à l’effort pour conclure que la méthode pourrait accélérer les cinétiques de consommation d’oxygène et ainsi réduire la plage du déficit d’oxygène. Nos découvertes apportent donc un éclaircissement quant à l’amélioration des performances de type contre-la-montre étudié par d’autres auteurs. De plus, nous avons établi des paramètres cliniques permettant d’évaluer le PCI induit par un test d’effort chez les patients coronariens.
Resumo:
Pós-graduação em Direito - FCHS
Resumo:
Pós-graduação em Direito - FCHS
Resumo:
Pós-graduação em Serviço Social - FCHS
Resumo:
Pós-graduação em Direito - FCHS
Resumo:
Durante il periodo di dottorato, l’attività di ricerca di cui mi sono occupato è stata finalizzata allo sviluppo di metodologie per la diagnostica e l’analisi delle prestazioni di un motore automobilistico. Un primo filone di ricerca è relativo allo sviluppo di strategie per l’identificazione delle mancate combustioni (misfires) in un motore a benzina. La sperimentazione si è svolta nella sala prove della Facoltà di Ingegneria dell’Università di Bologna, nei quali è presente un motore Fiat 1.200 Fire, accoppiato ad un freno a correnti parassite, e comandato da una centralina virtuale, creata mediante un modello Simulink, ed interfacciata al motore tramite una scheda di input/output dSpace. Per quanto riguarda la campagna sperimentale, sono stati realizzati delle prove al banco in diverse condizioni di funzionamento (sia stazionarie, che transitorie), durante le quali sono stati indotti dei misfires, sia singoli che multipli. Durante tali test sono stati registrati i segnali provenienti sia dalla ruota fonica usata per il controllo motore (che, nel caso in esame, era affacciata al volano), sia da quella collegata al freno a correnti parassite. Partendo da tali segnali, ed utilizzando un modello torsionale del sistema motoregiunto-freno, è possibile ottenere una stima sia della coppia motrice erogata dal motore, sia della coppia resistente dissipata dal freno. La prontezza di risposta di tali osservatori è tale da garantirci la possibilità di effettuare una diagnosi misfire. In particolare, si è visto che l’indice meglio correlato ala mancata combustione risultaessere la differenza fra la coppia motrice e la coppia resistente; tale indice risulta inoltre essere quello più semplice da calibrare sperimentalmente, in quanto non dipende dalle caratteristiche del giunto, ma solamente dalle inerzie del sistema. Una seconda attività della quale mi sono occupato è relativa alla stima della coppia indicata in un motore diesel automobilistico. A tale scopo, è stata realizzata una campagna sperimentale presso i laboratori della Magneti Marelli Powertrain (Bologna), nella quale sono state effettuati test in molteplici punti motori, sia in condizioni di funzionamento “nominale”, sia variando artificiosamente alcuni dei fattori di controllo (quali Start of Injection, pressione nel rail e, nei punti ove è stato possibile, tasso di EGR e pressione di sovralimentazione), sia effettuando degli sbilanciamenti di combustibile fra un cilindro e l’altro. Utilizzando il solo segnale proveniente da una ruota fonica posta sul lato motore, e sfruttando un modello torsionale simile a quello utilizzato nella campagna di prove relativa alla diagnosi del misfire, è possibile correlare la componente armonica con frequenza di combustione della velocità all’armonica di pari ordine della coppia indicata; una volta stimata tale componente in frequenza, mediante un’analisi di tipo statistico, è possibile eseguire una stima della coppia indicata erogata dal motore. A completamento dell’algoritmo, sfruttando l’analisi delle altre componenti armoniche presenti nel segnale, è possibile avere una stima dello sbilanciamento di coppia fra i vari cilindri. Per la verifica dei risultati ottenuti, sono stati acquisiti i segnali di pressione provenienti da tutti e quattro i cilindri del motore in esame.
Resumo:
L’obiettivo della tesi riguarda l’utilizzo di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione. Le tematiche affrontate hanno riguardato, da una parte, l’aspetto fotogrammetrico, mediante recupero, digitalizzazione ed elaborazione di immagini aeree storiche di varie epoche, e, dall’altra, l’aspetto legato all’uso del telerilevamento per la classificazione delle coperture al suolo. Nel capitolo 1 viene fatta una breve introduzione sullo sviluppo delle nuove tecnologie di rilievo con un approfondimento delle applicazioni forestali; nel secondo capitolo è affrontata la tematica legata all’acquisizione dei dati telerilevati e fotogrammetrici con una breve descrizione delle caratteristiche e grandezze principali; il terzo capitolo tratta i processi di elaborazione e classificazione delle immagini per l’estrazione delle informazioni significative. Nei tre capitoli seguenti vengono mostrati tre casi di applicazioni di fotogrammetria e telerilevamento nello studio di ecosistemi forestali. Il primo caso (capitolo 4) riguarda l’area del gruppo montuoso del Prado- Cusna, sui cui è stata compiuta un’analisi multitemporale dell’evoluzione del limite altitudinale degli alberi nell’arco degli ultimi cinquant’anni. E’ stata affrontata ed analizzata la procedura per il recupero delle prese aeree storiche, definibile mediante una serie di successive operazioni, a partire dalla digitalizzazione dei fotogrammi, continuando con la determinazione di punti di controllo noti a terra per l’orientamento delle immagini, per finire con l’ortorettifica e mosaicatura delle stesse, con l’ausilio di un Modello Digitale del Terreno (DTM). Tutto ciò ha permesso il confronto di tali dati con immagini digitali più recenti al fine di individuare eventuali cambiamenti avvenuti nell’arco di tempo intercorso. Nel secondo caso (capitolo 5) si è definita per lo studio della zona del gruppo del monte Giovo una procedura di classificazione per l’estrazione delle coperture vegetative e per l’aggiornamento della cartografia esistente – in questo caso la carta della vegetazione. In particolare si è cercato di classificare la vegetazione soprasilvatica, dominata da brughiere a mirtilli e praterie con prevalenza di quelle secondarie a nardo e brachipodio. In alcune aree sono inoltre presenti comunità che colonizzano accumuli detritici stabilizzati e le rupi arenacee. A questo scopo, oltre alle immagini aeree (Volo IT2000) sono state usate anche immagini satellitari ASTER e altri dati ancillari (DTM e derivati), ed è stato applicato un sistema di classificazione delle coperture di tipo objectbased. Si è cercato di definire i migliori parametri per la segmentazione e il numero migliore di sample per la classificazione. Da una parte, è stata fatta una classificazione supervisionata della vegetazione a partire da pochi sample di riferimento, dall’altra si è voluto testare tale metodo per la definizione di una procedura di aggiornamento automatico della cartografia esistente. Nel terzo caso (capitolo 6), sempre nella zona del gruppo del monte Giovo, è stato fatto un confronto fra la timberline estratta mediante segmentazione ad oggetti ed il risultato di rilievi GPS a terra appositamente effettuati. L’obiettivo è la definizione del limite altitudinale del bosco e l’individuazione di gruppi di alberi isolati al di sopra di esso mediante procedure di segmentazione e classificazione object-based di ortofoto aeree in formato digitale e la verifica sul campo in alcune zone campione dei risultati, mediante creazione di profili GPS del limite del bosco e determinazione delle coordinate dei gruppi di alberi isolati. I risultati finali del lavoro hanno messo in luce come le moderne tecniche di analisi di immagini sono ormai mature per consentire il raggiungimento degli obiettivi prefissi nelle tre applicazioni considerate, pur essendo in ogni caso necessaria una attenta validazione dei dati ed un intervento dell’operatore in diversi momenti del processo. In particolare, le operazioni di segmentazione delle immagini per l’estrazione di feature significative hanno dimostrato grandi potenzialità in tutti e tre i casi. Un software ad “oggetti” semplifica l’implementazione dei risultati della classificazione in un ambiente GIS, offrendo la possibilità, ad esempio, di esportare in formato vettoriale gli oggetti classificati. Inoltre dà la possibilità di utilizzare contemporaneamente, in un unico ambiente, più sorgenti di informazione quali foto aeree, immagini satellitari, DTM e derivati. Le procedure automatiche per l’estrazione della timberline e dei gruppi di alberi isolati e per la classificazione delle coperture sono oggetto di un continuo sviluppo al fine di migliorarne le prestazioni; allo stato attuale esse non devono essere considerate una soluzione ottimale autonoma ma uno strumento per impostare e semplificare l’intervento da parte dello specialista in fotointerpretazione.